• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "벡터"에 대한 통합 검색 내용이 404개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
매스웍스, '매트랩 엑스포 2025 코리아’ 개최
매스웍스가 4월 8일 ‘매트랩 엑스포 2025 코리아(MATLAB EXPO 2025 Korea)’를 코엑스 그랜드 볼룸 및 아셈볼룸에서 개최한다고 밝혔다. 매트랩 엑스포는 매스웍스 설루션 사용 고객과 기술 전문가들이 과학 및 엔지니어링 분야의 최신 트렌드와 성공 사례를 공유하는 연례 행사다. 이번 매트랩 엑스포의 기조연설에서는 한화로보틱스 정병찬 대표이사가 ‘로봇, 혁신으로 일상과 산업을 재창조하다’를 주제로, 매스웍스의 아비 네헤미아(Avi Nehemiah) 설계 자동화 소프트웨어 부문 총괄 디렉터가 ‘소프트웨어 정의 제품이 가져올 혁신’을 주제로 발표를 진행한다. 이어서, 알고리즘 개발 및 AI, 전동화, 모델 기반 설계, AI 응용 엔지니어링, 모빌리티, 무선 및 위성 등 6개 트랙의 36개의 기술 세션에 전문 연사가 참여해 매스웍스 제품군의 신기능과 고객 성공 사례를 발표한다. 기술 세션에는 삼성전자, 현대자동차, SK텔레콤, 한국전력연구원 등 국내 첨단 기술 기업이 참가해 각 산업군에서 적용 중인 매트랩(MATLAB) 및 시뮬링크(Simulink)의 활용 방안을 소개할 예정이다. 삼성전자의 한상민 수석은 ‘매트랩을 활용한 오픈 무선 장치(RU) 테스트 플랫폼 구축 방법’을 소개하며, 현대자동차의 우민수 글로벌 R&D 마스터와 SK텔레콤의 김장면 매니저는 각각 자동차 성능 예측 및 분석 시스템과 인공지능 기반 위성 통신 최적화 기술에 대해 발표한다.     한편, 이번 행사에는 벡터코리아, 이노엑스, 위드비어, 모라이, NI, 백호프, 알테라, 팝콘사, PTC 등 매스웍스의 파트너사가 참여해 기술 데모 부스를 운영할 예정이며, 세션에서 소개된 매스웍스 설루션의 신기능을 직접 체험할 수 있는 9개의 데모 부스도 운영된다. 데모가 진행되는 전시 공간에서는 다양한 산업군에 적용할 수 있는 모델 기반 설계(MBD)와 인더스트리 트렌드를 반영한 AI 관련 기술, 그리고 전동화와 무선에 관한 최신 기술이 중점적으로 선보이게 된다. 특히 올해는 국내 대학에서 이공계열 학생들을 가르치는 교수 및 강사를 대상으로 매트랩, 시뮬링크, 심스케이프(Simscape)를 활용한 시각화 및 상호작용 기반 엔지니어링 교육 세션이 마련된다. 이 세션에서는 학생들이 질량, 운동량, 에너지 보존과 같은 핵심 공학 원리를 넘어 전체 시스템을 이해하고 설계할 수 있는 시스템 레벨 역량을 키울 수 있도록 풍부한 시각화와 상호작용 경험을 제공하는 방법을 소개한다. 또한 매스웍스 설루션을 교육 현장에 도입해 학생들의 실무 역량을 성공적으로 향상시킨 사례도 함께 소개될 예정이다. 매스웍스코리아의 이종민 대표는 “매트랩 엑스포는 지난 수 년간 국내 공학 시스템 관련한 엔지니어, 과학자, 연구원, 교육자들이 기술 동향과 연구 성과를 나누고 교류하는 대표적인 행사로 자리매김했다”면서, “이번 행사에서 매스웍스가 엄선한 세계 유수 기업의 기술 전문가 발표와 다양한 체험형 데모를 통해 참가자들이 매트랩과 시뮬링크를 활용한 혁신적인 연구 방안을 발견하는 의미 있는 자리가 되길 바란다”고 말했다.
작성일 : 2025-03-11
벡터, 소프트웨어 정의 차량 개발 속도 높이는 SDV 2.0 발표
벡터코리아는 차세대 SDV 개발을 위한 플랫폼을 뜻하는 SDV 2.0인 ‘벡터 소프트웨어 팩토리(Vector Software Factory)’를 공개했다. SDV 2.0은 차량 소프트웨어의 개발, 통합, 배포 및 운영을 위한 새로운 표준을 확립하며, 자동차 제조사와 부품 공급업체가 소프트웨어 중심의 차량 개발 환경에서 경쟁력을 확보할 수 있도록 지원한다. 벡터 소프트웨어 팩토리(Vector Software Factory)는 HPC(고성능 컴퓨팅) 및 Zonal E/E 아키텍처(중앙 집중화로 제어 구조 간소화)를 기반으로 구축됐으며, 확장 가능하고 모듈형 구조를 갖춘 베이스 레이어(Base Layer)를 제공한다. 이를 통해 ADAS(첨단 운전자 지원 시스템), IVI(차량 인포테인먼트), 차량 제어 시스템 등과 연동되며, API 기반 데이터 교환 기능을 통해 시스템 간 호환성을 제공한다. 또한, 클라우드 네이티브 환경에서 소프트웨어 개발이 가능하도록 지원해, 개발자는 자동 코드 생성 및 라이브러리 구축 기능을 활용해 빠르고 효율적인 개발이 가능하다. 이를 통해 차량 소프트웨어의 개발 주기를 단축하고, 신속한 기능 구현이 가능해진다. 배포된 소프트웨어는 SDV Cloud를 통해 실시간 신호 모니터링 및 데이터 분석이 가능하다. 이를 활용하면 소프트웨어 업데이트가 차량 성능에 미치는 영향을 지속적으로 평가하고, 향후 개선 방향을 도출할 수 있다.     벡터는 SDV(Software-Defined Vehicle, 소프트웨어 정의 차량) 기반 E/E 아키텍처의 변화에 대응하여, 영역별 제어 로직을 통합하고 서비스 및 시그널을 효율적으로 라우팅하는 Zone 제어기 개발을 위한 SDK를 제공한다. 이 SDK는 여러 애플리케이션 공급사가 동일한 Zone 제어기 내에서 동작하는 소프트웨어를 일관된 환경에서 개발·배포할 수 있도록 지원한다. 특히, 오토사(AUTOSAR) 확장 모듈인 SWCluC와 MCU 기반 하이퍼바이저를 포함한 개발 환경과 서비스를 제공함으로써, 제어기 개발사가 시스템 아키텍처와의 원활한 통합을 실현할 수 있도록 명확한 가이드를 제시한다. 이를 통해, 개발사는 하드웨어 및 플랫폼 통합에 대한 부담을 줄이고, 애플리케이션 개발에 집중할 수 있는 최적의 환경을 확보할 수 있다. 벡터 소프트웨어 팩토리는 HIL(Hardware-in-the-Loop) 및 SIL(Software-in-the-Loop) 기반의 가상 검증 및 테스트 환경을 제공해, 소프트웨어의 안정성을 사전에 확보할 수 있도록 한다. 이를 통해 개발 초기 단계에서 발생할 수 있는 버그 및 오류를 최소화하고, 비용 절감과 함께 전체 개발 프로세스의 효율성을 높일 수 있다. 또한 고객은 벡터가 제공하는 단일 플랫폼에서 모든 구동 환경 시나리오를 시뮬레이션할 수 있어, 차량을 최신 상태로 유지하는 동시에 다양한 서비스를 지원받을 수 있다. 벡터코리아는 SDV 중심으로 변화하는 자동차 산업 환경에서, 소프트웨어 개발의 새로운 표준을 제시하고 있다. 벡터 소프트웨어 팩토리는 차량 소프트웨어 개발 속도를 극대화하고 품질을 강화하는 것은 물론, 기업이 보다 신속하고 안정적으로 혁신적인 기능을 구현할 수 있도록 지원하는 것을 목표로 한다. 벡터코리아의 이재수 SDV & Embedded 설루션 사업부장은 “자동차 산업이 빠르게 소프트웨어 중심으로 변화하면서, 효율적이고 유연한 소프트웨어 개발 및 배포 환경이 필수”라면서, “벡터 소프트웨어 팩토리는 개발자와 자동차 제조사가 직면한 다양한 과제를 해결하고, SDV 시대를 선도할 강력한 설루션이 될 것”이라고 밝혔다.
작성일 : 2025-02-25
스노우플레이크, 거버넌스 준수하고 정확도 높인 AI 에이전트 ‘코텍스 에이전트’ 출시
스노우플레이크가 정형 혹은 비정형 데이터에 액세스해 자동으로 업무를 실행하는 AI 에이전트인 ‘코텍스 에이전트(Cortex Agents)’를 출시했다. 이를 통해 기업은 데이터 전문가 없이도 데이터를 검색, 분석해 엔터프라이즈 데이터를 더욱 효과적으로 관리할 수 있게 되었다. 코텍스 에이전트는 퍼블릭 프리뷰로 제공되며, 코텍스 애널리스트(Cortex Analyst)와 코텍스 서치(Cortex Search) 기능을 강화해 자동으로 데이터를 통합, 검색하고, 복잡한 쿼리를 분석해 정확한 답변을 생성한다. 이 과정에서 기업들은 정확성, 효율성 및 거버넌스를 실현할 수 있다, 코텍스 애널리스트는 정형화된 SQL 데이터를 분석하며, 앤스로픽(Anthropic)의 클로드 3.5 소넷(Claude 3.5 Sonnet)을 활용해 텍스트를 SQL로 변환하는 데 정확도를 높였다. 사용자가 자연어로 데이터를 조회하고 인사이트를 도출할 수 있으며 복잡한 추론, 코드 생성, 멀티모달 데이터 분석을 수행할 수 있는 엔터프라이즈급 AI 기능을 제공한다. 코텍스 서치는 텍스트, 오디오, 이미지, 비디오 등 비정형 데이터의 검색 정확도를 높인다. 스노우플레이크는 “오픈AI 임베딩 모델 대비 최소 11% 높은 정확도를 기록하며 다양한 벤치마크 테스트에서 우수한 성능을 입증했다”고 밝혔으며, 이 외에도 대규모 데이터 인덱싱, 맞춤형 벡터 임베딩 모델 선택 기능이 추가됐다.     정확한 데이터 분석, 보안 유지 및 거버넌스 준수는 AI 에이전트가 기업 환경에서 효과적으로 확장되기 위한 필수 요소다. 코텍스 에이전트는 다양한 데이터 소스를 검색하고, 보안 정책을 준수하며 신뢰할 수 있는 결과를 제공하도록 설계됐다. 배포 이후에도 성능과 동작을 지속적으로 모니터링하고 개선할 수 있어, 기업이 AI 에이전트를 안전하게 확장하면서 보안과 컴플라이언스를 유지할 수 있도록 돕는다. 예를 들어, 재무 분석가는 정형 데이터인 수익 데이터와 비정형 데이터인 재무 보고서 및 시장 데이터와 결합해야 하는 경우가 많다. 엔드 투 엔드 거버넌스를 통해 안전하게 AI에 정보를 제공하는 것이 필요한데, 이 때 코텍스 에이전트를 활용하면 된다. 코텍스 에이전트는 두 데이터 소스의 통합, 검색 및 처리를 단순하게 해 기업들은 쉽게 대규모로 고품질 에이전트를 구축할 수 있도록 지원한다.  스노우플레이크의 크리스티안 클레이너만(Christian Kleinerman) 제품 담당 수석 부사장은 “AI 전략은 데이터 전략 없이는 존재할 수 없다”면서, “많은 고객이 AI 가치를 극대화하기 위해 데이터를 체계적으로 관리하고 거버넌스를 구축하는데 어려움을 겪고 있다. 스노우플레이크는 코텍스 에이전트를 통해 고객들이 데이터 전문가가 아니더라도 더욱 쉽게 데이터를 관리하고 실질적인 성과를 얻을 수 있도록 지원하고 있다”고 강조했다.
작성일 : 2025-02-21
어도비, 파이어플라이 앱에 영상 만드는 AI 모델 탑재
어도비가 ‘파이어플라이 비디오 모델(Firefly Video Model)’의 공개 베타 버전과 함께 이미지, 벡터 및 영상을 생성할 수 있는 새로운 ‘파이어플라이 앱(Adobe Firefly application)’을 출시했다. 파이어플라이 앱은 크리에이티브 제어와 멀티 모달 워크플로, 크리에이티브 클라우드 애플리케이션과의 통합을 통해 사용자가 아이디어 구상부터 바로 사용 가능한 단계의 제작물을 생성할 수 있도록 지원하는 전문가용 올인원 툴이다. 상업적으로 안전한 AI 비디오 생성 모델인 파이어플라이 비디오 모델은 파이어플라이 앱의 비디오 생성(Generate Video, 베타)과 어도비 프리미어 프로(Adobe Premiere Pro)의 생성형 확장(Generative Extend, 베타)을 지원하며 바로 사용 가능한 영상 콘텐츠를 생성할 수 있다. 이번엔 공개된 파이어플라이 비디오 모델은 전 세계적으로 180억 개 이상의 에셋 생성에 사용된 크리에이티브 생성형 AI 모델군인 파이어플라이(Adobe Firefly)의 최신 모델이다. 이와 함께 어도비는 파이어플라이의 프리미엄 영상 및 오디오 기능을 이용할 수 있는 파이어플라이 스탠다드(Firefly Standard) 및 파이어플라이 프로(Firefly Pro) 구독 플랜을 새롭게 선보인다. 모든 파이어플라이 구독 플랜은 사용자가 필요에 따라 선택할 수 있도록 파이어플라이 이미징 및 벡터 기능에 대한 무제한 액세스와 프리미엄 영상 및 오디오 기능에 대한 단계별 용량을 제공한다. 사용자는 파이어플라이의 다양한 역량을 통해 이미지를 생성 및 편집하고 영상으로 전환하며, 영화 같은 움직임을 더한 후 어도비 크리에이티브 클라우드 앱으로 이동, 아이디어 구상부터 제작까지 매끄럽게 작업할 수 있다. 크리에이티브 전문가는 웹용 포토샵(Photoshop on the web), 프리미어 프로, 어도비 익스프레스(Adobe Express) 등 어도비의 크리에이티브 앱을 사용해 작업물을 다듬거나, 포토샵의 생성형 채우기(Generative Fill), 라이트룸(Lightroom)의 생성형 제거(Generative Remove)와 같은 파이어플라이 구동 기능을 비디오 모델과 함께 사용할 수 있다.     파이어플라이 비디오 모델로 구동되는 비디오 생성은 현재 베타 단계이다. 크리에이티브 전문가가 텍스트 프롬프트나 이미지로 영상 클립을 생성하고, 카메라 각도를 조정해 장면을 제어하거나 3D 스케치로 전문가급 이미지를 만들며, 분위기 있는 요소와 맞춤형 모션 디자인 등을 제작할 수 있는 툴을 제공한다. 현재 1080p 해상도를 지원하는 이 모델은 신속한 반복 작업을 위한 저해상도 아이디어 구상 모델과 전문가 수준의 작업을 위한 4K 모델으로도 출시될 예정이다.  파이어플라이 앱은 크리에이티브 전문가가 아이디어 구상부터 제작까지 뛰어난 작품을 선보일 수 있는 전문가급 제어를 제공한다. 새로워진 파이어플라이 웹 앱에서는 원하는 스타일과 구조 참조 이미지로 3D 작품을 생성하고, 전문적인 카메라 각도로 완벽한 장면을 연출하며, 실제 음성은 유지하면서 오디오와 영상을 여러 언어로 번역할 수 있다. 또한 포토샵, 프리미어 프로, 어도비 익스프레스 등 어도비 크리에이티브 클라우드 앱과 통합되며, 상업적으로 안전하게 사용할 수 있는 파이어플라이로 안심하고 콘텐츠를 제작할 수 있도록 한다. 파이어플라이는 고품질 이미지 생성 외에도 전문적인 카메라 각도 및 위치 선정, 풍부한 디테일과 정확성, 참조 이미지 스타일 구조에 맞는 이미지, 영상, 3D 결과물 등 고도의 크리에이티브 제어를 제공한다.  얼리 액세스로 제공되는 새로운 파이어플라이 스탠다드 및 파이어플라이 프로 구독 플랜을 통해 사용자는 파이어플라이의 이미징 및 벡터 기능을 무제한으로 이용하고, 플랜에 따라 영상 및 오디오 기능을 사용할 수 있다. 파이어플라이 스탠다드 플랜은 월 1만 3200원(부가세 포함)에 5초 분량의 1080p 영상을 최대 20건 생성할 수 있는 2000 건의 영상 및 오디오 크레딧을 제공하며, 파이어플라이 프로 플랜은 월 3만 9600원(부가세 포함)에 5초 분량의 1080p 영상을 최대 70건 생성할 수 있는 7000 건의 영상 및 오디오 크레딧을 제공한다. 정기적으로 영상 콘텐츠를 생성하는 전문가를 위한 새로운 파이어플라이 프리미엄(Firefly Premium) 플랜은 조만간 선보일 예정이다. 어도비의 데이비드 와드와니(David Wadhwani) 디지털 미디어 사업부문 사장은 “파이어플라이는 아이디어 구상 및 제작 과정에서 안전하고 효과적으로 사용할 수 있는 고도의 크리에이티브 제어가 필요한 크리에이티브 전문가를 위해 설계됐다”면서, “파이어플라이 비디오 모델이 콘셉트를 구상하고 훌륭한 영상을 제작하는 데 획기적이라는 베타 버전 고객의 반응은 매우 고무적이다. 크리에이티브 커뮤니티가 앞으로 파이어플라이를 통해 자신의 이야기를 전 세계에 어떻게 전해 나갈지 기대된다”고 말했다.
작성일 : 2025-02-13
[포커스] 오라클, 엑사데이터 X11M 통해 AI 시대의 DB 성능 기준 제시
오라클이 최신 데이터베이스 플랫폼인 ‘엑사데이터 X11M(Oracle Exadata X11M)’을 공개하며 데이터 중심 워크로드에서 성능과 효율성을 극대화하는 설루션을 선보였다. 이번 발표는 엑사데이터의 13번째 세대에 해당하며, AI 분석, OLTP(온라인 트랜잭션 처리), 대규모 애널리틱스 등 다양한 기업 데이터베이스 애플리케이션에서 향상된 성능과 확장성을 이전 세대와 동일한 가격으로 제공하는 것이 특징이다. ■ 정수진 편집장   데이터에 최적화된 하드웨어와 혁신 소프트웨어의 결합 엑사데이터 X11M은 데이터베이스 워크로드를 위해 최적화된 하드웨어와 데이터 지능형 소프트웨어를 결합한 플랫폼이다. 오라클은 엑사데이터 X11M이 고성능과 효율을 동시에 제공할 수 있는 아키텍처로 개발됐다는 점을 내세운다. 이번 신제품은 데이터베이스 서버, 네트워크, 스토리지에 걸쳐 데이터에 최적화된 하드웨어 구성을 제공한다. 데이터베이스 서버는 수평 확장이 가능한 2소켓 서버로, 96코어의 최신 AMD 에픽(EPYC) 프로세서와 최신의 고속 메모리를 결합했다. 엑사데이터 X11M에 탑재된 100Gb/s의 RDMA(Remote Direct Memory Access) 네트워크는 데이터 서버와 스토리지 서버를 연결하는 초고속/저지연성 네트워크로 구성됐다. 스토리지 서버도 강화됐는데, 최신/초고속의 플래시 스토리지와 엑사데이터 RDMA 메모리 및 에픽 프로세서를 탑재했다. 오라클의 아쉬시 레이(Ashish Ray) 미션 크리티컬 데이터베이스 기술 부문 부사장은 “오라클의 독창적인 데이터 인텔리전트 소프트웨어는 하드웨어 성능을 최적화하면서 압도적인 성능을 제공할 수 있도록 기여한다”면서, 오라클 데이터베이스가 제공할 수 있는 세 가지 주요 워크로드인 AI 검색, OLTP, 데이터 분석 등에서 향상된 성능을 제공한다고 소개했다.     벡터 검색 기술로 AI 워크로드 성능 강화 엑사데이터 X11M은 AI 중심의 기업 데이터베이스 워크로드를 처리하는 데 있어 특히 강점을 보인다. AI 벡터 검색 기술은 정형 데이터와 비정형 데이터를 하나의 데이터베이스에 통합하고 검색 및 처리하는 데 최적화되어 있으며, 이를 통해 다른 플랫폼 대비 더욱 빠른 AI 쿼리 처리 속도를 제공한다. 레이 부사장은 “영구 벡터 인덱스(IVF) 검색 속도는 최대 55%, 인메모리 벡터 인덱스 쿼리(HNSW)는 최대 43% 더 빨라졌으며, 모든 엑사데이터 플랫폼에서 제공되는 새로운 소프트웨어 최적화 기능은 스토리지 서버에서 4.7배 향상된 데이터 필터링과 32배 빨라진 바이너리 벡터 검색을 통해 AI 검색 성능을 강화했다”면서, “이를 통해 기업은 더 많은 비즈니스 데이터를 결합하여 정교한 벡터 검색을 더욱 빠르게 수행할 수 있으며, 생성형 AI 모델의 정확성과 안정성을 향상시키는 동시에 전체 비용을 절감할 수 있다”고 설명했다.   OLTP와 애널리틱스에서의 향상된 성능 엑사데이터 X11M은 OLTP 및 데이터 분석 워크로드에서도 향상된 성능을 제공한다. 오라클에 따르면, OLTP의 경우 직렬 트랜잭션 처리 속도가 25%, 동시 처리량이 최대 25% 개선됐으며, SQL 8K I/O 읽기 지연시간이 최대 21% 감소하여 14마이크로초(us)로 단축됐다. “이런 성능 개선은 기업이 더 많은 트랜잭션을 보다 적은 데이터베이스 시스템으로 더 빠르게 처리하며 비용을 절감할 수 있다는 뜻”이라고 레이 부사장은 덧붙였다. 애널리틱스 영역에서는 분석 쿼리 처리 속도가 최대 25% 빨라지고, 스토리지 서버에서 분석 I/O(입출력) 속도가 최대 2.2배 향상되었으며, 데이터베이스 인메모리 스캔 속도가 최대 500GB/초 증가했다. 오라클은 대규모 데이터 처리에 최적화된 독자 기술을 통해 기업이 트랜잭션 데이터를 실시간으로 분석하고, 테라바이트에서 페타바이트에 이르는 규모의 데이터 웨어하우스를 보다 빠르게 스캔하여 중요한 비즈니스 인사이트를 확보할 수 있다고 전했다.   운영 효율과 비용 절감 지원 엑사데이터 X11M은 운영 효율을 높여 고객의 비용을 절감할 수 있도록 했다. 무엇보다 성능이 높아져서 더 적은 수의 시스템에서 데이터베이스 워크로드를 실행함으로써 인프라와 전력 및 냉각, 데이터센터 공간을 줄일 수 있다. 그리고, 더 많은 워크로드를 더 작은 규모의 시스템에 통합할 수 있어 활용 효율을 높인다. 엑사데이터 X11M에 내장된 지능형 전력 관리 기능은 사용하지 않는 CPU 코어를 비활성화하거나 전력 소비를 제한하고, 사용량이 적은 기간 동안 전력 활용을 최적화한다. 또한, 오라클 자율운영 데이터베이스(Oracle Autonomous Database)에 내장된 자동화 기능은 수동 데이터베이스 관리 작업과 인적 오류 발생의 가능성을 제거할 수 있다. 한편, 오라클은 엑사데이터 X11M이 멀티 클라우드 지원을 강화해 고객의 배포 선택권을 넓힌다고 설명했다. 엑사데이터 X11M은 온프레미스, 하이브리드 클라우드(엑사데이터 클라우드앳커스터머), 퍼블릭 클라우드(OCI)를 모두 지원한다. 또한 구글 클라우드, AWS, 마이크로소프트 애저와 같은 멀티 클라우드 환경에서도 구축 및 운영이 가능하다. 레이 부사장은 “오라클 데이터베이스는 모든 배포 환경에서 100% 호환되기 때문에, 기업은 애플리케이션 변경 없이 필요한 곳 어디에서나 워크로드를 실행할 수 있다”고 덧붙였다.   ▲ 엑사데이터 X11M의 혁신을 소개한 오라클 아쉬시 레이 부사장   AI 시대를 위한 클라우드 데이터베이스 제시 오라클은 엑사데이터 X11M을 통해 클라우드 데이터베이스 시장에서 입지를 더욱 강화할 계획이다. 레이 부사장은 “오라클은 2008년 첫 출시 이후 하드웨어와 소프트웨어 모두에 걸쳐 엑사데이터의 데이터 인텔리전스 성능 및 효율을 혁신해 왔다. 엑사데이터 X11M은 성능 개선의 전통을 이어가면서 가격을 동일하게 유지함으로써, 고객은 가격 대비 성능의 향상 폭을 체감할 수 있을 것”이라고 전했다. 오라클은 기존 엑사데이터 고객이 다운타임 없이 X11M으로 업그레이드할 수 있으며, 애플리케이션 수정이 필요하지 않기 때문에 전환 과정에서의 부담을 최소화할 수 있다고 전했다. 오라클은 클라우드 기반의 엑사데이터 서비스를 통해 고객이 새로운 성능과 확장성을 체험하고 데이터 현대화 여정을 이어갈 수 있도록 지원할 예정이다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-02-04
오라클, 가트너 매직 쿼드런트에서 클라우드 DB 관리 시스템 부문 리더로 선정
오라클이 ‘2024 가트너 매직 쿼드런트 클라우드 데이터베이스 관리 시스템 부문’ 리더로 선정되었다고 밝혔다. 오라클의 컨버지드 데이터베이스 아키텍처는 다양한 데이터 및 애플리케이션 개발 모델에서 엔터프라이즈 데이터 및 AI 워크로드를 활용할 수 있도록 지원한다. 오라클은 자사의 데이터베이스 서비스가 ▲오라클 자율운영 데이터베이스(Oracle Autonomous Database) ▲ 유연한 인터클라우드 및 멀티클라우드 배포 옵션 ▲지속적인 혁신음과 같은 요소를 통해 클라우드-레디 비즈니스 설루션을 지원한다고 소개했다. 오라클 자율운영 데이터베이스는 데이터 기반 애플리케이션 개발 간소화 및 운영 효율성 개선을 지원한다. 오라클 데이터베이스 및 오라클 엑사데이터(Oracle Exadata)에 내장된 자율운영 데이터베이스는 다양한 워크로드를 위해 설계된 자체 보안 및 자체 튜닝 클라우드 서비스로, 광범위한 기능 세트를 제공해 단일 데이터베이스 플랫폼 내에 최신 데이터 유형 전반을 수용 가능하게 한다. 오라클 데이터베이스는 워크로드의 유연한 클라우드 마이그레이션을 지원한다. 오라클 클라우드 인프라스트럭처(OCI)는 AWS(아마존웹서비스), 구글 클라우드, 마이크로소프트 애저 데이터센터에 물리적으로 배포되며, 데이터베이스와 애플리케이션 간 저지연성 네트워크 연결을 제공해 오라클 데이터베이스에서 엔터프라이즈 데이터에 손쉽게 연결할 수 있도록 한다. 또한, 오라클 데이터베이스 23ai(Oracle Database 23ai)는 빠르게 변화하는 비즈니스 및 기술 수요를 충족할 수 있도록 지원한다. AI, 생성형 AI, 벡터 처리, JSON 문서 지원, 그래프 분석 뷰, RAFT 기반 복제를 지원하는 글로벌 분산 데이터베이스, 인데이터베이스 SQL 방화벽, 트루 캐시(True Cache : 자동화된 중간 계층 데이터 객체 캐시) 및 로코드 개발 등 다양한 기능의 개선 사항을 제공한다.     오라클의 후안 로이자(Juan Loaiza) 데이터베이스 기술 총괄 부사장은 “2024년은 오라클이 다시 한 번 혁신적인 다양한 신기능을 선보일 수 있었던 한 해였다”면서, “가트너 리더로 선정된 것은 오라클 데이터베이스의 혁신 속도와 새롭게 소개된 기능 및 서비스, 멀티클라우드 기능을 인정받은 결과라고 믿는다. 오라클 데이터베이스 서비스는 OCI뿐만 아니라 AWS, 구글 클라우드, 마이크로소프트 애저 환경에서도 제공된다. 이러한 혁신은 오라클 데이터베이스 엔터프라이즈 워크로드를 원하는 곳 어디서나 배포 및 실행할 수 있는 선택지와 유연성을 제공한다”고 전했다.
작성일 : 2025-01-31
오라클, 데이터 분석·AI 성능과 효율 높인 엑사데이터 X11M 출시
오라클이 오라클 엑사데이터(Oracle Exadata) 플랫폼의 최신 세대인 오라클 엑사데이터 X11M(Oracle Exadata X11M)을 발표했다.  이전 세대와 동일한 가격으로 시작하는 엑사데이터 X11M은 AI, 분석, 온라인 트랜잭션 처리(OLTP) 전반에 걸쳐 향상된 성능을 제공한다. 지능형 전력 관리와 함께 기업의 미션 크리티컬 워크로드를 더 빠르고 적은 시스템에서 실행할 수 있는 기능을 결합해 에너지 효율성 및 지속가능성 목표를 달성할 수 있도록 지원한다. 또한, 퍼블릭 클라우드와 멀티 클라우드, 온프레미스 환경 전반에서 동일한 기능이 제공되어 기업은 애플리케이션 변경 없이 오라클 데이터베이스 워크로드를 어디에서나 배포 및 실행할 수 있는 유연성을 확보할 수 있다. 오라클은 최신 AMD 에픽(EPYC) 프로세서에 최적화된 엑사데이터 X11M이 경쟁사의 데이터베이스 시스템 대비 더 높은 수준의 성능을 제공한다고 전했다. 엑사데이터 X11M의 성능은 모든 워크로드 전반에서 개선되었으며, AI를 위한 더 빠른 벡터 검색과 트랜잭션 처리에서 더욱 빨라진 초당입출력속도(IOPS)와 짧은 지연 시간, 그리고 분석을 위한 더 빠른 데이터 스캔 및 쿼리 처리량을 제공한다. 엑사데이터 X11M은 플래시 및 엑사데이터 RDMA 메모리(XRMEM)에서 데이터를 스캔할 수 있는 기능을 통해 큰 규모의 분석 처리량을 달성할 수 있다. 이와 같이 향상된 성능이 이전 세대인 엑사데이터 X10M과 동일한 가격으로 제공되며, 기업이 동일한 규모의 플랫폼에서 더 많은 작업을 수행할 수 있도록 지원하여 비용 절감을 가능하게 한다.     엑사데이터 X11M은 X10M 플랫폼 대비 AI 벡터 검색, OLTP, 분석 등에서 성능을 개선했다. 지능형 엑사데이터 스토리지로의 투명한 오프로딩을 통해 영구(persistent) 벡터 인덱스(IVF) 검색 속도가 최대 55% 향상됐다. 인메모리 벡터 인덱스 쿼리(HNSW)는 최대 43% 더 빨라졌으며, 모든 엑사데이터 플랫폼에서 제공되는 새로운 소프트웨어 최적화 기능은 스토리지 서버에서 4.7배 향상된 데이터 필터링과 32배 빨라진 바이너리 벡터 검색을 통해 AI 검색 성능을 강화했다. 이를 통해 기업은 더 많은 비즈니스 데이터를 결합하여 정교한 벡터 검색을 더욱 빠르게 수행할 수 있으며, 생성형 AI 모델의 정확성과 안정성을 향상시키는 동시에 전체 비용을 절감할 수 있다. 엑사데이터 X11M은 직렬 트랜잭션 처리 속도가 최대 25% 향상되고 동시 처리량이 최대 25% 개선됐으며, SQL 8K I/O 읽기 지연시간이 최대 21% 감소하여 14마이크로초(us)로 단축됐다. 이를 통해 기업은 더 많은 트랜잭션을 보다 적은 데이터베이스 시스템으로 더 빠르게 처리하며 비용을 절감할 수 있다. 또한 분석 쿼리 처리 속도가 최대 25% 빨라지고, 스토리지 서버에서 분석 I/O(입출력) 속도가 최대 2.2배 향상되었으며, 데이터베이스 인메모리 스캔 속도가 최대 500GB/초 증가했다. 이와 같은 개선 사항을 다른 엑사데이터 혁신 기술과 결합해 기업은 트랜잭션 데이터를 실시간으로 분석하고, 테라바이트에서 페타바이트에 이르는 규모의 데이터 웨어하우스를 보다 빠르게 스캔하여 중요한 비즈니스 인사이트를 확보할 수 있다. 오라클은 엑사데이터 X11M을 활용해 기업이 4가지 방식으로 전력 사용량 및 비용을 대폭 절감할 수 있다고 설명했다. 첫째, 엑사데이터 X11M은 높은 성능으로 기업이 데이터베이스 워크로드 포트폴리오를 더 적은 수의 시스템에서 실행할 수 있게 해 인프라와 전력 및 냉각, 데이터센터 공간을 절약할 수 있다. 둘째, 엑사데이터 X11M은 더 많은 워크로드를 더 작은 규모의 시스템에 통합할 수 있도록 해 활용 효율성이 향상된다. 셋째, 엑사데이터 X11M에는 지능형 전력 관리 기능이 내장되어 있어 기업은 사용하지 않는 CPU 코어를 비활성화하거나 전력 소비를 제한하고, 사용량이 적은 기간 동안 전력 활용을 최적화하여 에너지 효율성과 지속가능성 목표를 달성할 수 있다. 마지막으로 오라클 자율운영 데이터베이스(Oracle Autonomous Database)에 내장된 자동화 기능을 통해 수동 데이터베이스 관리 작업과 인적 오류 발생 가능성을 제거할 수 있다. 엑사데이터 X11M은 온프레미스, 엑사데이터 클라우드앳커스터머(Exadata Cloud@Customer)의 엑사데이터 데이터베이스 서비스(Exadata Database Service) 및 자율운영 데이터베이스(Autonomous Database), OCI 및 멀티클라우드 환경에서 배포될 수 있다. 기업은 이러한 환경 전반에서 동일한 엑사데이터 아키텍처에서 실행되는 동일한 오라클 데이터베이스 및 기능을 사용할 수 있다. 오라클 데이터베이스는 모든 배포 환경에서 100% 호환되기 때문에 기업은 애플리케이션 변경 없이 필요한 곳 어디에서나 워크로드를 실행할 수 있다. 멀티클라우드 배포 환경에서 오라클 데이터베이스는 OCI, AWS, 구글 클라우드, 마이크로소프트 애저 데이터센터의 엑사데이터 X11M에서 실행된다. 이 옵션을 통해 기업은 오라클 리얼 애플리케이션 클러스터(Oracle Real Application Clusters)를 포함한 모든 오라클 데이터베이스 기능에 액세스할 수 있으며, 이는 계획된 다운타임과 계획되지 않은 다운타임 동안 확장성과 높은 가용성을 제공한다. 또한, 기업은 AWS, 구글 클라우드, 마이크로소프트 애저의 애플리케이션, AI 모델 또는 분석 도구를 저지연 네트워크 연결을 통해 오라클 데이터베이스 내 데이터와 결합할 수 있다. 오라클의 코탄다 우마마지스와란(Kothanda Umamageswaran) 엑사데이터 및 수평 확장 기술 담당 수석 부사장은 “엑사데이터 X11M을 통해 오라클은 탁월한 확장성, 성능, 비즈니스 가치를 제공하며 퍼블릭 클라우드와 멀티 클라우드, 온프레미스 등 고객이 원하는 곳 어디에서나 배포할 수 있는 선택지와 유연성을 지속적으로 제공하고 있다. 실제로 OCI를 포함해 모든 주요 클라우드에서 엑사데이터 X11M이 실행될 예정”이라면서, “기존 시스템을 업그레이드하든 엑사데이터 X11M에 새로운 애플리케이션을 배포하든 기업은 하드웨어, 전력 및 냉각, 데이터센터 공간에서의 절감 효과와 함께 차별화된 가격 대비 성능과 통합성, 효율성의 이점을 누릴 수 있다”고 설명했다.
작성일 : 2025-01-14
생성형 AI 기반 BIM 전문가 시스템 개발해 보기
BIM 칼럼니스트 강태욱의 이슈 & 토크   이번 호에서는 지난 연재를 통해 설명한 생성형 AI 기술을 바탕으로 BIM(건설 정보 모델링) 전문가 시스템을 개발하는 방법을 간단히 알아보도록 한다.    ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   이 글에서는 LLM(대규모 언어 모델)과 RAG(검색 증강 생성) 기술을 적용하여 BIM IFC(Industry Foundation Classes) 데이터의 정보를 검색하고, 이를 바탕으로 BIM 지식 전문가 에이전트를 개발하는 방법을 소개한다. 이런 에이전트는 자연어 기반의 사용자 쿼리를 통해 필요한 정보를 신속하고 정확하게 제공하며, 건설 프로젝트의 전반적인 효율성을 높일 수 있다. 이 글에서 소개하는 방법은 RAG를 이용해 전문가 시스템을 개발하는 여러 가지 대안 중 하나임을 미리 밝힌다. IFC와 같은 포맷을 이용한 RAG와 LLM 사용 기법은 목적에 따라 구현 방법의 차이가 다양하다.    LLM RAG 기반 BIM 전문가 시스템 프로세스 현재 대중적인 목적으로 개발된 LLM 기술인 ChatGPT(오픈AI), Gemini(구글), Llama(메타), Phi(마이크로소프트)는 BIM의 일반적인 지식, 예를 들어 BIM 관련 웹사이트에서 공개된 일반적인 개념 설명, PDF에 포함된 텍스트를 학습한 모델을 제공하고 있다. 다만, 이들 LLM 도구는 BIM 모델링 정보를 담고 있는 IFC와 같은 특수한 데이터셋 파일은 인식하지 않는다. 현재는 PDF같은 일반적인 파일 형식만 검색 증강 생성을 지원하는 RAG 기술을 이용해, 도메인에 특화된 지식 생성을 지원한다. 이는 특정 도메인 지식을 훈련하기 위해 필요한 비용이 너무 과대하며, 도메인 지식을 모델 학습에 맞게 데이터베이스화하는 방법도 쉽지 않기 때문이다. 예를 들어, ChatGPT-4 모델을 훈련할 때 필요한 GPU 수는 엔비디아 A100×25,000개로 알려져 있으며, 학습에 100일이 걸렸다. A100 가격이 수천 만원 수준인 것을 감안하면, 사용된 GPU 비용만 천문학적인 금액이 소모된 것을 알 수 있다.  이런 이유로, LLM 모델을 전체 학습하지 않고 모델 중 작은 일부 가중치만 갱신하는 파인튜닝(fine-tuning), 범용 LLM는 운영체제처럼 사용하여 정보 생성에 필요한 내용을 미리 검색한 후 컨텍스트 프롬프트 정보로서 LLM에 입력해 정보를 생성하는 검색 증강 생성 기술인 RAG이 주목받고 있다. RAG는 <그림 1>과 같은 순서로 사용자 질문에 대한 답변을 생성한다.   그림 1. RAG 기반 BIM 전문가 시스템 작업 흐름(한국BIM학회, 2024)   RAG는 LLM에 입력하는 템플릿에 답변과 관련된 참고 콘텐츠를 프롬프트에 추가하여 원하는 답을 생성하는 기술이다. 이런 이유로, 답변에 포함된 콘텐츠를 처리하고, 검색하는 것이 매우 중요하다. LLM은 입력 프롬프트에 생성에 참고할 콘텐츠를 추가하지 못하면 환각 문제가 발생되는 단점이 있다. 각 RAG 단계는 검색이 가능하도록 데이터셋을 청크(chunk) 단위로 분할(split)하고, 데이터는 임베딩(embedding)을 통해 검색 연산이 가능한 벡터 형식으로 변환된다. 이 벡터는 저장 및 검색 기능을 가진 벡터 데이터베이스(vector database)에 저장된다. 사용자의 질문은 검색 알고리즘을 통해 벡터 데이터베이스에서 가장 근사한 정보를 포함하는 콘텐츠를 얻고, 프롬프트에 추가된 후 LLM에 입력된다. 그 결과 LLM은 원하는 답변을 출력한다. 이를 통해 학습하지 않은 전문 분야의 토큰을 인식하지 못하는 LLM이 원하는 결과를 생성할 수 있도록 한다.   BIM IFC 콘텐츠 데이터 구조 분석 앞서 살펴본 바와 같이 RAG 성능은 입력되는 데이터셋의 특징과 검색 알고리즘에 큰 영향을 받는다. 그러므로, 개방형 BIM 데이터 형식으로 사용되는 IFC의 특징을 분석하여 BIM RAG를 위한 데이터 처리 시 이를 고려한다. IFC 파일 구조는 STEP(ISO 10303), XML 스키마 형식을 준용한다. IFC는 객체지향 모델링과 그래프 모델 구조의 영향을 많이 받았다. 확장성을 고려해 BIM을 구성하고 있는 건축 객체의 부재들, 관계, 속성집합에 Instance ID 및 GUID(Globally 2025/1 Unique IDentifier)와 같은 해시값(hash)을 할당하고, 이들 간의 관계를 해시번호로 참조하여, 거대한 온톨로지 그래프 구조를 정의한다. <그림 2~3>은 이를 보여준다.   그림 2. IFC 객체 그래프 구조(Wall instance)   그림 3. IFC 그래프 구조 표현(강태욱, 2022)     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-01-06
캐디안, 벤처창업진흥유공포상 ‘중소벤처기업부 장관상’ 수상 
인공지능 기반의 CAD 프로그램 개발 기업인 캐디안은 2024년 우수 벤처기업 정부포상에서 중소벤처기업부 장관상을 수상했다고 밝혔다. 벤처창업진흥 유공 포상은 벤처 산업 발전과 혁신 성장에 기여한 유공자에게 주어지는 상으로, 기술 및 경영 혁신 능력이 뛰어나고 대외 경쟁력이 우수하며 사회적 공헌도가 높은 벤처기업을 대상으로 수여된다. 지난 1990년 설립하여 만 34년차의 벤처기업인 캐디안은 CAD 기술력과 경영혁신 능력을 바탐으로 기술혁신기업(이노비즈)과 경영혁신기업(메인비즈)으로도 선정되었다. 이번에 수상하게 된 캐디안(CADian)은 오토캐드의 DWG 파일과 호환되는 설계 저작도구이다.     특히 캐디안이 최근 선보인 캐디안 AI-CE(CADian AI-CE) 설루션은 디지털 이미지 내 특정 영역에 대한 분류 결과를 보여주는 객체 인식(Object Detection) 기술과 디지털 이미지를 여러 개의 픽셀 집합으로 분할을 통해 이미지의 표현을 해석하기 쉽게 단순화하여 분류 결과를 보여주는 의미적 분할(semantic segmentation) 기술에 의해 개발됐다. 이 제폼은 중대형 건설 및 인테리어 수주에 앞서 요구되는 입찰을 위한 견적용 적산과 공사 완료 시점에 필요한 정산용 적산 등을 신속하고 정확하고 추출할 수 있다는 점을 내세운다. 캐디안의 박승훈 대표는 “산업 전반에 공헌도가 높은 벤처 기업을 대상으로 수여하는 상을 수상하게 되어 기쁘다”면서, “최근에는 래스터 이미지 파일과 벡터 파일을 AI 딥러닝으로 인식하여 도면을 자동으로 재설계하면서 적산 자동화를 가능하게 하는 AI 기반의 차세대 CAD 설루션 캐디안 AI-CE를 출시했다. 이젠 우리나라가 글로벌 CAD 시장을 리드해 나갈 수 있도록 노력하겠다”고 밝혔다.
작성일 : 2024-12-23
Arm, “네오버스 기반의 AWS 그래비톤4 프로세서로 클라우드 혁신 가속화 지원”
Arm은 AWS의 그래비톤4(Graviton4) 프로세서를 통해 개발자와 기업이 클라우드 워크로드의 잠재력을 발휘할 수 있도록 지원하면서, 특수 실리콘 및 컴퓨팅을 제공하고 보다 효율적이고 지속 가능하며 강력한 클라우드를 위한 기반을 마련하고자 AWS와 협력을 진행 중이라고 소개했다. 클라우드 컴퓨팅 환경은 AI의 폭발적인 성장에 힘입어 극적인 변화를 겪고 있다. AI 애플리케이션이 더욱 정교하고 복잡해짐에 따라 강력하며 효율적이고, 비용 효율적인 컴퓨팅 설루션에 대한 필요성이 그 어느 때보다 커지고 있다. 클라우드에 워크로드를 배포하는 고객들은 이러한 최신 워크로드의 요구사항을 충족하기 위해 어떤 인프라가 필요한지 재고하고 있다. 고객들의 요구사항은 성능 향상과 비용 절감부터, 규제 또는 지속 가능성 목표를 위한 에너지 효율성의 새로운 벤치마크 달성까지 다양하다. Arm의 네오버스 V2(Neoverse V2)에 기반한 AWS 그래비톤4 프로세서는 이전 세대인 그래비톤3 프로세서보다 최대 30% 향상된 컴퓨팅 성능, 50% 더 많은 코어, 75% 더 많은 메모리 대역폭을 제공한다. 이러한 장점 덕분에 현재 에코시스템과 고객들이 AWS 프로세서를 많이 채택하고 있다는 것이 Arm의 설명이다. Arm 네오버스 V2 플랫폼에는 고성능 부동 소수점 및 벡터 명령어 지원과 같은 Armv9 아키텍처의 새로운 기능이 포함되어 있으며, SVE/SVE2, Bfloat16 및 Int8 MatMul과 같은 기능은 AI/ML 및 HPC 워크로드에 강력한 성능을 제공한다. AI 워크로드 채택을 더욱 촉진하기 위해 Arm은 2024년 초 선도적인 AI 프레임워크 및 소프트웨어 에코시스템과 협력하여 전체 ML 스택이 Arm에서 즉시 사용 가능한 추론 성능 최적화의 이점을 누릴 수 있도록 Arm Kleidi를 출시했고, 이를 통해 개발자가 별도의 Arm 관련 전문 지식 없이도 워크로드를 구축할 수 있도록 했다. Arm은 파이토치(PyTorch)에서 이러한 최적화를 통해 초당 토큰 수(tokens/sec)와 첫 토큰 생성 시간(time-to-first-token) 지표를 개선하여, AWS 그래비톤4에서 라마(Llama) 3 70B 및 Llama 3.1 8B와 같은 LLM(대규모 언어 모델)을 실행할 수 있는 방법을 선보였다. HPC 워크로드의 경우, 그래비톤4는 코어당 16% 더 많은 메인 메모리 대역폭과 vCPU당 두 배의 L2 캐시를 제공하는 등 그래비톤3E에 비해 성능이 크게 향상되었다. 이는 주로 메모리 대역폭에 제한이 있는 HPC 애플리케이션의 성능에 매우 중요하다. EDA 워크로드의 경우, Arm의 엔지니어링 팀이 프로덕션 실행을 통해 측정한 결과, 그래비톤4는 RTL 시뮬레이션 워크로드에서 그래비톤3보다 최대 37% 더 높은 성능을 제공하는 것으로 나타났다. 한편, Arm은 지난 몇 년 동안 소프트웨어 에코시스템 전반에서 최종 고객이 AWS 그래비톤 프로세서에 다양한 클라우드 워크로드를 배포하면서 도입이 지속적으로 증가했다고 전했다. “고객들은 비용을 절감하고, 더 향상된 성능을 경험하며, 탄소 및 지속 가능성 발자국을 개선하고 있다”는 것이 Arm의 설명이다.
작성일 : 2024-12-23