• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "하드웨어"에 대한 통합 검색 내용이 2,364개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
퓨어스토리지, AI 혁신 가속화를 위한 ‘생성형 AI 포드’ 발표
퓨어스토리지가 자사 플랫폼 기반의 턴키 설계를 제공하는 풀스택 설루션인 새로운 퓨어스토리지 생성형 AI 포드(GenAI Pod)를 발표했다. 기업은 이를 통해 AI 기반 혁신을 가속화하고, 생성형 AI 프로젝트 구축에 필요한 시간, 비용, 전문 기술력을 절감할 수 있다.  오늘날 기업들은 프라이빗 클라우드에서 생성형 AI와 검색 증강 생성(RAG)을 배포하는데 어려움을 겪고 있다. 이는 생성형 AI 워크로드를 지원하는 하드웨어, 소프트웨어, 기본 모델, 개발 도구를 적시에 비용 효율적으로 배포하는 복잡성을 포함한다. 따라서 기업들은 AI로 인해 진화하는 모든 스토리지 요구사항을 해결할 수 있는 단일 통합 스토리지 플랫폼이 필요로 한다. 퓨어스토리지 플랫폼에 구축된 생성형 AI 포드는 새로운 설계를 통해 생성형 AI 사용사례를 위한 턴키 설루션을 제공하며, 기업들이 이들 과제를 해결하도록 지원한다. 생성형 AI 포드는 원클릭 구축과 벡터 데이터베이스 및 기반 모델에 대한 간소화된 2일차(Day 2) 운영을 통해 기업의 AI 이니셔티브를 가속화한다. 포트웍스(Portworx)와 통합된 생성형 AI 포드는 엔비디아 AI 엔터프라이즈 소프트웨어 플랫폼과 밀버스(Milvus) 벡터 데이터베이스를 통해 엔비디아 네모 (NeMo) 및 NIM 마이크로서비스(NIM microservices)의 배포 자동화를 지원하며, 2일차 운영을 더욱 간소화한다. 이러한 검증된 설계의 초기 산업 애플리케이션으로는 신약 개발, 무역 조사 및 투자 분석, 시맨틱 검색, 지식 관리 및 챗봇을 위한 에이전트 프레임워크를 갖춘 검색 증강 생성(RAG)이 포함된다. 퓨어스토리지의 풀스택 설루션에는 하드웨어, 소프트웨어 및 기본 모델은 물론, 업계 주요 AI 공급업체의 전문 서비스가 포함된다. 초기 검증 설계를 위해 퓨어스토리지는 아리스타, 시스코, KX, 메타, 엔비디아, 레드햇, 슈퍼마이크로 및 WWT와 파트너십을 체결했다. 퓨어스토리지 생성형 AI 포드는 2025년 상반기에 정식 출시될 예정이다. 한편, 퓨어스토리지는 플래시블레이드//S500(FlashBlade//S500)가 엔비디아 DGX 슈퍼포드(NVIDIA DGX SuperPOD)의 이더넷 호환성 인증을 통해 엔터프라이즈 AI 구축을 가속화한다고 밝혔다.  대규모 AI를 구축하는 기업은 복잡한 아키텍처 설계와 성능, 전력, 공간 요건을 충족해야 하는 과제를 안고 있다. 이에 따라 퓨어스토리지는 이더넷 기반의 플래시블레이드//S500에 대한 엔비디아 DGX 슈퍼포드 인증을 획득했다. 이 인증을 통해 고객은 향후 증가하는 AI 요구사항에 대비할 수 있도록 유연하고 안정적이며 공간 및 에너지 효율성이 높은 고성능 스토리지 플랫폼으로 하이엔드 엔터프라이즈 AI 트레이닝을 가속화할 수 있다. 새로운 생성형 AI 검증 설계는 플래시블레이드//S500의 엔비디아 DGX 슈퍼포드 인증과 함께, 엔비디아 DGX 베이스포드 인증 받은 에이리(AIRI with NVIDIA DGX BasePOD), 검증된 엔비디아 OVX 서버, 시스코와 공동 설계한 AI용 플래시스택(FlashStack for AI with Cisco) 등 퓨어스토리지의 AI 설루션 포트폴리오를 더욱 확장한다. 이번 발표를 통해 퓨어스토리지는 이제 막 AI 여정을 시작한 고객부터 대규모, 고성능 컴퓨팅 및 데이터 집약적인 요구사항을 가진 고객까지 아우르는 포괄적인 AI 인프라 설루션을 제공하는 선도적인 기업으로서의 입지를 다질 전망이다. 퓨어스토리지의 댄 코건(Dan Kogan) 엔터프라이즈 성장 및 설루션 부문 부사장은 “혁신의 속도가 빨라지면서 기업 고객들은 비즈니스 전 영역에 AI를 활용해야 하지만, 사일로화된 데이터 플랫폼과 복잡한 생성형 AI 파이프라인이라는 근본적인 문제로 어려움을 겪고 있다”며, “퓨어스토리지의 확장된 AI 설루션 포트폴리오는 생성형 AI 및 대규모 엔터프라이즈 AI 클러스터를 위한 검증된 턴키 설계를 통해 고객이 이러한 과제를 해결하도록 지원한다. 검증된 설계는 기술 스택의 모든 계층에서 요구사항을 총체적으로 해결해 AI 프로젝트의 가치 실현 시간과 운영 리스크를 획기적으로 줄인다”고 말했다. 엔비디아의 토니 백데이(Tony Paikeday) AI 시스템 부문 수석 디렉터는 “AI는 전례 없는 속도로 산업을 혁신하고 있으며, 기업들은 이를 달성하기 위해 강력하고 검증된 설루션과 인프라가 필요하다”며, “퓨어스토리지 생성형 AI 포드와 엔비디아 AI 엔터프라이즈 소프트웨어, 플래시블레이드//S500의 엔비디아 DGX 슈퍼포드 인증은 기업들이 인프라 복잡성을 제거하고, 구축 속도를 높이며, 운영을 간소화할 수 있도록 지원한다”고 말했다.
작성일 : 2024-11-22
엔비디아, CAE에 실시간 디지털 트윈의 활용 돕는 ‘옴니버스 블루프린트’ 공개
엔비디아가 ‘슈퍼컴퓨팅 2024(SC24)’ 콘퍼런스에서 ‘엔비디아 옴니버스 블루프린트(NVIDIA Omniverse Blueprint)’를 발표했다. 이는 소프트웨어 개발업체가 항공우주, 자동차, 제조, 에너지, 기타 산업의 컴퓨터 지원 엔지니어링(CAE) 고객들이 실시간 상호작용이 가능한 디지털 트윈을 제작할 수 있도록 지원한다. 알테어, 앤시스, 케이던스, 지멘스와 같은 소프트웨어 개발업체는 실시간 CAE 디지털 트윈을 위한 엔비디아 옴니버스 블루프린트를 사용해 고객이 개발 비용과 에너지 사용량을 절감하면서 시장 출시 기간을 단축할 수 있도록 지원한다. 엔비디아는 이 블루프린트가 1200배 빠른 시뮬레이션과 실시간 시각화를 달성하기 위한 엔비디아 가속 라이브러리, 물리-AI 프레임워크, 대화형 물리 기반 렌더링을 포함하는 레퍼런스 워크플로라고 설명했다. 블루프린트의 첫 번째 적용 분야 중 하나는 전산유체역학(CFD) 시뮬레이션이다. 이는 자동차, 비행기, 선박 등 여러 제품의 설계를 가상으로 탐색하고 테스트하며 개선하는데 있어 중요한 단계이다. 기존의 엔지니어링 워크플로는 물리 시뮬레이션부터 시각화와 설계 최적화에 이르기까지 완료하는 데 몇 주 또는 몇 달이 걸릴 수 있다. 실시간 물리 디지털 트윈을 구축하려면 실시간 물리 솔버(solver) 성능과 대규모 데이터 세트의 실시간 시각화라는 2가지 기본 기능이 필요하다. 옴니버스 블루프린트는 이러한 기능을 달성하기 위해 엔비디아 쿠다-X(CUDA-X) 라이브러리를 활용해 솔버 성능을 가속화한다. 또한, 엔비디아 모듈러스(Modulus) 물리-AI 프레임워크를 사용해 플로 필드를 생성하기 위한 모델을 훈련하고 배포한다. 마지막으로, 엔비디아 옴니버스 애플리케이션 프로그래밍 인터페이스를 통해 3D 데이터 상호운용성과 실시간 RTX 지원 시각화를 제공한다.      앤시스는 옴니버스 블루프린트를 채택해 유체 시뮬레이션 소프트웨어인 앤시스 플루언트(Ansys Fluent)에 적용해 전산 유체 역학 시뮬레이션을 가속화했다. 앤시스는 텍사스 첨단 컴퓨팅센터에서 320개의 엔비디아 GH200 그레이스 호퍼 슈퍼칩(Grace Hopper Superchip)으로 플루언트를 실행했다. 2,048개의 x86 CPU 코어에서는 거의 한 달이 걸리던 25억 셀의 자동차 시뮬레이션을 6시간 만에 완료했다. 이를 통해 밤새 고충실도 CFD 분석을 수행할 수 있는 실현 가능성을 향상시키고 새로운 업계 벤치마크를 수립했다. 루미너리 클라우드 또한 블루프린트를 채택하고 있다. 엔비디아 모듈러스를 기반으로 구축된 이 회사의 새로운 시뮬레이션 AI 모델은 GPU 가속 CFD 솔버에서 생성된 훈련 데이터를 기반으로 기류장과 자동차 형상 간의 관계를 학습한다. 이 모델은 솔버 자체보다 훨씬 빠른 속도로 시뮬레이션을 실행해 옴니버스 API를 사용해 시각화된 실시간 공기 역학 흐름 시뮬레이션을 가능하게 한다. 엔비디아와 루미너리 클라우드는 SC24에서 가상 풍동을 시연했다. 이는 터널 내부에서 차량 모델을 변경하더라도 실시간으로 상호작용하는 속도로 유체 역학을 시뮬레이션하고 시각화할 수 있다. 엔비디아는 알테어, 비욘드 매스, 케이던스, 헥사곤, 뉴럴 컨셉, 지멘스, 심스케일, 트레인 테크놀로지스 등이 자체 애플리케이션에 옴니버스 블루프린트 도입을 검토하고 있다고 밝혔다. 옴니버스 블루프린트는 아마존 웹 서비스(AWS), 구글 클라우드, 마이크로소프트 애저를 비롯한 주요 클라우드 플랫폼에서 실행할 수 있다. 엔비디아 DGX 클라우드(DGX Cloud)에서도 사용할 수 있다.  리스케일은 엔비디아 옴니버스 블루프린트를 사용해 단 몇 번의 클릭만으로 맞춤형 AI 모델을 훈련하고 배포할 수 있도록 지원한다. 리스케일 플랫폼은 전체 애플리케이션-하드웨어 스택을 자동화하며, 모든 클라우드 서비스 제공업체에서 실행될 수 있다. 조직은 어떤 시뮬레이션 솔버를 사용해도 훈련 데이터를 생성하고, AI 모델을 준비, 훈련, 배포하며, 추론 예측을 실행하고, 모델을 시각화하고 최적화할 수 있다. 엔비디아의 젠슨 황(Jensen Huang) CEO는 “우리는 모든 사물이 디지털 트윈을 가질 수 있도록 옴니버스를 구축했다. 옴니버스 블루프린트는 엔비디아 옴니버스와 AI 기술을 연결하는 레퍼런스 파이프라인이다. 이는 선도적인 CAE 소프트웨어 개발자가 설계, 제조부터 운영에 이르기까지 세계 최대 산업을 위해 산업 디지털화를 혁신할 획기적인 디지털 트윈 워크플로를 구축할 수 있도록 지원한다”고 말했다.
작성일 : 2024-11-19
레드햇-소프트뱅크, AI-RAN 기술 연구 개발 협력 발표
레드햇과 소프트뱅크가 AI-RAN(인공지능 무선 접속망) 기술의 공동 연구 및 개발을 위한 협력을 발표했다. 이번 협력을 통해 개발되는 설루션은 향상된 네트워크 오케스트레이션과 최적화를 위한 AI의 활용을 극대화하고, 개선된 성능과 높은 리소스 효율성 및 향상된 사용자 경험을 제공하는 지능형 자율 네트워크의 제공을 목표로 한다. 레드햇은 “이 같은 설루션은 차별화된 서비스 제공과 새로운 수익원 창출을 목적으로 AI 기반 애플리케이션에 의해 활용될 수 있는 5G 및 미래 6G 네트워크 사용 사례에서 특히 중요하다”고 전했다. 레드햇과 소프트뱅크는 더 빠른 데이터 처리와 리소스 최적화를 지원해 서비스 제공업체가 향상된 성능과 지능형 자동화, 강화된 다층 보안을 달성할 수 있도록 레드햇 오픈시프트(Red Hat OpenShift)에서 실행되는 고성능 AI 기술의 RAN 인프라 내 통합을 진행하고 있다. 이러한 접근 방식은 서비스 제공업체가 가상화된 RAN과 AI 애플리케이션 모두를 단일 통합 플랫폼에서 확장 가능하고 안전하게 관리함으로써 네트워크 운영 방식을 재정립하고 새로운 수익 기회를 창출할 수 있도록 지원한다.  양사는 이번 협력을 통해 ▲하이브리드 클라우드 애플리케이션 플랫폼인 레드햇 오픈시프트에 구축된 유연한 RAN 설루션의 최적화 및 호환성 확보와 성능 향상을 위해 ARM 아키텍처에서 AI 및 RAN 기능을 지원 ▲짧은 지연 시간과 높은 처리량의 통신을 위해 하드웨어 가속 ARM 아키텍처에서의 분산 유닛(DU)의 성능을 최적화하여 미래 네트워크의 진화하는 요구사항을 해결 ▲서비스 가용성과 민첩성, 사용자 경험 품질을 향상시킬 수 있는 지능형 자율 네트워크 운영을 위해 엔비디아와 협력 하에 오케스트레이터 개발 등을 추진할 계획이다. 레드햇이 후원한 지속가능성 연구에 따르면, RAN은 서비스 제공업체의 총 전력 소비량 중 75%를 차지한다. 서비스 제공업체는 더 나은 자원 최적화와 전력 사용을 통해 에너지 소비를 줄이고 지속가능성 목표 달성에 가까워질 수 있다. 소프트뱅크와 레드햇은 개방적이고 상호운용 가능한 RAN 생태계 개발을 통해 새로운 AI 사용 사례를 제공하기 위해 협력함으로써 이 기술을 더 광범위한 통신 산업에서 이용할 수 있게 할 계획이다. 양사는 AI-RAN 얼라이언스 멤버십을 통해 산업 생태계 파트너 및 연구 기관과 협력하여 새로운 AI-RAN 기술과 설루션에 대한 연구를 진전시키고, 추가적인 개념 증명(PoC) 테스트를 수행할 기회를 확보할 수 있을 것으로 보고 있다.
작성일 : 2024-11-14
IBM, 복잡한 알고리즘 연산 속도 높인 양자 컴퓨터 소개
IBM은 ‘제 1회 IBM 퀀텀 개발자 콘퍼런스(IBM Quantum Developer Conference)’를 개최하고, IBM 양자컴퓨터에서 복잡한 알고리즘을 실행할 때 높은 수준의 규모, 속도, 정확성을 제공하는 새로운 양자 하드웨어 및 소프트웨어 기술을 소개했다. ‘IBM 퀀텀 헤론(IBM Quantum Heron)’은 IBM의 고성능 양자 프로세서로, IBM의 글로벌 양자 데이터 센터를 통해 사용할 수 있다. IBM 퀀텀 헤론은 퀴스킷(Qiskit)을 활용해 특정 클래스의 양자 회로를 최대 5000개의 2큐비트 게이트 연산까지 정확하게 실행할 수 있다. 사용자는 이러한 IBM 퀀텀 헤론의 성능을 활용해 재료, 화학, 생명과학, 고에너지 물리학 등 다양한 분야의 과학적 문제를 양자 컴퓨터로 해결하는 방법을 탐구할 수 있다. IBM은 “이는 IBM 양자 개발 로드맵의 또 하나의 주요 목표를 달성한 것이며, IBM과 비즈니스 파트너가 양자 우위와 2029년으로 예정된 IBM의 오류 수정 첨단 시스템을 향해 나아감에 따라 양자 유용성 시대를 더욱 앞당기는 것”이라고 설명했다.     IBM 헤론과 퀴스킷의 성능 향상으로 사용자는 최대 5000개의 게이트로 구성된 양자 회로를 실행할 수 있는데, 이는 2023년 IBM의 양자 유용성 시연에서 정확하게 실행된 게이트 수의 약 2배에 달하는 수치이다. 이를 통해 IBM 퀀텀의 컴퓨터 성능은 무차별 대입 방식의 기존 시뮬레이션 방식보다 더욱 향상됐다. 네이처지(Nature)에 게재된 2023년 유용성 실험에서는 데이터 당 처리 시간이 총 112시간 소요됐으나, 동일한 데이터를 사용한 같은 실험을 최신 IBM 헤론 프로세서에서 실행한 결과 50배 빠른 2.2시간 만에 완료할 수 있었다. IBM은 개발자가 안정성과 정확성, 속도를 갖춘 복잡한 양자 회로를 보다 쉽게 구축할 수 있도록 고성능의 양자 소프트웨어로 퀴스킷을 발전시켜 왔다. IBM은 제3자 기관의 1 000여 개의 테스트를 통해 퀴스킷이 다른 플랫폼 대비 높은 성능과 안정성을 갖춘 양자 소프트웨어 개발 키트라는 것을 확인했다고 밝혔다. IBM 퀀텀 플랫폼은 생성형 AI 기반 기능 및 IBM 파트너의 새로운 소프트웨어와 같은 신규 퀴스킷 서비스로 선택지를 더욱 확장하고 있으며, 산업 전반의 전문가 네트워크가 과학 연구를 위한 차세대 알고리즘을 구축할 수 있도록 지원한다. 여기에는 AI로 양자 하드웨어를 위한 양자 회로의 효율적인 최적화를 지원하는 퀴스킷 트랜스파일러 서비스(Qiskit Transpiler Service), 개발자가 IBM 그래니트 기반 생성 AI 모델로 양자 코드를 생성하는 데 도움을 주는 퀴스킷 코드 어시스턴트(Qiskit Code Assistant), 양자 및 기존 시스템에서 초기 양자 중심 슈퍼컴퓨팅 접근법을 실행하는 퀴스킷 서버리스(Qiskit Serverless) 같은 도구가 포함된다. 양자 노이즈의 성능 관리를 줄이고 양자 회로의 복잡성을 추상화해 양자 알고리즘 개발을 간소화하는 등의 기능을 위해 IBM, 알고리즘믹(Algorithmiq), 케드마(Qedma), 큐나시스(QunaSys), Q-CTRL 및 멀티버스 컴퓨팅의 서비스를 이용할 수 있는 IBM 퀴스킷 함수 카탈로그(IBM Qiskit Functions Catalog)가 있다. 고성능 컴퓨팅의 차세대 진화 단계인 양자 중심 슈퍼컴퓨팅에 대한 IBM의 비전은 병렬화된 워크로드를 실행하는 최첨단 양자 컴퓨터와 기존 컴퓨터를 통합해 복잡한 문제를 고성능 소프트웨어로 쉽게 분리하고, 가장 적합한 아키텍처로 알고리즘의 각 부분을 나누어 해결한 후, 문제를 부드럽고 빠르게 다시 서로 결합하는 방법으로 각각의 컴퓨팅 방식으로는 접근이 불가능하거나 어려운 알고리즘을 실행할 수 있도록 설계되고 있다. 대표적으로, 일본의 국립 과학 연구 기관인 이화학연구소(RIKEN)와 학술 의료 센터이자 생의학 연구 기관인 클리블랜드 클리닉(Cleveland Clinic)은 유용성 단계의 IBM 퀀텀 시스템 원을 통해 화학의 기본이 되는 전자 구조 문제에 대한 알고리즘을 연구하고 있다. 이 프로젝트는 복잡한 화학 및 생물학적 시스템을 현실적으로 모델링하기 위한 양자 중심 슈퍼컴퓨팅 접근 방식의 첫 단계로, 과거에는 무결함 양자 컴퓨터가 필요할 것이라고 여겨졌던 작업이다. 제이 감베타(Jay Gambetta) IBM 퀀텀 부사장은, “IBM 퀀텀 하드웨어와 퀴스킷의 발전으로 사용자들은 첨단 양자 및 기존 슈퍼컴퓨팅 자원을 결합해 각자의 강점을 결합한 새로운 알고리즘을 구축할 수 있게 됐다”며, “오류 수정 양자 시스템을 향한 로드맵을 향해 나아가는 가운데, 현재 산업 전반에서 발견되는 알고리즘은 QPU, CPU, GPU의 융합으로 만들어지는 미개척 컴퓨팅 분야의 잠재력을 실현하는 데 핵심이 될 것”이라고 말했다.
작성일 : 2024-11-14
AMD, 2세대 버설 프리미엄 시리즈 SoC 공개
AMD는 광범위한 워크로드에서 높은 수준의 시스템 가속 성능을 달성할 수 있도록 설계된 적응형 SoC 플랫폼인 2세대 버설 프리미엄 시리즈(AMD Versal Premium Series Gen 2)를 공개했다. 2세대 버설 프리미엄 시리즈는 CXL 3.1(Compute Express Link 3.1)과 PCIe 젠6(PCIe Gen6) 및 LPDDR5X를 하드 IP 형태로 지원하는 디바이스이다. AMD는 차세대 인터페이스와 메모리 기술을 통해 프로세서와 가속기 간의 데이터 이동 및 액세스를 빠르고 효율적으로 처리할 수 있다고 설명했다. 또한, CXL 3.1과 LPDDR5X는 더 많은 메모리 자원을 보다 빠르게 활용할 수 있어 데이터센터, 통신, 테스트 및 측정, 항공우주 및 방위 산업 등 데이터 집약적 애플리케이션에서 요구하는 실시간 프로세싱 및 스토리지 요구사항을 충족한다.     AMD는 FPGA 기반 가속기와 같은 디바이스 및 프로세서 간의 상호 연결을 위한 개방형 산업 표준인 CXL을 지원한다. 2세대 버설 프리미엄 디바이스는 업계에서 PCIe 젠 6 및 CXL 3.1을 통해 호스트 CPU와 가속기 간의 고대역폭 연결을 지원한다. AMD는 “PCIe 젠 6은 PCIe 젠 4 또는 젠 5를 지원하는 경쟁 FPGA에 대비 2배~4배 빠른 속도를 발휘하며, PCIe 젠 6으로 실행되는 CXL 3.1은 CXL 2.1을 사용하는 경젱 제품에 비해 유사한 지연시간으로 두 배의 대역폭, 향상된 패브릭 및 일관성(coherency)을 제공한다”고 설명했다. 시스템 개발자는 2세대 버설 프리미엄 시리즈와 AMD 에픽(EPYC) CPU를 함께 사용하여 CXL 또는 PCIe를 통해 고성능 CPU에 연결된 최신 AMD FPGA 기반 디바이스를 활용할 수 있다. 이는 데이터 집약적 애플리케이션을 가속화하고, 급속도로 증가하는 데이터 요구를 충족한다. 이외에도, CXL은 메모리 일관성(memory coherency)을 제공하여 이기종 가속 컴퓨팅을 가능하게 한다.  AMD 2세대 버설 프리미엄 시리즈 적응형 SoC는 최대 속도 8533Mb/s의 LPDDR5X를 통해 메모리 대역폭을 개선함으로써 데이터 전송 및 실시간 응답 속도를 향상시킨다. 이러한 향상된 초고속 DDR 메모리를 통해 기존 LPDDR4 및 5 메모리를 탑재한 동급 경쟁 디바이스에 비해 최대 2.7배 더 빠른 호스트 연결을 제공한다는 것이 AMD의 설명이다. 또한, CXL 메모리 확장 모듈과의 연결을 통해 LPDDR5X 메모리만 사용할 때보다 최대 2.7배 더 높은 총 대역폭을 활용할 수 있다. 이를 통해 2세대 버설 프리미엄 시리즈는 여러 가속기로 확장 및 동적 할당이 가능한 메모리 풀링(Memory Pooling)을 지원함으로써 메모리 활용도를 최적화하고, 메모리 대역폭과 용량을 증가시킬 수 있다. 2세대 버설 프리미엄 시리즈 적응형 SoC는 여러 디바이스로 메모리 풀을 동적으로 할당하여 MH-SLD(Multi-Headed Single Logic Device)의 메모리 활용도를 개선한다. 이를 통해 패브릭이나 스위치를 사용하지 않고도 동작이 가능하며, 최대 두 개까지 CXL 호스트를 지원한다. 보안 기능이 강화된 2세대 버설 프리미엄 시리즈는 데이터 이동 및 저장 시 빠르고 안전하게 데이터를 전송한다. 이 디바이스는 하드 IP 형태로 통합된 PCIe IDE(PCIe Integrity and Data Encryption)를 지원하는 FPGA이다. 하드웨어 구조의 DDR 메모리 컨트롤러에 내장된 인라인 암호화(Inline Encryption)는 휴면 데이터를 보호하고, 400G의 고속 암호화 엔진은 디바이스가 최대 2배 더 빠른 속도로 사용자 데이터를 보호하고, 더 빠르고 안전한 데이터 트랜잭션을 제공할 수 있도록 지원한다. AMD는 2세대 버설 프리미엄 시리즈 개발 툴을 2025년 2분기에 출시하고, 반도체 샘플은 2026년 초에 제공될 예정이라고 밝혔다. 양산 제품은 2026년 하반기부터 출하될 예정이다. AMD의 적응형 및 임베디드 컴퓨팅 그룹 총괄 책임자인 살릴 라지(Salil Raje) 수석 부사장은 “시스템 설계자는 더 많은 데이터를 더 작은 공간에 저장하고, 보다 효율적으로 시스템 부품 간 데이터 이동을 처리할 수 있는 방법을 지속적으로 모색하고 있다”면서, “이번에 2세대 버설 제품군에 추가된 최신 제품은 AMD의 고객이 전반적인 시스템 처리량과 메모리 리소스 활용도를 개선하여 클라우드에서 에지까지 까다로운 애플리케이션에서 최상의 성능 및 역량을 달성할 수 있도록 지원한다”고 전했다.
작성일 : 2024-11-13
에픽게임즈, 언리얼 엔진 5.5에서 게임 개발자 및 산업 크리에이터 위한 기능 향상
에픽게임즈 코리아는 게임 개발자와 모든 산업의 크리에이터를 위해 다양한 툴세트와 기능을 새롭게 추가하고 개선한 언리얼 엔진 5.5 버전을 정식 출시했다고 밝혔다. 이번 언리얼 엔진 5.5 업데이트에서는 ▲애니메이션 제작 ▲렌더링 ▲버추얼 프로덕션 ▲모바일 게임 개발 ▲개발자 반복작업 등에서 향상이 이뤄졌다.     애니메이션 제작 영역에서는 에디터에서 고퀄리티 애니메이션 제작 워크플로를 지원하는 신규 및 향상된 기능을 제공하여 상황에 맞는 애니메이션을 제작할 수 있으므로, DCC 애플리케이션을 오가며 작업할 필요성이 줄어들었다. 또한, 애니메이션 게임플레이 제작 툴세트에도 새로운 기능이 추가됐다. 언리얼 엔진의 비선형 애니메이션 에디터인 ‘시퀀서’가 개선돼 더 나은 필터링과 속성을 더욱 쉽게 사용할 수 있어 인터페이스상에서 더 쉽게 제어할 수 있으며, 변경 유지 애니메이션 레이어가 추가되어 기존 DCC 애플리케이션에서만 볼 수 있었던 추가적인 제어 기능과 유연성을 제공한다. ‘조건부 상태 변경’, ‘커스텀 바인딩’ 등과 같은 기능으로 다양한 다이내믹 시네마틱 시나리오를 작동하도록 설정하는 것 역시 더욱 쉬워졌다. 컨트롤 릭에서 애니메이션을 적용할 수 있는 ‘애니메이션 디포머’를 만들어 클릭 한 번만으로 시퀀서의 캐릭터에 쉽게 적용할 수 있는 기능이 추가되어 더욱 사실적인 애니메이션 이펙트를 제작할 수 있다. 또한, 애니메이션에 바로 사용하거나 자신만의 릭으로 구동되는 디포머 또는 헬퍼 릭을 제작하는데 예제로 활용할 수 있는 ‘애니메이터 키트 플러그인’도 제공된다. 다양한 UI 및 UX 개선, 새로운 사족 보행 및 비클 모듈 등을 지원하는 ‘모듈형 컨트롤 릭’이 베타 버전으로 제공되며, 더 빠르고 간소화된 페인팅 워크플로 및 가중치 편집 등의 다양한 개선 사항이 포함된 ‘스켈레탈 에디터’를 정식 버전으로 만나볼 수 있다. 언리얼 엔진용 메타휴먼 플러그인 중 하나인 ‘메타휴먼 애니메이터’ 역시 향상됐다. 이제 오디오만으로 얼굴 상단 부분의 표정을 추론하여 고퀄리티의 페이셜 애니메이션을 생성할 수 있게 됐다. 로컬 오프라인 설루션으로서 다양한 음성 및 언어와 함께 작동되며, 다른 메타휴먼 애니메이터 입력과 함께 일괄 처리 및 스크립팅할 수 있다. 런타임에 동적으로 변경되는 콘텐츠를 개발하는 게임 개발자에게 도움이 될 ‘뮤터블 캐릭터 커스터마이제이션 시스템’도 새롭게 추가됐다. 이 시스템은 캐릭터, 동물, 소품, 무기 등의 다이내믹 스켈레탈 메시, 머티리얼, 텍스처를 생성하는 동시에 메모리 사용량을 최적화하고 셰이더 비용 및 드로 콜 수를 줄여주며, 많은 파라미터와 텍스처 레이어, 복잡한 메시 상호작용 등을 처리할 수 있는 심층적인 커스터마이징을 지원한다. 하드웨어 레이 트레이싱 기반 시스템에 많은 향상이 이루어지면서, 이제 하드웨어 지원을 제공하는 플랫폼에서 ‘루멘’을 60Hz로 실행할 수 있다. 또한, 물리적으로 정확한 DXR 가속 프로그레시브 렌더링 모드인 ‘패스 트레이서’가 정식 버전으로 제공되어, 비선형 애플리케이션 또는 모든 기능을 갖춘 실사 레퍼런스 이미지의 최종 픽셀을 제작할 때 높은 퀄리티를 제공한다. 5.2 버전에서 실험단계로 선보인 머티리얼 제작 프레임워크인 ‘서브스트레이트’가 베타 버전으로 전환되면서 이제 언리얼 엔진이 지원하는 모든 플랫폼과 기존 머티리얼의 모든 기능이 지원된다. 선형 머티리얼 제작에 정식으로 사용할 수 있으며, 룩 개발 아티스트는 이 프레임워크를 활용하여 오브젝트의 룩 앤 필을 더 제어할 수 있게 됐다. 5.4 버전에서 실험단계로 도입되었던 ‘무비 렌더 그래프’ 역시 베타 버전으로 전환되면서 커스텀 EXR 메타데이터를 사용하는 기능, 컬렉션의 스포너블 지원 그리고 오브젝트 ID 지원과 같은 기존 프리셋 구성의 호환성 향상 등을 제공한다. 또한, 패스 트레이서용 ‘스파시오 템포럴 디노이저’를 신규로 제공해 선형 시퀀스에 고퀄리티의 결과를 구현할 수 있다. 신에 제약 없이 다이내믹한 그림자를 만드는 수백 개의 라이트를 추가할 수 있는 ‘메가라이트’를 통해 라이팅 아티스트는 이제 콘솔과 PC에서 소프트 섀도와 함께 텍스처가 적용된 에어리어 라이트, 라이트 함수, 미디어 텍스처 재생, 볼류메트릭 섀도를 자유롭게 사용해 볼 수 있다. ‘SMPTE 2110’의 정식 지원으로 수많은 안정성 개선, 프레임록 손실 자동 감지 및 복구, 타임코드로 PTP 지원 추가 등에 대한 개선이 이뤄졌다. ‘카메라 캘리브레이션’ 솔버 역시 정식 버전으로 제공되면서 렌즈 및 카메라 파라미터 추정 정확도가 향상됐다. 또한, 5.4 버전에서 처음 도입되었던 ‘버추얼 스카우팅’ 툴세트도 정식 버전으로 업데이트됐다. 이제 OpenXR 호환 HMD를 사용해 강력한 경험을 곧바로 활용할 수 있으며, 광범위한 API를 통한 새로운 커스터마이징도 제공한다. 한편, 이전에는 ICVFX 에디터에서만 제공됐던 ‘컬러 그레이딩 패널’이 이제 언리얼 에디터의 일반 기능으로 사용할 수 있게 돼 nDisplay로 작업하는 사용자뿐만 아니라 모든 아티스트에게 향상된 컬러 그레이딩 경험을 제공하며, 포스트 프로세스 볼륨, 시네 카메라 및 색 보정 영역도 지원한다. ‘모바일 포워드 렌더러’에 플랫폼의 비주얼 퀄리티를 높일 수 있는 다양한 신규 기능이 추가됐다. 뿐만 아니라 5.4 버전에서 도입된 런타임 자동 PSO(Pipeline State Object) 프리캐싱이 이제 기본 활성화되어 수동 PSO 수집 워크플로에 대한 쉽고 빠른 대안을 제공한다. ‘모바일 프리뷰어’의 경우 모바일 게임 콘텐츠 개발에 도움이 되는 다양한 개선이 이뤄져, 특정 안드로이드 디바이스 프로필을 캡처 및 프리뷰하는 기능과 함께 반정밀도 16비트 플로트 셰이더를 에뮬레이션하여 오류를 쉽게 확인하고 대응할 수 있는 기능을 제공한다. 개발자 반복작업의 경우, 최적화된 신규 캐시 데이터 스토리지 및 네트워크 커뮤니케이션 아키텍처인 ‘언리얼 젠 서버’가 정식 버전으로 제공돼 공유 파생 데이터 캐시로 사용될 수 있다. 또한, 이번 버전에서는 젠 서버가 타깃 플랫폼으로 쿠킹된 데이터의 스트리밍을 지원해 개발 중에도 PC, 콘솔, 모바일 등의 타깃 플랫폼에서 게임이 어떻게 보이고 작동하는지 보다 빠르고 쉽게 평가할 수 있다. 또한, 에디터 시스템과 쿠킹 프로세스에 최적화된 애셋 로딩 경로를 제공하는 ‘언리얼 젠 로더’, 더 빠른 C++ 및 셰이더 컴파일을 제공하는 ‘언리얼 빌드 액셀러레이터’, 더욱 효율적이고 확장 가능한 개발 워크플로를 제공하는 ‘언리얼 호드 지속적 통합 및 원격 실행’ 등 다양한 기능이 정식 버전으로 제공된다. 에픽게임즈 코리아는 10월 정식 출시된 새로운 통합 콘텐츠 마켓플레이스 ‘팹’이 언리얼 엔진 5.5에 통합되어 퀵셀 메가스캔과 같은 개별 애셋을 신으로 직접 드래그 앤 드롭할 수 있으며, 팹의 애셋 팩을 콘텐츠 브라우저에 추가할 수 있게 됐다고 밝혔다.
작성일 : 2024-11-13
PAS-Arm, 소프트웨어 정의 차량 표준화를 위한 파트너십 체결
파나소닉 오토모티브 시스템즈(PAS)와 Arm은 소프트웨어 정의 차량(SDV)을 위한 차량용 아키텍처의 표준화를 목표로 하는 전략적 파트너십을 발표했다. 양사는 현재와 미래의 차량 요구 사항을 충족하는 유연성을 갖춘 소프트웨어 스택을 개발한다는 공통의 비전을 공유하고 있으며, 자동차 시장 전반에서 표준화된 소프트웨어 개발 협력을 촉진하는 업계 전반의 이니셔티브인 SOAFEE(Scalable Open Architecture For the Embedded Edge)에 적극 참여함으로써 이에 뜻을 같이하고 있다. 이번 새로운 파트너십을 통해 PAS와 Arm은 디바이스 가상화 프레임워크인 VirtIO를 채택하고 확장하여, 차량용 소프트웨어 개발을 하드웨어에서 분리하고 자동차 산업 개발 주기를 가속화할 예정이다. 자동차 업계는 점점 더 전자제어장치(ECU)를 콕핏 도메인 컨트롤러(CDC) 또는 고성능 컴퓨팅(HPC)과 같은 강력한 단일 ECU로 통합하고 있다. 이로 인해 하이퍼바이저(hypervisor)와 고성능 칩셋의 중요성이 그 어느 때보다 커졌다. 하지만 많은 자동차 제조업체와 티어 1 공급업체는 공급업체별 독점 인터페이스로 인해 어려움을 겪고 있으며, 이는 한 공급업체 솔루션에서 다른 공급업체 솔루션으로 전환 시 비용과 배송 시간을 증가시킨다. PAS와 Arm은 이러한 과제를 해결하기 위해 하드웨어 중심에서 소프트웨어 우선 개발 모델로 전환해야 할 필요성을 인식하고 있다. 자동차 제조업체 및 1차 공급업체 소프트웨어 스택과 이를 실행하는 기본 하이퍼바이저 및 칩셋 간의 인터페이스를 표준화함으로써 자동차 파트너는 각자의 요구와 사용 사례에 최적화된 최신 세대의 기술을 더 쉽게 채택할 수 있다.     이 새로운 파트너십에는 ▲VirtIO 기반 통합 HMI를 활용한 영역 기반(zonal) 아키텍처 표준화 ▲클라우드부터 차량까지 환경적 동등성 보장 ▲VirtIO 표준화 확장 등과 같은 주요 이니셔티브가 포함된다. PAS와 Arm은 CDC/HPC와 같은 중앙 ECU에 연결된 디바이스의 가상화뿐만 아니라 영역 기반 ECU에 연결된 원격 디바이스에도 VirtIO를 활용하고 있다. 양사는 PAS의 오픈 소스 원격 GPU 기술인 Unified HMI를 사용하여 Arm에 구축된 디스플레이 영역 기반 아키텍처(Display Zonal Architecture)를 구현하는 개념 증명을 시연했다. 이 아키텍처는 중앙 ECU에서 여러 영역 기반 ECU로 GPU 부하를 분산하여 중앙 ECU에서 실행되는 애플리케이션을 변경하지 않고도 발열과 하네스 무게를 줄인다. 영역 기반 ECU의 Mali-G78AE GPU의 유연한 파티셔닝은 전용 하드웨어 리소스를 다양한 워크로드에 할당하여 디스플레이 영역 기반 아키텍처에서 결정적인 그래픽 성능을 구현할 수 있도록 한다. PAS와 Arm은 자동차 업계에서 새롭게 부상하는 영역 기반 아키텍처의 표준화를 목표로 해당 작업의 SOAFEE 블루프린트 및 레퍼런스 구현을 제공하기 위해 협력하고 있다. PAS의 vSkipGen은 Arm Neoverse 기반 클라우드 서버에서 작동한다. 이 이니셔티브는 동일한 Arm CPU 아키텍처와 VirtIO 디바이스 가상화 프레임워크를 유지함으로써 클라우드 가상 하드웨어와 차량용 하드웨어 간의 환경적 동등성을 보장한다. PAS와 Arm은 가상 하드웨어에서 VirtIO를 구현하기 위해 협력하여 가상 및 물리적 자동차 시스템 간의 격차를 더욱 해소할 예정이다. 현재 Android Automotive 및 Automotive Grade Linux와 같은 콕핏 사용 사례에 중점을 두고 있는 PAS와 Arm은 더 많은 차량용 애플리케이션을 포괄할 수 있도록 VirtIO 표준을 확장하는 것을 목표로 한다. 여기에는 실시간 운영 체제(RTOS)용 인터페이스를 표준화하여 첨단 운전자 지원 시스템(ADAS) 소프트웨어를 하드웨어 종속성에서 분리하는 것이 포함된다. PAS의 최고기술책임자인 미즈야마 마사시게(Masashige Mizuyama) 부사장은 “Arm과의 파트너십은 VirtIO의 표준화를 촉진하고 이 업계의 참조 표준을 다음 단계로 끌어올리는 것을 목표로 한다”며, “양사의 전문성과 업계 리더십을 결합함으로써 이번 협력이 소프트웨어 잠재력을 실현하고 SDV를 향한 자동차 기술의 미래를 구축하는 데 중요한 기반이 될 것으로 확신한다"고 말했다. Arm의 오토모티브 사업부 총괄인 딥티 바차니(Dipti Vachani) 수석 부사장은 “SDV는 오늘날 자동차 제조업체에게 가장 흥미로운 기회 중 하나이지만, 이 비전을 실현하려면 소프트웨어 개발자가 물리적 실리콘이 출시되기 전에 작업을 시작할 수 있는 혁신적인 접근 방식이 필요하다”며, “PAS와의 파트너십은 양 기관의 SOAFEE에 대한 적극적인 참여에서 비롯되었으며, 표준화를 통해 업계의 파편화를 줄이고 궁극적으로 파트너의 자동차 개발 주기를 가속화하려는 공동의 목표를 기반으로 한다”고 전했다.
작성일 : 2024-11-11
대규모 언어 모델의 핵심 개념인 토큰, 임베딩과 모델 파인튜닝에 대해
BIM 칼럼니스트 강태욱의 이슈 & 토크   이번 호에서는 LLM(대규모 언어 모델)의 자연어 처리에서 핵심 기술인 토큰, 임베딩 및 모델 파인튜닝의 이해를 위한 개념과 임베딩 모델의 동작 메커니즘을 살펴본다. 여기서 토큰은 문장을 구성하는 단어로 가정하면 이해하기 쉽다. 토큰과 임베딩은 입력 시퀀스에 대한 출력을 학습, 예측할 때 훈련의 전제가 되는 LLM의 기본조건이다. 이에 대해 좀 더 깊게 이해해 보자.    ■ 강태욱  건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다.  페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com  홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast    최근 대규모 언어 모델(LLM : Large Language Model)과 검색 증강 생성(RAG : Retrieval-Augmented Generation) 기술을 이용해 다양한 전문가 서비스 에이전트를 개발하는 사례가 많아지고 있다. 특히, 전문가처럼 행동하며 문제를 해결하거나 의사결정을 지원하는 멀티 에이전트 기술은 이미 선진국을 중심으로 금융, 제조, 건설 등 엔지니링 분야에 개발되고 있다.    도메인 의존 정보와 토큰  의학과 같은 특별한 분야에서는 환각 현상 등으로 인해 챗GPT(ChatGPT)와 같은 범용 LLM이 제대로 정보를 생성하지 못하는 경우가 많다. 이런 문제를 해결하기 위해 전문 분야의 지식을 기존 LLM 모델을 이용해 재학습하는 방법이 생겨났는데, 파인튜닝은 그 중 한 가지 방법이다.  파인튜닝은 빅테크 업체가 공개한 LLM 모델을 특정 도메인 지식을 잘 표현할 수 있도록 재학습하는 방법 중 하나이다. LLM의 신경망 전체를 재학습하기 위해서는 매우 비싼 GPU 사용 비용이 필요하다. 이는 일반적인 기업에서 수행할 수 없는 수준이다. 이런 이유로, 파인튜닝은 메타에서 공개한 라마(LLaMA)와 같은 파운데이션 LLM 모델의 신경망에 별도의 작은 신경망을 추가해, 이를 별도로 준비된 데이터로 학습하는 방식을 사용한다.  LLM을 파인튜닝하기 전에 어떤 토큰이 사용되었는지, 임베딩 모델이 무엇인지 확인해야 한다. 파인튜닝 시 용어가 LLM에 사전 학습되어 있지 않다면, 용어 간 관계를 통계적으로 추론하는 학습 절차가 매우 비효율적으로 계산된다. 일반적으로 모델을 파인 튜닝하려면 LLM 토큰 확인 및 개발, 임베딩 모델의 적절한 사용이 필요하다.  <그림 1>은 토큰이 수치화된 결과를 보여준다. 참고로, 토큰이 숫자로 표현되지 못하는 문제를 OOV(Out-Of-Vocabulary)라 한다.    그림 1. 숫자 토큰화 결과   임베딩은 학습 모델이 입력되는 문장의 토큰 패턴을 통계적으로 계산하기 전, 토큰을 수치화시키는 함수이다. 이 함수를 임베딩 모델이라 한다. 임베딩 모델은 토큰을 수치화하여 모델 학습에 사용하는데 필요한 입력값을 출력한다. 이런 이유로, 토큰 사전과 임베딩 모델이 다르면 제대로 된 모델 학습, 예측, 패턴 계산 결과를 얻기 어렵다. 임베딩 모델도 별도의 신경망 모델이며 다양한 방식으로 학습될 수 있다. 이번 호에서는 구글에서 공개한 BERT(Bidirectional Encoder Representations from Transformers) 임베딩 모델을 사용한다.  이와 관련된 실험을 하기 위해, 개발 환경을 설치하고 파이썬 코드를 준비해 본다.    개발 환경 준비 미리 컴퓨터에 파이썬, 아나콘다 등 필수적인 라이브러리가 설치되어 있다는 조건에서, 실습을 위해 명령창에서 다음을 실행해 설치한다. pip install transformers torch   참고로, 다음은 파인튜닝에 사용하는 오픈소스 라이브러리를 보여준다. Torch : 텐서 계산 및 딥 러닝을 위한 핵심 라이브러리이다. PEFT : 낮은 순위의 적응 기술을 사용하여 대규모 언어 모델을 효율적으로 미세 조정할 수 있다. 특히 리소스가 제한된 장치에서 학습 가능한 매개 변수의 수를 줄여 모델을 압축하고 더 빠르게 미세 조정할 수 있다. bitsandbytes : 신경망에 대한 양자화 및 이진화 기술을 제공하여 모델 압축을 지원한다. 모델 압축에 도움이 되므로 메모리와 계산 능력이 제한된 에지 장치에 모델을 보다 실현 가능하게 만들 수 있다. Transformers : 대규모 언어 모델 작업을 간소화하여 사전 학습된 모델 및 학습 파이프라인을 제공한다. trl : 대규모 언어 모델의 경우 효율적인 모델 학습 및 최적화에 중점을 둔다. accelerate : 다양한 하드웨어 플랫폼에서 학습 및 추론을 가속화한다. dataset : 기계 학습 작업을 위한 데이터 세트 로드 및 준비를 간소화한다. pipeline : 사용자 지정 학습 없이 일반적인 NLP 작업에 대해 사전 학습된 모델의 사용을 간소화한다. PyArrow : 효율적인 데이터 로드 및 처리를 위해 사용될 수 있다. LoraConfig : LoRA 기반 미세 조정을 위한 구성 매개변수를 보유한다. SFTTrainer : 모델 학습, 최적화 및 평가를 처리한다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2024-11-04
벡터, ECU 가상화로 소프트웨어 정의 자동차 개발하는 설루션 발표
벡터코리아는 SDV(소프트웨어 정의 차량)의 복잡한 요구사항에 맞춰 개발 효율성을 극대화하여 유연한 개발 환경을 제공하는 소프트웨어 개발 설루션 ‘v버추얼타깃(vVirtualtarget)’과 ‘v하이퍼바이저(vHypervisor)’를 발표했다. 벡터의 SDV 소프트웨어 개발 설루션을 사용하면 물리적인 ECU(전자제어장치) 없이도 가상화를 기반으로 ECU 소프트웨어를 여러 환경에서 동시 테스트 가능하여, 테스트 환경을 유연하게 관리하고 개발을 가속화하여 비용을 절감시킨다. 특히 다중 코어 환경에서도 가상 머신 간의 시간 및 공간 분리를 구현하여 복잡한 시스템에서도 높은 신뢰성을 제공할 수 있다. 여러 시스템 간을 하나의 ECU로 통합하여 더욱 안전한 소프트웨어 환경을 구현했으며, 소형 마이크로컨트롤러부터 고성능 자동차 컴퓨터까지, 다양한 ECU 아키텍처 요구사항에 맞춰 시스템을 유연하게 확장이 가능하다. v버추얼타깃은 물리적 하드웨어 없이도 가상 ECU로 생산성을 높여 소프트웨어 개발을 가속화할 수 있다. 가상 환경에서 ECU 소프트웨어를 실행하고 테스트할 수 있어, 하드웨어가 준비되지 않아도 소프트웨어 개발을 시작할 수 있다. 이를 통해 개발 시간과 비용을 줄이고, 개발 초기부터 강력한 시뮬레이션이 가능하다.     v하이퍼바이저는 SDV에서 구동되는 여러 운영체제와 애플리케이션을 하나의 ECU에서 통합 실행할 수 있도록 지원한다. MICROSAR vHypervisor를 사용하면 단일 ECU에서 여러 가상 머신을 병렬로 실행할 수 있으며, 각 머신은 철저히 격리되어 있어 보안성과 안정성을 제공한다. 이로 인해 리소스를 절약하고, 시스템 간의 강력한 보안과 안정성을 제공한다. 특히 차량 내 여러 시스템의 복잡한 요구 사항을 동시에 만족시키면서도 유연한 개발 환경을 제공한다. 벡터코리아의 장지환 지사장은 “자동차 시스템이 점점 더 복잡해지고 개발 기간이 짧아지는 오늘날, 경쟁에서 앞서 나가기 위해서는 혁신적인 도구가 필요하다. 벡터의 v버추얼타깃과 v하이퍼바이저 가상화 설루션은 ECU 프로젝트를 최적화하고 속도를 높이며 보안을 강화하는 강력한 도구”라면서, “더 효율적이고 안전한 차량 개발을 지원하는 벡터의 가상화 설루션으로 차량 개발의 새로운 가능성과 혁신을 확인할 수 있을 것”이라고 전했다.
작성일 : 2024-10-30
오토데스크, 퓨전 및 알리아스에 AI 기능 강화해 설계/제조 효율과 창의성 강화
오토데스크가 연례 행사인 ‘오토데스크 유니버시티(AU) 2024’에서 오토데스크 AI(Autodesk AI)를 통해 설계 및 제조 과정의 복잡성을 줄이고 생산성 및 효율을 높이는 오토데스크 퓨전(Autodesk Fusion)과 알리아스(Autodesk Alias)를 공개했다. 퓨전은 제조 공정, 생산성, 비용 절감 등을 이끌어내는 데에 최적화된 설계 및 제조 플랫폼으로, 오토데스크 AI와 밀접하게 결합된 중앙 집중화 데이터 환경을 통해 반복적인 작업을 자동화한다. 알리아스는 단일 디자인 파이프라인을 통해 제품을 제작하고 프로세스를 개설할 수 있는 디자인 소프트웨어로, 오토데스크 AI를 통해 몇 초 만에 현실적인 디자인의 형태와 모양을 생성해 낸다. 오토데스크 AI는 이러한 퓨전과 알리아스의 기능을 강화해 복잡한 제품을 설계하고 제조하는 과정에서 시간을 절약함으로써, 제품 디자이너와 엔지니어의 창의적 과정을 지원한다. 오토데스크는 데이터 활용도를 높여 오류가 발생하기 쉬운 작업을 자동으로 처리해 사람들이 더 가치 있는 작업에 집중할 수 있도록 하는 기능을 개발 및 투자하고 있다고 전했다.   ▲ 오토데스크 자동차 제조 공장 조립 로봇(출처 : 오토데스크)   이번에 오토데스크가 소개한 오토데스크 AI 기반의 기능으로는 오토컨스트레인(AutoConstrain), 도면 자동화, 폼 익스플로러(Form Explorer), 오토데스크 어시스턴트(Autodesk Assistant) 등이 있다. 오토컨스트레인은 프로젝트 스케치를 분석해 대칭, 상대적 비율, 부품 간의 관계와 같은 설계 요소 간의 의도된 공간적 관계를 감지하고 치수 제약을 제안한다. 이 자동화 기능을 통해 설계 프로세스 전반에서 설계 의도를 유지할 수 있으며, 작업 중에도 치수를 수정하거나 삭제할 수 있어 작업 시간이 절약된다. 도면 자동화 기능은 버튼 클릭 한 번에 3D 모델을 분석하고, 필요한 2D 도면과 치수를 생성할 수 있다. 도면 세트에 포함할 필요가 없는 부분을 식별하여 자동으로 제거해 도면 작성 과정을 가속화 및 간소화한다. 폼 익스플로러는 자동차 외장 디자이너가 새로운 디자인을 몇 초 만에 탐색할 수 있도록 지원한다. 브랜드의 기존 스타일 언어를 학습해 디자이너가 새로운 변화를 시도할 때, 기존의 스타일 요소를 유지하면서도 새로운 디자인을 즉시 생성할 수 있도록 돕는다. 오토데스크 어시스턴트는 오토데스크에 대한 지식뿐만 아니라 일반 산업 지식을 갖춘 전문가로 ‘공구 경로 프로그래밍 방법’ 또는 ‘부품 제조 시 고려해야 할 사항’ 등과 같은 질문을 하면 구체적인 답변을 제공하고 원본 소스 링크를 공유한다. 한편, 오토데스크는 퓨전이 CAD와 CAM 외에도 CAE, ECAD, PLM, MES 등 설계, 제조 및 관리를 위한 소프트웨어를 포괄하도록 진화했다고 소개하면서, “올해 퓨전은 수용 가능한 성능과 속도가 향상돼 워크플로가 이전보다 절반 이하로 감소하고, 일부는 거의 즉시 완료되는 수준으로 속도가 빨라졌다”고 전했다. 또한, 새로운 제조 데이터 모델 API와 협업을 위한 도구 생태계도 소개됐다. 오토데스크는 새로운 제조 데이터 모델 API를 출시해 파트너와 고객이 설계 및 제조 생태계의 다양한 도구를 퓨전 워크플로에 통합할 수 있는 강력한 연결성을 구축했다고 밝혔다. 그리고 올해 새로 추가한 20개 이상의 파트너를 포함하여 150개 이상의 하드웨어 및 소프트웨어 제공업체와 협력하고 있다고 덧붙였다. 오토데스크는 “오토데스크 AI가 제품 라이프사이클 전반에 걸쳐 더 많은 데이터, 사람, 프로세스가 연결됨에 따라 제품에 대한 시장의 요구를 충족할 수 있도록 도와줄 것”이라면서, “미래 기술의 혁신과 창조를 위해 현재의 작업 속도 향상을 도와줘 고객의 경쟁력 있는 발전을 찾아주는 것이 오토데스크의 목표”라고 말했다.
작성일 : 2024-10-23