• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "GPU"에 대한 통합 검색 내용이 1,723개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
HPE, 생성형 AI용 엔드 투 엔드 AI 네이티브 포트폴리오 출시
HPE는 엔비디아 GTC에서 생성형 AI, 딥러닝, 머신러닝 애플리케이션의 운영 고급화를 위한 통합 AI 네이티브 포트폴리오를 새롭게 업데이트했다고 발표했다. 이번에 발표된 업데이트는 ▲HPE와 엔비디아가 공동 엔지니어링한 풀스택 생성형 AI 솔루션 ▲HPE 머신러닝 추론 소프트웨어 프리뷰 버전 ▲엔터프라이즈급 검생증강생성(RAG : Retrieval-augmented generation) 레퍼런스 아키텍처 ▲신규 엔비디아 블랙웰(NVIDIA Blackwell) 플랫폼 기반 제품 개발 지원 등을 포함한다. 대규모 AI 모델의 개발 및 훈련을 위해 사전 구성 및 테스트된 풀스택 솔루션을 원하는 기업을 위해 생성형 AI용 HPE 슈퍼컴퓨팅 솔루션도 출시됐다. 고객들이 생성형 AI 및 딥러닝 프로젝트 개발을 가속할 수 있도록 목적 기반의 턴키 솔루션은 엔비디아 칩으로 구동되며 최대 168개의 엔비디아 GH200 그레이스 호퍼 슈퍼칩(GH Grace Hopper Superchip)이 제공된다. 이 솔루션은 대기업, 연구소 및 정부 기관들이 인공지능 및 머신러닝 소프트웨어 스택을 활용한 모델 개발 과정을 더욱 단순화할 수 있도록 지원한다. 이러한 소프트웨어 스택은 고객들이 대규모 언어 모델(LLM), 추천 시스템, 벡터 데이터 베이스 등 생성형 AI와 딥러닝 프로젝트를 더욱 빠르게 추진할 수 있도록 한다. 설치에서부터 모든 서비스가 제공되는 턴키 솔루션을 이용해 AI 연구 센터와 대기업은 가치 창출까지의 시간을 더욱 단축하고 훈련은 2~3배 더욱 신속히 진행할 수 있다.     HPE의 생성형 AI용 엔터프라이즈 컴퓨팅 솔루션은 유연하고 확장 가능한 사용량 기반 과금 모델을 제공하는 HPE 그린레이크(HPE GreenLake)를 통해 이용할 수 있다. 엔비디아와 공동 엔지니어링하여 사전 구성된 미세 조정(fine-tuning) 및 추론 솔루션은 생성형 AI 애플리케이션을 제작하기 위해 필요한 정확한 컴퓨팅, 스토리지, 소프트웨어, 네트워킹 및 컨설팅 서비스를 제공함으로써 소요 시간과 비용을 절감해 준다. 이러한 AI 네이티브 풀스택 솔루션은 프라이빗 데이터 기반의 파운데이셔널 모델을 제작하기 위해 필요한 속도, 규모, 관리 기능을 제공하고 하이브리드 클라우드 모델 내 생성형 AI 애플리케이션을 배포할 수 있도록 지원한다. HPE와 엔비디아의 고성능 AI 컴퓨팅 클러스터 및 소프트웨어를 기반으로 하는 이 솔루션은 경량 모델 미세조정, RAG, 대규모 추론 등에 이상적이다. 이 솔루션을 실행하는 700억 개의 파라미터를 가진 라마 2(Llama 2) 모델의 미세 조정 시간은 노드 수에 따라 선형적으로 감소하여 16노드 시스템에서는 6분이 소요된다. 이러한 속도와 성능 덕분에 고객은 버추얼 어시스턴트, 지능형 챗봇, 기업용 검색과 같은 AI 애플리케이션으로 비즈니스 생산성을 개선하여 가치 실현을 더욱 빠르게 달성할 수 있다. 또한, 해당 솔루션은 HPE 프로라이언트 DL380a Gen11 서버(HPE ProLiant DL380a Server)를 기반으로 엔비디아 GPU, 엔비디아 스펙트럼-X 이더넷(NVIDIA Spectrum-X Ethernet) 네트워킹 플랫폼, 엔비디아 블루필드-3 DPU(NVIDIA BlueField-3 DPU)으로 사전 구성되어 있다. 이에 더해 HPE의 머신러닝 플랫폼과 애널리틱스 소프트웨어, 생성형 AI 모델 추론용으로 최적화된 엔디비아 NIM 마이크로서비스가 제공되는 엔비디아 AI 엔터프라이즈 5.0 소프트웨어뿐만 아니라 엔비디아 네모 리트리버(NeMo Retriever) 및 기타 데이터 사이언스와 AI 라이브러리를 이용할 수 있다. HPE의 안토니오 네리(Antonio Neri) CEO는 “생성형 AI의 미래를 실현하고 AI 생명주기 전반을 다루기 위한 솔루션은 설계부터 하이브리드로 제작되어야 한다. AI는 하이브리드 클라우드 환경이 필요한 워크로드로, 온프레미스나 코로케이션 시설, 퍼블릭 클라우드에서 AI 모델을 훈련하는 것부터 에지에서의 추론 작업까지 모든 환경에 걸쳐 진행된다”면서, “HPE와 엔비디아는 공동 설계한 AI 소프트웨어 및 하드웨어 솔루션을 지속적으로 선보이며, 고객들이 기획에서부터 제작까지 생성형 AI를 가속해서 개발하고 배포할 수 있도록 도와줄 것”이라고 말했다. 엔비디아의 젠슨 황(Jensen Huang) CEO는 “생성형 AI는 커넥티드 디바이스, 데이터 센터 및 클라우드 내 데이터에서 인사이트를 도출해내며 전 산업의 혁신을 일으킬 수 있다. 엔비디아와 HPE의 협력 확대를 통해 기업들은 데이터를 활용하여 새로운 AI 애플리케이션을 개발 및 배포함으로써 전례 없는 생산성 향상을 경험하고 비즈니스를 새롭게 전환할 수 있을 것”이라고 말했다.
작성일 : 2024-03-26
레노버, 최대 96 코어 CPU 탑재한 워크스테이션 ‘씽크스테이션 P8’ 출시
한국레노버가 AMD와 엔비디아의 컴퓨팅 아키텍처에 기반한 ‘씽크스테이션 P8’ 데스크톱 워크스테이션을 출시했다. 씽크스테이션 P8은 5나노(nm) 공정 기반 젠4 아키텍처를 적용한 AMD 라이젠 스레드리퍼 프로 7000 WX 시리즈 프로세서를 탑재했다. 싱글 소켓 기준으로 최대 96코어, 192 스레드를 지원하는 씽크스테이션 P8은 빌딩 정보 모델링(BIM) 워크플로, 소프트웨어 개발 프로젝트, 제품 생명주기 관리(PLM) 등의 데이터 집약도가 높은 업무 뿐만 아니라 복잡한 렌더링 및 VFX 워크로드를 처리할 수 있는 미디어· 엔터테인먼트 분야에도 고성능을 제공하는 데에 초점을 맞추었다.     지난 해 출시된 인텔 CPU 기반 씽크스테이션 제품군과 동일하게 영국 럭셔리 스포츠카 브랜드 ‘애스턴마틴(Aston Martin)’과 파트너십을 통해 디자인된 섀시를 적용했다. 견고한 랙 최적화 섀시는 플래티넘 등급의 파워 옵션을 제공하여 더욱 까다로운 확장 기능을 처리할 수 있다. 최대 3개의 엔비디아 RTX 6000 에이다(Ada) 제너레이션 및 AMD 라데온 프로 GPU를 지원해 대규모 언어 모델(LLM)을 사용하는 데이터 과학 및 생성형 AI, AI를 활용한 시각화 등 까다로운 AI 워크로드에 필요한 성능을 제공한다. 실시간 광선 추적, 동영상 렌더링, 시뮬레이션, 컴퓨터 지원 설계(CAD) 같은 그래픽 집약적 애플리케이션의 작업 시간 또한 줄일 수 있다.  씽크스테이션 P8은 유연성과 확장성을 특징으로 내세운다. 연결 속도와 확장성을 높여주는 6개 PCI 5세대 슬롯을 포함 총 7개 PCIe 슬롯을 제공한다. RAID 지원 M.2 PCIe 4세대 SSD는 최대 7개, 대용량 스토리지 위한 HDD는 최대 3개, 옥타 채널을 지원하는 DDR5 메모리는 최대 1TB까지 장착 가능하다. 네트워크 병목 현상을 해소하기 위해 10기가바이트 이더넷을 내장했다. 사용자가 세부 사양을 최적의 구성요소로 직접 설정하고, 별도의 툴 없이도 구성품을 쉽게 교체 가능하다.  씽크스테이션 P8은 씽크스테이션 진단 소프트웨어를 통해 빌트인 하드웨어를 모니터링할 수 있다. 레노버 퍼포먼스 튜너는 ISV(독립 소프트웨어 공급업체) 애플리케이션의 최적화를 지원한다. 바이오스부터 클라우드에 이르는 종합적 보안을 제공하는 레노버 씽크쉴드(ThinkShield) 보안 서비스로 안전성을 높였다. 한국레노버의 신규식 대표는 “워크플로가 복잡해지고 데이터 집약적인 작업이 늘면서 건축가, 엔지니어, 비주얼 아티스트, AI 모델 개발자 등의 전문가들은 강력하고 신뢰성 높은 워크스테이션을 찾고 있다”며, “강력한 성능, 탁월한 확장성을 제공하도록 설계된 씽크스테이션 P8은 가상현실(AR) 및 증강현실(VR) 콘텐츠 생성, 고급 AI 모델 개발 같은 전문 작업에 새로운 가능성을 열고 생성형 AI가 가져올 변화를 가속화할 것”이라고 전했다. 또한 “폭넓은 AMD 워크스테이션 포트폴리오로 엔트리 레벨부터 하이엔드 급의 성능을 필요로 하는 고객까지 전방위에 걸쳐 지원할 것”이라고 덧붙였다.
작성일 : 2024-03-26
미르, 팔레트 물류 자동화 지원하는 AI 기반 ‘MiR1200 팔레트 잭’ 자율이동로봇 출시
자율이동로봇(AMR) 제조업체인 미르(MiR)는 새로운 자율이동로봇인 ‘MiR1200 팔레트 잭(Pallet Jack)’을 출시한다고 밝혔다. 엔비디아 젯슨 AGX 오린(NVIDIA Jetson AGX Orin)으로 구동되는 첨단 AI 기반 팔레트 감지 기능이 적용된 MiR1200 팔레트 잭은 3D 비전을 이용해 팔레트를 식별하고, 높은 정밀도로 팔레트를 픽업 및 운송할 수 있다. MiR1200 팔레트 잭은 기존의 미르 AMR과 원활하게 통합이 가능하고, 미르의 데크 적재화물(Deck Load) AMR과 상호 운용되도록 설계됐다. 이를 통해 일반적으로 여러 현장에서 더 많은 로봇으로 복잡한 작업 흐름을 처리해야 하는 대규모 기업 고객에게 적합하다는 것이 미르의 설명이다.     MiR1200 팔레트 잭은 120만개 이상의 실제 및 합성 이미지를 학습한 솔루션으로 빠르고 정확한 팔레트 감지 기능을 지원한다. 높은 배터리 용량과 고속 충전 기능으로 연중무휴 작업 흐름에 적합하며, ISO 3691-4를 포함해 최신 제품 표준을 준수하도록 설계되어 다양한 환경에서 안전하게 사용할 수 있다.  라이다 및 3D 비전이 결합된 장애물 감지용 3D 센서는 바닥, 머리 위 및 주변의 장애물을 정밀하게 감지하여 정확하고 안전한 팔레트 배치를 지원하며, IP 52 등급과 견고한 바퀴로 까다로운 표면에서도 이동성을 제공하는 것도 특징이다. MiR1200 팔레트 잭의 3D 비전 기능은 특히 자동화가 어려운 복잡한 환경과 증가하는 노동력 부족으로 인해 자동화가 필요한 현장에서 기업이 자원 집약적인 자재관리 문제를 효과적으로 해결할 수 있도록 지원한다. MiR1200 팔레트 잭은 바닥에 떨어져 있는 물체나 머리 위의 장애물을 피하기 위해 경로를 동적으로 수정할 수 있다. 엔비디어 젯슨 AGX 오린 모듈에 내장된 GPU 및 여러 다른 프로세서의 전체 스택을 가속화하여 수많은 카메라와 라이다(LiDAR) 데이터를 실시간으로 처리할 수 있다. 좁은 공간에서도 쉽게 탐색이 가능한 이러한 능력은 기존 인프라 변경을 최소화하면서도 물류 효율성을 최적화하고, 적시에 팔레트를 운송하는데 적합하다. 미르의 장-피에르 하스우트(Jean-Pierre Hathout) 사장은 “미르의 광범위한 AMR에 최근 추가된 MiR1200 팔레트 잭은 기존 운송 솔루션의 크기와 무게는 물론, 운송 시나리오 범위를 대폭 개선함으로써 보다 다양한 적용 분야를 지원할 수 있게 되었다”면서, “또한 업계 선도적인 로봇 관리 툴인 미르 플릿(MiR Fleet)을 통해 모든 로봇을 원활하게 관리 및 통합하고, 미르 인사이트(MiR Insights)를 이용해 모니터링 및 최적화를 실현할 수 있다”고 전했다.
작성일 : 2024-03-25
엔비디아, 3D 그래픽 만드는 생성형 AI 모델 ‘라떼3D’ 공개
엔비디아가 몇 초 만에 텍스트를 3D 그래픽으로 변환하는 생성형 AI 모델 라떼3D(Large-scale Amortized Text-To-Enhanced3D Synthesis : LATTE3D)를 공개했다. 가상 3D 프린터처럼 텍스트 프롬프트를 1초 안에 사물과 동물의 3D 그래픽으로 변환할 수 있는 라떼3D는 표준 렌더링 애플리케이션에 널리 사용되는 포맷으로 제작됐다. 비디오 게임, 광고 캠페인, 디자인 프로젝트 또는 로보틱스용 가상 훈련장 개발 등을 위한 가상 환경을 쉽게 구현할 수 있다. 라떼3D는 엔비디아 리서치 데모에 사용된 엔비디아 RTX A6000과 같은 단일 GPU에서 추론을 실행할 때 거의 즉각적으로 3D 형상을 생성할 수 있게 됐다. 크리에이터는 처음부터 디자인을 시작하거나 3D 애셋 라이브러리를 일일이 찾아보는 대신, 라떼3D를 사용해 머릿속에 아이디어가 떠오르는 즉시 세부적인 개체를 생성할 수 있다.     모델은 텍스트 프롬프트에 따라 몇 가지 다른 3D 모양 옵션을 생성해 크리에이터에게 선택권을 제공한다. 선택된 개체는 몇 분 내에 더 높은 품질로 최적화된다. 그런 다음 사용자는 해당 그래픽을 그래픽 소프트웨어 애플리케이션이나 엔비디아 옴니버스(Omniverse)와 같은 플랫폼으로 전송할 수 있다. 이를 통해 오픈USD(OpenUSD) 기반 3D 워크플로와 애플리케이션을 사용할 수 있다. 연구진은 동물과 일상 사물이라는 두 가지 특정 데이터세트에 대해 라떼3D를 훈련시키고, 개발자는 동일한 모델 아키텍처를 사용해 다른 데이터 유형에 대해 AI를 훈련시킬 수 있다. 예를 들어, 3D 식물 데이터세트를 훈련한 라떼3D 버전은 조경 디자이너가 고객과 브레인스토밍하면서 나무, 꽃 덤불, 다육식물로 정원 렌더링을 빠르게 작성하는데 도움을 줄 수 있다. 가정 내 사물에 대해 훈련된 모델은 집을 3D 시뮬레이션으로 채울 아이템을 생성할 수 있다. 이런 경우 개발자는 테스트하거나 실제 환경에 배치하기 전에 개인 비서 로봇을 훈련할 수 있다. 라떼3D의 훈련에는 엔비디아 A100 텐서 코어(Tensor Core) GPU가 사용됐다. 3D 그래픽 외에도 챗GPT(ChatGPT)를 통해 생성된 다양한 텍스트 프롬프트를 훈련했다. 이를 통해 사용자가 특정 3D 개체를 설명할 때 제시할 수 있는 다양한 문구를 처리하는 능력을 향상시켰다. 예를 들어, 다양한 개 종류를 묘사하는 프롬프트에서는 모두 개 모양을 생성하도록 학습시켰다. 토론토 AI 연구소에서 라떼3D를 개발한 엔비디아의 산자 피들러(Sanja Fidler) AI 리서치 담당 부사장은 “1년 전만 해도 AI 모델이 이 정도 품질의 3D 비주얼을 생성하는데 1시간이 걸렸지만, 이제는 10~12초 정도면 충분하다. 훨씬 더 빠른 속도로 결과를 생성할 수 있게 되면서 업계 전반의 크리에이터들이 거의 실시간으로 텍스트를 3D로 생성할 수 있게 됐다”고 말했다.
작성일 : 2024-03-25
앤시스-엔비디아, 가속 컴퓨팅 및 생성형 AI 기반 CAE 솔루션 개발 협력
앤시스코리아는 가속 컴퓨팅 및 생성형 AI 기반의 차세대 시뮬레이션 솔루션 개발을 위해 엔비디아와 협력을 확대한다고 밝혔다. 양사간 협력 확대를 통해 앤시스는 최첨단 기술을 융합해 6G 통신 기술을 고도화하고 엔비디아 그래픽처리장치(GPU)를 통해 자사의 솔버를 강화할 전망이다. 또한, 앤시스의 소프트웨어에 엔비디아 AI를 통합하고 물리 기반 디지털 트윈을 개발하며, 엔비디아 AI 파운드리 서비스로 개발된 맞춤형 대규모 언어 모델(LLM)을 사용할 예정이다. 앤시스는 최근 포트폴리오 전반에 걸쳐 데이터 상호운용성을 강화하고 향상된 그래픽과 비주얼 렌더링을 제공하기 위해 오픈USD 얼라이언스(AOUSD)에 가입했다. 앤시스는 이미 엔비디아 옴니버스(NVIDIA Omniverse) 플랫폼에 기반한 엔비디아 드라이브 심(NVIDIA DRIVE Sim)에 앤시스 AV엑셀러레이트 오토노미(Ansys AVxcelerate Autonomy)를 연동했으며 앤시스 STK(Ansys STK), 앤시스 LS-DYNA(Ansys LS-DYNA), 앤시스 플루언트(Ansys Fluent) 및 앤시스 퍼시브 EM(Ansys Perceive EM) 등의 추가 연동을 검토하고 있다. 이를 통해 강화된 상호운용성을 바탕으로 사용자는 광범위한 수준에 걸친 다양한 시뮬레이션 과제를 해결할 수 있다. 앤시스는 엔비디아와 협력을 통해 고성능 컴퓨팅(HPC) 분야의 수치 연구를 발전시켜 사용자가 업계 전반에 걸쳐 설계 주기를 단축하고, 보다 복잡화된 제품을 제공할 수 있도록 지원할 계획이다. 앤시스는 다중 시뮬레이션 솔루션 강화를 위해 엔비디아 H100 텐서 코어(NVIDIA H100 Tensor Core) GPU를 활용하며 엔비디아 블랙웰(Blackwell) 기반 프로세서와 엔비디아 그레이스 호퍼 슈퍼칩(Grace Hopper Superchips)을 앤시스 포트폴리오 전반에 우선 도입한다. 여기에는 플루언트, LS-DYNA, 앤시스 전자 제품 및 반도체 제품이 포함된다. 동시에 엔비디아는 반도체 툴을 포함한 앤시스 기술을 활용해 가상 모델과 데이터 센터 설계를 강화, 궁극적으로 앤시스 솔버 성능을 가속화할 예정이다.     앤시스는 엔비디아 6G 리서치 클라우드 (NVIDIA 6G Research Cloud) 플랫폼을 최초로 채택한 기업 중 하나로, 연구자이 무선 액세스 네트워크(RAN) 기술용 AI를 발전시킬 수 있도록 포괄적인 제품군을 제공한다. 앤시스 HFSS로 구동되는 새로운 솔버 ‘앤시스 퍼시브 EM 솔버(Ansys Perceive EM solver)’는 6G 기술 개발 속도를 높이도록 설계된 엔비디아 6G 리서치 클라우드를 기반으로 한다.  앤시스는 최신 AI 기술로 소프트웨어 제품을 강화하기 위해 물리 기반의 머신러닝(ML)을 위한 엔비디아 모듈러스(NVIDIA Modulus) 프레임워크를 연구 중이다. 이 작업은 앤시스 AI+ 제품군 내에서 효율 최적화, 민감도 분석, 견고한 설계 등 향상된 기능을 제공하는 것을 목표로 한다. 또한, 앤시스는 LLM 개발을 발전시키고 설정 및 사용을 단순화하여 시뮬레이션의 대중화를 촉진하기 위해 엔비디아 AI 파운드리(NVIDIA AI foundry) 채택을 검토 중이다. 앤시스 솔루션에 맞춤화된 미래 LLM은 전문적인 가상 지원을 제공하여 새로운 고객의 시뮬레이션 사용 사례를 창출할 잠재력을 제공한다. 앤시스는 생성형 AI를 보다 쉽고 비용 효율적이며 신속하게 개발할 수 있는 도구를 제공하는 엔비디아 네모(NVIDIA NeMo) 플랫폼을 활용할 계획이다. 앤시스의 아제이 고팔(Ajei Gopal) CEO는 “엔비디아와의 협력 확대를 통해 가속 컴퓨팅과 생성형 AI의 새로운 지평을 열 수 있게 되었다”며, “엔비디아 옴니버스의 역동적인 영역 내에서 우리의 고객들이 가상과 현실을 연결함으로써 미래 기술 개발을 비롯한 혁신을 현실화해 우리 시대의 가장 시급한 엔지니어링 과제를 해결할 수 있을 것이라 믿어 의심치 않는다”고 밝혔다. 엔비디아의 젠슨 황(Jensen Huang) CEO는 “앞으로 제조되는 모든 제품에는 디지털 트윈이 적용될 것이다. 중공업 업계 내 전세계의 설계자와 엔지니어는 현재 시뮬레이션 엔진으로 앤시스를 사용하고 있다”며, “우리는 앤시스와 협력하여 이러한 대규모 작업에 가속 컴퓨팅 및 생성형 AI를 제공하고, 엔비디아 옴니버스 디지털화 기술로 앤시스의 선도적인 물리 기반 시뮬레이션 도구를 확장할 수 있도록 협력을 이어갈 것”이라고 말했다.
작성일 : 2024-03-25
엔비디아, 주요 클라우드 기업과 AI 관련 협력 강화 계획 소개
엔비디아는 GTC 행사에서 디지털 트윈과 인공지능 등 다양한 영역에서 업계 주요 기업과의 파트너십 내용을 소개했다. 이 가운데 AWS, 마이크로소프트, 구글 클라우드, 오라클 등과는 클라우드 상에서 AI 활용을 확대하는 것을 중심으로 협력을 강화할 계획이다.   AWS : 차세대 GPU 플랫폼 및 AI 인프라 제공 엔비디아는 차세대 GPU 플랫폼인 블랙웰(NVIDIA Blackwell)이 AWS에 제공된다고 발표했다. AWS는 5세대 엔비디아 NV링크로 상호 연결된 72개의 블랙웰 GPU와 36개의 그레이스 CPU로 구성된 GB200 NVL72를 갖춘 엔비디아 블랙웰 플랫폼을 제공할 예정이다. 엔비디아는 엔비디아 블랙웰이 AWS상에서 상당한 양의 컴퓨터 리소스를 필요로 하는 수조 개의 파라미터의 언어 모델의 추론 작업을 크게 향상시킬 것으로 전망하고 있다. 엔비디아와 AWS는 양사의 기술을 지속적으로 통합해 나가는 파트너십을 강화할 계획이다. 여기에는 차세대 엔비디아 블랙웰 플랫폼과 AI 소프트웨어를 비롯해 AWS의 니트로 시스템(Nitro System)과 AWS KMS(키 관리 서비스)의 고급 보안, 엘라스틱 패브릭 어댑터(EFA) 페타비트 규모의 네트워킹, 아마존 EC2(엘라스틱 컴퓨트 클라우드) 울트라클러스터 하이퍼스케일 클러스터링 등이 있다. 양사는 이런 기술을 함께 사용함으로써 아마존 EC2에서 이전 세대 엔비디아 GPU보다 더 빠르고, 저렴한 비용으로 대규모로 수조 개의 파라미터 거대 언어 모델(LLM)에 대한 실시간 추론을 구축, 실행할 수 있을 것으로 보고 있다. AWS는 엔비디아 H100 기반 EC2 P5 인스턴스의 성공을 기반으로, 대규모로 생성형 AI 훈련과 추론을 가속화하는 EC2 울트라클러스터에 배치된 새로운 B100 GPU를 탑재한 EC2 인스턴스를 제공할 계획이다. 또한 AWS에서 공동으로 만들어진 AI 플랫폼인 엔비디아 DGX 클라우드에서도 GB200을 사용할 수 있다.    마이크로소프트 : 생성형 AI 및 디지털 트윈 기술을 클라우드에서 통합 엔비디아는 GTC에서 마이크로소프트 애저(Azure), 애저 AI 서비스, 마이크로소프트 패브릭(Fabric), 마이크로소프트 365에 최신 엔비디아 생성형 AI와 옴니버스(Omniverse) 기술을 통합한다고 밝혔다. 엔비디아 옴니버스 클라우드 API(Omniverse Cloud API)는 올해 말 마이크로소프트 애저에서 먼저 제공되며, 개발자들은 기존 소프트웨어 애플리케이션에서 향상된 데이터 상호운용성, 협업, 물리 기반 시각화를 이용할 수 있도록 지원할 예정이다. 엔비디아 GPU와 엔비디아 트리톤 추론 서버(Triton Inference Server)는 마이크로소프트 365용 마이크로소프트 코파일럿에서 AI 추론 예측을 지원한다.  또한, 마이크로소프트는 엔비디아 그레이스 블랙웰 GB200과 고급 엔비디아 퀀텀-X800 인피니밴드(Quantum-X800 InfiniBand) 네트워킹의 성능을 애저에 도입할 예정이다. 이외에도 마이크로소프트는 엔비디아 H100 NVL 플랫폼에 기반한 애저 NC H100 v5 VM(가상머신)의 정식 출시를 발표했다. 미드레인지 훈련과 추론을 위해 설계된 NC 시리즈 VM은 이는 고객들에게 1개에서 2개의 엔비디아 H100 94GB PCIe 텐서 코어(Tensor Core) GPU로 구성된 두 등급의 VM을 제공하며, 엔비디아 멀티 인스턴스 GPU(MIG) 기술을 지원한다.   구글 클라우드 : 생성형 AI 앱의 구축과 관리 지원 엔비디아는 구글 클라우드와의 파트너십을 강화해 머신러닝(ML) 커뮤니티가 생성형 AI 애플리케이션을 쉽게 구축, 확장, 관리할 수 있도록 지원할 예정이다. 구글은 자사 제품과 개발자에게 AI 혁신을 지속적으로 제공하기 위해 새로운 엔비디아 그레이스 블랙웰(Grace Blackwell) AI 컴퓨팅 플랫폼을 도입하고, 구글 클라우드에 엔비디아 DGX 클라우드(DGX Cloud) 서비스를 적용한다고 발표했다. 아울러 엔비디아 H100 기반 DGX 클라우드 플랫폼은 이제 구글 클라우드에서 정식으로 사용할 수 있다. 구글은 최근 개방형 모델인 젬마(Gemma) 제품군 최적화를 위한 협력을 기반으로, 엔비디아 NIM 추론 마이크로서비스도 도입한다고 밝혔다. 이를 통해 구글은 개발자들이 선호하는 툴과 프레임워크를 사용해 훈련하고 배포할 수 있는 개방적이고 유연한 플랫폼을 제공할 계획이다. 또한, 양사는 엔비디아 GPU와 엔비디아 H100 그리고 L4 텐서 코어(L4Tensor Core) GPU 기반의 버텍스 AI(Vertex AI) 인스턴스에서 JAX를 지원한다고 발표했다.   오라클 : 데이터 관리용 가속 컴퓨팅과 생성형 AI 솔루션 제공 엔비디아는 자사의 풀스택 AI 플랫폼과 오라클 엔터프라이즈 AI를 결합해 운영, 위치, 보안에 대한 제어력을 강화한 AI 솔루션을 제공한다. 오라클 엔터프라이즈 AI는 OCI 전용 리전(OCI Dedicated Region), 오라클 알로이(Oracle Alloy), 오라클 EU 소버린 클라우드(Oracle EU Sovereign Cloud), 오라클 정부 클라우드(Oracle Government Cloud)에 배포 가능하다. 양사의 통합 솔루션은 퍼블릭 클라우드 또는 특정 위치의 고객 데이터센터에 유연한 운영 제어를 통해 배포할 수 있다. 오라클은 어디서나 로컬로 AI와 전체 클라우드 서비스를 제공할 수 있는 역량을 내세우면서, 배포 유형에 관계없이 일관적인 서비스와 가격을 통해 계획, 이동성, 관리를 간소화한다고 강조했다. 오라클 클라우드 서비스는 엔비디아 가속 컴퓨팅 인프라와 엔비디아 AI 엔터프라이즈 소프트웨어 플랫폼을 비롯한 다양한 엔비디아 스택을 활용한다. 또한, 새로 발표된 엔비디아 NIM 추론 마이크로서비스는 엔비디아 텐서RT(TensorRT), 엔비디아 텐서RT-LLM, 엔비디아 트리톤 추론 서버(Triton Inference Server)와 같은 엔비디아 추론 소프트웨어를 기반으로 구축된다.
작성일 : 2024-03-21
델, 엔비디아 기반의 ‘AI 팩토리 솔루션’ 선보여
델 테크놀로지스가 엔비디아와 엔터프라이즈 AI 적용 확산을 위해 전략적 협력을 강화하면서, 신규 솔루션인 ‘델 AI 팩토리 위드 엔비디아(Dell AI Factory with NVIDIA)’를 비롯해 ‘델 생성형 AI 솔루션(Dell Generative AI Solutions)’ 포트폴리오를 확대한다고 밝혔다. 이는 기업과 기관이 자체 보유한 데이터와 AI 툴, 그리고 온프레미스 인프라를 보다 안전하고 빠르게 통합하여 생성형 AI 투자 효과를 극대화하도록 돕는 것이 핵심이다. 델과 엔비디아는 델의 엔드-투-엔드 생성형 AI 솔루션 포트폴리오를 강화하고, 고객들이 비즈니스 혁신을 가속화하는 한편 생산성을 높일 수 있도록 지원할 계획이다. ‘델 AI 팩토리 위드 엔비디아’는 델의 서버, 스토리지, 클라이언트 디바이스, 소프트웨어 및 서비스와 엔비디아의 AI 인프라 및 소프트웨어 팩키지를 결합한 엔드-투-엔드 솔루션으로 고속 네트워크 패브릭을 기반으로 구성된다. 엄격한 테스트와 검증을 거친 랙 단위 설계가 가능하며, 이를 통해 데이터로부터 가치 있는 통찰력과 성과를 이끌어낼 수 있도록 돕는다. 이 솔루션은 또한 엔터프라이즈 데이터 보안 분야의 기존 오퍼링들을 비롯해 보안 및 개인 정보 보호를 위한 델의 서비스 오퍼링과 함께 활용할 수 있다.      ‘델 AI 팩토리 위드 엔비디아’는 모델 생성 및 튜닝에서부터 증강, 그리고 추론에 이르는 생성형 AI의 전체 수명주기에 걸쳐 다양한 AI 활용 사례와 애플리케이션을 지원한다. 델이 제공하는 프로페셔널 서비스를 활용해 조직에서는 전략을 세우고, 데이터를 준비하여 구현하고 적용하기 까지의 과정을 가속할 수 있으며, 조직 전반의 AI 역량을 향상시킬 수 있다. 이 솔루션은 기존의 채널 파트너를 통해 구매하거나, ‘델 에이펙스(Dell APEX)’ 구독형 모델을 통해 도입할 수 있다. 델 파워엣지 XE9680(Dell PowerEdge XE9680) 서버는 ‘엔비디아 B200 텐서 코어 GPU’를 포함한 신규 엔비디아 GPU 모델을 지원할 예정이며, 이를 통해 최대 15배 높은 AI 추론 성능과 TCO 절감을 기대할 수 있다. 또한 델 파워엣지 서버는 엔비디아 블랙웰 아키텍처 기반의 다른 여러 GPU와 H200 텐서 코어 GPU, 엔비디아 퀀텀-2 인피니밴드(NVIDIA Quantum-2 InfiniBand) 및 스펙트럼-X 이더넷(Spectrum-X Ethernet) 네트워킹 플랫폼도 지원할 예정이다. ‘검색 증강 생성을 위한 델과 엔비디아의 생성형 AI 솔루션(Dell Generative AI Solutions with NVIDIA - Retrieval-Augmented Generation)’은 ‘엔비디아 AI 엔터프라이즈(NVIDIA AI Enterprise)’의 새로운 마이크로서비스를 활용하여 사전 검증된 풀스택 솔루션을 제공함으로써 RAG(검색 증강 생성) 기술 도입을 가속한다. 자체 보유한 고유 데이터 및 지식 베이스와 같이 사실에 근거한 새로운 데이터 세트를 통해 생성형 AI 모델 품질을 개선하고 결과 정확도를 높일 수 있다. ‘모델 훈련을 위한 델과 엔비디아의 생성형 AI 솔루션(Dell Generative AI Solutions with NVIDIA - Model Training)은 자체적으로 도메인 맞춤형 AI 모델을 구축하려는 기업 및 기관들을 위해 사전 검증된 풀스택 솔루션을 제공한다. 이와 함께 ‘생성형 AI를 위한 델 프로페셔널 서비스(Dell Professional Services for GenAI)’는 포트폴리오 전반에 대한 통합, 관리, 보호를 지원하여 비즈니스 성과를 더 빠르게 달성할 수 있게끔 돕는다. 델 구현 서비스(Dell Implementation Services)에는 델의 신규 RAG 솔루션 및 모델 훈련을 비롯해 보안 위험을 평가하고 영향을 최소화하도록 돕는 ‘생성형 AI 데이터 보호를 위한 자문 서비스(Advisory Services for GenAI Data Security)’ 등이 포함된다. 엔비디아의 젠슨 황(Jensen Huang) CEO는 “AI 팩토리는 향후 산업군 별로 인텔리전스를 창출하는 핵심 역할을 할 것”이라고 전망하며, “엔비디아와 델은 함께 기업이 AI 팩토리를 통해 기업들이 자체 보유한 고유의 데이터를 강력한 인사이트로 전환할 수 있도록 지원하고 있다”고 말했다. 한국 델 테크놀로지스의 김경진 총괄 사장은 “엔터프라이즈 고객들은 복잡한 AI 요구에 대응하고 이를 빠르게 해결할 수 있는 솔루션을 갈망하고 있다. 델과 엔비디아가 협력하는 이유도 여기에 있다”고 설명하며 “양사의 노력으로 탄생한 턴키 솔루션은 데이터와 사용 사례를 원활하게 통합하고, 맞춤형 생성 AI 모델 개발을 간소화한다”고 덧붙였다.
작성일 : 2024-03-19
레노버, 기업에 맞춤형 생성형 AI 제공하는 하이브리드 AI 솔루션 공개
레노버가 엔비디아와 협력해 모든 기업 및 클라우드에 맞춤형 생성형 AI 애플리케이션을 제공하는 신규 하이브리드 AI 솔루션을 발표했다.  양사의 엔지니어링 협력을 통해 이번 하이브리드 AI 솔루션은 포켓에서 클라우드에 이르는 고객 데이터에 AI를 효과적으로 활용할 수 있도록 만들어졌다. 개발자들은 엔비디아 AI 엔터프라이즈 소프트웨어 실행에 최적화된 레노버 하이브리드 AI 솔루션을 통해 엔비디아 NIM 및 네모 리트리버(NeMo Retriever)와 같은 마이크로 서비스에 액세스할 수 있게 된다. 레노버는 대규모 AI 워크로드를 효율적으로 처리하기 위해 확장된 레노버 씽크시스템 AI 포트폴리오를 새롭게 공개했다. 이 포트폴리오는 두 개의 엔비디아 8방향 GPU 시스템을 탑재하고 있으며, AI 구현을 가속하기 위한 전력 효율성 및 거대 컴퓨팅 능력을 갖추고 있다. 생성형 AI, 자연어 처리(NLP) 및 대규모 언어 모델(LLM) 개발을 위해 설계됐으며, 엔비디아 HGX AI 슈퍼컴퓨팅 플랫폼에는 엔비디아 H100, H200 텐서 코어 GPU, 신규 엔비디아 그레이스 블랙웰 GB200 슈퍼칩, 엔비디아 퀀텀-X800 인피니밴드 및 스펙트럼-X800 이더넷 네트워킹 플랫폼이 포함되어 있다. 레노버 씽크시스템 AI 서버는 엔비디아 B200 텐서 코어 GPU를 탑재해 생성형 AI의 새로운 막을 열었다. 엔비디아 블랙웰 아키텍처는 생성형 AI 엔진, 엔비디아 NV링크(NVLink) 인터커넥트 및 향상된 보안 기능을 갖추고 있는 점이 특징이다. 또한, B200 GPU는 최대 25배 더 빠른 실시간 추론 성능으로 1조 매개변수를 갖춘 언어 모델을 지원한다. 이는 AI, 데이터 분석 및 HPC 워크로드에 최적 설계됐다.     신규 레노버 씽크시스템 SR780a V3 서버는 1.1대의 전력효율지수(PUE)를 갖춘 5U 시스템으로, 설치 공간을 절약할 수 있는 점이 특징이다. 한편, CPU와 GPU에는 레노버 넵튠 다이렉트 수냉식 기술과 엔비디아 NV스위치(NVSwitch) 기술이 사용되어 발열 문제없이 최대 성능을 유지할 수 있다. 레노버 씽크시스템 SR680a V3 서버는 듀얼 소켓 공랭 시스템으로, 엔비디아 GPU와 인텔 프로세서를 탑재하여 AI를 최대 활용할 수 있도록 설계됐다. 이 시스템은 업계 표준 19인치 서버 랙 타입으로써 과도한 공간을 차지하거나 선반을 필요로 하지 않는 고밀도 하드웨어로 구성되어 있다. 한편, 레노버 PG8A0N 서버는 엔비디아 GB200 그레이스 블랙웰 슈퍼칩을 탑재한 AI용 1U 서버이자 가속기용 개방형 수냉식 기술을 갖췄다. GB200은 45배 더 빠른 실시간 LLM 추론 성능과 더불어 40배 더 낮은 총소유비용(TCO), 40배 더 적은 에너지로 구동된다. 레노버는 엔비디아와의 긴밀한 협업을 통해 AI 트레이닝, 데이터 처리, 엔지니어링 설계 및 시뮬레이션을 위한 GB200 랙 시스템을 제공할 예정이다. 고객들은 레노버가 지닌 엔비디아 인증 시스템 포트폴리오를 통해 ‘엔비디아 AI 엔터프라이즈’를 사용할 수 있게 된다. 이는 프로덕션급 AI 애플리케이션 개발 및 배포를 위한 엔드 투 엔드 클라우드 네이티브 소프트웨어 플랫폼이다. 또한, 엔비디아 AI 엔터프라이즈에 포함된 엔비디아 NIM 추론 마이크로 서비스를 레노버 엔터프라이즈 인프라에서 실행함으로써, 고성능 AI 모델 추론을 할 수 있다. 또한, 레노버는 워크스테이션에서 클라우드에 이르기까지 엔비디아 OVX와 엔비디아 옴니버스 설계, 엔지니어링 및 구동을 지원하고 있다고 소개했다. 기업들이 맞춤형 AI, HPC 및 옴니버스 애플리케이션을 신속하게 구축할 수 있도록 레노버는 엔비디아 MGX 모듈형 레퍼런스 디자인을 통해 신속하게 모델을 구축하고 있다. 이로써 맞춤형 모델을 제공받은 CSP 업체들은 가속화된 컴퓨팅을 통해 AI 및 옴니버스 워크로드를 대규모 처리할 수 있게 된다. 엔비디아 H200 GPU를 기반으로 한 해당 시스템은 테라바이트급의 데이터를 처리하는 AI 및 고성능 컴퓨팅 애플리케이션을 통해 과학자와 연구자들이 직면한 문제를 해결할 수 있도록 돕는다. 이외에도 레노버는 엔비디아와 협력을 통해 대규모 AI 트레이닝, 미세 조정, 추론 및 그래픽 집약적 워크로드 처리를 위한 최대 4개의 RTX 6000 에이다 제너레이션(RTX 6000 Ada Generation) GPU를 제공하여 데이터 사이언스 워크스테이션을 강화했다. 이는 자동화된 워크플로를 통해 AI 개발자의 생산성을 향상시킨다. 엔비디아 AI 워크벤치(AI Workbench)를 갖춘 신규 레노버 워크스테이션은 소프트웨어 툴을 통해 추론, 대규모 시뮬레이션, 까다로운 워크플로를 위한 강력한 AI 솔루션을 개발 및 배포할 수 있도록 돕는다. 엔비디아 AI 워크벤치는 모든 개발자로 하여금 생성형 AI 및 머신 러닝 개발을 지원하는 솔루션이다. 레노버 씽크스테이션과 씽크패드 워크스테이션에서 이용 가능한 신규 엔비디아 A800 GPU는 AI용으로 특별히 설계되어, 모든 종류의 AI 워크플로를 활용하는 조직들을 위해 안전하고 프라이빗한 데이터 사이언스 및 생성형 AI 지원 환경을 제공한다. 레노버 인프라스트럭처 솔루션 그룹(ISG)의 커크 스카우젠 사장은 “레노버와 엔비디아는 전 세계 비즈니스를 위한 증강 지능(Augmented Intelligence)의 경계를 허물고 있다. 생성형 AI를 지원하는 최첨단 하이브리드 AI 솔루션 포트폴리오를 통해 데이터가 있는 어느 곳이든 AI 컴퓨팅을 활용할 수 있게 됐다”면서, “우리는 실시간 컴퓨팅, 전력 효율성, 배포 용이성 개선을 기반으로 새로운 AI 활용 사례가 시장에 나올 수 있는 변곡점에 놓여있다. 레노버는 엔비디아와 파트너십을 통해 효율성, 성능, 비용 측면에서 획기적인 발전을 이루어 모든 산업 군에서 AI 애플리케이션 활용을 가속화할 것이다. 또한, 리테일 경험 향상, 도시 재편, 스마트 제조 지원 등 기업들이 대규모 데이터셋의 인사이트를 즉시 활용할 수 있도록 도울 것”이라고 말했다. 엔비디아의 밥 피트(Bob Pette) 엔터프라이즈 플랫폼 부문 부사장은 “AI는 기업들이 데이터를 통해 새로운 인사이트를 얻고 생산성을 향상시킬 수 있는 강력한 힘”이라며, “엔비디아 기술과 통합된 레노버의 새로운 엔터프라이즈 AI 솔루션은 AI를 위한 컴퓨팅 성능을 강화하는 데 있어 중추적인 이정표일 뿐만 아니라, 기업들이 생성형 AI를 활용할 수 있도록 신뢰도 있는 하이브리드 시스템을 제공한다”고 말했다.
작성일 : 2024-03-19
엔비디아, 산업용 디지털 트윈 SW 위한 옴니버스 클라우드 API 발표
엔비디아가 엔비디아 옴니버스 클라우드(NVIDIA Omniverse Cloud)를 API로 제공한다고 발표했다. 엔비디아는 이를 통해 소프트웨어 제조업체의 전체 에코시스템에 걸쳐 산업용 디지털 트윈 애플리케이션과 워크플로 제작을 위한 플랫폼의 범위를 확장한다. 개별적으로 또는 함께 사용할 수 있는 새로운 옴니버스 클라우드 API는 5개로 ▲오픈USD(OpenUSD) 데이터의 레이 트레이싱 RTX 렌더링을 생성하는 USD 렌더(Render) ▲사용자가 오픈USD 데이터를 수정하고 상호 작용할 수 있는 USD 라이트(Write) ▲장면 쿼리와 인터랙티브 시나리오를 활성화하는 USD 쿼리(Query) ▲USD 변경 사항을 추적하고 업데이트를 제공하는 USD 노티파이(Notify) ▲사용자, 도구, 세상을 연결해 여러 장면에서 협업할 수 있도록 지원하는 옴니버스 채널 등이다. 개발자는 다섯 개의 새로운 옴니버스 클라우드 API를 사용해 핵심 옴니버스 기술을 직접 쉽게 통합할 수 있다. 여기에는 디지털 트윈을 위한 기존 설계와 자동화 소프트웨어 애플리케이션, 로봇이나 자율 주행 차량과 같은 자율 머신의 테스트와 검증을 위한 시뮬레이션 워크플로 등이 있다. 로봇, 자율 주행 차량, AI 기반 모니터링 시스템에 대한 수요가 증가함에 따라 개발자들은 엔드투엔드 워크플로를 가속화하고자 노력하고 있다. 센서 데이터는 인식부터 계획과 제어에 이르기까지 전체 스택의 자율성을 훈련하고 테스트와 검증을 하는 데 매우 중요한 부분이다. 옴니버스 클라우드 API는 포어텔릭스(Foretellix)의 포어티파이(Foretify) 플랫폼, 칼라(CARLA), 매스웍스(MathWorks) 등 시뮬레이션 툴과 애플리케이션으로 이루어진 개발자 에코시스템과, 포비아 헬라(FORVIA HELLA), 루미나(Luminar), 씨크(SICK AG), 소니 세미컨덕터 솔루션즈(Sony Semiconductor Solutions)와 같은 센서 솔루션 제공업체를 연결한다. 이를 통해 고충실도의 물리 기반 센서 시뮬레이션으로 풀 스택을 훈련과 테스트를 실현한다.     엔비디아는 글로벌 산업용 소프트웨어 업체 중 일부가 자사의 소프트웨어 포트폴리오에 옴니버스 클라우드 API를 도입하고 있다고 소개했다. 그 중에는 앤시스, 케이던스, 다쏘시스템의 3D익사이트(3DEXCITE), 헥사곤, 마이크로소프트, 로크웰 오토메이션, 지멘스, 트림블 등이 있다. 지멘스는 클라우드 기반 제품 수명주기 관리(PLM) 소프트웨어인 팀센터 X(Teamcenter X)와 지멘스 엑셀러레이터(Xcelerator) 플랫폼에 옴니버스 클라우드 API를 채택하고 있다. 엔비디아는 이 소프트웨어가 설계 데이터를 엔비디아 생성형 AI API에 연결한 다음, 옴니버스 RTX 렌더링을 애플리케이션 내에서 직접 사용할 수 있다고 설명했다. 앤시스도 옴니버스 클라우드 API를 채택했다. 자율 주행 차량용 앤시스 AV엑셀러레이트(Avxcelerate), 6G 시뮬레이션용 앤시스 퍼시브 EM(Perceive EM), 앤시스 플루언트(Fluent) 등의 엔비디아 가속 솔버에서 데이터 상호운용성과 RTX 시각화를 지원한다. 케이던스는 기업이 데이터 센터를 물리적으로 구축하기 전에 디지털 트윈에서 먼저 설계, 시뮬레이션, 최적화할 수 있도록 자사의 케이던스 리얼리티(Reality) 디지털 트윈 플랫폼에 옴니버스 클라우드 API를 도입하고 있다. 다쏘시스템은 콘텐츠 제작용 3D익사이트 애플리케이션에서 스토리텔링 제작을 강화하기 위해 옴니버스 클라우드 API와 셔터스톡(Shutterstock) 3D AI 서비스를 채택하고 있다. 트림블은 이 API를 활용해 트림블 모델 데이터와 함께 인터랙티브 엔비디아 옴니버스 RTX 뷰어를 사용할 계획이다. 헥사곤은 USD 상호운용성을 통해 자사의 현실 캡처 센서와 디지털 현실 플랫폼을 엔비디아 옴니버스 클라우드 API와 통합할 예정이다. 로크웰 오토메이션은 옴니버스 클라우드 API를 사용해 RTX 지원 시각화를 강화할 계획이다. 옴니버스 클라우드 API는 올해 말 마이크로소프트 애저(Microsoft Azure)에서 엔비디아 A10 GPU의 자체 호스팅 API 또는 엔비디아 OVX에 배포된 관리형 서비스로 제공될 예정이다. 엔비디아의 젠슨 황(Jensen Huang) CEO는 “제조되는 모든 제품에는 디지털 트윈이 적용될 것이다. 옴니버스는 물리적으로 사실적인 디지털 트윈을 구축하고 운영하기 위한 운영체제이다. 옴니버스 와 생성형 AI는 50조 달러 규모의 중공업 시장을 디지털화하기 위한 기반 기술”이라고 전했다.
작성일 : 2024-03-19
씨이랩, 엔비디아 GTC 2024에서 AI 및 디지털 트윈 기술 소개
AI 영상 분석 전문 기업인 씨이랩이 3월 18일부터 21일까지 미국 캘리포니아주 산호세에서 열리는 ‘엔비디아 GTC 2024’ 콘퍼런스에 참가한다고 밝혔다. 씨이랩은 이번 GTC 2024에서 ▲AI 영상 분석 서비스인 비디고(VidiGo) ▲합성 데이터 생성 솔루션인 엑스-젠(X-GEN) ▲GPU 툴링 솔루션인 아스트라고(astrago) 등 3가지 주요 제품을 통해 AI 기술을 선보일 예정이다. ‘비디고’는 클라우드 기반 AI 영상 분석 서비스로, 영상을 시청하지 않고도 영상의 핵심 내용을 요약하고 사용자가 원하는 영상 장면을 신속히 검색한다. 이를 통해 영상 속 인물, 객체, 대사 등을 데이터베이스화해 미디어 산업 분야의 업무 효율성을 높일 수 있다. ‘엑스-젠’은 AI 모델 학습을 위한 합성 데이터(synthetic data)를 생성하는 솔루션이다. 특히 재난이나 국방 등 특수한 분야에서는 AI 학습을 위한 데이터가 절대적으로 부족한데, 엑스-젠은 이를 합성 데이터로 대체 제공해 AI 학습 성능을 극대화할 수 있다.   ▲ 엔비디아 옴니버스를 통해 구현한 씨이랩 사무실   씨이랩은 엑스-젠을 엔비디아 옴니버스(Omniverse)와 연동해 디지털 트윈 사업에 적용하며, 3D 협업과 시뮬레이션을 진행한다. 씨이랩은 엑스-젠과 옴니버스를 활용해 2023년부터 글로벌 기업의 제조 공장을 디지털 트윈으로 구축하는 프로젝트를 진행하고 있다. 또한, 씨이랩은 GPU의 활용 능력을 높여주는 신제품 아스트라고를 GTC 2024에서 첫 공개한다. 아스트라고에는 AI 학습 시간 예측 기술과 AI 모델 관리 기술이 탑재됐다. GPU의 활용 효율성을 극대화해 값비싼 GPU 사용 비용을 절감할 수 있다. 씨이랩의 채정환 부사장은 “GTC 2024를 통해 씨이랩의 첨단 AI 기술과 제품을 글로벌 시장에 선보이며 AI 기술의 산업 분야별 활용 가능성을 넓히는 데 기여하길 기대한다”고 말했다.
작성일 : 2024-03-13