• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "CPU"에 대한 통합 검색 내용이 1,530개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
엔비디아, 생성형 AI의 활용 범위 넓히는 슈퍼컴퓨터 ‘젯슨 오린 나노 슈퍼’ 출시
엔비디아가 소형 생성형 AI 슈퍼컴퓨터 신제품인 ‘젯슨 오린 나노 슈퍼 개발자 키트(Jetson Orin Nano Super Developer Kit)’를 공개했다. 엔비디아는 소프트웨어 업그레이드를 통해 이전 모델에 비해 성능을 높이고 가격은 낮췄다고 밝혔다. 손바닥만한 크기의 새로운 엔비디아 젯슨 오린 나노 슈퍼 개발자 키트는 상업용 AI 개발자부터 취미로 AI를 다루는 사람, 학생에 이르기까지 다양한 사람들에게 생성형 AI 기능과 성능을 제공한다. 가격은 기존의 499달러에서 249달러로 인하됐다. 이 제품은 이전 모델에 비해 생성형 AI 추론 성능이 1.7배 향상됐고, 성능은 67 INT8 TOPS로 70% 증가했으며, 메모리 대역폭은 102GB/s로 50% 증가했다. 젯슨 오린 나노 슈퍼는 검색 증강 생성(RAG) 기반의 대규모 언어 모델(LLM) 챗봇 생성, 시각적 AI 에이전트(AI agent) 구축, AI 기반 로봇 배포 등에 적합한 설루션을 제공한다. 젯슨 오린 나노 슈퍼는 생성형 AI, 로보틱스, 컴퓨터 비전 기술 개발에 관심이 있는 사람들에게 적합하다. AI 세계가 작업별 모델에서 파운데이션 모델로 이동함에 따라 아이디어를 현실로 전환할 수 있는 접근 가능한 플랫폼도 제공한다. 젯슨 오린 나노 슈퍼의 향상된 성능은 모든 인기 있는 생성형 AI 모델과 트랜스포머 기반 컴퓨터 비전을 위한 이점을 제공한다.     개발자 키트는 젯슨 오린 나노 8GB 시스템 온 모듈(SoM)과 레퍼런스 캐리어 보드로 구성돼 에지 AI 애플리케이션 프로토타입에 적합한 플랫폼을 제공한다. 이 SoM은 텐서 코어가 포함된 엔비디아 암페어(Ampere) 아키텍처 GPU와 6코어 Arm CPU를 갖추고 있어, 여러 개의 동시 AI 애플리케이션 파이프라인과 고성능 추론을 용이하게 한다. 또한, 최대 4개의 카메라를 지원할 수 있으며 이전 버전보다 더 높은 해상도와 프레임 속도를 제공한다. 젯슨은 로보틱스를 위한 엔비디아 아이작(Isaac), 비전 AI를 위한 엔비디아 메트로폴리스(Metropolis), 센서 처리를 위한 엔비디아 홀로스캔(Holoscan)을 비롯한 엔비디아 AI 소프트웨어를 실행한다. 합성 데이터 생성을 위한 엔비디아 옴니버스 리플리케이터(Omniverse Replicator)와 NGC 카탈로그에서 사전 훈련된 AI 모델을 미세 조정하기 위한 엔비디아 타오 툴킷(TAO Toolkit)을 사용하면 개발 시간을 단축할 수 있다. 한편, 엔비디아는 새로운 젯슨 오린 나노 슈퍼에 제공되는 소프트웨어 업데이트가 이미 젯슨 오린 나노 개발자 키트를 보유하고 있는 사용자의 생성형 AI 성능도 향상시킨다고 밝혔다. 1.7배의 생성형 AI 성능을 향상시키는 소프트웨어 업데이트는 젯슨 오린 NX와 오린 나노 시리즈 시스템 모듈에서도 사용할 수 있다. 기존 젯슨 오린 나노 개발자 키트 소유자는 지금 바로 젯팩 SDK(JetPack SDK)를 업그레이드해 향상된 성능을 활용할 수 있다. 엔비디아는 “젯슨 생태계 파트너는 추가적인 AI와 시스템 소프트웨어, 개발자 도구, 맞춤형 소프트웨어 개발을 제공한다. 또한, 카메라와 기타 센서, 캐리어 보드, 제품 설루션을 위한 설계 서비스도 지원 가능하다”고 덧붙였다.
작성일 : 2024-12-19
델 테크놀로지스, “2025년 AI가 테크 빅뱅 가져올 것”
델 테크놀로지스가 2025년 기술 트렌드 전망을 발표하면서, 2025년에는 AI가 일상 생활과 업무 환경, 여가에 이르는 모든 영역에 핵심 기술로 자리 잡으며 미래를 재정의할 전망이라고 밝혔다. 델이 발표한 2025년 IT 기술 전망의 주요 내용은 ▲에이전틱 AI 아키텍처의 부상 ▲엔터프라이즈 AI가 개념 단계에서 실무 환경으로 확대 ▲소버린(sovereign) AI의 가속화 ▲AI와 신흥 기술의 융합 ▲AI 데이터센터를 위한 초고속 분산형 아키텍처 ▲AI PC가 분산 아키텍처의 중요한 역할 담당 ▲지속가능한 데이터센터로 비용 및 환경 문제 해결 노력 등이다. 델은 에이전틱 AI 아키텍처가 인간과 AI의 상호작용에 새로운 장을 열 것으로 전망된다. 상당수의 생성형 AI 도구가 AI 에이전트로서 기능하도록 진화하고 있으며, 사람이 AI 시스템과 소통하는 방식을 혁신적으로 변화시킨다는 것이다. 델 테크놀로지스의 최고 AI 책임자인 존 로즈(John Roese) 글로벌 CTO는 2025년에는 보다 발전된 형태의 에이전트가 등장할 것으로 전망했다. 그는 “자율적으로 작동하고, 자연어로 소통하며, 다른 에이전트 및 사람과 팀을 이루어 작업하는 등 상호 작용이 강화된 형태의 에이전트가 부상할 것”이라는 전망과 함께 “코딩, 코드 검토, 인프라 관리, 비즈니스 계획 및 사이버 보안과 같은 특정 기술을 수행하도록 AI가 세밀하게 조정되고 최적화될 것”이라고 내다봤다.     엔터프라이즈 AI는 기업이나 공공기관의 기관의 생산력 향상을 위해 가장 중요한 영역에서 가장 영향력 있는 프로세스에 AI 기술을 적용하는 것을 의미한다. 2025년에는 우선 순위를 중심으로 반복 가능한 명확한 접근 방식을 취하고, 턴키 형태로 정교하게 정의된 AI 플랫폼 및 AI 인프라 옵션이 등장함으로써, 엔터프라이즈 영역에 AI를 적용하는 과정이 더 간편해질 전망이다. 이를 실행하기 위해서는 상용화되어 있는 다양한 도구들을 선택할 수 있다. 델은 기업이 앞으로 더 선호하는 경로는 프라이빗 인프라에서 AI 도구를 구매하여 구현하는 방식일 것이라고 보고 있으며, 데이터 메시(data meshes)와 같은 데이터 현대화 툴을 구매하고 ‘델 AI 팩토리(Dell AI Factory)’와 같은 인프라 설루션으로 도입 및 구축을 간소화할 수 있다고 전했다. 소버린 AI란, 국가가 자체 인프라와 데이터를 사용하여 AI 가치와 차별화를 창출하고 현지의 문화, 언어 및 지적 재산에 부합하는 생태계를 설계하는 능력을 뜻한다. 일부 국가에서는 정부 전용 AI 시스템 대신 정부와 지역 민간 산업 모두를 지원하기 위해 컴퓨팅 파워와 데이터 용량에 대한 액세스를 제공하는 국가 AI 리소스를 개발하고 있다. 한편으로는 정부가 새로운 인프라를 구축하는 대신 민간 업계가 AI 생태계를 현대화하고 선도할 수 있도록 선제적으로 협력하여 공동 설계하고 장려하는 전략을 시도하는 국가도 있다. 델은 “소버린 AI를 위해 인프라, 데이터 관리, 인재 양성, 생태계 개발을 위한 투자가 증가하고 있으며, 이러한 추세는 앞으로도 계속될 것”이라고 밝혔다. AI가 양자 컴퓨팅, 지능형 에지, 제로 트러스트 보안, 6G 기술, 디지털 트윈 등과 결합하면 전통적인 컴퓨팅의 한계를 극복함으로써 그 영향력이 더욱 커지며, 다양한 영역에서 혁신과 기존 과제의 해결을 위한 역동적인 환경을 조성한다. 델은 2026년 말에는 데이터센터 수요의 절반 이상이 AI 워크로드에서 발생하면서, AI 도입이 새로운 차원에 도달할 것으로 예상했다. AI의 빠른 도입과 함께 학습에서 추론으로의 전환도 이루어지고 있다. 학습과 달리 추론은 워크로드를 실행할 위치를 품질, 비용, 데이터, 보안 및 지연 시간에 따라 최적화하는 데 중점을 둔다. 이러한 변화와 함께 AI는 컴퓨팅, 스토리지 및 네트워크를 각각 독립적으로 확장할 수 있는 초고속 분산형 아키텍처로 이동하고 있다. 이를 통해 기업과 기관에서는 비용을 절감하고, 사일로(silo)를 해소하며, 공급업체 종속을 방지할 수 있다. 2025년에는 데이터가 점점 더 분산되어 이로 인해 기업이 데이터에 맞춰 AI를 적용하는 위치도 변화할 전망이다. 데이터센터와 클라우드를 넘어 에지와 PC로 이동함에 따라, AI PC를 사용하면 데이터를 디바이스에서 직접 처리하여 클라우드에 의존하는 것보다 더 빠르고 비용 효율적이며 안전하게 처리할 수 있다. NPU(신경망 처리장치)가 탑재된 PC의 AI 도구와 애플리케이션은 모든 일상 업무를 지원하며 사용자와 함께 진화하여 요구를 예측하고 생산성을 높여준다. 델은 고성능의 CPU, GPU, NPU와 다양한 PC 실리콘 옵션이 등장하며 선택과 혁신의 폭이 그 어느 때보다 넓어질 것으로 전망했다. 에너지 비용의 상승과 특정 AI 워크로드의 에너지 수요 및 환경에 미치는 영향은 중대한 과제이다. 전 세계적으로 규제 요건이 더욱 엄격해지면서 새로운 수준의 요건이 등장하고 있다. 데이터센터의 경우 하드웨어 차원의 에너지 효율 혁신, 오래되거나 노후화된 장비의 책임 있는 폐기, 다양한 에너지원 사용을 통해 환경 영향을 최소화하고 수익을 극대화하는 노력이 요구된다. 대표적인 사례로는 액체 냉각 혁신이다. 최적화된 냉각판과 누출 감지 기술을 통해 안정성과 효율성을 높일 수 있다. 더 나은 효율성과 성능 최적화를 위한 워크로드 관리 및 모니터링 도구도 필수이다. 이러한 데이터를 분석하면 조직이 원하는 성능에 맞게 AI 설루션의 규모를 조정하고 요구 사항을 효과적으로 충족할 수 있다. 한국 델 테크놀로지스의 김경진 총괄사장은 “빅뱅이 은하와 별, 행성의 발전의 발판을 마련한 것처럼, AI의 급속한 성장은 새로운 기회와 산업, 생활과 업무 방식을 만들어내고 있다”고 말하며, “앞으로는 AI의 힘을 얼마나 활용할 수 있는지에 따라 경쟁력이 좌우될 것이며, 최신 정보와 적응 역량을 확보하는 것이 중요한 이유도 여기에 있다. 델 테크놀로지스는 고객이 AI 활용성에 우선순위를 두고 투자 효과를 극대화할 수 있도록 전폭적인 지원을 아끼지 않을 계획”이라고 말했다.
작성일 : 2024-12-05
Stochos : 온프레미스 기반의 AI 알고리즘 솔루션
개발 및 공급 : 태성에스엔이 주요 특징 : 확률적 머신러닝 알고리즘 접근 방식 사용, 기존 데이터 활용 또는 새로운 데이터 수집 계획으로 샘플과 자원의 효율적 관리, 전문가의 도움 없이도 확률적 머신러닝 작업 수행, 2D 및 3D FEM/CFD 등 다양한 형상과 데이터 형식 학습 가능, 실제 실험 데이터와 시뮬레이션 데이터의 유연한 처리 등   ▲ DIM-GP 알고리즘   Stochos(스토코스)는 딥러닝(DL)과 가우시안 프로세스(GP)를 독창적으로 결합하여 각 알고리즘의 장점을 최대화하고 단점을 최소화한 혁신적인 머신러닝 솔루션(DIM-GP : Deep infinite mixture of Gaussian Processes)을 제공한다. 기존 머신러닝 기업이 주로 딥러닝에 의존해 많은 하이퍼 파라미터 튜닝을 요구하는 것과 달리, 하이퍼 파라미터 훈련이 전혀 필요하지 않다. 또한 온프레미스(on-premise) 방식으로 학습 및 응용 시에 사내에서 안전하게 처리 및 보관할 수 있어 보안이 강화되며, 비용과 자원이 많이 드는 클라우드 컴퓨팅 솔루션이 요구되지 않는다.  낮은 하드웨어 요구 사항으로 빠른 AI 모델 구축 가능(클라우드 필요 없음) 하이퍼 파라미터 설정 불필요(AI 전문 지식 필요 없음) 다양한 형태의 데이터 사용 가능(1D/2D/3D, 이미지, 실험 데이터, 정해석, 과도해석 등) CAE 해석 프로그램의 종류에 무관하게 적용 가능 적은 데이터 수로 높은 정확도 구현 자동 노이즈 처리 데이터는 고객에게 보관됨 Stochos는 지도 학습, 비지도 학습, 강화 학습의 세 가지 유형의 머신러닝을 모두 지원한다. 지도 학습에서는 시뮬레이션 솔버를 대체하고 최적화를 수행하는 데에 유용하다. 비지도 학습의 예로는 모델이 센서 데이터에서 이상을 분석하는 예측 유지보수 작업이 있다. 강화 학습 작업은 로봇 공학이나 자율주행과 같은 실시간 제어 작업을 모두 포괄한다. 이 소프트웨어는 CPU, GPU, 마이크로 컨트롤러 등 다양한 하드웨어 플랫폼에서 작동하여 실시간 응답을 제공할 수 있다.   2D 유동 과도 해석, 사용 샘플 5개 변수 : 받음각 엔비디아 4090 GPU, 학습 시간 14분 1 CPU(8 코어), 학습 시간 32분   3D 고주파 해석, 사용 샘플 37개 변수 : 안테나 위치 엔비디아 4090 GPU, 학습 시간 7초, CPU  학습 시간 10초   3D 과도 충돌 해석, 사용 샘플 32개 변수 : 판재 두께 엔비디아 4090 GPU, 학습 시간 21초   3D 열유동 해석, 사용 샘플 34개 변수 : 냉각채널 형상 엔비디아 4090 GPU, 학습 시간 6시간   또한, Stochos의 AI 라이브러를 이용해 업체 맞춤형 AI 제작 프로그램을 만들어, 해석 및 분석 작업의 효율을 최대화할 수 있다.    ▲ Stochos 라이브러리를 이용한 맞춤형 AI 프로그램 제작     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-12-04
[포커스] 인텔, AI PC 위한 프로세서와 생태계로 혁신의 문을 열다
인텔이 AI PC를 위한 코어 울트라(Intel Core Ultra) 프로세서 신제품을 국내 출시했다. AI 연산 성능과 전력 효율 향상에 초점을 맞춘 코어 울트라 프로세서로 PC 시장에서 성장 동력을 마련하겠다는 것이 인텔의 전략이다. PC 플랫폼 혁신과 함께 하드웨어/소프트웨어 생태계의 확대 또한 인텔이 내세운 목표다. ■ 정수진 편집장   이번에 인텔이 선보인 프로세서는 노트북용의 인텔 코어 울트라 200V(코드명 루나 레이크) 시리즈와 데스크톱용의 인텔 코어 울트라 200S(코드명 애로우 레이크-S)이다. 이들 신제품의 가장 큰 특징으로 인텔이 내세운 것은 이전 세대 대비 4배 이상의 NPU(신경망 프로세서) 성능 향상이다. 그래픽 성능 향상, 애플리케이션 호환성, 보안 성능 강화 등도 신제품이 선보이는 개선점이다.   ▲ 인텔 코어 울트라 200V   AI로 재편되는 PC의 역할 인텔의 잭 황(Jack Huang) APJ 세일즈 디렉터는 “AI 기술은 우리의 삶을 근본적으로 변화시키고 있으며 PC 역시 예외가 아니다. 인공지능이 PC의 사용 경험을 근본적으로 바꿀 것”이라고 전망했다. 이런 흐름에 맞춰 인텔은 CPU(중앙처리장치), GPU(그래픽처리장치), NPU(신경망처리장치)를 결합한 AI PC에 주목하고 있다. AI PC는 사진 편집, 음악 제작, 콘텐츠 생성, 스트리밍, 게임 등 다양한 작업에서 전력 소비를 줄이는 동시에 성능을 크게 높일 수 있다. 인텔은 이러한 AI 기술을 최적화하고 대중화할 수 있도록 하는 프로세서 개발에 힘을 기울이고 있다. 이번에 발표한 AI PC 프로세서인 인텔 코어 울트라 200V는 새로운 성능 코어(P-코어)를 채택해 성능을 높이고, 향상된 내장 그래픽을 탑재했다. 전력 효율을 높여 오피스 등 생산성 작업에서 최대 20시간 작업이 가능하다. 11월부터는 마이크로소프트의 코파일럿+ PC(Copilot+ PC)를 지원한다.   ▲ 에이서, 에이수스, 델, HP, 레노버, 삼성전자의 AI PC 모델   함께 발표된 데스크톱 프로세서인 코어 울트라 200S는 와트당 성능 향상과 사용자 경험 개선을 목표로 개발됐다. 이전 세대의 프로세서에 비해 절반의 전력을 쓰면서 같은 성능을 낼 수 있고, 멀티스레드 성능도 놓치지 않도록 했다는 것이 잭 황 디렉터의 설명이다.인텔은 에이서, 에이수스, 델, HP, 레노버, 삼성전자 등 PC 업체가 새 코어 울트라 프로세서를 탑재한 AI PC 제품을 선보일 것이라고 전했다.   ▲ 인텔 코어 울트라 200S   AI 시대를 향한 인텔의 비전 인텔은 올해 4000만 대, 2025년에는 1억 대의 AI PC 프로세서를 출하할 계획이다. 또한 2028년까지 시장에 출시되는 PC의 80%가 AI PC가 될 것으로 보고 있으며, 사용자 경험의 혁신을 위한 지능형 PC 플랫폼과 새로운 아키텍처, 생태계 확대 등을 추진한다는 전략이다. 지난 9월 인텔코리아의 대표로 선임된 배태원 사장은 “AI PC를 위한 프로세서뿐 아니라 하드웨어/소프트웨어 생태계를 통해 사람들의 일상에 AI가 더 가까이 다가갈 수 있도록 하겠다”면서, 한국 파트너들과 함께 AI 시대를 선도하겠다는 포부를 밝혔다. 인텔은 하드웨어 혁신뿐 아니라 AI 생태계 지원 프로그램인 ‘AI 엑셀러레이션 프로그램’을 통해 협력사와 함께 300개 이상의 AI 기능을 개발했다고 밝혔다. 특히, 인텔은 네이버 클라우드 및 KAIST와 공동연구를 통해 한국의 AI 기술 발전에 기여하고 있으며, 기업 및 정부 기관과의 협력도 확대할 계획이다. 이런 노력을 통해 AI 기술이 기업과 개인 사용자 모두에게 더 친숙하게 다가갈 수 있게 지원한다는 것이 인텔의 전략이다. 배태원 사장은 한국이 항상 새로운 기술을 빠르게 수용하고 이끄는 국가로, AI PC 역시 한국에서 빠르게 보급될 것으로 확신했다. 그는 “AI가 더 이상 멀게 느껴지지 않는 시대를 열기 위해 최선을 다할 것”이라며, 국내 기업과도 긴밀히 협력해 AI 기술의 대중화에 앞장서겠다고 전했다.   ▲ 인텔코리아 배태원 사장     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-12-04
앤시스, “엔비디아 GH200으로 CFD 시뮬레이션 속도 110배 향상”
앤시스가 엔비디아의 GH200 그레이스 호퍼 슈퍼칩(Grace Hopper Superchips)을 적용한 대규모의 전산유체역학(CFD) 시뮬레이션 결과를 소개하면서, “CFD 시뮬레이션 속도를 기존 대비 110배 높이고, 전체 실행 기간을 4주에서 6시간으로 단축하는 등 성과를 거두었다”고 전했다.  대규모 CFD 시뮬레이션은 다중물리 상호작용, 복잡한 기하학적 설계 및 실제 데이터를 반영한 고해상도 결과물을 필요로 하기 때문에 작업 과정이 복잡하며 많은 시간을 필요로 한다. 전통적인 CPU 기반 시뮬레이션의 경우 최소 며칠에서 몇 주까지 소요되며 모델 정밀도를 높일수록 추가적인 처리 시간과 연산 자원이 요구되는 것이 특징이다. 앤시스는 “GPU 기술을 도입한 앤시스 플루언트는 대규모 모델에서도 적은 자원으로 높은 예측 정확도를 유지하며 핵심적인 인사이트를 도출할 수 있다”고 밝혔다. 앤시스는 엔비디아와의 협력을 통해 텍사스 첨단 컴퓨팅 센터(TACC)의 고성능 컴퓨팅(HPC) 역량을 활용, 24억 셀 규모의 자동차 외부 공기역학 시뮬레이션을 수행했다. 작업 과정에서 예측 정확도를 유지하면서 시뮬레이션 속도를 단축했으며, 전체 시뮬레이션 속도를 떨어뜨리지 않으면서 매개변수를 추가해 정확도를 개선할 수 있도록 했다.     엔비디아의 퀀텀-2 인피니트밴드(Quantum-2 InfiniBand)를 통해 멀티 노드 확장된 320개의 GH200 그레이스 호퍼 슈퍼칩은 2048개의 CPU 코어를 사용할 때보다 110배 빠른 속도를 제공하며, 약 22만 5390개의 CPU 코어에 맞먹는 성능을 구현한다. 또한, 일반적인 GPU 환경에서 실행한 벤치마크 결과에 따르면 32개의 GPU를 사용할 경우 엔비디아의 GH200 그레이스 호퍼 슈퍼칩 한 대가 약 1408개의 CPU 코어와 동일한 성능을 제공하는 것으로 나타났다. 한편, 앤시스는 엔비디아의 가속 라이브러리, AI 프레임워크, 옴니버스 테크놀로지를 통합한 레퍼런스 워크플로인 ‘옴니버스 블루프린트(Omniverse Blueprin)’를 최초로 도입한 바 있다. 이를 통해 앤시스의 애플리케이션은 실시간으로 상호작용 가능한 물리 시각화 기능을 구현, 사용자가 복잡한 물리적 현상을 직관적으로 이해하고 즉각적으로 조정할 수 있는 환경을 제공하고 있다. 앤시스의 셰인 엠스윌러(Shane Emswiler) 제품 총괄 수석 부사장은 “앤시스는 고객들에게 더욱 높은 수준의 시뮬레이션 정밀도와 인사이트를 제공할 수 있도록 역량 강화에 총력을 기울이고 있다”면서, “제품의 시장 출시 속도가 중요해진 만큼, 최신 GPU 기술로의 업그레이드가 개발 과정 전반에서 에너지 소비를 크게 줄여 고객들에게 비용 절감과 자원 효율화라는 두 가지 혜택을 동시에 제공하는 것에 주안점을 두고 있다”라고 말했다. 엔비디아의 팀 코스타(Tim Costa) HPC 및 양자 컴퓨팅 부문 이사는 “엔비디아의 GH200 그레이스 호퍼 슈퍼칩은 고객들이 시뮬레이션 모델의 한계를 넘어설 수 있도록 돕는다”면서, “엔비디아 HPC와 앤시스 설루션의 결합은 사용자들에게 자동차, 항공우주, 제조 등의 산업 전반에서 복잡한 엔지니어링 문제를 해결하고 출시 기간을 단축하는 강력한 시뮬레이션 툴을 제공하게 될 것”이라고 말했다.
작성일 : 2024-11-25
알테어, 엔비디아와 협력해 AI·HPC 워크로드 성능 향상
알테어가 자사의 설계 및 시뮬레이션 플랫폼인 ‘알테어 하이퍼웍스’에서 엔비디아 그레이스 CPU 및 그레이스 호퍼 슈퍼칩 아키텍처를 지원한다고 밝혔다. 엔비디아 그레이스 및 그레이스 호퍼 아키텍처는 고성능 컴퓨팅(HPC)과 AI 워크로드를 위해 설계되었으며 성능, 효율성, 확장성을 향상시킨다. 이를 통해 전력 제약이 있는 데이터 센터에서도 대규모 시뮬레이션을 원활히 실행할 수 있도록 지원한다. 일례로, 레노버는 알테어의 충돌 해석 오픈소스 소프트웨어인 ‘오픈라디오스’를 활용한 테스트에서 엔비디아 그레이스 CPU가 기존 서버 구성 대비 최대 2.2배 높은 에너지 효율성을 기록했다고 밝혔다.     이번 협력을 통해 알테어는 AI와 고성능 컴퓨팅(HPC) 워크로드의 처리 속도를 높이면서, 복잡한 시뮬레이션과 대규모 데이터 처리 작업에서 더 우수한 성과를 실현할 수 있을 것으로 보고 있다. 알테어의 내부 테스트 결과, 엔비디아 그레이스 호퍼 GPU 시리즈는 이전 세대 대비 최대 2배 빠른 시뮬레이션 속도를 구현했으며, 이를 통해 알테어 솔버의 실행 시간을 단축할 수 있음을 입증했다. 이번 협업으로 하이퍼웍스 사용 고객은 엔비디아의 최신 CPU와 GPU 하드웨어를 활용하여 시뮬레이션과 설계 작업을 더욱 빠르고 효율적으로 수행할 수 있게 되었다. 이는 특히 복잡한 시뮬레이션이나 대규모 데이터 처리가 필요한 작업에서 향상된 성능과 효율을 제공한다. 현재 엔비디아 그레이스와 그레이스 호퍼 아키텍처를 지원하는 알테어 솔루션은 ▲옵티스트럭트 ▲라디오스 ▲오픈라디오스 ▲울트라플루이드엑스 ▲나노플루이드엑스 ▲PBS프로페셔널 ▲그리드엔진 등이 있다. 알테어의 샘 마할링감 최고기술책임자(CTO)는 “그레이스와 그레이스 호퍼 아키텍처에서 알테어 솔루션이 최고의 성능을 발휘한 것은 고객 요구에 부응하기 위해 꾸준히 노력해 온 결과”라면서, “엔비디아의 혁신적인 CPU와 GPU 기술을 활용해 뛰어난 성능과 에너지 효율성을 제공하며 AI 혁신을 선도할 것”이라고 밝혔다. 엔비디아의 팀 코스타 HPC 및 양자 컴퓨팅 담당 이사는 “이번 협력은 엔비디아와 알테어가 CAE 워크로드 가속화를 위해 수 년간 노력해온 성과”라면서, “그레이스 CPU 및 그레이스 호퍼 슈퍼칩 아키텍처에서 알테어의 강력한 소프트웨어를 활용함으로써, 다양한 산업 분야에서 혁신을 촉진하고 설계 가능성을 크게 확장할 수 있을 것”이라고 말했다.
작성일 : 2024-11-21
AMD 기반 ‘엘 캐피탄’, 세계에서 가장 빠른 슈퍼컴퓨터로 등재
AMD는 세계에서 가장 빠른 슈퍼컴퓨터를 선정하는 톱500(Top500) 리스트에 AMD 기반 슈퍼컴퓨터가 6회 연속 등재되면서 고성능 컴퓨팅(HPC) 분야에서 리더십을 입증했다고 밝혔다. AMD 인스팅트(Instinct) MI300A APU로 구동되고 휴렛팩커드 엔터프라이즈(HPE)가 구축한 미국 로렌스 리버모어 국립 연구소(LLNL)의 엘 캐피탄(El Capitan) 슈퍼컴퓨터는 최신 톱500 리스트에서 1.742 엑사플롭스의 HPL(High-Performance Linpack) 스코어를 기록하며, 세계에서 가장 빠른 슈퍼컴퓨터로 선정되었다.  미국 핵안보국(NNSA)의 첫 번째 엑사스케일급 시스템인 엘 캐피탄은 NNSA의 트리랩스(Tri-Labs)인 LLNL과 로스앨러모스(Los Alamos) 및 샌디아(Sandia) 국립 연구소의 최고 컴퓨팅 자원으로 자리잡았다. 엘 캐피탄은 과학적 탐구와 국가 안보를 강화하는데 사용되며, 핵실험 없는 안전한 핵 억지력과 보안 및 신뢰성을 보장하는데 필요한 방대한 컴퓨팅 성능을 제공한다. 이 시스템은 노후 핵 비축물 인증과 같은 NNSA의 핵 비축물 관리 프로그램(Stockpile Stewardship Program)을 비롯해 확산 방지 및 대테러와 같은 주요 핵 안보 임무에 필수적인 모델링 및 시뮬레이션 기능을 지원한다.     LLNL과 NNSA의 다른 연구소들은 엘 캐피탄과 함께 AI 및 머신러닝 기반 데이터 분석을 수행하는 투올러미(Tuolumne) 시스템을 활용하여 빠르고 정확하게 예측 불확실성을 정량화할 수 있는 과학 모델을 생성하기 위한 LLNL의 AI 기반 목표를 더욱 가속화하고 있다. 엘 캐피탄은 AI를 적용하여 관성 봉입 핵융합(Inertial Confinement Fusion) 연구와 같은 고밀도 에너지 문제를 해결하는데 사용되고, 투올러미는 기후 모델링과 방역 및 신약 개발, 지진 모델링 등 비분류 공개 과학(Unclassified Open Science) 응용 분야에 활용될 예정이다. AMD의 최신 에픽 9005 시리즈 프로세서는 엔터프라이즈, AI 및 클라우드 환경을 위한 서버 CPU로, 고성능 컴퓨팅 및 AI 워크로드에서 이전 세대 대비 최대 37% 향상된 IPC(Instruction Per Cycle) 성능을 제공한다. 또한, 이 프로세서는 세계적인 난제를 해결하는 과학 및 고성능 컴퓨팅 애플리케이션에서 경쟁사 대비 최대 3.9배 더 빠른 인사이트 도출 시간을 제공한다. AMD 인스팅트 가속기는 AI 설루션에서 엑사스케일급 슈퍼컴퓨터에 이르기까지 다양한 규모의 데이터센터를 위한 고성능을 제공한다. AMD 인스팅트 MI300X 및 MI325X 가속기는 높은 AI 성능과 메모리 기능을 갖추고 있으며, CPU 및 GPU 코어와 적층형 메모리를 단일 패키지로 통합한 AMD 인스팅트 MI300A APU는 고성능 컴퓨팅 및 AI 워크로드를 위한 향상된 효율과 성능을 제공한다. AMD는 이외에도 오크리지 국립 연구소(Oak Ridge National Lab)의 엘 캐피탄과 프론티어(Frontier) 시스템이 그릭500(Green500) 리스트에서 각각 18위와 22위를 차지하면서, 고성능 컴퓨팅 워크로드를 지원하는 AMD 에픽 프로세서와 인스팅트 GPU의 성능 및 에너지 효율을 다시 한 번 입증했다고 전했다. AMD의 포레스트 노로드(Forrest Norrod) 수석 부사장 겸 총괄 책임자는 “엘 캐피탄이 엑사플롭의 장벽을 깨고, 세계에서 가장 빠른 AMD 기반 두 번째 슈퍼컴퓨터로 선정되어 매우 기쁘다. AMD 인스팅트 MI300 APU의 뛰어난 성능과 효율성을 입증한 이 획기적인 컴퓨터는 AMD와 LLNL 및 HPE 간의 헌신적인 협력의 결과물”이라면서, “AMD는 고성능 컴퓨팅과 AI의 컨버전스를 새롭게 정의하는 선도적인 성능과 기능을 통해 지속적으로 컴퓨팅의 미래를 주도하게 될 것”이라고 밝혔다. LLNL의 리버모어 컴퓨팅 최고기술책임자(CTO)인 브로니스 R. 드 수핀스키(Bronis R. de Supinski)는 “AMD 인스팅트 MI300A APU를 활용하여 절대적 한계치를 넘어서는 컴퓨팅 성능과 이전에는 상상하지 못한 뛰어난 에너지 효율성을 갖춘 시스템을 구축했다. 엘 캐피탄은 더욱 보편화되고 있는 AI를 기존의 시뮬레이션 및 모델링 워크로드와 통합함으로써 다양한 과학적 연구 분야에서 새로운 발견의 가능성을 높일 수 있게 되었다”고 전했다.
작성일 : 2024-11-19
엔비디아, CAE에 실시간 디지털 트윈의 활용 돕는 ‘옴니버스 블루프린트’ 공개
엔비디아가 ‘슈퍼컴퓨팅 2024(SC24)’ 콘퍼런스에서 ‘엔비디아 옴니버스 블루프린트(NVIDIA Omniverse Blueprint)’를 발표했다. 이는 소프트웨어 개발업체가 항공우주, 자동차, 제조, 에너지, 기타 산업의 컴퓨터 지원 엔지니어링(CAE) 고객들이 실시간 상호작용이 가능한 디지털 트윈을 제작할 수 있도록 지원한다. 알테어, 앤시스, 케이던스, 지멘스와 같은 소프트웨어 개발업체는 실시간 CAE 디지털 트윈을 위한 엔비디아 옴니버스 블루프린트를 사용해 고객이 개발 비용과 에너지 사용량을 절감하면서 시장 출시 기간을 단축할 수 있도록 지원한다. 엔비디아는 이 블루프린트가 1200배 빠른 시뮬레이션과 실시간 시각화를 달성하기 위한 엔비디아 가속 라이브러리, 물리-AI 프레임워크, 대화형 물리 기반 렌더링을 포함하는 레퍼런스 워크플로라고 설명했다. 블루프린트의 첫 번째 적용 분야 중 하나는 전산유체역학(CFD) 시뮬레이션이다. 이는 자동차, 비행기, 선박 등 여러 제품의 설계를 가상으로 탐색하고 테스트하며 개선하는데 있어 중요한 단계이다. 기존의 엔지니어링 워크플로는 물리 시뮬레이션부터 시각화와 설계 최적화에 이르기까지 완료하는 데 몇 주 또는 몇 달이 걸릴 수 있다. 실시간 물리 디지털 트윈을 구축하려면 실시간 물리 솔버(solver) 성능과 대규모 데이터 세트의 실시간 시각화라는 2가지 기본 기능이 필요하다. 옴니버스 블루프린트는 이러한 기능을 달성하기 위해 엔비디아 쿠다-X(CUDA-X) 라이브러리를 활용해 솔버 성능을 가속화한다. 또한, 엔비디아 모듈러스(Modulus) 물리-AI 프레임워크를 사용해 플로 필드를 생성하기 위한 모델을 훈련하고 배포한다. 마지막으로, 엔비디아 옴니버스 애플리케이션 프로그래밍 인터페이스를 통해 3D 데이터 상호운용성과 실시간 RTX 지원 시각화를 제공한다.      앤시스는 옴니버스 블루프린트를 채택해 유체 시뮬레이션 소프트웨어인 앤시스 플루언트(Ansys Fluent)에 적용해 전산 유체 역학 시뮬레이션을 가속화했다. 앤시스는 텍사스 첨단 컴퓨팅센터에서 320개의 엔비디아 GH200 그레이스 호퍼 슈퍼칩(Grace Hopper Superchip)으로 플루언트를 실행했다. 2,048개의 x86 CPU 코어에서는 거의 한 달이 걸리던 25억 셀의 자동차 시뮬레이션을 6시간 만에 완료했다. 이를 통해 밤새 고충실도 CFD 분석을 수행할 수 있는 실현 가능성을 향상시키고 새로운 업계 벤치마크를 수립했다. 루미너리 클라우드 또한 블루프린트를 채택하고 있다. 엔비디아 모듈러스를 기반으로 구축된 이 회사의 새로운 시뮬레이션 AI 모델은 GPU 가속 CFD 솔버에서 생성된 훈련 데이터를 기반으로 기류장과 자동차 형상 간의 관계를 학습한다. 이 모델은 솔버 자체보다 훨씬 빠른 속도로 시뮬레이션을 실행해 옴니버스 API를 사용해 시각화된 실시간 공기 역학 흐름 시뮬레이션을 가능하게 한다. 엔비디아와 루미너리 클라우드는 SC24에서 가상 풍동을 시연했다. 이는 터널 내부에서 차량 모델을 변경하더라도 실시간으로 상호작용하는 속도로 유체 역학을 시뮬레이션하고 시각화할 수 있다. 엔비디아는 알테어, 비욘드 매스, 케이던스, 헥사곤, 뉴럴 컨셉, 지멘스, 심스케일, 트레인 테크놀로지스 등이 자체 애플리케이션에 옴니버스 블루프린트 도입을 검토하고 있다고 밝혔다. 옴니버스 블루프린트는 아마존 웹 서비스(AWS), 구글 클라우드, 마이크로소프트 애저를 비롯한 주요 클라우드 플랫폼에서 실행할 수 있다. 엔비디아 DGX 클라우드(DGX Cloud)에서도 사용할 수 있다.  리스케일은 엔비디아 옴니버스 블루프린트를 사용해 단 몇 번의 클릭만으로 맞춤형 AI 모델을 훈련하고 배포할 수 있도록 지원한다. 리스케일 플랫폼은 전체 애플리케이션-하드웨어 스택을 자동화하며, 모든 클라우드 서비스 제공업체에서 실행될 수 있다. 조직은 어떤 시뮬레이션 솔버를 사용해도 훈련 데이터를 생성하고, AI 모델을 준비, 훈련, 배포하며, 추론 예측을 실행하고, 모델을 시각화하고 최적화할 수 있다. 엔비디아의 젠슨 황(Jensen Huang) CEO는 “우리는 모든 사물이 디지털 트윈을 가질 수 있도록 옴니버스를 구축했다. 옴니버스 블루프린트는 엔비디아 옴니버스와 AI 기술을 연결하는 레퍼런스 파이프라인이다. 이는 선도적인 CAE 소프트웨어 개발자가 설계, 제조부터 운영에 이르기까지 세계 최대 산업을 위해 산업 디지털화를 혁신할 획기적인 디지털 트윈 워크플로를 구축할 수 있도록 지원한다”고 말했다.
작성일 : 2024-11-19
델, AI 팩토리 포트폴리오에 최신 기술 적용한 서버/랙 시스템/전문 서비스 추가
델 테크놀로지스는 자사의 AI 설루션 포트폴리오인 ‘델 AI 팩토리(Dell AI Factory)’에 AI 구축 간소화를 위한 신규 인프라 설루션과 전문 서비스를 추가했다고 밝혔다. 델은 확장된 라인업을 통해 기업 및 기관이 AI 워크로드를 가속하고 데이터 관리를 효율화할 수 있도록 지원할 계획이다. 올해 새롭게 공개된 통합 랙 스케일러블 시스템인 ‘델 IRSS(Integrated Rack Scalable Systems)’는 플러그 앤 플레이 방식의 랙 스케일 시스템을 제공하는 공장 통합형 턴키 프로그램으로, 델 스마트 쿨링(Dell Smart Cooling) 기술이 적용되어 있다. IRSS는 전체 랙에 대한 원콜 서비스 및 지원 옵션을 통해 에너지 효율적인 AI 인프라스트럭처 구축을 더욱 간소화한다. 설치가 완료되면 델에서 패키징 폐기물 및 재활용을 처리하고 기존 노후 하드웨어의 재활용까지 지원한다. 표준 19인치 모델인 ‘델 IR5000(Dell Integrated Rack 5000)’에 탑재되는 서버로 ‘델 파워엣지 XE9685L(Dell PowerEdge XE9685L)’ 및 ‘델 파워엣지 XE7740(Dell PowerEdge XE7740)’이 추가됐다. 델 IR5000은 공간 효율적인 폼 팩터로 고집적 애플리케이션을 위해 설계되었으며, 고성능을 제공하는 동시에 에너지 효율을 유지한다.  델 파워엣지 XE9685L은 AI, 머신러닝, 고성능 컴퓨팅(HPC) 및 기타 데이터 집약적인 워크로드를 위해 설계된 고집적 4U 수랭식 서버이다. 최대 12개의 PCIe 젠 5.0 슬롯과 함께 엔비디아 HGX (NVIDIA HGX) H200 및 B200 GPU와 페어링된 듀얼 AMD 5세대 에픽(EPYC) CPU는 특정 컴퓨팅 요구 사항을 충족하는 맞춤형 구성, 최적화된 스토리지 연결 및 까다로운 워크로드를 위한 최대 IO 처리량을 지원한다. 이 플랫폼은 랙당 최대 96개의 엔비디아 GPU를 탑재할 수 있어 업계 최고 수준의 GPU 집적도를 제공한다.   ▲ 델 파워엣지 XE7740 서버   델 파워엣지 XE7740은 공랭식의 4U 모델로 2개의 인텔 제온 6(Intel Xeon) P-코어 프로세서와 인텔 가우디(Intel Gaudi) 3 PCIe 가속기 또는 엔비디아 H200 NVL 등 최대 8개의 더블 와이드 가속기, 또는 엔비디아 L4 텐서 코어(Tensor Core) GPU 등의 최대 16개의 싱글 와이드 가속기를 사용할 수 있다. 델은 “다양한 선택의 폭이 제공되는 만큼 생성형 AI 모델의 미세 조정이나 추론에서부터 대규모 데이터 세트에 대한 가치 추출에 이르기까지 규모에 맞게 서버 구성의 적절히 조정할 수 있다”고 설명했다.   델은 곧 출시될 엔비디아 GB200 그레이스 블랙웰 NVL4 슈퍼칩(Grace Blackwell NVL4 Superchip)을 델 IR7000용으로 설계된 새로운 델 파워엣지 XE 서버를 통해 50OU 표준 랙에서 랙당 최대 144개의 GPU를 지원할 계획이다. IR7000 랙은 100%에 가까운 열 포집 능력으로 고전력 및 액체 냉각을 필요로 하는 대규모 HPC 및 AI 워크로드를 지원한다. 또한, 델 테크놀로지스는 AI 작업을 위해 데이터를 효율적으로 관리하고 분석할 수 있는 최신 아키텍처 수요에 대응하게 위해 ‘델 데이터 레이크하우스(Dell Data Lakehouse)’도 업데이트 했다. 이 플랫폼은 AI에 최적화된 하드웨어와 풀 스택 소프트웨어 제품군을 기반으로 구축되었으며, 향후 대규모 분산 데이터 처리를 위한 아파치 스파크(Apache Spark)를 포함하도록 확장될 예정이다. 대량의 데이터를 관리하는 기업의 경우, 이를 통해 데이터 애널리틱스와 관리 및 처리에 이르기까지 통합된 접근 방식을 확보함으로써 효율성을 높이고 보다 신속하게 실행 가능한 인사이트를 얻을 수 있다. 한편, 델은 AI 에코시스템 전반의 파트너와 협력하여 AI 구축을 강화하고 간소화하는데 노력하고 있다고 전했다. 엔비디아 기반 델 AI 팩토리(Dell AI Factory with NVIDIA)는 AI 운영 및 활용 사례 구축을 위해 성능을 보다 가속화한다. 새로운 엔비디아 HGX H200 및 H100NVL 지원 옵션은 엔비디아 HGX H100 대비 최대 1.9배 더 높은 성능을 제공한다. 엔비디아 기반 델 AI 팩토리의 일부인 ‘엔비디아 기반 델 에이전틱 RAG(Dell Agentic RAG with NVIDIA)’를 통해 고객은 복잡한 쿼리를 수행하고 검색 증강 생성(RAG) 작업을 가속할 수 있다. 대규모 데이터 세트를 보유한 조직에서는 델의 이 설계를 기반으로 AI 에이전트를 사용하여 RAG 워크플로 성능을 개선하고, 복잡한 쿼리를 처리하며, 더 높은 품질의 결과를 제공할 수 있다. 이 설루션은 델 파워엣지와 델 파워스케일(Dell PowerScale)을 비롯해 니모 리트리버(NeMo Retriever) 마이크로서비스, 멀티모달 PDF 데이터 추출을 위한 ‘엔비디아 AI 블루프린트(NVIDIA AI Blueprint)’ 등 엔비디아 AI 엔터프라이즈(NVIDIA AI Enterprise) 소프트웨어를 활용한다. AI PC를 위한 델 검증 설계(Dell Validated Designs for AI PCs)는 NPU 기술이 탑재된 델 AI PC에서 AI 애플리케이션 개발을 촉진하기 위해 설계된 오픈 소스 가이드이다. 개발자는 모듈식 설계를 쉽게 맞춤화하여 LLM, 비전, 텍스트 및 음성 등의 기능을 애플리케이션에 통합할 수 있다. 또한 다양한 프로세서 종류나 플랫폼에 걸쳐 AI 애플리케이션을 배포할 수 있다. 이러한 확장 가능한 접근 방식을 통해 온디바이스 AI에서 일상적인 프로세스를 자동화하고 시간과 비용을 절감하고 데이터 보안을 개선할 수 있다. 델 프로페셔널 서비스(Dell Professional Services)는 AI 관련 전략 개발이나 구현에 어려움을 겪는 기업과 기관들이 AI 목표를 보다 효율적으로 달성할 수 있도록 지원한다. ‘지속 가능한 데이터 센터를 위한 자문 및 구현 서비스(Advisory and Implementation Services for Sustainable Data Centers)’는 지능형 전력 및 냉각 관리를 통해 저탄소, 에너지 효율적인 데이터 센터를 위한 전략을 수립하고 구현하는데 필요한 전문 지식을 제공한다. ‘데이터 관리 서비스(Data Management Services)’는 데이터를 검색, 분류, 정제하여 AI-레디 카탈로그를 제공하고 체계화된 고품질 데이터에 대한 안정적이고 간소화된 액세스를 보장한다. ‘AI 네트워킹을 위한 설계 서비스(Design Services for AI Networking)’는 더 빠른 속도, 지연 시간 단축, 향상된 확장성을 통해 AI 워크로드에 최적화된 네트워크 설계를 제공한다. ‘서비스나우 나우 어시스트를 위한 구현 서비스(Implementation Services for ServiceNow Now Assist)’는 AI 기반 요약을 통해 콘텐츠 수집을 간소화하여 결과를 자동화하고 생산성을 향상시키는 ‘나우 어시스트’를 통해 서비스 관리 워크플로에 생성형 AI 기능을 통합한다. 한국 델 테크놀로지스의 김경진 총괄사장은 “여러 고객들이 AI를 구축하고 실행하기까지 점점 더 다양한 도전과제에 직면하게 된다”면서, “델은 계속해서 진일보한 AI 오퍼링을 선보임으로써 고객이 AI를 통해 보다 스마트하고 유연하게 대응할 수 있는 미래를 만들어갈 수 있도록 하는데 집중하고 있다”고 밝혔다. 델 파워엣지 XE9685L과 델 파워엣지 XE7740은 2025년 1분기에 전 세계에 출시될 예정이며, 델 데이터 레이크하우스 업데이트는 현재 전세계에서 이용 가능하다. AI PC를 위한 델 검증 설계는 현재 전 세계에서 이용 가능하며, 엔비디아 기반의 델 생성형 AI 설루션의 GPU 업데이트는 올해 내에 제공될 예정이고, 엔터프라이즈 RAG 업데이트는 현재 이용이 가능하다. ‘델 데이터 관리 서비스’와 ‘지속 가능한 데이터 센터를 위한 델 서비스,’ ‘AI 네트워킹을 위한 델 설계 서비스,’ ‘서비스나우 나우 어시스트를 위한 델 구현 서비스’는 현재 일부 국가에서 제공되고 있다.
작성일 : 2024-11-19
HPE, 직접 수냉 방식 HPC 설루션 및 대규모 AI 모델 학습을 위한 AI 서버 발표
HPE는 리더십급 ‘HPE 크레이 슈퍼컴퓨팅 EX’ 설루션과 대규모 언어 모델(LLM) 학습, 자연 언어 프로세싱(NLP) 및 멀티 모달 모델 학습에 최적화된 시스템 2종을 포함한 새로운 HPC 및 인공지능(AI) 인프라 포트폴리오를 발표했다. HPE 크레이 슈퍼컴퓨팅 EX 시스템을 기반으로 하는 전체 리더십급 HPC 포트폴리오의 신제품은 세계의 난제 해결을 맡은 연구 기관과 소버린 AI 이니셔티브를 개발하는 정부 기관을 위해 설계되었다. 이 포트폴리오는 100% 팬리스 직접 수냉 방식(Fanless DLC) 시스템 아키텍처를 기반으로 하며 컴퓨팅 노드, 네트워킹, 스토리지를 포함한 HPE 슈퍼컴퓨팅 설루션의 모든 레이어에 걸쳐 새로운 소프트웨어 오퍼링으로 보완된다. 단일 캐비닛에서 최대 9만 8304개의 코어를 제공할 수 있는 HPE 크레이 슈퍼컴퓨팅 EX4252 2세대 컴퓨팅 블레이드(HPE Cray Supercomputing EX4252 Gen 2 Compute Blade)는 슈퍼컴퓨팅을 위한 강력한 원랙 유닛 시스템을 구현하는 제품이다. 8개의 5세대 AMD 에픽(EPYC) 프로세서를 탑재한 이 컴퓨팅 블레이드는 CPU 집적도의 이점을 제공하여 고객이 동일한 공간 내에서 더 높은 성능의 컴퓨팅을 실현할 수 있도록 지원한다. HPE Cray 슈퍼컴퓨팅 EX4252 2세대 컴퓨팅 블레이드는 2025년 봄에 출시될 예정이다.     슈퍼컴퓨팅 워크로드를 완료하는 데 걸리는 시간을 단축하기 위해 HPE 크레이 슈퍼컴퓨팅 EX154n 가속기 블레이드(HPE Cray Supercomputing EX154n Accelerator Blade)는 단일 캐비닛에 최대 224개 엔비디아 블랙웰(NVIDIA Blackwell) GPU를 탑재할 수 있다. 각 가속기 블레이드는 엔비디아 GB200 그레이스 블랙웰 NVL4 슈퍼칩(NVIDIA GB200 Grace Blackwell NVL4 Superchip)을 탑재하고 있으며, 엔비디아 NV링크-C2C를 통해 2개의 엔비디아 그레이스 CPU와 통합된 4개의 엔비디아 NV링크 연결 블랙웰(NVIDIA NVLink-connected Blackwell) GPU를 보유하고 있다. HPE 크레이 슈퍼컴퓨팅 EX154n 가속기 블레이드는 2025년 말에 공급될 예정이다. 차세대 엑사스케일 지원 HPE 인터커넥트 포트폴리오는 초당 400GB 속도의 네트워크 인터페이스 컨트롤러(NIC), 케이블 및 스위치를 제공한다. HPE 슬링샷 인터커넥트 400(HPE Slingshot interconnect 400)은 이전 세대보다 2배 빠른 회선 속도를 제공하는 동시에 자동화된 혼잡 관리 및 초저 테일 레이턴시(ultra-low tail latency)를 위한 어댑티브 라우팅과 같은 기능을 제공하여 고객이 더 적은 네트워크 인프라로 대규모 워크로드를 실행할 수 있도록 지원한다. 이 버전의 HPE 슬링샷은 2025년 하반기부터 HPE Cray 슈퍼컴퓨팅 EX 시스템 기반 클러스터에 적용될 예정이다 HPE 크레이 슈퍼컴퓨팅 스토리지 시스템 E2000은 이전 세대 대비 입출력(I/O) 성능이 두 배 이상 향상되었다. 대규모 슈퍼컴퓨터용으로 설계된 이 시스템은 오픈 소스 러스터(Lustre) 파일 시스템을 기반으로 하며, I/O 작업 중 유휴 시간을 줄여 CPU 및 GPU 기반 컴퓨팅 노드 모두의 활용도를 높일 수 있다. 이 HPC 스토리지 시스템은 2025년 초에 HPE 크레이 슈퍼컴퓨팅 EX 시스템에서 일반적으로 제공될 예정이다. 또한, HPE는 컴퓨팅 집약적 워크로드 실행의 사용자 경험을 개선하는 새로운 소프트웨어 제품을 출시한다. 현재 이용 가능한 HPE 크레이 슈퍼컴퓨팅 사용자 서비스 소프트웨어에는 고객이 시스템 효율성을 최적화하고 전력 소비를 조절하며 슈퍼컴퓨팅 인프라에서 다양한 워크로드를 유연하게 실행하는 데 도움이 되는 기능이 포함되어 있다. 한편, HPE는 고객이 대규모 고성능 AI 클러스터를 간소화할 수 있도록 지원하는 새로운 카테고리의 서버를 계속 선보이고 있다고 전했다. 자체 AI 모델을 학습하는 SP와 대기업을 위해 설계된 HPE 프로라이언트 컴퓨트 XD 서버는 대규모 AI 시스템 설치 및 배포에 대한 HPE의 전문성을 활용한다. HPE의 최첨단 제조 시설 내에서 설루션의 구축, 맞춤화, 통합, 검증, 전체 테스트를 지원하는 HPE 서비스 옵션을 활용하면 신속한 온사이트 배포가 가능하다. HPE 프로라이언트 컴퓨트 서버에서만 사용 가능한 HPE iLO(Integrated Lights-Out) 관리 기술을 사용하면 일부 권한이 있는 직원이 서버에 대한 대역 외 원격 제어 액세스를 허용하여 표준 대역 내 네트워크 액세스보다 보안을 강화할 수 있다. 가격 대비 성능을 염두에 두고 최적화된 공냉 방식 HPE 프로라이언트 컴퓨트 XD680 서버는 복잡한 AI 학습, 튜닝 및 추론 워크로드를 처리하도록 설계되었다. HPE가 설계한 섀시에는 단일 컴팩트 노드에 8개의 인텔 가우디 3 AI 가속기가 탑재되어 있다. 인텔 가우디 3가 탑재된 HPE 프로라이언트 컴퓨트 XD680 서버는 2024년 12월에 출시될 예정이다. HPE는 성능, 경쟁 우위, 에너지 효율성을 우선시하는 고객을 위해 대규모의 복잡한 AI 모델에 대한 학습을 가속화할 수 있는 엔비디아 GPU가 탑재된 새로운 버전의 HPE 프로라이언트 컴퓨트 XD685 서버가 출시될 예정이다. 이 서버는 5개의 랙 유닛 섀시에 8개의 엔비디아 H200 SXM 텐서 코어 GPU 또는 엔비디아 블랙웰 GPU로 구동되며, 수냉식 냉각 분야에서 수십 년간 쌓아온 HPE의 전문성을 활용하여 GPU, CPU 및 스위치를 효율적으로 냉각시킨다. HPE 프로라이언트 컴퓨트 XD685 서버의 엔비디아 HGX H200 8-GPU 버전은 2025년 초에 출시될 예정이며, 엔비디아 블랙웰 GPU 버전은 출시에 맞춰 선보일 예정이다. HPE의 트리시 댐크로거(Trish Damkroger) HPC 및 AI 인프라 설루션 부문 수석 부사장 겸 총괄은 “소버린 AI 이니셔티브에 투자하는 서비스 제공업체와 국가들은 발견과 혁신을 가속화하기 위한 대규모 AI 학습을 가능하게 하는 중요한 백본으로 HPC를 점점 더 많이 고려하고 있다”면서 “고객은 세계 최고의 HPC 설루션과 완전 통합형 시스템 제공, 배포 및 서비스 분야에서 수십 년간 쌓아온 경험을 활용하여 더 빠르고 효율적으로 가치를 실현하면서 AI 시스템 배포를 빠르게 진행하기 위해 HPE에 주목하고 있다”고 밝혔다.
작성일 : 2024-11-15