엔비디아, AWS와 협력 확대하며 생성형 AI 위한 인프라부터 서비스까지 제공
엔비디아는 아마존웹서비스(AWS)와 전략적 협력을 확대한다고 발표했다. 이번 협력으로 양사는 고객의 생성형 AI(generative AI) 혁신을 위한 최첨단 인프라, 소프트웨어, 서비스를 제공할 수 있도록 지원할 예정이다.
양사는 파운데이션 모델(foundation model) 훈련과 생성형 AI 애플리케이션 구축에 적합한 엔비디아와 AWS의 기술을 결합할 계획이다. 여기에는 차세대 GPU, CPU와 AI 소프트웨어를 갖춘 엔비디아의 멀티노드 시스템부터 AWS의 니트로(Nitro) 시스템 고급 가상화와 보안, EFA(Elastic Fabric Adapter) 상호 연결과 울트라클러스터(UltraCluster) 확장성까지 다양한 기술이 포함된다.
AWS는 새로운 멀티노드 NV링크(NVLink) 기술이 적용된 엔비디아 GH200 그레이스 호퍼 슈퍼칩(Grace Hopper Superchips)을 클라우드에 도입한 최초의 클라우드 제공업체가 된다. 엔비디아 GH200 NVL32 멀티노드 플랫폼은 32개의 그레이스 호퍼 슈퍼칩과 엔비디아 NV링크 및 NV스위치(NVSwitch) 기술을 하나의 인스턴스로 연결한다. 이 플랫폼은 아마존 EC2(Elastic Compute Cloud) 인스턴스에서 사용할 수 있다. GH200 NVL32가 탑재된 단일 아마존 EC2 인스턴스는 최대 20TB의 공유 메모리를 제공함으로써 테라바이트 규모의 워크로드를 지원하며, AWS의 3세대 EFA 인터커넥트를 통해 슈퍼칩당 최대 400Gbps의 저지연, 고대역폭 네트워킹 처리량을 제공한다.
그리고, 엔비디아의 서비스형 AI 훈련인 엔비디아 DGX 클라우드(DGX Cloud)가 AWS에 호스팅된다. 이는 GH200 NVL32를 탑재한 DGX 클라우드로 개발자에게 단일 인스턴스에서 큰 공유 메모리를 제공한다. 엔비디아 DGX 클라우드는 기업이 복잡한 LLM(대규모 언어 모델)와 생성형 AI 모델을 훈련하기 위한 멀티노드 슈퍼컴퓨팅에 빠르게 액세스할 수 있도록 지원하는 AI 슈퍼컴퓨팅 서비스이다. AWS의 DGX 클라우드는 1조 개 이상의 파라미터에 이르는 최첨단 생성형 AI와 대규모 언어 모델의 훈련을 가속화하며, 이를 통해 통합된 엔비디아 AI 엔터프라이즈(AI Enterprise) 소프트웨어와 함께 엔비디아 AI 전문가에게 직접 액세스할 수 있다.
한편, 엔비디아와 AWS는 세계에서 가장 빠른 GPU 기반 AI 슈퍼컴퓨터를 구축하기 위해 프로젝트 세이바(Project Ceiba)에서 협력하고 있다. 이 슈퍼컴퓨터는 엔비디아의 리서치와 개발팀을 위해 AWS가 호스팅하는 GH200 NVL32와 아마존 EFA 인터커넥트를 갖춘 대규모 시스템이다. 이는 1만 6384개의 엔비디아 GH200 슈퍼칩을 탑재하고 65 엑사플롭(exaflops)의 AI를 처리할 수 있다. 엔비디아는 이 슈퍼컴퓨터를 연구 개발에 활용해 LLM, 그래픽과 시뮬레이션, 디지털 생물학, 로보틱스, 자율주행 자동차, 어스-2(Earth-2) 기후 예측 등을 위한 AI를 발전시킬 계획이다.
이외에도, AWS는 세 가지의 새로운 아마존 EC2 인스턴스를 추가로 출시할 예정이다. 여기에는 대규모 최첨단 생성형 AI와 HPC 워크로드를 위한 엔비디아 H200 텐서 코어(Tensor Core) GPU 기반의 P5e 인스턴스가 포함된다. P5e 인스턴스에 탑재된 H200 GPU는 141GB의 HBM3e GPU 메모리를 제공하며, 최대 3200Gbps의 EFA 네트워킹을 지원하는 AWS 니트로 시스템을 결합해 최첨단 모델을 지속적으로 구축, 훈련, 배포할 수 있다. 또한 G6와 G6e 인스턴스는 각각 엔비디아 L4 GPU와 엔비디아 L40S GPU를 기반으로 하며 AI 미세 조정, 추론, 그래픽과 비디오 워크로드와 같은 애플리케이션에 적합하다. 특히 G6e 인스턴스는 생성형 AI 지원 3D 애플리케이션을 연결하고 구축하기 위한 플랫폼인 엔비디아 옴니버스(Omniverse)를 통해 3D 워크플로, 디지털 트윈과 기타 애플리케이션을 개발하는 데 적합하다.
AWS의 아담 셀립스키(Adam Selipsky) CEO는 “AWS와 엔비디아는 세계 최초의 GPU 클라우드 인스턴스를 시작으로 13년 이상 협력해 왔다. 오늘날 우리는 그래픽, 게이밍, 고성능 컴퓨팅, 머신러닝, 그리고 이제 생성형 AI를 포함한 워크로드를 위한 가장 광범위한 엔비디아 GPU 솔루션을 제공한다. 우리는 차세대 엔비디아 그레이스 호퍼 슈퍼칩과 AWS의 강력한 네트워킹, EC2 울트라클러스터의 하이퍼스케일 클러스터링, 니트로의 고급 가상화 기능을 결합해 AWS가 GPU를 실행하기 가장 좋은 환경이 될 수 있도록 엔비디아와 함께 지속적으로 혁신하고 있다”고 말했다.
엔비디아의 젠슨 황(Jensen Huang) CEO는 “생성형 AI는 클라우드 워크로드를 혁신하고 가속 컴퓨팅을 다양한 콘텐츠 생성의 기반에 도입하고 있다. 모든 고객에게 비용 효율적인 최첨단 생성형 AI를 제공한다는 목표로, 엔비디아와 AWS는 전체 컴퓨팅 스택에 걸쳐 협력하고 있다. 이로써 AI 인프라, 가속 라이브러리, 기반 모델부터 생성형 AI 서비스를 확장한다”고 전했다.
작성일 : 2023-11-29