• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "인프라"에 대한 통합 검색 내용이 4,614개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
레드햇, 애저에서 RHEL AI의 AI 모델 개발 및 배포 간소화 지원
레드햇은 클라우드에서의 인공지능(AI) 및 생성형 AI 배포를 간소화하고 확장하기 위해 마이크로소프트와의 협력을 확대한다고 발표했다. 이번 협력을 통해 레드햇 엔터프라이즈 리눅스 AI(RHEL AI)는 마이크로소프트 애저 환경에서 실행 가능하도록 최적화되고 검증된 파운데이션 모델 플랫폼으로써 제공되며, 애저 마켓플레이스(Azure Marketplace)를 통해 BYOS(Bring-Your-Own-Subscription) 제품으로 제공될 예정이다. 파괴적 혁신이 끊임없이 일어나는 산업 환경에서 조직이 새로운 기능을 신속하게 통합하고 지원할 수 있는 적응형 기술 스택을 도입하고 유지하는 것은 매우 중요하다. 이는 특히 애플리케이션과 데이터, 플랫폼, 인프라를 아우르는 AI 지원 기술을 필요로 하는 AI 기반 비즈니스로 전환하는 조직에 더욱 중요하다. MS 애저용 RHEL AI는 조직이 하이브리드 클라우드 환경에서 생성형 AI 모델을 더욱 원활하게 구축, 테스트, 배포하는 데 필요한 일관성과 확장성을 제공한다. RHEL AI는 엔터프라이즈급 오픈소스 라이선스 그래니트(Granite) 모델로 생성형 AI 혁신을 지원하는 파운데이션 모델 플랫폼으로, 인스트럭트랩(InstructLab) 도구를 통해 기업의 프라이빗 데이터와 사용 사례에 맞춘 모델 조정을 간소화한다. 또한 RHEL AI는 동일한 도구와 개념을 사용하여 이러한 모델을 대규모로 조정(tuning)하고 서비스할 수 있도록 레드햇 오픈시프트 AI(Red Hat OpenShift AI)로 바로 이동 가능한 경로를 제공한다. MS 애저에서의 RHEL AI 제공은 조직이 비즈니스 요구 사항을 충족하기 위해 오픈소스의 힘을 활용할 수 있도록 돕는 레드햇과 MS 간의 오랜 협력 관계를 기반으로 한다. RHEL AI는 양사가 공동으로 개발하고 지원하는 완전 관리형 턴키 애플리케이션 플랫폼인 레드햇 오픈시프트 AI 및 애저 레드햇 오픈시프트(Azure Red Hat OpenShift) 등 다른 제품들처럼 MS 애저에서 사용 가능한 최신 AI 최적화 레드햇 제품이다.
작성일 : 2024-11-22
퓨어스토리지, AI 혁신 가속화를 위한 ‘생성형 AI 포드’ 발표
퓨어스토리지가 자사 플랫폼 기반의 턴키 설계를 제공하는 풀스택 설루션인 새로운 퓨어스토리지 생성형 AI 포드(GenAI Pod)를 발표했다. 기업은 이를 통해 AI 기반 혁신을 가속화하고, 생성형 AI 프로젝트 구축에 필요한 시간, 비용, 전문 기술력을 절감할 수 있다.  오늘날 기업들은 프라이빗 클라우드에서 생성형 AI와 검색 증강 생성(RAG)을 배포하는데 어려움을 겪고 있다. 이는 생성형 AI 워크로드를 지원하는 하드웨어, 소프트웨어, 기본 모델, 개발 도구를 적시에 비용 효율적으로 배포하는 복잡성을 포함한다. 따라서 기업들은 AI로 인해 진화하는 모든 스토리지 요구사항을 해결할 수 있는 단일 통합 스토리지 플랫폼이 필요로 한다. 퓨어스토리지 플랫폼에 구축된 생성형 AI 포드는 새로운 설계를 통해 생성형 AI 사용사례를 위한 턴키 설루션을 제공하며, 기업들이 이들 과제를 해결하도록 지원한다. 생성형 AI 포드는 원클릭 구축과 벡터 데이터베이스 및 기반 모델에 대한 간소화된 2일차(Day 2) 운영을 통해 기업의 AI 이니셔티브를 가속화한다. 포트웍스(Portworx)와 통합된 생성형 AI 포드는 엔비디아 AI 엔터프라이즈 소프트웨어 플랫폼과 밀버스(Milvus) 벡터 데이터베이스를 통해 엔비디아 네모 (NeMo) 및 NIM 마이크로서비스(NIM microservices)의 배포 자동화를 지원하며, 2일차 운영을 더욱 간소화한다. 이러한 검증된 설계의 초기 산업 애플리케이션으로는 신약 개발, 무역 조사 및 투자 분석, 시맨틱 검색, 지식 관리 및 챗봇을 위한 에이전트 프레임워크를 갖춘 검색 증강 생성(RAG)이 포함된다. 퓨어스토리지의 풀스택 설루션에는 하드웨어, 소프트웨어 및 기본 모델은 물론, 업계 주요 AI 공급업체의 전문 서비스가 포함된다. 초기 검증 설계를 위해 퓨어스토리지는 아리스타, 시스코, KX, 메타, 엔비디아, 레드햇, 슈퍼마이크로 및 WWT와 파트너십을 체결했다. 퓨어스토리지 생성형 AI 포드는 2025년 상반기에 정식 출시될 예정이다. 한편, 퓨어스토리지는 플래시블레이드//S500(FlashBlade//S500)가 엔비디아 DGX 슈퍼포드(NVIDIA DGX SuperPOD)의 이더넷 호환성 인증을 통해 엔터프라이즈 AI 구축을 가속화한다고 밝혔다.  대규모 AI를 구축하는 기업은 복잡한 아키텍처 설계와 성능, 전력, 공간 요건을 충족해야 하는 과제를 안고 있다. 이에 따라 퓨어스토리지는 이더넷 기반의 플래시블레이드//S500에 대한 엔비디아 DGX 슈퍼포드 인증을 획득했다. 이 인증을 통해 고객은 향후 증가하는 AI 요구사항에 대비할 수 있도록 유연하고 안정적이며 공간 및 에너지 효율성이 높은 고성능 스토리지 플랫폼으로 하이엔드 엔터프라이즈 AI 트레이닝을 가속화할 수 있다. 새로운 생성형 AI 검증 설계는 플래시블레이드//S500의 엔비디아 DGX 슈퍼포드 인증과 함께, 엔비디아 DGX 베이스포드 인증 받은 에이리(AIRI with NVIDIA DGX BasePOD), 검증된 엔비디아 OVX 서버, 시스코와 공동 설계한 AI용 플래시스택(FlashStack for AI with Cisco) 등 퓨어스토리지의 AI 설루션 포트폴리오를 더욱 확장한다. 이번 발표를 통해 퓨어스토리지는 이제 막 AI 여정을 시작한 고객부터 대규모, 고성능 컴퓨팅 및 데이터 집약적인 요구사항을 가진 고객까지 아우르는 포괄적인 AI 인프라 설루션을 제공하는 선도적인 기업으로서의 입지를 다질 전망이다. 퓨어스토리지의 댄 코건(Dan Kogan) 엔터프라이즈 성장 및 설루션 부문 부사장은 “혁신의 속도가 빨라지면서 기업 고객들은 비즈니스 전 영역에 AI를 활용해야 하지만, 사일로화된 데이터 플랫폼과 복잡한 생성형 AI 파이프라인이라는 근본적인 문제로 어려움을 겪고 있다”며, “퓨어스토리지의 확장된 AI 설루션 포트폴리오는 생성형 AI 및 대규모 엔터프라이즈 AI 클러스터를 위한 검증된 턴키 설계를 통해 고객이 이러한 과제를 해결하도록 지원한다. 검증된 설계는 기술 스택의 모든 계층에서 요구사항을 총체적으로 해결해 AI 프로젝트의 가치 실현 시간과 운영 리스크를 획기적으로 줄인다”고 말했다. 엔비디아의 토니 백데이(Tony Paikeday) AI 시스템 부문 수석 디렉터는 “AI는 전례 없는 속도로 산업을 혁신하고 있으며, 기업들은 이를 달성하기 위해 강력하고 검증된 설루션과 인프라가 필요하다”며, “퓨어스토리지 생성형 AI 포드와 엔비디아 AI 엔터프라이즈 소프트웨어, 플래시블레이드//S500의 엔비디아 DGX 슈퍼포드 인증은 기업들이 인프라 복잡성을 제거하고, 구축 속도를 높이며, 운영을 간소화할 수 있도록 지원한다”고 말했다.
작성일 : 2024-11-22
델, AI 팩토리 포트폴리오에 최신 기술 적용한 서버/랙 시스템/전문 서비스 추가
델 테크놀로지스는 자사의 AI 설루션 포트폴리오인 ‘델 AI 팩토리(Dell AI Factory)’에 AI 구축 간소화를 위한 신규 인프라 설루션과 전문 서비스를 추가했다고 밝혔다. 델은 확장된 라인업을 통해 기업 및 기관이 AI 워크로드를 가속하고 데이터 관리를 효율화할 수 있도록 지원할 계획이다. 올해 새롭게 공개된 통합 랙 스케일러블 시스템인 ‘델 IRSS(Integrated Rack Scalable Systems)’는 플러그 앤 플레이 방식의 랙 스케일 시스템을 제공하는 공장 통합형 턴키 프로그램으로, 델 스마트 쿨링(Dell Smart Cooling) 기술이 적용되어 있다. IRSS는 전체 랙에 대한 원콜 서비스 및 지원 옵션을 통해 에너지 효율적인 AI 인프라스트럭처 구축을 더욱 간소화한다. 설치가 완료되면 델에서 패키징 폐기물 및 재활용을 처리하고 기존 노후 하드웨어의 재활용까지 지원한다. 표준 19인치 모델인 ‘델 IR5000(Dell Integrated Rack 5000)’에 탑재되는 서버로 ‘델 파워엣지 XE9685L(Dell PowerEdge XE9685L)’ 및 ‘델 파워엣지 XE7740(Dell PowerEdge XE7740)’이 추가됐다. 델 IR5000은 공간 효율적인 폼 팩터로 고집적 애플리케이션을 위해 설계되었으며, 고성능을 제공하는 동시에 에너지 효율을 유지한다.  델 파워엣지 XE9685L은 AI, 머신러닝, 고성능 컴퓨팅(HPC) 및 기타 데이터 집약적인 워크로드를 위해 설계된 고집적 4U 수랭식 서버이다. 최대 12개의 PCIe 젠 5.0 슬롯과 함께 엔비디아 HGX (NVIDIA HGX) H200 및 B200 GPU와 페어링된 듀얼 AMD 5세대 에픽(EPYC) CPU는 특정 컴퓨팅 요구 사항을 충족하는 맞춤형 구성, 최적화된 스토리지 연결 및 까다로운 워크로드를 위한 최대 IO 처리량을 지원한다. 이 플랫폼은 랙당 최대 96개의 엔비디아 GPU를 탑재할 수 있어 업계 최고 수준의 GPU 집적도를 제공한다.   ▲ 델 파워엣지 XE7740 서버   델 파워엣지 XE7740은 공랭식의 4U 모델로 2개의 인텔 제온 6(Intel Xeon) P-코어 프로세서와 인텔 가우디(Intel Gaudi) 3 PCIe 가속기 또는 엔비디아 H200 NVL 등 최대 8개의 더블 와이드 가속기, 또는 엔비디아 L4 텐서 코어(Tensor Core) GPU 등의 최대 16개의 싱글 와이드 가속기를 사용할 수 있다. 델은 “다양한 선택의 폭이 제공되는 만큼 생성형 AI 모델의 미세 조정이나 추론에서부터 대규모 데이터 세트에 대한 가치 추출에 이르기까지 규모에 맞게 서버 구성의 적절히 조정할 수 있다”고 설명했다.   델은 곧 출시될 엔비디아 GB200 그레이스 블랙웰 NVL4 슈퍼칩(Grace Blackwell NVL4 Superchip)을 델 IR7000용으로 설계된 새로운 델 파워엣지 XE 서버를 통해 50OU 표준 랙에서 랙당 최대 144개의 GPU를 지원할 계획이다. IR7000 랙은 100%에 가까운 열 포집 능력으로 고전력 및 액체 냉각을 필요로 하는 대규모 HPC 및 AI 워크로드를 지원한다. 또한, 델 테크놀로지스는 AI 작업을 위해 데이터를 효율적으로 관리하고 분석할 수 있는 최신 아키텍처 수요에 대응하게 위해 ‘델 데이터 레이크하우스(Dell Data Lakehouse)’도 업데이트 했다. 이 플랫폼은 AI에 최적화된 하드웨어와 풀 스택 소프트웨어 제품군을 기반으로 구축되었으며, 향후 대규모 분산 데이터 처리를 위한 아파치 스파크(Apache Spark)를 포함하도록 확장될 예정이다. 대량의 데이터를 관리하는 기업의 경우, 이를 통해 데이터 애널리틱스와 관리 및 처리에 이르기까지 통합된 접근 방식을 확보함으로써 효율성을 높이고 보다 신속하게 실행 가능한 인사이트를 얻을 수 있다. 한편, 델은 AI 에코시스템 전반의 파트너와 협력하여 AI 구축을 강화하고 간소화하는데 노력하고 있다고 전했다. 엔비디아 기반 델 AI 팩토리(Dell AI Factory with NVIDIA)는 AI 운영 및 활용 사례 구축을 위해 성능을 보다 가속화한다. 새로운 엔비디아 HGX H200 및 H100NVL 지원 옵션은 엔비디아 HGX H100 대비 최대 1.9배 더 높은 성능을 제공한다. 엔비디아 기반 델 AI 팩토리의 일부인 ‘엔비디아 기반 델 에이전틱 RAG(Dell Agentic RAG with NVIDIA)’를 통해 고객은 복잡한 쿼리를 수행하고 검색 증강 생성(RAG) 작업을 가속할 수 있다. 대규모 데이터 세트를 보유한 조직에서는 델의 이 설계를 기반으로 AI 에이전트를 사용하여 RAG 워크플로 성능을 개선하고, 복잡한 쿼리를 처리하며, 더 높은 품질의 결과를 제공할 수 있다. 이 설루션은 델 파워엣지와 델 파워스케일(Dell PowerScale)을 비롯해 니모 리트리버(NeMo Retriever) 마이크로서비스, 멀티모달 PDF 데이터 추출을 위한 ‘엔비디아 AI 블루프린트(NVIDIA AI Blueprint)’ 등 엔비디아 AI 엔터프라이즈(NVIDIA AI Enterprise) 소프트웨어를 활용한다. AI PC를 위한 델 검증 설계(Dell Validated Designs for AI PCs)는 NPU 기술이 탑재된 델 AI PC에서 AI 애플리케이션 개발을 촉진하기 위해 설계된 오픈 소스 가이드이다. 개발자는 모듈식 설계를 쉽게 맞춤화하여 LLM, 비전, 텍스트 및 음성 등의 기능을 애플리케이션에 통합할 수 있다. 또한 다양한 프로세서 종류나 플랫폼에 걸쳐 AI 애플리케이션을 배포할 수 있다. 이러한 확장 가능한 접근 방식을 통해 온디바이스 AI에서 일상적인 프로세스를 자동화하고 시간과 비용을 절감하고 데이터 보안을 개선할 수 있다. 델 프로페셔널 서비스(Dell Professional Services)는 AI 관련 전략 개발이나 구현에 어려움을 겪는 기업과 기관들이 AI 목표를 보다 효율적으로 달성할 수 있도록 지원한다. ‘지속 가능한 데이터 센터를 위한 자문 및 구현 서비스(Advisory and Implementation Services for Sustainable Data Centers)’는 지능형 전력 및 냉각 관리를 통해 저탄소, 에너지 효율적인 데이터 센터를 위한 전략을 수립하고 구현하는데 필요한 전문 지식을 제공한다. ‘데이터 관리 서비스(Data Management Services)’는 데이터를 검색, 분류, 정제하여 AI-레디 카탈로그를 제공하고 체계화된 고품질 데이터에 대한 안정적이고 간소화된 액세스를 보장한다. ‘AI 네트워킹을 위한 설계 서비스(Design Services for AI Networking)’는 더 빠른 속도, 지연 시간 단축, 향상된 확장성을 통해 AI 워크로드에 최적화된 네트워크 설계를 제공한다. ‘서비스나우 나우 어시스트를 위한 구현 서비스(Implementation Services for ServiceNow Now Assist)’는 AI 기반 요약을 통해 콘텐츠 수집을 간소화하여 결과를 자동화하고 생산성을 향상시키는 ‘나우 어시스트’를 통해 서비스 관리 워크플로에 생성형 AI 기능을 통합한다. 한국 델 테크놀로지스의 김경진 총괄사장은 “여러 고객들이 AI를 구축하고 실행하기까지 점점 더 다양한 도전과제에 직면하게 된다”면서, “델은 계속해서 진일보한 AI 오퍼링을 선보임으로써 고객이 AI를 통해 보다 스마트하고 유연하게 대응할 수 있는 미래를 만들어갈 수 있도록 하는데 집중하고 있다”고 밝혔다. 델 파워엣지 XE9685L과 델 파워엣지 XE7740은 2025년 1분기에 전 세계에 출시될 예정이며, 델 데이터 레이크하우스 업데이트는 현재 전세계에서 이용 가능하다. AI PC를 위한 델 검증 설계는 현재 전 세계에서 이용 가능하며, 엔비디아 기반의 델 생성형 AI 설루션의 GPU 업데이트는 올해 내에 제공될 예정이고, 엔터프라이즈 RAG 업데이트는 현재 이용이 가능하다. ‘델 데이터 관리 서비스’와 ‘지속 가능한 데이터 센터를 위한 델 서비스,’ ‘AI 네트워킹을 위한 델 설계 서비스,’ ‘서비스나우 나우 어시스트를 위한 델 구현 서비스’는 현재 일부 국가에서 제공되고 있다.
작성일 : 2024-11-19
레드햇, RHEL 9.5 출시와 함께 리눅스 자동화 확장
레드햇은 레드햇 엔터프라이즈 리눅스(Red Hat Enterprise Linux, 이하 RHEL) 9.5의 정식 출시를 발표했다. RHEL은 애플리케이션과 워크로드를 비용은 절감하면서 보다 빠르고 안정적으로 배포할 수 있도록 한다. 하이브리드 클라우드 배포 전반에서 효과적으로 워크로드를 관리할 수 있도록 하고, 데이터센터에서 퍼블릭 클라우드, 에지에 이르기까지 IT 리스크 완화를 지원한다. IDC의 연구에 따르면, 조직은 시간과 자원이 부족한 상황에서 리눅스 운영 체제 환경을 유지 관리하고 지원하는 워크로드 간의 균형을 맞추는데 계속해서 어려움을 겪고 있다. 클라우드와 인공지능(AI), 머신러닝(ML)과 같은 차세대 워크로드의 확산으로 상황은 더욱 복잡해지고 있다. RHEL 표준화는 운영체제를 통합하고, 확장 및 프로비저닝과 같은 수동 작업 자동화하며, 배포의 복잡성을 줄여 IT 인프라 관리 관리팀의 민첩성을 향상시켰다. 그 결과, 인프라 팀은 비즈니스 및 인프라 혁신에 26% 더 많은 시간을 할애할 수 있게 됐다. RHEL 9.5는 ▲강화된 보안 및 컴플라이언스 관리 기능 제공 ▲자동화를 통한 복잡성 감소 ▲대규모 앱 배포를 위한 보다 신속한 하이브리드 클라우드 운영 등을 통해 AI부터 에지 컴퓨팅에 이르는 급속한 IT 혁신을 지원하는 운영 체제에 일관성과 향상된 기능을 제공한다. RHEL 시스템은 RHEL 구독에 포함된 레드햇 앤서블 콘텐츠(Red Hat Ansible Content) 컬렉션으로, 일상적인 관리 작업을 자동화해 조직이 보다 일관된 구성과 대규모 워크플로를 제공할 수 있게 돕는다. RHEL 9.5는 리눅스의 명령줄(커맨드 라인) 유틸리티인 ‘sudo’의 신규 기능을 포함한 여러 시스템 역할을 추가해 sudo 구성을 대규모로 자동화한다. 이는 적절한 규칙 관리 가드레일을 통해 관리자용 커맨드를 일반 사용자가 실행할 수 있게 한다. 높은 권한의 사용자는 자동화로 환경 전체에 걸쳐 sudo 구성을 더 일관되고 안전하게 구현할 수 있어, 조직이 비즈니스 전반의 복잡성을 감소시킬 수 있다. 또한 기밀 컴퓨팅(confidential computing) 플랫폼 지원 확대로 AI 워크로드의 데이터를 보호하고 내부자 위협을 낮출 수 있다. 기밀 컴퓨팅은 민감한 데이터를 보거나 변조하는 잠재적 위협을 방지함으로써 기업은 데이터 세분화를 유지하고 데이터 규정을 준수하는 동시에 대량의 데이터를 검토하는데 AI를 더 안전하게 사용할 수 있다. RHEL 관리 도구는 시스템 관리를 단순화해 조직의 수동 작업 자동화, 대규모 배포 표준화, 시스템 복잡성 감소를 지원한다. 또한, RHEL 9.5는 웹 콘솔에 새로운 파일 관리 기능을 제공해 사용자가 명령줄을 사용하지 않고도 파일 시스템 검색, 파일 업로드 및 다운로드, 권한 변경, 디렉토리 생성과 같은 파일 관리 작업을 수행할 수 있도록 지원한다. RHEL 9.5는 오픈소스 컨테이너 엔진의 최신 버전인 포드맨(Podman) 5.0 기능 포함 및 지원을 통해 플랫폼 수준에서 컨테이너 네이티브 혁신을 촉진한다. 포드맨은 개발자에게 리눅스 환경에서 컨테이너를 구축, 관리 및 실행하기 위한 오픈소스 도구를 제공한다. 이번 주요 출시에서는 포드맨 팜 빌드를 도입해 개발자가 단일 명령으로 원격 머신에서 멀티 플랫폼 이미지를 빠르게 구축할 수 있게 한다. 조직은 다양한 플랫폼에서 애플리케이션을 효율적으로 테스트하고 배포해 개발 시간을 단축하고 이식성을 향상시킬 수 있다. RHEL 9.5의 애플리케이션 스트림은 혁신적인 애플리케이션을 구동하는데 필요한 선별된 최신 개발자 도구, 언어 및 데이터베이스를 제공한다. 또한 RHEL 9.5은 포스트그레SQL용 PG벡터(PG Vector for PostgreSQL), 노드js(Node.js), GCC툴셋, 러스트(Rust) 툴셋 및 LLVM 툴셋의 신규 버전을 포함한다. 또한, RHEL 9에서 유지관리가 종료된 자바 개발 키트(JDK) 11은 레드햇에서 지원하며, 해당 패키지를 계속 사용할 수 있다. JDK 17은 최신 자바 애플리케이션 구축 및 관리를 위한 신규 기능과 도구를 제공하며 이전 버전과의 호환성을 유지해 애플리케이션과 사용자가 일관성 있게 JDK 업그레이드를 유지할 수 있게 한다. 
작성일 : 2024-11-18
뉴타닉스, 기업의 AI 플랫폼을 퍼블릭 클라우드로 확장하는 ‘뉴타닉스 엔터프라이즈 AI ‘ 출시
뉴타닉스는 새로운 클라우드 네이티브 제품인 ‘뉴타닉스 엔터프라이즈 AI(Nutanix Enterprise AI, 이하 NAI)’를 출시했다고 발표했다. NAI는 기업의 AI 인프라 플랫폼을 확장하며, 에지, 코어 데이터센터와 아마존 EKS(Amazon Elastic Kubernetes Service), 애저 쿠버네티스 서비스(Azure Kubernetes Service : AKS), 구글 쿠버네티스 엔진(Google Kubernetes Engine : GKE)과 같은 퍼블릭 클라우드 서비스 등 모든 쿠버네티스 플랫폼에 배포될 수 있다. NAI는 가속화된 AI 워크로드를 위한 일관된 하이브리드 멀티클라우드 운영 모델을 제공한다. 이를 통해 조직은 선택한 안전한 위치에서 모델과 데이터를 활용하면서 투자 수익(ROI)을 개선할 수 있다. 엔비디아 NIM(NVIDIA Inference Microservices)을 활용해 파운데이션 모델의 성능을 최적화한 NAI는 조직이 대규모 언어 모델(LLM)의 추론 엔드포인트를 안전하게 배포, 실행 및 확장할 수 있게 한다. 이로써 생성형 AI 애플리케이션을 몇 분 내에 배포할 수 있다. 생성형 AI는 본질적으로 하이브리드 워크로드로, 새로운 애플리케이션은 주로 퍼블릭 클라우드에서 구축되고, 사설 데이터를 사용한 모델의 미세 조정은 온프레미스에서 이루어진다. 추론은 비즈니스 로직과 가장 가까운 곳에 배포되는데, 이는 에지, 온프레미스 또는 퍼블릭 클라우드일 수 있다. 이러한 분산된 하이브리드 생성형 AI 워크플로는 복잡성, 데이터 프라이버시, 보안 및 비용 측면에서 조직에게 과제를 제시할 수 있다.     NAI는 일관된 멀티클라우드 운영 모델과 엔비디아 NIM에 최적화된 추론 마이크로서비스 및 허깅페이스(Hugging Face)의 오픈 파운데이션 모델을 사용해 LLM을 안전하게 배포, 확장 및 실행할 수 있는 간단한 방법을 제공한다. 이를 통해 고객은 비즈니스 핵심 애플리케이션에 필요한 복원력, 데이 2(day 2) 운영 역량 및 보안성을 갖춘 엔터프라이즈 생성형 AI 인프라를 온프레미스 또는 아마존 EKS, 애저 쿠버네티스 서비스, 구글 쿠버네티스 엔진에 구축할 수 있다. 또한, NAI는 예측하기 어려운 사용량 또는 토큰 기반 가격 책정과는 달리, 인프라 리소스를 기반으로 한 투명하고 예측 가능한 가격 모델을 제공한다. 이는 생성형 AI 투자에서 ROI를 최대화하려는 고객에게 중요하다. 뉴타닉스는 NAI가 ▲AI 기술 격차 해소 ▲ AI 준비 플랫폼 구축의 장벽 제거 ▲데이터 프라이버시 및 보안 우려 해소 ▲ 생성형AI 워크로드에 엔터프라이즈급 인프라 제공 등의 이점을 고객에게 제공한다고 설명했다. NAI는 뉴타닉스 GPT인어박스(Nutanix GPT-in-a-Box) 2.0의 구성 요소이다. GPT 인어박스에는 뉴타닉스 클라우드 인프라(Nutanix Cloud Infrastructure : NCI), 뉴타닉스 쿠버네티스 플랫폼(Nutanix Kubernetes Platform : NKP), 뉴타닉스 통합 스토리지(Nutanix Unified Storage : NUS)와 함께 온프레미스 훈련 및 추론을 위한 맞춤형 서비스가 포함된다. 퍼블릭 클라우드 배포를 원하는 고객은 NAI를 모든 쿠버네티스 환경에 배포될 수 있으며, 온프레미스 배포와 운영 일관성을 유지할 수 있다. NAI는 엔비디아 전체 스택 AI 플랫폼과 함께 배포될 수 있으며 엔비디아 AI 엔터프라이즈(AI Enterprise) 소프트웨어 플랫폼으로 검증됐다. 여기에는 엔비디아 NIM이 포함되는데, 이는 고성능 AI 모델 추론을 안전하고 안정적으로 배포하기 위해 설계된 사용하기 쉬운 마이크로서비스 세트이다. 또한 뉴타닉스 GPT인어박스는 엔비디아 인증시스템(NVIDIA-Certified System)으로 성능의 안전성을 보장한다.  뉴타닉스는 NAI를 활용하는 주요 사용 사례로 ▲고객 피드백과 문서 분석을 통한 생성형 AI로 고객 경험 개선 ▲코파일럿과 지능형 문서 처리를 활용한 코드 및 콘텐츠 생성 가속화 ▲특정 도메인 데이터로 모델을 미세 조정해 코드 및 콘텐츠 생성 효율화 ▲사기 탐지, 위협 탐지, 경고 강화, 자동 정책 생성을 위한 AI 모델 활용으로 보안 강화 ▲사내 데이터로 미세 조정된 모델을 활용한 분석 개선 등을 소개했다. 뉴타닉스의 토마스 코넬리(Thomas Cornely) 제품 관리 부문 수석 부사장은 “뉴타닉스는 NAI를 통해 고객이 온프레미스나 퍼블릭 클라우드에서 생성형 AI 애플리케이션을 쉽고 안전하게 실행할 수 있도록 지원하고 있다”면서, “NAI는 모든 쿠버네티스 플랫폼에서 실행 가능하며, 고객의 AI 애플리케이션을 예측 가능한 비용으로 안전한 환경에서 운영할 수 있게 한다”고 말했다. 엔비디아의 저스틴 보이타노(Justin Boitano) 엔터프라이즈 AI 부사장은 “생성형 AI 워크로드는 본질적으로 하이브리드 특성을 가지고 있어, 훈련, 맞춤화, 추론이 퍼블릭 클라우드, 온프레미스 시스템, 에지 환경에 걸쳐 이루어진다”면서, “엔비디아 NIM을 NAI에 통합하면 안전한 API를 갖춘 일관된 멀티클라우드 모델을 제공해, 고객이 비즈니스 핵심 애플리케이션에 필요한 높은 성능과 보안으로 다양한 환경에서 AI를 배포할 수 있게 된다”고 말했다.
작성일 : 2024-11-18
SAP, 현대오토에버와 함께 현대모비스의 디지털 전환 지원
SAP 코리아가 현대오토에버와 협력해 현대모비스의 디지털 전환을 마무리했다고 밝혔다. 현대모비스는 전 세계에 자동차 핵심 부품을 개발 및 생산하여 공급하고 있을 뿐 아니라, 미래 모빌리티 산업에서 차별화된 설루션을 제공하는 선도기업으로 도약하기 위해 노력하고 있다. 이러한 생산능력과 연구 역량 등을 바탕으로 스마트 모빌리티, UAM, 로보틱스 사업 분야로 비즈니스를 확대해 나가고 있다. SAP 코리아는 비즈니스의 성장을 가속화, 고도화되는 비즈니스 관리, 글로벌 운영의 효율화를 꾀하는 현대모비스를 위해 현대자동차그룹의 모빌리티 테크 기업 현대오토에버와 함께 ‘라이즈 위드 SAP(RISE with SAP)’를 기반으로 한 새로운 클라우드 ERP 시스템 구축 프로젝트를 진행했다. 이번 프로젝트는 ERP 시스템 전환 구축을 넘어, 신기술을 적용해 사용자 편의성을 극대화하는 데에 중점을 뒀다. 현대오토에버 솔루션사업부는 TF 조직을 꾸려 생산, 재무, 영업, 구매, 품질, 인사 등 현대모비스가 보유한 다양한 업무 영역별 데이터의 정합성을 재검증하고 디지털화하는 작업을 완수했다. 업무 프로세스 분류체계와 관리 기준을 수립하여, 업무 프로세스의 품질 향상과 책임 운영 체제 확립에도 기여했다. 또한 인프라와 프로세스를 통합해 효율적인 테스트를 여러 차례 실시했으며, 이를 통해 ‘성능 최적화’와 ‘보안 강화’라는 두 가지 목표를 동시에 달성했다. 현대모비스가 보유하고 있던 30TB 이상의 다양한 업무 영역별 데이터를 전환해야 했던 만큼 구현해야 하는 시스템도 복잡했다. 이런 상황에서 SAP 코리아와 현대오토에버는 그동안 쌓아온 경험과 협력 체계, 다수의 ERP 구축 및 전환 노하우를 활용해 프로젝트 기한 내 모든 작업을 성공적으로 마무리했다. 특히 NZDT(Near Zero Downtime) 방식을 채택하여, 시스템 전환 시 발생할 수 있는 중단 시간을 최소화했다. 또한, 현대모비스와 현대오토에버가 본격적인 프로젝트에 착수하기 전, 철저한 개념 증명(POC) 단계를 거쳤다는 점도 주목할 만하다. 이 단계에서 현대모비스는 새로운 시스템의 실현 가능성과 기대 효과를 검토하고, 잠재적인 문제점을 사전에 파악해 구축 시 발생할 수 있는 다양한 상황에 대한 대응 시나리오를 마련했다. SAP 코리아의 신은영 대표이사는 “비즈니스의 규모가 확대되고 복잡도가 증대될수록 이를 관리하기 위한 최적의 설루션도 중요해진다”며 “SAP는 현대모비스와 긴밀한 관계를 유지하여 혁신적인 모빌리티 설루션을 구현하는 데 적극적으로 협력하겠다”고 말했다. 현대모비스의 디지털 전환 추진실장인 최낙현 상무는 “이번 프로젝트를 통해 재무, 구매, 생산, 물류 등 핵심 업무 시스템을 SAP S/4HANA로 성공적으로 전환하여 글로벌 시장에서 우리의 경쟁력을 한층 강화할 수 있는 기반을 마련했다”면서, “앞으로 AI, 빅데이터 등 첨단 기술을 연계해 업무 효율성을 극대화하고 데이터 기반의 의사결정을 실현해 나갈 것”이라고 말했다.  현대오토에버의 솔루션사업부장인 김선우 상무는 “대규모 시스템 전환의 성공을 위해 검증된 서비스 체계와 협업 모델은 필수이며, 현대오토에버는 본사 전환에 적용한 검증된 방법론을 활용해 향후 글로벌 3개 권역에서 신속한 전환 작업을 추진할 것”이라며, “이를 통해 현대모비스의 글로벌 경쟁력을 더욱 강화하고, 지속 가능한 성장의 토대를 마련하기 위해 최선을 다하겠다”고 말했다.
작성일 : 2024-11-18
HPE, 직접 수냉 방식 HPC 설루션 및 대규모 AI 모델 학습을 위한 AI 서버 발표
HPE는 리더십급 ‘HPE 크레이 슈퍼컴퓨팅 EX’ 설루션과 대규모 언어 모델(LLM) 학습, 자연 언어 프로세싱(NLP) 및 멀티 모달 모델 학습에 최적화된 시스템 2종을 포함한 새로운 HPC 및 인공지능(AI) 인프라 포트폴리오를 발표했다. HPE 크레이 슈퍼컴퓨팅 EX 시스템을 기반으로 하는 전체 리더십급 HPC 포트폴리오의 신제품은 세계의 난제 해결을 맡은 연구 기관과 소버린 AI 이니셔티브를 개발하는 정부 기관을 위해 설계되었다. 이 포트폴리오는 100% 팬리스 직접 수냉 방식(Fanless DLC) 시스템 아키텍처를 기반으로 하며 컴퓨팅 노드, 네트워킹, 스토리지를 포함한 HPE 슈퍼컴퓨팅 설루션의 모든 레이어에 걸쳐 새로운 소프트웨어 오퍼링으로 보완된다. 단일 캐비닛에서 최대 9만 8304개의 코어를 제공할 수 있는 HPE 크레이 슈퍼컴퓨팅 EX4252 2세대 컴퓨팅 블레이드(HPE Cray Supercomputing EX4252 Gen 2 Compute Blade)는 슈퍼컴퓨팅을 위한 강력한 원랙 유닛 시스템을 구현하는 제품이다. 8개의 5세대 AMD 에픽(EPYC) 프로세서를 탑재한 이 컴퓨팅 블레이드는 CPU 집적도의 이점을 제공하여 고객이 동일한 공간 내에서 더 높은 성능의 컴퓨팅을 실현할 수 있도록 지원한다. HPE Cray 슈퍼컴퓨팅 EX4252 2세대 컴퓨팅 블레이드는 2025년 봄에 출시될 예정이다.     슈퍼컴퓨팅 워크로드를 완료하는 데 걸리는 시간을 단축하기 위해 HPE 크레이 슈퍼컴퓨팅 EX154n 가속기 블레이드(HPE Cray Supercomputing EX154n Accelerator Blade)는 단일 캐비닛에 최대 224개 엔비디아 블랙웰(NVIDIA Blackwell) GPU를 탑재할 수 있다. 각 가속기 블레이드는 엔비디아 GB200 그레이스 블랙웰 NVL4 슈퍼칩(NVIDIA GB200 Grace Blackwell NVL4 Superchip)을 탑재하고 있으며, 엔비디아 NV링크-C2C를 통해 2개의 엔비디아 그레이스 CPU와 통합된 4개의 엔비디아 NV링크 연결 블랙웰(NVIDIA NVLink-connected Blackwell) GPU를 보유하고 있다. HPE 크레이 슈퍼컴퓨팅 EX154n 가속기 블레이드는 2025년 말에 공급될 예정이다. 차세대 엑사스케일 지원 HPE 인터커넥트 포트폴리오는 초당 400GB 속도의 네트워크 인터페이스 컨트롤러(NIC), 케이블 및 스위치를 제공한다. HPE 슬링샷 인터커넥트 400(HPE Slingshot interconnect 400)은 이전 세대보다 2배 빠른 회선 속도를 제공하는 동시에 자동화된 혼잡 관리 및 초저 테일 레이턴시(ultra-low tail latency)를 위한 어댑티브 라우팅과 같은 기능을 제공하여 고객이 더 적은 네트워크 인프라로 대규모 워크로드를 실행할 수 있도록 지원한다. 이 버전의 HPE 슬링샷은 2025년 하반기부터 HPE Cray 슈퍼컴퓨팅 EX 시스템 기반 클러스터에 적용될 예정이다 HPE 크레이 슈퍼컴퓨팅 스토리지 시스템 E2000은 이전 세대 대비 입출력(I/O) 성능이 두 배 이상 향상되었다. 대규모 슈퍼컴퓨터용으로 설계된 이 시스템은 오픈 소스 러스터(Lustre) 파일 시스템을 기반으로 하며, I/O 작업 중 유휴 시간을 줄여 CPU 및 GPU 기반 컴퓨팅 노드 모두의 활용도를 높일 수 있다. 이 HPC 스토리지 시스템은 2025년 초에 HPE 크레이 슈퍼컴퓨팅 EX 시스템에서 일반적으로 제공될 예정이다. 또한, HPE는 컴퓨팅 집약적 워크로드 실행의 사용자 경험을 개선하는 새로운 소프트웨어 제품을 출시한다. 현재 이용 가능한 HPE 크레이 슈퍼컴퓨팅 사용자 서비스 소프트웨어에는 고객이 시스템 효율성을 최적화하고 전력 소비를 조절하며 슈퍼컴퓨팅 인프라에서 다양한 워크로드를 유연하게 실행하는 데 도움이 되는 기능이 포함되어 있다. 한편, HPE는 고객이 대규모 고성능 AI 클러스터를 간소화할 수 있도록 지원하는 새로운 카테고리의 서버를 계속 선보이고 있다고 전했다. 자체 AI 모델을 학습하는 SP와 대기업을 위해 설계된 HPE 프로라이언트 컴퓨트 XD 서버는 대규모 AI 시스템 설치 및 배포에 대한 HPE의 전문성을 활용한다. HPE의 최첨단 제조 시설 내에서 설루션의 구축, 맞춤화, 통합, 검증, 전체 테스트를 지원하는 HPE 서비스 옵션을 활용하면 신속한 온사이트 배포가 가능하다. HPE 프로라이언트 컴퓨트 서버에서만 사용 가능한 HPE iLO(Integrated Lights-Out) 관리 기술을 사용하면 일부 권한이 있는 직원이 서버에 대한 대역 외 원격 제어 액세스를 허용하여 표준 대역 내 네트워크 액세스보다 보안을 강화할 수 있다. 가격 대비 성능을 염두에 두고 최적화된 공냉 방식 HPE 프로라이언트 컴퓨트 XD680 서버는 복잡한 AI 학습, 튜닝 및 추론 워크로드를 처리하도록 설계되었다. HPE가 설계한 섀시에는 단일 컴팩트 노드에 8개의 인텔 가우디 3 AI 가속기가 탑재되어 있다. 인텔 가우디 3가 탑재된 HPE 프로라이언트 컴퓨트 XD680 서버는 2024년 12월에 출시될 예정이다. HPE는 성능, 경쟁 우위, 에너지 효율성을 우선시하는 고객을 위해 대규모의 복잡한 AI 모델에 대한 학습을 가속화할 수 있는 엔비디아 GPU가 탑재된 새로운 버전의 HPE 프로라이언트 컴퓨트 XD685 서버가 출시될 예정이다. 이 서버는 5개의 랙 유닛 섀시에 8개의 엔비디아 H200 SXM 텐서 코어 GPU 또는 엔비디아 블랙웰 GPU로 구동되며, 수냉식 냉각 분야에서 수십 년간 쌓아온 HPE의 전문성을 활용하여 GPU, CPU 및 스위치를 효율적으로 냉각시킨다. HPE 프로라이언트 컴퓨트 XD685 서버의 엔비디아 HGX H200 8-GPU 버전은 2025년 초에 출시될 예정이며, 엔비디아 블랙웰 GPU 버전은 출시에 맞춰 선보일 예정이다. HPE의 트리시 댐크로거(Trish Damkroger) HPC 및 AI 인프라 설루션 부문 수석 부사장 겸 총괄은 “소버린 AI 이니셔티브에 투자하는 서비스 제공업체와 국가들은 발견과 혁신을 가속화하기 위한 대규모 AI 학습을 가능하게 하는 중요한 백본으로 HPC를 점점 더 많이 고려하고 있다”면서 “고객은 세계 최고의 HPC 설루션과 완전 통합형 시스템 제공, 배포 및 서비스 분야에서 수십 년간 쌓아온 경험을 활용하여 더 빠르고 효율적으로 가치를 실현하면서 AI 시스템 배포를 빠르게 진행하기 위해 HPE에 주목하고 있다”고 밝혔다.
작성일 : 2024-11-15
레드햇-소프트뱅크, AI-RAN 기술 연구 개발 협력 발표
레드햇과 소프트뱅크가 AI-RAN(인공지능 무선 접속망) 기술의 공동 연구 및 개발을 위한 협력을 발표했다. 이번 협력을 통해 개발되는 설루션은 향상된 네트워크 오케스트레이션과 최적화를 위한 AI의 활용을 극대화하고, 개선된 성능과 높은 리소스 효율성 및 향상된 사용자 경험을 제공하는 지능형 자율 네트워크의 제공을 목표로 한다. 레드햇은 “이 같은 설루션은 차별화된 서비스 제공과 새로운 수익원 창출을 목적으로 AI 기반 애플리케이션에 의해 활용될 수 있는 5G 및 미래 6G 네트워크 사용 사례에서 특히 중요하다”고 전했다. 레드햇과 소프트뱅크는 더 빠른 데이터 처리와 리소스 최적화를 지원해 서비스 제공업체가 향상된 성능과 지능형 자동화, 강화된 다층 보안을 달성할 수 있도록 레드햇 오픈시프트(Red Hat OpenShift)에서 실행되는 고성능 AI 기술의 RAN 인프라 내 통합을 진행하고 있다. 이러한 접근 방식은 서비스 제공업체가 가상화된 RAN과 AI 애플리케이션 모두를 단일 통합 플랫폼에서 확장 가능하고 안전하게 관리함으로써 네트워크 운영 방식을 재정립하고 새로운 수익 기회를 창출할 수 있도록 지원한다.  양사는 이번 협력을 통해 ▲하이브리드 클라우드 애플리케이션 플랫폼인 레드햇 오픈시프트에 구축된 유연한 RAN 설루션의 최적화 및 호환성 확보와 성능 향상을 위해 ARM 아키텍처에서 AI 및 RAN 기능을 지원 ▲짧은 지연 시간과 높은 처리량의 통신을 위해 하드웨어 가속 ARM 아키텍처에서의 분산 유닛(DU)의 성능을 최적화하여 미래 네트워크의 진화하는 요구사항을 해결 ▲서비스 가용성과 민첩성, 사용자 경험 품질을 향상시킬 수 있는 지능형 자율 네트워크 운영을 위해 엔비디아와 협력 하에 오케스트레이터 개발 등을 추진할 계획이다. 레드햇이 후원한 지속가능성 연구에 따르면, RAN은 서비스 제공업체의 총 전력 소비량 중 75%를 차지한다. 서비스 제공업체는 더 나은 자원 최적화와 전력 사용을 통해 에너지 소비를 줄이고 지속가능성 목표 달성에 가까워질 수 있다. 소프트뱅크와 레드햇은 개방적이고 상호운용 가능한 RAN 생태계 개발을 통해 새로운 AI 사용 사례를 제공하기 위해 협력함으로써 이 기술을 더 광범위한 통신 산업에서 이용할 수 있게 할 계획이다. 양사는 AI-RAN 얼라이언스 멤버십을 통해 산업 생태계 파트너 및 연구 기관과 협력하여 새로운 AI-RAN 기술과 설루션에 대한 연구를 진전시키고, 추가적인 개념 증명(PoC) 테스트를 수행할 기회를 확보할 수 있을 것으로 보고 있다.
작성일 : 2024-11-14
엔비디아-소프트뱅크, 일본 내 AI 이니셔티브 가속화 위해 협력
엔비디아가 ‘엔비디아 AI 서밋 재팬’ 이벤트에서 소프트뱅크와의 협업을 발표했다. 이를 통해 엔비디아는 일본의 소버린 AI 이니셔티브를 가속화하고 글로벌 기술 리더십을 강화하기 위해 지원할 계획이다. 또한 이 협업은 전 세계 통신 사업자에게 수십억 달러의 AI 수익 기회를 창출할 것을 목표로 한다. 엔비디아의 젠슨 황(Jensen Huang) CEO는 엔비디아 AI 서밋 재팬의 기조연설에서 소프트뱅크가 엔비디아 블랙웰(Blackwell) 플랫폼을 사용해 일본에서 가장 강력한 AI 슈퍼컴퓨터를 구축하고 있다고 말했다. 아울러 차기 슈퍼컴퓨터에 엔비디아 그레이스(Grace) 블랙웰 플랫폼을 사용할 계획이라고 발표했다. 아울러 엔비디아는 소프트뱅크가 엔비디아 AI 에리얼(Aerial) 가속 컴퓨팅 플랫폼을 사용해 AI와 5G 통신 네트워크를 결합한 시범 서비스에 성공했다. 이는 통신 사업자에게 잠재적으로 수십억 달러 상당의 AI 수익원을 열어주는 컴퓨팅 기술이다. 또한 엔비디아는 소프트뱅크가 엔비디아 AI 엔터프라이즈 소프트웨어를 사용해 로컬 보안 AI 컴퓨팅에 대한 수요를 충족할 수 있는 AI 마켓플레이스를 구축할 계획이라고 발표했다. 소프트뱅크는 AI 훈련과 에지 AI 추론을 지원하는 새로운 서비스를 통해 일본의 산업, 소비자, 기업 전반에 걸쳐 AI 서비스의 생성, 배포, 사용을 위한 새로운 비즈니스 기회를 촉진할 예정이다. 소프트뱅크는 세계 최초로 엔비디아 DGX B200 시스템을 공급받을 예정이며, 이는 새로운 엔비디아 DGX SuperPOD 슈퍼컴퓨터의 빌딩 블록 역할을 할 것이다. 소프트뱅크는 자체 생성형 AI 개발과 AI 관련 사업뿐만 아니라 일본 전역의 대학, 연구 기관, 기업에서 블랙웰 기반 DGX SuperPOD을 사용할 계획이다. 엔비디아는 “이 프로젝트가 완료되면 소프트뱅크의 DGX SuperPOD이 일본에서 가장 뛰어난 성능을 발휘할 것”이라면서, “이 시스템은 엔비디아 AI 엔터프라이즈 소프트웨어와 엔비디아 퀀텀-2 인피니밴드(Quantum-2 InfiniBand) 네트워킹을 갖추고 있어 대규모 언어 모델(LLM) 개발에도 이상적”이라고 전했다. 소프트뱅크는 DGX SuperPOD 외에도 극도로 컴퓨팅 집약적인 워크로드를 실행하기 위해 또 다른 엔비디아 가속 슈퍼컴퓨터를 구축할 계획이다. 이 슈퍼컴퓨터의 초기 계획은 엔비디아 그레이스 블랙웰 플랫폼 설계를 기반으로 하고 있다. 이 설계는 엔비디아 블랙웰 GPU와 Arm 기반 엔비디아 그레이스 CPU를 결합한 엔비디아 GB200 NVL72 멀티노드 수냉식 랙 스케일 시스템을 갖추고 있다.     한편, 소프트뱅크는 엔비디아와 협력해 AI와 5G 워크로드를 동시에 실행할 수 있는 새로운 종류의 통신 네트워크인 AI-RAN(artificial intelligence radio access network)을 개발했다. 이 새로운 유형의 인프라는 통신 사업자에게 기지국을 비용 센터에서 AI 수익 창출 자산으로 전환할 수 있는 기능을 제공해, 통신 업계의 생태계 지원을 받고 있다. 소프트뱅크는 일본 가나가와 현에서 실시한 실외 실험을 통해 엔비디아 가속 AI-RAN 설루션이 캐리어급 5G 성능을 달성했으며, 네트워크의 초과 용량을 사용해 AI 추론 워크로드를 동시에 실행할 수 있음을 입증했다. 기존 통신사 네트워크는 피크 부하를 처리하도록 설계돼 평균적으로 해당 용량의 3분의 1만 사용했다. 한편, AI-RAN이 제공하는 공통 컴퓨팅 기능을 활용하면 나머지 3분의 2 용량을 AI 추론 서비스를 위해 수익화할 수 있을 것으로 예상된다. 엔비디아와 소프트뱅크는 통신 사업자가 새로운 AI-RAN 인프라에 1달러의 자본을 투자할 때마다 약 5달러의 AI 추론 수익을 얻을 수 있을 것으로 예상하고 있다. 소프트뱅크는 운영 비용과 자본 비용을 고려할 때, 인프라에 추가하는 모든 AI-RAN 서버에 대해 최대 219%의 수익을 달성할 수 있을 것으로 예상하고 있다. 소프트뱅크는 실험을 통해 엔비디아 AI 엔터프라이즈를 사용해 자율주행 자동차 원격 지원, 로보틱스 제어, 에지에서의 멀티모달 검색 자동 생성을 포함한 실제 AI 추론 애플리케이션을 구축했다. 모든 추론 워크로드는 소프트뱅크의 AI-RAN 네트워크에서 최적으로 실행될 수 있었다. 젠슨 황 CEO는 “일본은 전 세계에 영향을 미치는 기술 혁신을 선도해온 오랜 역사를 갖고 있다. 소프트뱅크가 엔비디아의 풀스택 AI, 옴니버스(Omniverse), 5G AI-RAN 플랫폼에 대한 막대한 투자를 함으로써 일본은 AI 산업 혁명의 글로벌 리더로 도약하고 있다. 일본은 통신, 교통, 로보틱스, 의료 산업 전반에 걸쳐 새로운 성장의 시대를 주도해 AI 시대에 인류에게 큰 혜택을 제공할 것”이라고 말했다. 소프트뱅크의 미야카와 준이치(Junichi Miyakawa) 사장 겸 CEO는 “전 세계 국가와 지역이 사회와 경제 성장을 위해 AI 도입을 가속화하고 있으며, 사회는 중대한 변화를 겪고 있다. 소프트뱅크는 엔비디아와의 오랜 협력을 통해 이러한 변화를 최전선에서 주도하고 있다. 매우 강력한 AI 인프라와, AI를 위한 5G 네트워크를 재창조하는 새로운 분산형 AI-RAN 설루션 '아이트라스(AITRAS)'를 통해 일본 전역과 전 세계에서 혁신을 가속화할 것”이라고 말했다.
작성일 : 2024-11-13
다쏘시스템, “3D익스피리언스 플랫폼으로 에너지 인프라의 지속가능성 향상 지원”
다쏘시스템은 유럽의 에너지 인프라 운영 기업인 스남(Snam)이 지속 가능한 에너지 전환을 위한 새로운 자산 관리 프로젝트의 핵심으로, 자사의 3D익스피리언스 플랫폼을 사용해 디지털 혁신을 가속화한다고 발표했다. 스남은 이탈리아의 가스 파이프라인 네트워크, 저장소, 액화천연가스(LNG) 터미널을 비롯해 에너지 자원 다각화를 위해 개발하는 미래 자산의 버추얼 트윈을 구축하는데 있어 다쏘시스템의 3D익스피리언스 플랫폼을 사용할 예정이다. 이를 통해 회사의 자산 운영을 관리, 최적화하고, 구조적 안전을 개선하며, 배출량을 줄일 수 있을 것으로 기대하고 있다.     스남의 자산 및 운영자 생태계는 이탈리아 전역을 포함해 전 세계에 안정적인 에너지 공급을 제공한다. 스남은 지속 가능한 미래를 위한 에너지 인프라를 개발하겠다는 포부를 가지고, 현재 및 미래 자산을 보다 협업적인 방식으로 관리하고 엔지니어링을 간소화하며 자산 효율성, 안전성 및 신뢰성을 향상하는 기술을 구현하고자 다쏘시스템을 채택했다. 스남은 복잡한 자산 네트워크를 시뮬레이션하는 다쏘시스템의 3D익스피리언스 플랫폼 기반 버추얼 트윈을 중심으로 모든 이해관계자를 연결하고 현장에서 수집한 실시간 데이터와 정보를 원활하게 통합할 수 있게 됐다. 다쏘시스템의 레미 도니어(Remi DORNIER) 건축·엔지니어링·건설 부문 부사장은 “저렴하고 접근 가능한 에너지 서비스를 제공하기 위해서는 운영 효율성과 안전이 필수적”이라면서, “다쏘시스템의 3D익스피리언스 플랫폼을 통해 스남과 같은 에너지 기업은 자산의 수명 주기 동안 유지 관리하고 에너지 시스템이 가장 필요할 때 작동하도록 조정할 수 있으며, 새로운 설루션을 제공할 수 있다”고 말했다.
작성일 : 2024-11-13