• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "GPU"에 대한 통합 검색 내용이 1,837개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
슈퍼마이크로, 엔비디아 블랙웰용 직접 액체 냉각 슈퍼 클러스터 공개
슈퍼마이크로컴퓨터(SMCI)가 슈퍼 클러스터 포트폴리오에 엔비디아 블랙웰 플랫폼을 탑재한 엔드 투 엔드 AI 데이터센터 설루션을 추가했다고 밝혔다. 새로운 슈퍼 클러스터는 수냉식 랙 내 엔비디아 HGX B200 8-GPU 시스템 수를 늘렸다. 이로 인해 기존 수냉식 엔비디아 HGX H100 및 H200 기반 슈퍼마이크로 슈퍼 클러스터 대비 GPU 컴퓨팅 집적도가 향상됐다. 또한, 슈퍼마이크로는 엔비디아 호퍼 시스템 포트폴리오를 강화해 급속도로 증가하고 있는 HPC 애플리케이션과 대중적인 엔터프라이즈 AI의 가속 컴퓨팅 도입에 대응하고 있다. 슈퍼마이크로의 찰스 리앙(Charles Liang) 사장 겸 CEO는 “슈퍼마이크로는 세계 최대 규모의 수냉식 AI 데이터센터 프로젝트에 기여할 수 있는 전문성, 배포 속도, 그리고 배송 역량을 지니고 있다”면서, “최근 슈퍼마이크로와 엔비디아는 GPU 10만개 규모의 AI 데이터센터를 성공적으로 구축했다”고 말했다. 그는 이어 “슈퍼마이크로 슈퍼 클러스터는 직접 액체 냉각(DLC)의 효율성을 통해 전력 수요량을 줄인다. 이제 여기에 엔비디아 블랙웰 플랫폼을 사용하는 설루션이 추가됐다”며, “슈퍼마이크로의 빌딩 블록 방법론을 통해 빠르게 엔비디아 HGX B200 8-GPU 서버를 설계할 수 있으며, 이는 수냉식과 공냉식 냉각 모두 가능하다. 슈퍼 클러스터는 전례 없는 집적도, 성능, 그리고 효율성을 제공하고, 더욱 향상된 AI 컴퓨팅 설루션으로 나아가는 길을 열고 있다. 슈퍼마이크로 클러스터는 직접 액체 냉각을 통해 데이터센터 전반의 성능은 향상시키고 전력 소비를 줄이며 운영 비용 절감 효과를 제공한다”고 설명했다.
작성일 : 2024-11-22
알테어, 엔비디아와 협력해 AI·HPC 워크로드 성능 향상
알테어가 자사의 설계 및 시뮬레이션 플랫폼인 ‘알테어 하이퍼웍스’에서 엔비디아 그레이스 CPU 및 그레이스 호퍼 슈퍼칩 아키텍처를 지원한다고 밝혔다. 엔비디아 그레이스 및 그레이스 호퍼 아키텍처는 고성능 컴퓨팅(HPC)과 AI 워크로드를 위해 설계되었으며 성능, 효율성, 확장성을 향상시킨다. 이를 통해 전력 제약이 있는 데이터 센터에서도 대규모 시뮬레이션을 원활히 실행할 수 있도록 지원한다. 일례로, 레노버는 알테어의 충돌 해석 오픈소스 소프트웨어인 ‘오픈라디오스’를 활용한 테스트에서 엔비디아 그레이스 CPU가 기존 서버 구성 대비 최대 2.2배 높은 에너지 효율성을 기록했다고 밝혔다.     이번 협력을 통해 알테어는 AI와 고성능 컴퓨팅(HPC) 워크로드의 처리 속도를 높이면서, 복잡한 시뮬레이션과 대규모 데이터 처리 작업에서 더 우수한 성과를 실현할 수 있을 것으로 보고 있다. 알테어의 내부 테스트 결과, 엔비디아 그레이스 호퍼 GPU 시리즈는 이전 세대 대비 최대 2배 빠른 시뮬레이션 속도를 구현했으며, 이를 통해 알테어 솔버의 실행 시간을 단축할 수 있음을 입증했다. 이번 협업으로 하이퍼웍스 사용 고객은 엔비디아의 최신 CPU와 GPU 하드웨어를 활용하여 시뮬레이션과 설계 작업을 더욱 빠르고 효율적으로 수행할 수 있게 되었다. 이는 특히 복잡한 시뮬레이션이나 대규모 데이터 처리가 필요한 작업에서 향상된 성능과 효율을 제공한다. 현재 엔비디아 그레이스와 그레이스 호퍼 아키텍처를 지원하는 알테어 솔루션은 ▲옵티스트럭트 ▲라디오스 ▲오픈라디오스 ▲울트라플루이드엑스 ▲나노플루이드엑스 ▲PBS프로페셔널 ▲그리드엔진 등이 있다. 알테어의 샘 마할링감 최고기술책임자(CTO)는 “그레이스와 그레이스 호퍼 아키텍처에서 알테어 솔루션이 최고의 성능을 발휘한 것은 고객 요구에 부응하기 위해 꾸준히 노력해 온 결과”라면서, “엔비디아의 혁신적인 CPU와 GPU 기술을 활용해 뛰어난 성능과 에너지 효율성을 제공하며 AI 혁신을 선도할 것”이라고 밝혔다. 엔비디아의 팀 코스타 HPC 및 양자 컴퓨팅 담당 이사는 “이번 협력은 엔비디아와 알테어가 CAE 워크로드 가속화를 위해 수 년간 노력해온 성과”라면서, “그레이스 CPU 및 그레이스 호퍼 슈퍼칩 아키텍처에서 알테어의 강력한 소프트웨어를 활용함으로써, 다양한 산업 분야에서 혁신을 촉진하고 설계 가능성을 크게 확장할 수 있을 것”이라고 말했다.
작성일 : 2024-11-21
AMD 기반 ‘엘 캐피탄’, 세계에서 가장 빠른 슈퍼컴퓨터로 등재
AMD는 세계에서 가장 빠른 슈퍼컴퓨터를 선정하는 톱500(Top500) 리스트에 AMD 기반 슈퍼컴퓨터가 6회 연속 등재되면서 고성능 컴퓨팅(HPC) 분야에서 리더십을 입증했다고 밝혔다. AMD 인스팅트(Instinct) MI300A APU로 구동되고 휴렛팩커드 엔터프라이즈(HPE)가 구축한 미국 로렌스 리버모어 국립 연구소(LLNL)의 엘 캐피탄(El Capitan) 슈퍼컴퓨터는 최신 톱500 리스트에서 1.742 엑사플롭스의 HPL(High-Performance Linpack) 스코어를 기록하며, 세계에서 가장 빠른 슈퍼컴퓨터로 선정되었다.  미국 핵안보국(NNSA)의 첫 번째 엑사스케일급 시스템인 엘 캐피탄은 NNSA의 트리랩스(Tri-Labs)인 LLNL과 로스앨러모스(Los Alamos) 및 샌디아(Sandia) 국립 연구소의 최고 컴퓨팅 자원으로 자리잡았다. 엘 캐피탄은 과학적 탐구와 국가 안보를 강화하는데 사용되며, 핵실험 없는 안전한 핵 억지력과 보안 및 신뢰성을 보장하는데 필요한 방대한 컴퓨팅 성능을 제공한다. 이 시스템은 노후 핵 비축물 인증과 같은 NNSA의 핵 비축물 관리 프로그램(Stockpile Stewardship Program)을 비롯해 확산 방지 및 대테러와 같은 주요 핵 안보 임무에 필수적인 모델링 및 시뮬레이션 기능을 지원한다.     LLNL과 NNSA의 다른 연구소들은 엘 캐피탄과 함께 AI 및 머신러닝 기반 데이터 분석을 수행하는 투올러미(Tuolumne) 시스템을 활용하여 빠르고 정확하게 예측 불확실성을 정량화할 수 있는 과학 모델을 생성하기 위한 LLNL의 AI 기반 목표를 더욱 가속화하고 있다. 엘 캐피탄은 AI를 적용하여 관성 봉입 핵융합(Inertial Confinement Fusion) 연구와 같은 고밀도 에너지 문제를 해결하는데 사용되고, 투올러미는 기후 모델링과 방역 및 신약 개발, 지진 모델링 등 비분류 공개 과학(Unclassified Open Science) 응용 분야에 활용될 예정이다. AMD의 최신 에픽 9005 시리즈 프로세서는 엔터프라이즈, AI 및 클라우드 환경을 위한 서버 CPU로, 고성능 컴퓨팅 및 AI 워크로드에서 이전 세대 대비 최대 37% 향상된 IPC(Instruction Per Cycle) 성능을 제공한다. 또한, 이 프로세서는 세계적인 난제를 해결하는 과학 및 고성능 컴퓨팅 애플리케이션에서 경쟁사 대비 최대 3.9배 더 빠른 인사이트 도출 시간을 제공한다. AMD 인스팅트 가속기는 AI 설루션에서 엑사스케일급 슈퍼컴퓨터에 이르기까지 다양한 규모의 데이터센터를 위한 고성능을 제공한다. AMD 인스팅트 MI300X 및 MI325X 가속기는 높은 AI 성능과 메모리 기능을 갖추고 있으며, CPU 및 GPU 코어와 적층형 메모리를 단일 패키지로 통합한 AMD 인스팅트 MI300A APU는 고성능 컴퓨팅 및 AI 워크로드를 위한 향상된 효율과 성능을 제공한다. AMD는 이외에도 오크리지 국립 연구소(Oak Ridge National Lab)의 엘 캐피탄과 프론티어(Frontier) 시스템이 그릭500(Green500) 리스트에서 각각 18위와 22위를 차지하면서, 고성능 컴퓨팅 워크로드를 지원하는 AMD 에픽 프로세서와 인스팅트 GPU의 성능 및 에너지 효율을 다시 한 번 입증했다고 전했다. AMD의 포레스트 노로드(Forrest Norrod) 수석 부사장 겸 총괄 책임자는 “엘 캐피탄이 엑사플롭의 장벽을 깨고, 세계에서 가장 빠른 AMD 기반 두 번째 슈퍼컴퓨터로 선정되어 매우 기쁘다. AMD 인스팅트 MI300 APU의 뛰어난 성능과 효율성을 입증한 이 획기적인 컴퓨터는 AMD와 LLNL 및 HPE 간의 헌신적인 협력의 결과물”이라면서, “AMD는 고성능 컴퓨팅과 AI의 컨버전스를 새롭게 정의하는 선도적인 성능과 기능을 통해 지속적으로 컴퓨팅의 미래를 주도하게 될 것”이라고 밝혔다. LLNL의 리버모어 컴퓨팅 최고기술책임자(CTO)인 브로니스 R. 드 수핀스키(Bronis R. de Supinski)는 “AMD 인스팅트 MI300A APU를 활용하여 절대적 한계치를 넘어서는 컴퓨팅 성능과 이전에는 상상하지 못한 뛰어난 에너지 효율성을 갖춘 시스템을 구축했다. 엘 캐피탄은 더욱 보편화되고 있는 AI를 기존의 시뮬레이션 및 모델링 워크로드와 통합함으로써 다양한 과학적 연구 분야에서 새로운 발견의 가능성을 높일 수 있게 되었다”고 전했다.
작성일 : 2024-11-19
엔비디아, CAE에 실시간 디지털 트윈의 활용 돕는 ‘옴니버스 블루프린트’ 공개
엔비디아가 ‘슈퍼컴퓨팅 2024(SC24)’ 콘퍼런스에서 ‘엔비디아 옴니버스 블루프린트(NVIDIA Omniverse Blueprint)’를 발표했다. 이는 소프트웨어 개발업체가 항공우주, 자동차, 제조, 에너지, 기타 산업의 컴퓨터 지원 엔지니어링(CAE) 고객들이 실시간 상호작용이 가능한 디지털 트윈을 제작할 수 있도록 지원한다. 알테어, 앤시스, 케이던스, 지멘스와 같은 소프트웨어 개발업체는 실시간 CAE 디지털 트윈을 위한 엔비디아 옴니버스 블루프린트를 사용해 고객이 개발 비용과 에너지 사용량을 절감하면서 시장 출시 기간을 단축할 수 있도록 지원한다. 엔비디아는 이 블루프린트가 1200배 빠른 시뮬레이션과 실시간 시각화를 달성하기 위한 엔비디아 가속 라이브러리, 물리-AI 프레임워크, 대화형 물리 기반 렌더링을 포함하는 레퍼런스 워크플로라고 설명했다. 블루프린트의 첫 번째 적용 분야 중 하나는 전산유체역학(CFD) 시뮬레이션이다. 이는 자동차, 비행기, 선박 등 여러 제품의 설계를 가상으로 탐색하고 테스트하며 개선하는데 있어 중요한 단계이다. 기존의 엔지니어링 워크플로는 물리 시뮬레이션부터 시각화와 설계 최적화에 이르기까지 완료하는 데 몇 주 또는 몇 달이 걸릴 수 있다. 실시간 물리 디지털 트윈을 구축하려면 실시간 물리 솔버(solver) 성능과 대규모 데이터 세트의 실시간 시각화라는 2가지 기본 기능이 필요하다. 옴니버스 블루프린트는 이러한 기능을 달성하기 위해 엔비디아 쿠다-X(CUDA-X) 라이브러리를 활용해 솔버 성능을 가속화한다. 또한, 엔비디아 모듈러스(Modulus) 물리-AI 프레임워크를 사용해 플로 필드를 생성하기 위한 모델을 훈련하고 배포한다. 마지막으로, 엔비디아 옴니버스 애플리케이션 프로그래밍 인터페이스를 통해 3D 데이터 상호운용성과 실시간 RTX 지원 시각화를 제공한다.      앤시스는 옴니버스 블루프린트를 채택해 유체 시뮬레이션 소프트웨어인 앤시스 플루언트(Ansys Fluent)에 적용해 전산 유체 역학 시뮬레이션을 가속화했다. 앤시스는 텍사스 첨단 컴퓨팅센터에서 320개의 엔비디아 GH200 그레이스 호퍼 슈퍼칩(Grace Hopper Superchip)으로 플루언트를 실행했다. 2,048개의 x86 CPU 코어에서는 거의 한 달이 걸리던 25억 셀의 자동차 시뮬레이션을 6시간 만에 완료했다. 이를 통해 밤새 고충실도 CFD 분석을 수행할 수 있는 실현 가능성을 향상시키고 새로운 업계 벤치마크를 수립했다. 루미너리 클라우드 또한 블루프린트를 채택하고 있다. 엔비디아 모듈러스를 기반으로 구축된 이 회사의 새로운 시뮬레이션 AI 모델은 GPU 가속 CFD 솔버에서 생성된 훈련 데이터를 기반으로 기류장과 자동차 형상 간의 관계를 학습한다. 이 모델은 솔버 자체보다 훨씬 빠른 속도로 시뮬레이션을 실행해 옴니버스 API를 사용해 시각화된 실시간 공기 역학 흐름 시뮬레이션을 가능하게 한다. 엔비디아와 루미너리 클라우드는 SC24에서 가상 풍동을 시연했다. 이는 터널 내부에서 차량 모델을 변경하더라도 실시간으로 상호작용하는 속도로 유체 역학을 시뮬레이션하고 시각화할 수 있다. 엔비디아는 알테어, 비욘드 매스, 케이던스, 헥사곤, 뉴럴 컨셉, 지멘스, 심스케일, 트레인 테크놀로지스 등이 자체 애플리케이션에 옴니버스 블루프린트 도입을 검토하고 있다고 밝혔다. 옴니버스 블루프린트는 아마존 웹 서비스(AWS), 구글 클라우드, 마이크로소프트 애저를 비롯한 주요 클라우드 플랫폼에서 실행할 수 있다. 엔비디아 DGX 클라우드(DGX Cloud)에서도 사용할 수 있다.  리스케일은 엔비디아 옴니버스 블루프린트를 사용해 단 몇 번의 클릭만으로 맞춤형 AI 모델을 훈련하고 배포할 수 있도록 지원한다. 리스케일 플랫폼은 전체 애플리케이션-하드웨어 스택을 자동화하며, 모든 클라우드 서비스 제공업체에서 실행될 수 있다. 조직은 어떤 시뮬레이션 솔버를 사용해도 훈련 데이터를 생성하고, AI 모델을 준비, 훈련, 배포하며, 추론 예측을 실행하고, 모델을 시각화하고 최적화할 수 있다. 엔비디아의 젠슨 황(Jensen Huang) CEO는 “우리는 모든 사물이 디지털 트윈을 가질 수 있도록 옴니버스를 구축했다. 옴니버스 블루프린트는 엔비디아 옴니버스와 AI 기술을 연결하는 레퍼런스 파이프라인이다. 이는 선도적인 CAE 소프트웨어 개발자가 설계, 제조부터 운영에 이르기까지 세계 최대 산업을 위해 산업 디지털화를 혁신할 획기적인 디지털 트윈 워크플로를 구축할 수 있도록 지원한다”고 말했다.
작성일 : 2024-11-19
델, AI 팩토리 포트폴리오에 최신 기술 적용한 서버/랙 시스템/전문 서비스 추가
델 테크놀로지스는 자사의 AI 설루션 포트폴리오인 ‘델 AI 팩토리(Dell AI Factory)’에 AI 구축 간소화를 위한 신규 인프라 설루션과 전문 서비스를 추가했다고 밝혔다. 델은 확장된 라인업을 통해 기업 및 기관이 AI 워크로드를 가속하고 데이터 관리를 효율화할 수 있도록 지원할 계획이다. 올해 새롭게 공개된 통합 랙 스케일러블 시스템인 ‘델 IRSS(Integrated Rack Scalable Systems)’는 플러그 앤 플레이 방식의 랙 스케일 시스템을 제공하는 공장 통합형 턴키 프로그램으로, 델 스마트 쿨링(Dell Smart Cooling) 기술이 적용되어 있다. IRSS는 전체 랙에 대한 원콜 서비스 및 지원 옵션을 통해 에너지 효율적인 AI 인프라스트럭처 구축을 더욱 간소화한다. 설치가 완료되면 델에서 패키징 폐기물 및 재활용을 처리하고 기존 노후 하드웨어의 재활용까지 지원한다. 표준 19인치 모델인 ‘델 IR5000(Dell Integrated Rack 5000)’에 탑재되는 서버로 ‘델 파워엣지 XE9685L(Dell PowerEdge XE9685L)’ 및 ‘델 파워엣지 XE7740(Dell PowerEdge XE7740)’이 추가됐다. 델 IR5000은 공간 효율적인 폼 팩터로 고집적 애플리케이션을 위해 설계되었으며, 고성능을 제공하는 동시에 에너지 효율을 유지한다.  델 파워엣지 XE9685L은 AI, 머신러닝, 고성능 컴퓨팅(HPC) 및 기타 데이터 집약적인 워크로드를 위해 설계된 고집적 4U 수랭식 서버이다. 최대 12개의 PCIe 젠 5.0 슬롯과 함께 엔비디아 HGX (NVIDIA HGX) H200 및 B200 GPU와 페어링된 듀얼 AMD 5세대 에픽(EPYC) CPU는 특정 컴퓨팅 요구 사항을 충족하는 맞춤형 구성, 최적화된 스토리지 연결 및 까다로운 워크로드를 위한 최대 IO 처리량을 지원한다. 이 플랫폼은 랙당 최대 96개의 엔비디아 GPU를 탑재할 수 있어 업계 최고 수준의 GPU 집적도를 제공한다.   ▲ 델 파워엣지 XE7740 서버   델 파워엣지 XE7740은 공랭식의 4U 모델로 2개의 인텔 제온 6(Intel Xeon) P-코어 프로세서와 인텔 가우디(Intel Gaudi) 3 PCIe 가속기 또는 엔비디아 H200 NVL 등 최대 8개의 더블 와이드 가속기, 또는 엔비디아 L4 텐서 코어(Tensor Core) GPU 등의 최대 16개의 싱글 와이드 가속기를 사용할 수 있다. 델은 “다양한 선택의 폭이 제공되는 만큼 생성형 AI 모델의 미세 조정이나 추론에서부터 대규모 데이터 세트에 대한 가치 추출에 이르기까지 규모에 맞게 서버 구성의 적절히 조정할 수 있다”고 설명했다.   델은 곧 출시될 엔비디아 GB200 그레이스 블랙웰 NVL4 슈퍼칩(Grace Blackwell NVL4 Superchip)을 델 IR7000용으로 설계된 새로운 델 파워엣지 XE 서버를 통해 50OU 표준 랙에서 랙당 최대 144개의 GPU를 지원할 계획이다. IR7000 랙은 100%에 가까운 열 포집 능력으로 고전력 및 액체 냉각을 필요로 하는 대규모 HPC 및 AI 워크로드를 지원한다. 또한, 델 테크놀로지스는 AI 작업을 위해 데이터를 효율적으로 관리하고 분석할 수 있는 최신 아키텍처 수요에 대응하게 위해 ‘델 데이터 레이크하우스(Dell Data Lakehouse)’도 업데이트 했다. 이 플랫폼은 AI에 최적화된 하드웨어와 풀 스택 소프트웨어 제품군을 기반으로 구축되었으며, 향후 대규모 분산 데이터 처리를 위한 아파치 스파크(Apache Spark)를 포함하도록 확장될 예정이다. 대량의 데이터를 관리하는 기업의 경우, 이를 통해 데이터 애널리틱스와 관리 및 처리에 이르기까지 통합된 접근 방식을 확보함으로써 효율성을 높이고 보다 신속하게 실행 가능한 인사이트를 얻을 수 있다. 한편, 델은 AI 에코시스템 전반의 파트너와 협력하여 AI 구축을 강화하고 간소화하는데 노력하고 있다고 전했다. 엔비디아 기반 델 AI 팩토리(Dell AI Factory with NVIDIA)는 AI 운영 및 활용 사례 구축을 위해 성능을 보다 가속화한다. 새로운 엔비디아 HGX H200 및 H100NVL 지원 옵션은 엔비디아 HGX H100 대비 최대 1.9배 더 높은 성능을 제공한다. 엔비디아 기반 델 AI 팩토리의 일부인 ‘엔비디아 기반 델 에이전틱 RAG(Dell Agentic RAG with NVIDIA)’를 통해 고객은 복잡한 쿼리를 수행하고 검색 증강 생성(RAG) 작업을 가속할 수 있다. 대규모 데이터 세트를 보유한 조직에서는 델의 이 설계를 기반으로 AI 에이전트를 사용하여 RAG 워크플로 성능을 개선하고, 복잡한 쿼리를 처리하며, 더 높은 품질의 결과를 제공할 수 있다. 이 설루션은 델 파워엣지와 델 파워스케일(Dell PowerScale)을 비롯해 니모 리트리버(NeMo Retriever) 마이크로서비스, 멀티모달 PDF 데이터 추출을 위한 ‘엔비디아 AI 블루프린트(NVIDIA AI Blueprint)’ 등 엔비디아 AI 엔터프라이즈(NVIDIA AI Enterprise) 소프트웨어를 활용한다. AI PC를 위한 델 검증 설계(Dell Validated Designs for AI PCs)는 NPU 기술이 탑재된 델 AI PC에서 AI 애플리케이션 개발을 촉진하기 위해 설계된 오픈 소스 가이드이다. 개발자는 모듈식 설계를 쉽게 맞춤화하여 LLM, 비전, 텍스트 및 음성 등의 기능을 애플리케이션에 통합할 수 있다. 또한 다양한 프로세서 종류나 플랫폼에 걸쳐 AI 애플리케이션을 배포할 수 있다. 이러한 확장 가능한 접근 방식을 통해 온디바이스 AI에서 일상적인 프로세스를 자동화하고 시간과 비용을 절감하고 데이터 보안을 개선할 수 있다. 델 프로페셔널 서비스(Dell Professional Services)는 AI 관련 전략 개발이나 구현에 어려움을 겪는 기업과 기관들이 AI 목표를 보다 효율적으로 달성할 수 있도록 지원한다. ‘지속 가능한 데이터 센터를 위한 자문 및 구현 서비스(Advisory and Implementation Services for Sustainable Data Centers)’는 지능형 전력 및 냉각 관리를 통해 저탄소, 에너지 효율적인 데이터 센터를 위한 전략을 수립하고 구현하는데 필요한 전문 지식을 제공한다. ‘데이터 관리 서비스(Data Management Services)’는 데이터를 검색, 분류, 정제하여 AI-레디 카탈로그를 제공하고 체계화된 고품질 데이터에 대한 안정적이고 간소화된 액세스를 보장한다. ‘AI 네트워킹을 위한 설계 서비스(Design Services for AI Networking)’는 더 빠른 속도, 지연 시간 단축, 향상된 확장성을 통해 AI 워크로드에 최적화된 네트워크 설계를 제공한다. ‘서비스나우 나우 어시스트를 위한 구현 서비스(Implementation Services for ServiceNow Now Assist)’는 AI 기반 요약을 통해 콘텐츠 수집을 간소화하여 결과를 자동화하고 생산성을 향상시키는 ‘나우 어시스트’를 통해 서비스 관리 워크플로에 생성형 AI 기능을 통합한다. 한국 델 테크놀로지스의 김경진 총괄사장은 “여러 고객들이 AI를 구축하고 실행하기까지 점점 더 다양한 도전과제에 직면하게 된다”면서, “델은 계속해서 진일보한 AI 오퍼링을 선보임으로써 고객이 AI를 통해 보다 스마트하고 유연하게 대응할 수 있는 미래를 만들어갈 수 있도록 하는데 집중하고 있다”고 밝혔다. 델 파워엣지 XE9685L과 델 파워엣지 XE7740은 2025년 1분기에 전 세계에 출시될 예정이며, 델 데이터 레이크하우스 업데이트는 현재 전세계에서 이용 가능하다. AI PC를 위한 델 검증 설계는 현재 전 세계에서 이용 가능하며, 엔비디아 기반의 델 생성형 AI 설루션의 GPU 업데이트는 올해 내에 제공될 예정이고, 엔터프라이즈 RAG 업데이트는 현재 이용이 가능하다. ‘델 데이터 관리 서비스’와 ‘지속 가능한 데이터 센터를 위한 델 서비스,’ ‘AI 네트워킹을 위한 델 설계 서비스,’ ‘서비스나우 나우 어시스트를 위한 델 구현 서비스’는 현재 일부 국가에서 제공되고 있다.
작성일 : 2024-11-19
HPE, 직접 수냉 방식 HPC 설루션 및 대규모 AI 모델 학습을 위한 AI 서버 발표
HPE는 리더십급 ‘HPE 크레이 슈퍼컴퓨팅 EX’ 설루션과 대규모 언어 모델(LLM) 학습, 자연 언어 프로세싱(NLP) 및 멀티 모달 모델 학습에 최적화된 시스템 2종을 포함한 새로운 HPC 및 인공지능(AI) 인프라 포트폴리오를 발표했다. HPE 크레이 슈퍼컴퓨팅 EX 시스템을 기반으로 하는 전체 리더십급 HPC 포트폴리오의 신제품은 세계의 난제 해결을 맡은 연구 기관과 소버린 AI 이니셔티브를 개발하는 정부 기관을 위해 설계되었다. 이 포트폴리오는 100% 팬리스 직접 수냉 방식(Fanless DLC) 시스템 아키텍처를 기반으로 하며 컴퓨팅 노드, 네트워킹, 스토리지를 포함한 HPE 슈퍼컴퓨팅 설루션의 모든 레이어에 걸쳐 새로운 소프트웨어 오퍼링으로 보완된다. 단일 캐비닛에서 최대 9만 8304개의 코어를 제공할 수 있는 HPE 크레이 슈퍼컴퓨팅 EX4252 2세대 컴퓨팅 블레이드(HPE Cray Supercomputing EX4252 Gen 2 Compute Blade)는 슈퍼컴퓨팅을 위한 강력한 원랙 유닛 시스템을 구현하는 제품이다. 8개의 5세대 AMD 에픽(EPYC) 프로세서를 탑재한 이 컴퓨팅 블레이드는 CPU 집적도의 이점을 제공하여 고객이 동일한 공간 내에서 더 높은 성능의 컴퓨팅을 실현할 수 있도록 지원한다. HPE Cray 슈퍼컴퓨팅 EX4252 2세대 컴퓨팅 블레이드는 2025년 봄에 출시될 예정이다.     슈퍼컴퓨팅 워크로드를 완료하는 데 걸리는 시간을 단축하기 위해 HPE 크레이 슈퍼컴퓨팅 EX154n 가속기 블레이드(HPE Cray Supercomputing EX154n Accelerator Blade)는 단일 캐비닛에 최대 224개 엔비디아 블랙웰(NVIDIA Blackwell) GPU를 탑재할 수 있다. 각 가속기 블레이드는 엔비디아 GB200 그레이스 블랙웰 NVL4 슈퍼칩(NVIDIA GB200 Grace Blackwell NVL4 Superchip)을 탑재하고 있으며, 엔비디아 NV링크-C2C를 통해 2개의 엔비디아 그레이스 CPU와 통합된 4개의 엔비디아 NV링크 연결 블랙웰(NVIDIA NVLink-connected Blackwell) GPU를 보유하고 있다. HPE 크레이 슈퍼컴퓨팅 EX154n 가속기 블레이드는 2025년 말에 공급될 예정이다. 차세대 엑사스케일 지원 HPE 인터커넥트 포트폴리오는 초당 400GB 속도의 네트워크 인터페이스 컨트롤러(NIC), 케이블 및 스위치를 제공한다. HPE 슬링샷 인터커넥트 400(HPE Slingshot interconnect 400)은 이전 세대보다 2배 빠른 회선 속도를 제공하는 동시에 자동화된 혼잡 관리 및 초저 테일 레이턴시(ultra-low tail latency)를 위한 어댑티브 라우팅과 같은 기능을 제공하여 고객이 더 적은 네트워크 인프라로 대규모 워크로드를 실행할 수 있도록 지원한다. 이 버전의 HPE 슬링샷은 2025년 하반기부터 HPE Cray 슈퍼컴퓨팅 EX 시스템 기반 클러스터에 적용될 예정이다 HPE 크레이 슈퍼컴퓨팅 스토리지 시스템 E2000은 이전 세대 대비 입출력(I/O) 성능이 두 배 이상 향상되었다. 대규모 슈퍼컴퓨터용으로 설계된 이 시스템은 오픈 소스 러스터(Lustre) 파일 시스템을 기반으로 하며, I/O 작업 중 유휴 시간을 줄여 CPU 및 GPU 기반 컴퓨팅 노드 모두의 활용도를 높일 수 있다. 이 HPC 스토리지 시스템은 2025년 초에 HPE 크레이 슈퍼컴퓨팅 EX 시스템에서 일반적으로 제공될 예정이다. 또한, HPE는 컴퓨팅 집약적 워크로드 실행의 사용자 경험을 개선하는 새로운 소프트웨어 제품을 출시한다. 현재 이용 가능한 HPE 크레이 슈퍼컴퓨팅 사용자 서비스 소프트웨어에는 고객이 시스템 효율성을 최적화하고 전력 소비를 조절하며 슈퍼컴퓨팅 인프라에서 다양한 워크로드를 유연하게 실행하는 데 도움이 되는 기능이 포함되어 있다. 한편, HPE는 고객이 대규모 고성능 AI 클러스터를 간소화할 수 있도록 지원하는 새로운 카테고리의 서버를 계속 선보이고 있다고 전했다. 자체 AI 모델을 학습하는 SP와 대기업을 위해 설계된 HPE 프로라이언트 컴퓨트 XD 서버는 대규모 AI 시스템 설치 및 배포에 대한 HPE의 전문성을 활용한다. HPE의 최첨단 제조 시설 내에서 설루션의 구축, 맞춤화, 통합, 검증, 전체 테스트를 지원하는 HPE 서비스 옵션을 활용하면 신속한 온사이트 배포가 가능하다. HPE 프로라이언트 컴퓨트 서버에서만 사용 가능한 HPE iLO(Integrated Lights-Out) 관리 기술을 사용하면 일부 권한이 있는 직원이 서버에 대한 대역 외 원격 제어 액세스를 허용하여 표준 대역 내 네트워크 액세스보다 보안을 강화할 수 있다. 가격 대비 성능을 염두에 두고 최적화된 공냉 방식 HPE 프로라이언트 컴퓨트 XD680 서버는 복잡한 AI 학습, 튜닝 및 추론 워크로드를 처리하도록 설계되었다. HPE가 설계한 섀시에는 단일 컴팩트 노드에 8개의 인텔 가우디 3 AI 가속기가 탑재되어 있다. 인텔 가우디 3가 탑재된 HPE 프로라이언트 컴퓨트 XD680 서버는 2024년 12월에 출시될 예정이다. HPE는 성능, 경쟁 우위, 에너지 효율성을 우선시하는 고객을 위해 대규모의 복잡한 AI 모델에 대한 학습을 가속화할 수 있는 엔비디아 GPU가 탑재된 새로운 버전의 HPE 프로라이언트 컴퓨트 XD685 서버가 출시될 예정이다. 이 서버는 5개의 랙 유닛 섀시에 8개의 엔비디아 H200 SXM 텐서 코어 GPU 또는 엔비디아 블랙웰 GPU로 구동되며, 수냉식 냉각 분야에서 수십 년간 쌓아온 HPE의 전문성을 활용하여 GPU, CPU 및 스위치를 효율적으로 냉각시킨다. HPE 프로라이언트 컴퓨트 XD685 서버의 엔비디아 HGX H200 8-GPU 버전은 2025년 초에 출시될 예정이며, 엔비디아 블랙웰 GPU 버전은 출시에 맞춰 선보일 예정이다. HPE의 트리시 댐크로거(Trish Damkroger) HPC 및 AI 인프라 설루션 부문 수석 부사장 겸 총괄은 “소버린 AI 이니셔티브에 투자하는 서비스 제공업체와 국가들은 발견과 혁신을 가속화하기 위한 대규모 AI 학습을 가능하게 하는 중요한 백본으로 HPC를 점점 더 많이 고려하고 있다”면서 “고객은 세계 최고의 HPC 설루션과 완전 통합형 시스템 제공, 배포 및 서비스 분야에서 수십 년간 쌓아온 경험을 활용하여 더 빠르고 효율적으로 가치를 실현하면서 AI 시스템 배포를 빠르게 진행하기 위해 HPE에 주목하고 있다”고 밝혔다.
작성일 : 2024-11-15
IBM, 복잡한 알고리즘 연산 속도 높인 양자 컴퓨터 소개
IBM은 ‘제 1회 IBM 퀀텀 개발자 콘퍼런스(IBM Quantum Developer Conference)’를 개최하고, IBM 양자컴퓨터에서 복잡한 알고리즘을 실행할 때 높은 수준의 규모, 속도, 정확성을 제공하는 새로운 양자 하드웨어 및 소프트웨어 기술을 소개했다. ‘IBM 퀀텀 헤론(IBM Quantum Heron)’은 IBM의 고성능 양자 프로세서로, IBM의 글로벌 양자 데이터 센터를 통해 사용할 수 있다. IBM 퀀텀 헤론은 퀴스킷(Qiskit)을 활용해 특정 클래스의 양자 회로를 최대 5000개의 2큐비트 게이트 연산까지 정확하게 실행할 수 있다. 사용자는 이러한 IBM 퀀텀 헤론의 성능을 활용해 재료, 화학, 생명과학, 고에너지 물리학 등 다양한 분야의 과학적 문제를 양자 컴퓨터로 해결하는 방법을 탐구할 수 있다. IBM은 “이는 IBM 양자 개발 로드맵의 또 하나의 주요 목표를 달성한 것이며, IBM과 비즈니스 파트너가 양자 우위와 2029년으로 예정된 IBM의 오류 수정 첨단 시스템을 향해 나아감에 따라 양자 유용성 시대를 더욱 앞당기는 것”이라고 설명했다.     IBM 헤론과 퀴스킷의 성능 향상으로 사용자는 최대 5000개의 게이트로 구성된 양자 회로를 실행할 수 있는데, 이는 2023년 IBM의 양자 유용성 시연에서 정확하게 실행된 게이트 수의 약 2배에 달하는 수치이다. 이를 통해 IBM 퀀텀의 컴퓨터 성능은 무차별 대입 방식의 기존 시뮬레이션 방식보다 더욱 향상됐다. 네이처지(Nature)에 게재된 2023년 유용성 실험에서는 데이터 당 처리 시간이 총 112시간 소요됐으나, 동일한 데이터를 사용한 같은 실험을 최신 IBM 헤론 프로세서에서 실행한 결과 50배 빠른 2.2시간 만에 완료할 수 있었다. IBM은 개발자가 안정성과 정확성, 속도를 갖춘 복잡한 양자 회로를 보다 쉽게 구축할 수 있도록 고성능의 양자 소프트웨어로 퀴스킷을 발전시켜 왔다. IBM은 제3자 기관의 1 000여 개의 테스트를 통해 퀴스킷이 다른 플랫폼 대비 높은 성능과 안정성을 갖춘 양자 소프트웨어 개발 키트라는 것을 확인했다고 밝혔다. IBM 퀀텀 플랫폼은 생성형 AI 기반 기능 및 IBM 파트너의 새로운 소프트웨어와 같은 신규 퀴스킷 서비스로 선택지를 더욱 확장하고 있으며, 산업 전반의 전문가 네트워크가 과학 연구를 위한 차세대 알고리즘을 구축할 수 있도록 지원한다. 여기에는 AI로 양자 하드웨어를 위한 양자 회로의 효율적인 최적화를 지원하는 퀴스킷 트랜스파일러 서비스(Qiskit Transpiler Service), 개발자가 IBM 그래니트 기반 생성 AI 모델로 양자 코드를 생성하는 데 도움을 주는 퀴스킷 코드 어시스턴트(Qiskit Code Assistant), 양자 및 기존 시스템에서 초기 양자 중심 슈퍼컴퓨팅 접근법을 실행하는 퀴스킷 서버리스(Qiskit Serverless) 같은 도구가 포함된다. 양자 노이즈의 성능 관리를 줄이고 양자 회로의 복잡성을 추상화해 양자 알고리즘 개발을 간소화하는 등의 기능을 위해 IBM, 알고리즘믹(Algorithmiq), 케드마(Qedma), 큐나시스(QunaSys), Q-CTRL 및 멀티버스 컴퓨팅의 서비스를 이용할 수 있는 IBM 퀴스킷 함수 카탈로그(IBM Qiskit Functions Catalog)가 있다. 고성능 컴퓨팅의 차세대 진화 단계인 양자 중심 슈퍼컴퓨팅에 대한 IBM의 비전은 병렬화된 워크로드를 실행하는 최첨단 양자 컴퓨터와 기존 컴퓨터를 통합해 복잡한 문제를 고성능 소프트웨어로 쉽게 분리하고, 가장 적합한 아키텍처로 알고리즘의 각 부분을 나누어 해결한 후, 문제를 부드럽고 빠르게 다시 서로 결합하는 방법으로 각각의 컴퓨팅 방식으로는 접근이 불가능하거나 어려운 알고리즘을 실행할 수 있도록 설계되고 있다. 대표적으로, 일본의 국립 과학 연구 기관인 이화학연구소(RIKEN)와 학술 의료 센터이자 생의학 연구 기관인 클리블랜드 클리닉(Cleveland Clinic)은 유용성 단계의 IBM 퀀텀 시스템 원을 통해 화학의 기본이 되는 전자 구조 문제에 대한 알고리즘을 연구하고 있다. 이 프로젝트는 복잡한 화학 및 생물학적 시스템을 현실적으로 모델링하기 위한 양자 중심 슈퍼컴퓨팅 접근 방식의 첫 단계로, 과거에는 무결함 양자 컴퓨터가 필요할 것이라고 여겨졌던 작업이다. 제이 감베타(Jay Gambetta) IBM 퀀텀 부사장은, “IBM 퀀텀 하드웨어와 퀴스킷의 발전으로 사용자들은 첨단 양자 및 기존 슈퍼컴퓨팅 자원을 결합해 각자의 강점을 결합한 새로운 알고리즘을 구축할 수 있게 됐다”며, “오류 수정 양자 시스템을 향한 로드맵을 향해 나아가는 가운데, 현재 산업 전반에서 발견되는 알고리즘은 QPU, CPU, GPU의 융합으로 만들어지는 미개척 컴퓨팅 분야의 잠재력을 실현하는 데 핵심이 될 것”이라고 말했다.
작성일 : 2024-11-14
엔비디아-소프트뱅크, 일본 내 AI 이니셔티브 가속화 위해 협력
엔비디아가 ‘엔비디아 AI 서밋 재팬’ 이벤트에서 소프트뱅크와의 협업을 발표했다. 이를 통해 엔비디아는 일본의 소버린 AI 이니셔티브를 가속화하고 글로벌 기술 리더십을 강화하기 위해 지원할 계획이다. 또한 이 협업은 전 세계 통신 사업자에게 수십억 달러의 AI 수익 기회를 창출할 것을 목표로 한다. 엔비디아의 젠슨 황(Jensen Huang) CEO는 엔비디아 AI 서밋 재팬의 기조연설에서 소프트뱅크가 엔비디아 블랙웰(Blackwell) 플랫폼을 사용해 일본에서 가장 강력한 AI 슈퍼컴퓨터를 구축하고 있다고 말했다. 아울러 차기 슈퍼컴퓨터에 엔비디아 그레이스(Grace) 블랙웰 플랫폼을 사용할 계획이라고 발표했다. 아울러 엔비디아는 소프트뱅크가 엔비디아 AI 에리얼(Aerial) 가속 컴퓨팅 플랫폼을 사용해 AI와 5G 통신 네트워크를 결합한 시범 서비스에 성공했다. 이는 통신 사업자에게 잠재적으로 수십억 달러 상당의 AI 수익원을 열어주는 컴퓨팅 기술이다. 또한 엔비디아는 소프트뱅크가 엔비디아 AI 엔터프라이즈 소프트웨어를 사용해 로컬 보안 AI 컴퓨팅에 대한 수요를 충족할 수 있는 AI 마켓플레이스를 구축할 계획이라고 발표했다. 소프트뱅크는 AI 훈련과 에지 AI 추론을 지원하는 새로운 서비스를 통해 일본의 산업, 소비자, 기업 전반에 걸쳐 AI 서비스의 생성, 배포, 사용을 위한 새로운 비즈니스 기회를 촉진할 예정이다. 소프트뱅크는 세계 최초로 엔비디아 DGX B200 시스템을 공급받을 예정이며, 이는 새로운 엔비디아 DGX SuperPOD 슈퍼컴퓨터의 빌딩 블록 역할을 할 것이다. 소프트뱅크는 자체 생성형 AI 개발과 AI 관련 사업뿐만 아니라 일본 전역의 대학, 연구 기관, 기업에서 블랙웰 기반 DGX SuperPOD을 사용할 계획이다. 엔비디아는 “이 프로젝트가 완료되면 소프트뱅크의 DGX SuperPOD이 일본에서 가장 뛰어난 성능을 발휘할 것”이라면서, “이 시스템은 엔비디아 AI 엔터프라이즈 소프트웨어와 엔비디아 퀀텀-2 인피니밴드(Quantum-2 InfiniBand) 네트워킹을 갖추고 있어 대규모 언어 모델(LLM) 개발에도 이상적”이라고 전했다. 소프트뱅크는 DGX SuperPOD 외에도 극도로 컴퓨팅 집약적인 워크로드를 실행하기 위해 또 다른 엔비디아 가속 슈퍼컴퓨터를 구축할 계획이다. 이 슈퍼컴퓨터의 초기 계획은 엔비디아 그레이스 블랙웰 플랫폼 설계를 기반으로 하고 있다. 이 설계는 엔비디아 블랙웰 GPU와 Arm 기반 엔비디아 그레이스 CPU를 결합한 엔비디아 GB200 NVL72 멀티노드 수냉식 랙 스케일 시스템을 갖추고 있다.     한편, 소프트뱅크는 엔비디아와 협력해 AI와 5G 워크로드를 동시에 실행할 수 있는 새로운 종류의 통신 네트워크인 AI-RAN(artificial intelligence radio access network)을 개발했다. 이 새로운 유형의 인프라는 통신 사업자에게 기지국을 비용 센터에서 AI 수익 창출 자산으로 전환할 수 있는 기능을 제공해, 통신 업계의 생태계 지원을 받고 있다. 소프트뱅크는 일본 가나가와 현에서 실시한 실외 실험을 통해 엔비디아 가속 AI-RAN 설루션이 캐리어급 5G 성능을 달성했으며, 네트워크의 초과 용량을 사용해 AI 추론 워크로드를 동시에 실행할 수 있음을 입증했다. 기존 통신사 네트워크는 피크 부하를 처리하도록 설계돼 평균적으로 해당 용량의 3분의 1만 사용했다. 한편, AI-RAN이 제공하는 공통 컴퓨팅 기능을 활용하면 나머지 3분의 2 용량을 AI 추론 서비스를 위해 수익화할 수 있을 것으로 예상된다. 엔비디아와 소프트뱅크는 통신 사업자가 새로운 AI-RAN 인프라에 1달러의 자본을 투자할 때마다 약 5달러의 AI 추론 수익을 얻을 수 있을 것으로 예상하고 있다. 소프트뱅크는 운영 비용과 자본 비용을 고려할 때, 인프라에 추가하는 모든 AI-RAN 서버에 대해 최대 219%의 수익을 달성할 수 있을 것으로 예상하고 있다. 소프트뱅크는 실험을 통해 엔비디아 AI 엔터프라이즈를 사용해 자율주행 자동차 원격 지원, 로보틱스 제어, 에지에서의 멀티모달 검색 자동 생성을 포함한 실제 AI 추론 애플리케이션을 구축했다. 모든 추론 워크로드는 소프트뱅크의 AI-RAN 네트워크에서 최적으로 실행될 수 있었다. 젠슨 황 CEO는 “일본은 전 세계에 영향을 미치는 기술 혁신을 선도해온 오랜 역사를 갖고 있다. 소프트뱅크가 엔비디아의 풀스택 AI, 옴니버스(Omniverse), 5G AI-RAN 플랫폼에 대한 막대한 투자를 함으로써 일본은 AI 산업 혁명의 글로벌 리더로 도약하고 있다. 일본은 통신, 교통, 로보틱스, 의료 산업 전반에 걸쳐 새로운 성장의 시대를 주도해 AI 시대에 인류에게 큰 혜택을 제공할 것”이라고 말했다. 소프트뱅크의 미야카와 준이치(Junichi Miyakawa) 사장 겸 CEO는 “전 세계 국가와 지역이 사회와 경제 성장을 위해 AI 도입을 가속화하고 있으며, 사회는 중대한 변화를 겪고 있다. 소프트뱅크는 엔비디아와의 오랜 협력을 통해 이러한 변화를 최전선에서 주도하고 있다. 매우 강력한 AI 인프라와, AI를 위한 5G 네트워크를 재창조하는 새로운 분산형 AI-RAN 설루션 '아이트라스(AITRAS)'를 통해 일본 전역과 전 세계에서 혁신을 가속화할 것”이라고 말했다.
작성일 : 2024-11-13
엔비디아, AI 기능으로 RTX GPU 성능 높이는 ‘엔비디아 앱’ 출시
엔비디아가 엔비디아 앱(NVIDIA APP)을 공식 출시했다고 밝혔다. 이 앱은 지포스(GeFroce) RTX GPU를 사용하는 콘텐츠 제작자, 지포스 게이머, AI 애호가를 위한 지원 플랫폼이다. 엔비디아 앱은 GPU 제어 센터를 제공해 사용자가 모든 GPU 설정을 한 곳에서 액세스할 수 있도록 지원한다. 사용자는 이 앱을 통해 최신 드라이버로 업데이트하거나 엔비디아 지싱크(G-SYNC) 모니터 설정을 구성하는 것부터, RTX 비디오를 통해 AI 비디오 향상 기능을 활용하고 특별한 AI 기능을 갖춘 엔비디아 앱을 찾는 등 다양한 작업을 수행할 수 있다. 또한, 성능을 개선하고 워크플로를 간소화하는 새로운 업데이트가 엔비디아 RTX 리믹스(RTX Remix)에 적용됐다. 엔비디아 앱은 다양한 애플리케이션, 기능, 도구를 통해 지포스 RTX GPU의 성능을 높인다. 엔비디아 앱은 최신 스튜디오 드라이버(Studio Driver)가 제공되면 자동으로 사용자에게 알림을 제공한다. 개발자와의 협업을 통해 미세 조정된 이 그래픽 드라이버는 크리에이티브 애플리케이션에서 성능을 높이고, 안정성을 제공하기 위해 광범위한 테스트를 거쳤다. 드라이버는 매달 한 번씩 출시된다.     수백만 명의 사용자는 엔비디아 브로드캐스트(Broadcast) 앱을 통해 사무실과 기숙사 방을 홈 스튜디오로 변화시켰다. 이 앱은 AI 기반 기능을 통해 고가의 전문 장비 없이도 오디오와 비디오 품질을 개선할 수 있도록 도와준다. 또한, 사용자 친화적이고 거의 모든 앱에서 작동한다. 아울러 노이즈와 음향 에코 제거(Noise and Acoustic Echo Removal), 가상 배경(Virtual Background), 아이 콘택트(Eye Contact), 자동 프레임(Auto Frame), 비네트(Vignettes), 비디오 노이즈 제거(Video Noise Removal)와 같은 AI 기능이 포함된다. 엔비디아 RTX 리믹스는 엔비디아 옴니버스(Omniverse)를 기반으로 한 모딩 플랫폼으로, 사용자가 게임 애셋을 캡처하고, 생성형 AI 툴로 머티리얼을 자동으로 향상시키게 해준다. 또한, 레이 리컨스트럭션(Ray Reconstruction) 기능을 갖춘 DLSS 3.5 지원을 포함한 풀 레이 트레이싱으로 멋진 RTX 리마스터를 제작할 수 있게 돕는다. 엔비디아 캔버스(Canvas)는 AI를 사용해 간단한 붓질을 사실적인 풍경 이미지로 변환한다. 아티스트는 배경을 빠르게 생성하거나 콘셉트 탐색 속도를 높여 더 많은 아이디어를 시각화할 수 있다. 엔비디아 앱에는 디스플레이, 비디오, GPU 옵션을 위한 원스톱 대상인 시스템(System) 탭이 포함된다. 또한 브라우저에서 스트리밍되는 모든 비디오를 향상시키는 AI 기능인 RTX 비디오(RTX Video)도 제공된다. RTX 비디오 슈퍼 레졸루션(RTX Video Super Resolution)은 AI를 사용해 업스케일링 시 압축 아티팩트를 제거하고 가장자리를 선명하게 해 지포스 RTX GPU에서 비디오 스트리밍을 향상시킨다. RTX 비디오 HDR은 모든 표준 다이내믹 레인지 비디오를 구글 크롬, 마이크로소프트 엣지, 모질라 파이어폭스 또는 VLC 미디어 플레이어에서 재생할 때 생생한 하이 다이내믹 레인지(HDR)로 변환한다. HDR은 더욱 생생하고 역동적인 색상을 구현해 게임과 콘텐츠 제작을 개선한다. 이때 호환 가능한 HDR10 모니터가 필요하다. 스트리밍하거나 녹화된 게임 세션을 향상시키고자 하는 콘텐츠 제작자는 AI 기반 게임 필터로 새롭게 디자인된 엔비디아 앱의 오버레이(Overlay) 기능에 액세스할 수 있다. 프리스타일(Freestyle) RTX 필터를 사용하면 라이브 스트리머와 콘텐츠 제작자가 재미있는 포스트 프로세싱 필터를 적용해 색상과 채도를 조정하고 콘텐츠의 느낌과 분위기를 바꿀 수 있다. 또한, 프리스타일 RTX 게임 필터와 함께 앱별로 시각적 선명도를 향상시키는 RTX 다이내믹 바이브런스(RTX Dynamic Vibrance)가 추가됐다. 화면에서 색상이 더욱 돋보이고, 색상 뭉개짐이 최소화돼 이미지 품질과 몰입감을 유지한다. 이 필터는 지포스 RTX GPU의 텐서 코어(Tensor Core)를 통해 가속화돼 시청자가 액션을 더 쉽게 즐길 수 있도록 한다. 프리스타일 RTX 필터는 게이머가 실시간 포스트 프로세싱 필터를 통해 좋아하는 게임의 시각적 미학을 개인화할 수 있도록 지원한다. 이 기능은 1200개 이상의 게임 라이브러리와의 호환성을 제공한다. 새로운 RTX 리믹스 업데이트는 모더들에게 대폭 향상된 모드 성능과 모드 제작 프로세스를 간소화하는 품질 개선 사항을 제공한다. RTX 리믹스는 개발 중인 실험적 기능을 테스트할 수 있도록 지원한다. 새로운 스테이지 매니저(Stage Manager)가 도입돼 장면의 모든 메시, 텍스처, 조명, 요소들을 실시간으로 쉽게 확인하고 변경할 수 있다. 모더들은 엔비디아 앱 런처에서 RTX 리믹스를 통해 리믹스의 기능에 직접 액세스할 수 있다. 엔비디아 앱을 통해 RTX 리믹스 모더는 더 빠른 시작 시간, 더 낮은 CPU 사용량, 최적화된 사용자 인터페이스로 업데이트를 직접 제어할 수 있는 이점을 누릴 수 있다.
작성일 : 2024-11-13
델 테크놀로지스, 에지의 AI 활용 고도화하는 ‘네이티브엣지’ 소프트웨어 기능 확대
델 테크놀로지스는 에지에 AI를 구축하고 확장해 사용하는 방법을 간소화하도록 고안된 ‘델 네이티브엣지(Dell NativeEdge)’ 에지 운영 소프트웨어 플랫폼의 기능을 확대하고 고도화했다고 밝혔다. 가트너에 따르면 2025년까지 기업에서 관리하는 데이터의 50% 이상이 데이터센터 또는 클라우드 외부에서 생성 및 처리될 것으로 전망된다. 에지로의 이동이 늘어나고 AI가 새로운 에지 워크로드를 증폭시킴에 따라, 여러 곳의 에지 위치에 지속적으로 AI 모델을 구축하고 관리할 수 있는 민첩하고 안전한 연결형 시스템 수요가 증가하는 추세이다. 델 AI 팩토리(Dell AI Factory)의 일부이자 에지 운영 소프트웨어 플랫폼인 델 네이티브엣지는 이러한 요구에 대응하고, AI 소프트웨어 통합 및 고가용성 기능을 제공함으로써 기업 및 기관이 에지에서 AI를 구축하고 관리하는데 있어 회복탄력성과 안정성을 높인다.  델 네이티브엣지는 대규모의 안전한 디바이스 온보딩, 원격 관리 및 멀티클라우드 애플리케이션 오케스트레이션을 제공하는 에지 운영 소프트웨어 플랫폼이다. 이번 업데이트를 통해 델 네이티브엣지는 델 파워엣지(Dell PowerEdge) 서버, 옵티플렉스(OptiPlex) 및 프리시전(Precision) 워크스테이션과 델 게이트웨이(Dell Gateways) 등의 네이티브엣지 엔드포인트(NativeEdge Endpoint)에 대한 멀티 노드 고가용성 클러스터링을 지원한다. 네이티브엣지 소프트웨어를 이용해 엔드포인트를 클러스터링해 마치 단일 시스템과 같이 운영하면, 네트워크 중단이나 디바이스 장애 발생시에도 중요한 비즈니스 프로세스와 에지 AI 워크로드를 지속할 수 있는 고가용성 기능을 활용할 수 있다. 가상 머신(VM) 마이그레이션과 자동 애플리케이션, 컴퓨팅 및 스토리지 페일오버(failover)를 통해 안정성 및 지속적인 운영을 향상시킨다. 델은 “네이티브엣지가 소매/유통점에서부터 거대 유틸리티 업종(전력, 가스, 수도 등)에 이르기까지 다양한 환경에서 변화하는 워크로드 수요에 간편하게 대응할 수 있다”면서, “네이티브엣지 엔드포인트를 델 파워스토어(Dell PowerStore) 및 델 파워볼트(Dell PowerVault) 등의 외장 스토리지 설루션과 통합해 에지에 싱글 티어, 2개 티어, 3개 티어 등 다양한 설루션에서 AI 모델 트레이닝 및 구축이 가능하다”고 설명했다. 에지에서 AI 추론을 구현하는 경우 많게는 수백 개의 에지 위치에 AI 애플리케이션과 설루션을 구축하기 위해 많은 시간과 노력이 필요할 수 있다. 델은 55개 이상의 사전 제작된 ‘델 네이티브엣지 블루프린트(Dell NativeEdge Blueprints)’로 구성된 포괄적인 카탈로그를 제공하여, AI 애플리케이션과 프레임워크를 신속하게 구축하고 비즈니스에 적용할 수 있도록 지원한다는 점을 내세운다. 네이티브엣지 블루프린트를 사용하면 새로운 활용 사례와 AI 추론 기능을 에지에서 손쉽게 조합하고 구축할 수 있으며, 매뉴얼 셋업에 소요되는 시간과 오류를 줄여준다. 델은 ▲에지 사용 사례에 맞춤화된 오픈소스 도구로 AI 설루션의 빠르고 효율적인 구축 지원 ▲통합 운영, 빌딩 시스템, 마스터 플랜, 지능형 도시 모빌리티 및 중요 연결성 등 도시 인프라 현대화 촉진 ▲소매점 운영에 실시간 분석을 사용한 매장 내 쇼핑객 경험 향상 ▲빠른 속도로 센서 및 IoT 디바이스에서 데이터를 수집 및 다양한 위치 ▲에지에서 컴퓨터 비전 AI 모델 개발 가속화 ▲에지에서 AI 추론 기능을 보다 효율적이고 안전하게 배포 및 수동 설정 시간 단축과 오류 최소화 등 카탈로그를 확장하고 있다고 밝혔다. 델 네이티브엣지의 업데이트 기능은 2025년 1월에 제공될 예정이며, 델 네이티브엣지 고객은 델을 통해 엔비디아 GPU용 엔비디아 AI 엔터프라이즈(NVIDIA AI Enterprise) 라이선스를 구매하고 활성화할 수 있다. 한국 델 테크놀로지스의 김경진 총괄사장은 “AI는 전례 없는 속도로 새로운 에지 워크로드와 기회를 가속하고 있다. 다양한 산업 분야에서 에지에 AI를 보다 간편하고 안정적으로 사용할 수 있는 방법을 찾고 있는 상황”이라고 설명하며, “네이티브엣지는 비즈니스 연속성을 지원하는 기능을 통해 에지 AI 워크로드의 배포 및 관리를 자동화하므로, 기업에서는 최신 AI 기술을 활용하여 매출 성장을 도모하고 긍정적인 고객 경험을 창출할 수 있다”고 말했다.
작성일 : 2024-11-13