• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "ABCI"에 대한 통합 검색 내용이 1개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
엔비디아, H200 GPU로 AI 개발 강화 위한 일본 ABCI 3.0 슈퍼컴퓨터 지원
엔비디아는 일본 산업기술총합연구소(AIST)의 ABCI 3.0 슈퍼컴퓨터에 수천 개의 엔비디아 H200 텐서 코어(Tensor Core) GPU가 통합된다고 밝혔다. 또한, 휴렛팩커드 엔터프라이즈(HPE)의 크레이(Cray) XD 시스템은 엔비디아 퀀텀-2 인피니밴드(Quantum-2 InfiniBand) 네트워킹을 채택해 높은 성능과 확장성을 제공할 예정이다. ABCI 3.0은 AI 연구 개발을 발전시키기 위해 설계된 일본의 대규모 개방형 AI 컴퓨팅 인프라의 최신 버전이다. AIST와 그 사업 자회사인 AIST 솔루션스, 시스템 통합업체인 HPE가 구축 및 운영하며, 도쿄 인근 카시와에 위치한 일본 AIST 운영 시설에 설치될 예정이다.   ABCI 3.0 프로젝트는 경제 안전 기금을 통해 컴퓨팅 자원을 강화하기 위한 일본 경제산업성의 지원에 따른 것으로, METI의 10억 달러 규모 이니셔티브의 일환이다. 엔비디아는 “2023년 젠슨 황(Jensen Huang) CEO가 기시다 후미오 일본 총리를 비롯한 정재계 인사를 만나 AI의 미래를 논의한 이후 꾸준히 연구와 교육 분야에서 METI와 긴밀히 협력하고 있다”고 소개했다. 젠슨 황 CEO는 특히 생성형 AI, 로보틱스, 양자 컴퓨팅 분야의 연구 협력, AI 스타트업 투자, AI에 대한 제품 지원, 훈련, 교육을 제공하기로 약속했다.     초고밀도 데이터 센터와 에너지 효율적인 설계를 갖춘 ABCI는 AI와 빅데이터 애플리케이션 개발을 위한 강력한 인프라를 제공한다. 이 시스템은 올해 말까지 가동돼 최첨단 AI 연구와 개발 자원을 제공할 계획이다. 이 시설은 6 AI 엑사플롭(exaflops)의 컴퓨팅 용량과 410 배정밀도 페타플롭(petaflops)의 용량을 제공하며, 각 노드는 퀀텀-2 인피니밴드 플랫폼을 통해 200GB/s의 양분(bisectional) 대역폭으로 연결된다. 엔비디아 기술은 이 이니셔티브의 중심에서 수백 개의 노드에 각각 8개의 NV링크(NVLink) 연결 H200 GPU를 장착해 높은 컴퓨팅 성능과 효율성을 제공한다. 엔비디아 H200은 초당 4.8테라바이트(TB/s)의 속도로 140기가바이트(GB) 이상의 HBM3e 메모리를 제공하는 GPU이다. H200의 더 크고 빠른 메모리는 생성형 AI와 대규모 언어 모델(LLM)을 가속화하는 동시에 더 나은 에너지 효율과 낮은 총소유비용으로 HPC 워크로드를 위한 과학 컴퓨팅을 발전시킨다. 엔비디아 H200 GPU는 LLM 토큰 생성과 같은 AI 워크로드에 대해 ABCI의 이전 세대 아키텍처보다 에너지 효율이 15배 더 높다. 네트워킹 장치가 데이터에 대한 연산을 수행해 CPU의 작업을 분산(offloading)시키는 인-네트워크 컴퓨팅(In-Network Computing)과 고급 엔비디아 퀀텀-2 인피니밴드의 통합은 집약적인 AI 워크로드와 방대한 데이터 세트를 처리하는 데 필수적인 고효율, 고속, 저지연 통신을 지원한다. AIST의 다나카 요시오(Yoshio Tanaka) 이사는 “2018년 8월 우리는 세계 최초의 대규모 개방형 AI 컴퓨팅 인프라인 ABCI를 출범했다. 지난 몇 년간 ABCI를 관리해 온 경험을 바탕으로 이제 ABCI 3.0으로 업그레이드하게 됐다. 엔비디아와 HPE와의 협력을 통해 ABCI 3.0이 일본 생성형 AI 연구 개발 역량을 더욱 발전시킬 컴퓨팅 인프라로 발전하는 것이 목표”라고 말했다. AIST 솔루션스의 오가와 히로타카(Hirotaka Ogawa) 생산 겸 ABCI 운영 책임자는 “생성형 AI가 글로벌 변화를 촉진할 준비를 하고 있는 지금, 일본 내에서 연구 개발 역량을 빠르게 배양하는 것이 매우 중요하다. 엔비디아와 HPE의 협력을 통한 ABCI의 대대적인 업그레이드는 일본 산업과 학계에서 ABCI의 리더십을 강화해 일본이 AI 개발 분야에서 글로벌 경쟁력을 갖추는 미래 혁신의 기반이 될 것으로 확신한다”고 말했다.
작성일 : 2024-07-15