• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "제온"에 대한 통합 검색 내용이 356개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
인텔, 최신 LLM 라마 3.1 최적화 업데이트 지원
인텔은 메타(Meta)의 최신 LLM(대규모 언어 모델)인 라마 3.1(Llama 3.1)에 데이터센터, 에지 및 클라이언트 AI 제품 전반에 걸친 성능 데이터 및 최적화를 제공한다고 밝혔다. 인텔은 ‘AI 에브리웨어’ 전략을 위해 AI 소프트웨어 생태계에 지속적으로 투자하고 있으며, 새로운 모델이 인텔의 AI 하드웨어에 최적화되도록 보장하고 있다. 메타는 지난 4월 라마 3 출시에 이어, 7월에는 현재까지 가장 성능이 뛰어난 모델인 라마 3.1을 출시했다. 라마 3.1은 공개적으로 사용 가능한 가장 큰 파운데이션 모델인 라마 3.1 405B(4천 50억개 모델)를 포함해 다양한 규모와 기능에서 여러 새로운 업데이트 모델을 제공한다. 이 새로운 모델들은 파이토치(PyTorch) 및 인텔 파이토치 익스텐션(Intel Extension for PyTorch), 딥스피드(DeepSpeed), 허깅 페이스 옵티멈 라이브러리(Hugging Face* Optimum libraries), vLLM 등 개방형 생태계 소프트웨어를 통해 인텔 AI 제품에서 활성화 및 최적화된다. 또한 생태계 전반에서 최고의 혁신을 활용하는 개방형, 멀티 벤더, 강력하고 컴포저블한 생성형 AI 솔루션을 만들기 위한 LF AI 및 데이터 재단(LF AI & Data Foundation)의 새로운 오픈 플랫폼 프로젝트인 OPEA(Open Platform for Enterprise AI) 역시 이 모델들을 지원한다. 라마 3.1 다국어 LLM 컬렉션은 8B, 70B, 405B 크기(텍스트 인/텍스트 아웃)의 사전 학습 및 조정(인스트럭션 튜닝)된 생성 모델 컬렉션으로, 모든 모델은 8개 구술어에 걸쳐 긴 컨텍스트 길이(128k)를 지원한다. 라마 3.1 405B는 일반 지식, 조작성, 수학, 도구 사용 및 다국어 번역에 있어 최첨단 기능을 갖추고 있다. 이를 통해 커뮤니티는 합성 데이터 생성 및 모델 증류(model distillation)와 같은 새로운 기능을 활용할 수 있게 될 것이다. 한편, 인텔은 생성형 AI 및 대형 언어 모델(LLM)의 고성능 가속을 위한 가우디(Intel Gaudi) 가속기 및 일반 컴퓨팅의 유비쿼터스 백본 역할을 하는 인텔 제온(Intel Xeon) 프로세서, 클라이언트와 에지에서 높은 온디바이스 AI 추론 성능을 제공하는 인텔 코어 울트라(Intel Core Ultra) 프로세서 및 인텔 아크(Intel Arc) 그래픽이 탑재된 AI PC를 포함해 인텔 AI 제품 포트폴리오 상에서의 라마 3.1 모델 초기 성능 측정 결과를 소개했다.   ▲ 16대의 인텔 가우디 가속기 상에서의 라마 3.1 405B 추론 결과   ▲ 5세대 인텔 제온 스케일러블 프로세서 상에서의 라마 3.1 추론 지연 시간   ▲ 인텔 아크 GPU가 내장된 인텔 코어 울트라 7 165H 기반의 AI PC에서 라마 3.1 추론 다음 토큰 대기 시간
작성일 : 2024-07-26
오라클, “오라클 클라우드 VM웨어 솔루션으로 글로벌 기업의 비즈니스 성장 지원”
오라클은 다양한 산업 분야의 글로벌 기업들이 오라클 클라우드 VM웨어 솔루션(Oracle Cloud VMware Solution)을 사용해 기존의 온프레미스 데이터센터 운영을 종료하고, 비즈니스 주요 애플리케이션을 오라클 클라우드 인프라스트럭처(OCI)로 이전한다고 밝혔다. 오라클 클라우드 VM웨어 솔루션은 높은 수준의 확장성과 성능, 보안, 제어를 필요로 하는 기업을 위해 설계됐다. 기업 고객은 자사의 VM웨어 스택 전반에 대한 관리 제어 운영을 위해 클라우드 인프라스트럭처와 VM웨어 콘솔을 직접 관리할 수 있다. 기업은 이로써 기존의 기술과 모범 사례, 도구를 유지하면서 온프레미스의 VM웨어 자산을 클라우드로 신속히 마이그레이션할 수 있게 됐다. 오라클은 이 서비스에 새로운 기능을 지속적으로 추가하기 위해 오라클 클라우드 VM웨어 솔루션용 엔비디아 A10 텐서 코어(NVIDIA A10 Tensor Core) GPU와 인텔 제온 플래티넘 8358 프로세서(Intel Xeon Platinum 8358 Processor)를 갖춘 새로운 OCI 컴퓨트 구성을 발표했다. 또한 AMD 에픽(EPYC) 9J14 프로세서 기반의 또 다른 추가 구성을 출시할 계획이다. 이를 통해 오라클은 고객들에게 광범위한 워크로드 전반에서 추가 컴퓨트 옵션과 향상된 성능을 제공한다는 방침이다.     히타치 건설 기계는 유압 굴삭기, 휠 로더, 도로 시설 및 광산 장비의 개발, 제조, 판매, 임대, 관리 서비스를 제공하며 전세계에서 40만 대 이상의 건설 장비를 운용 중인 글로벌 기업이다. 히타치 건설 기계는 디지털 전환 전략의 일환으로 약 500대의 가상 서버와 100개의 데이터베이스를 온프레미스 VM웨어 가상화 환경에서 OCI 상의 오라클 클라우드 VM웨어 솔루션과 오라클 엑사데이터 데이터베이스 서비스(Oracle Exadata Database Service)로 마이그레이션 중에 있다. 히타치 건설 기계는 이를 통해 이미 인프라 운영 비용을 20% 절감하고, 온라인 트랜잭션 처리 성능을 50%, 배치 처리 성능을 60% 개선했다. 렘트랜스는 우크라이나의 철도 차량 민간 운영사로, 연간 5천2백만 톤 이상의 화물을 운송하는 1만 5000대 이상의 무개 화차를 운영하고 있다. 열차 일정 관리, ID 및 액세스 관리 등 핵심 프로세스 및 데이터베이스를 클라우드로 긴급하게 전환해야 했던 렘트랜스는 오라클 클라우드 VM웨어 솔루션을 통해 데이터 및 애플리케이션을 우크라이나 외부로 신속하게 이전해 데이터 복원력을 높이고 자사의 IT 투자를 보호할 수 있었다. 마츠다 모터스 로지스틱스 유럽 N.V.(MLE)는 유럽 고객에게 차량 및 부품을 유통하는 업무를 담당하고 있다. MLE는 유럽 30여 개국의 2300여 개 이상의 딜러 및 독립 유통업체에 직접 예비 부품을 공급하고 바르셀로나, 앤트워프, 제브뤼주 항구로 차량을 배송하여 유럽 전역에 유통한다. 회사는 데이터센터를 단계적으로 축소하고 운영을 현대화한다는 목표를 달성하기 위해 500개의 VM웨어 가상머신을 마이그레이션하고 오라클 엑사데이터 시스템을 OCI 기반 엑사데이터 데이터베이스 서비스에서 실행되는 80개의 오라클 데이터베이스에 통합했다. MLE는 또한 자사의 비즈니스 크리티컬 애플리케이션을 오라클 클라우드 VM웨어 솔루션의 12개 호스트를 갖춘 여러 소프트웨어 정의 데이터센터(SDDC)로 통합했다. 그 결과 MLE는 프랑크푸르트에 있는 2개의 데이터센터 운영을 종료하면서도 높은 수준의 애플리케이션 맞춤화 및 데이터베이스 호환성을 유지할 수 있었다. 아홀드 델레이즈는 세계 최대 규모의 식료품 리테일 기업으로, 16개의 지역별 브랜드와 7,700개의 매장, 40만명 이상의 직원을 보유하고 있다. 수년간 자체 온프레미스 VM웨어 환경 및 그 운영을 뒷받침하기 위한 여러 IT 시스템과 솔루션을 운영해 온 아홀드 델레이즈는 VM웨어에서 오라클 핵심 비즈니스 프로세스용 애플리케이션과 타사 앱을 실행하며 비교해본 후 성능 개선 및 비용 절감을 위해 클라우드로의 마이그레이션을 결정했다. 이후 회사는 자사의 네덜란드 핵심 로컬 브랜드인 앨버트 하인, 에토스, 갤앤갤을 시작으로 전자상거래 및 공급망, 리테일 프로세스를 지원하는 400개 이상의 VM웨어 가상머신(VM)을 오라클 클라우드 VM웨어 솔루션으로 마이그레이션했다. 이를 통해 남아 있던 데이터센터 상면공간을 제거하고 자사의 VM웨어 환경에 대한 전반적인 관리 제어 권한을 유지할 수 있게 되었다.  오라클의 마헤쉬 티아가라얀(Mahesh Thiagarajan) OCI 총괄 부사장은 “VM웨어 자산을 클라우드로 옮겨 운영하기를 원하는 많은 기업들이 새로운 운영방식으로 인해 IT 기술을 배워야 한다는 부담감을 느끼고 있다”면서, “오라클 클라우드 VM웨어 솔루션은 조직이 VM웨어 클러스터를 완벽하게 제어하고 기존의 도구, 기술, 프로세스를 유지해줘 재교육에 대한 부담을 덜 수 있도록 지원한다. 오라클의 솔루션은 고객이 온프레미스 VM웨어 클러스터와 동일한 운영 모델을 유지할 수 있게 하기 때문에, 클라우드를 통한 시스템 현대화 추진 시 위험성이 낮은 접근 방식”이라고 설명했다.
작성일 : 2024-07-22
인텔, 컴퓨텍스 2024에서 ‘AI 에브리웨어’ 구현 가속화하는 기술 소개
인텔은 대만에서 진행된 컴퓨텍스(Computex)에서 데이터센터, 클라우드와 네트워크에서 에지 및 PC에 이르기까지 AI 생태계를 가속화할 기술 및 아키텍처를 공개했다. 인텔은 “이를 통해 고객은 더 많은 처리 능력, 첨단 전력 효율성, 낮은 총소유비용(TCO)을 통해 AI 시스템에서의 가능성을 실현할 수 있다”고 설명했다. 인텔의 팻 겔싱어(Pat Gelsinger) CEO는 컴퓨텍스 기조연설에서 AI 기회를 가속화할 개방형 표준과 인텔의 생태계를 강조하면서, 인텔이 AI 혁신을 이끌고 차세대 기술을 예정보다 앞서 제공하고 있다는 점을 소개했다. 인텔은 6개월 만에 5세대 인텔 제온(5th Gen Intel Xeon) 프로세서를 출시한데 이어 제온 6 첫 제품을 선보였으며, 가우디 AI 가속기를 선공개하고 기업 고객에게 비용 효율적인 고성능 생성형 AI 훈련 및 추론 시스템을 제공했다. 또한, 800만 대 이상의 디바이스에 인텔 코어 Ultra(Intel Core Ultra) 프로세서를 탑재해 AI PC 시대를 열었고, 올해 말 출시 예정인 클라이언트 아키텍처도 공개했다. 디지털 혁신이 가속화됨에 따라 기업들은 노후화된 데이터센터 시스템을 교체하여 비용 절감, 지속 가능성 목표 달성, 물리적 공간 및 랙 공간 활용 극대화하고 기업 전반에 걸쳐 새로운 디지털 역량을 창출해야 한다는 압박에 직면해 있다. 제온 6 플랫폼 및 프로세서 제품군은 이러한 과제를 해결할 목적으로 효율 코어(Efficient -core) 및 성능 코어(Performance-core) 모델이 설계되었으며, AI 및 기타 고성능 컴퓨팅 요구사항부터 확장 가능한 클라우드 네이티브 애플리케이션에 이르기까지 폭넓은 워크로드 및 사용 사례를 처리할 수 있다는 점을 내세운다. E-코어와 P-코어는 모두 공통의 소프트웨어 스택과 하드웨어 및 소프트웨어 공급업체의 개방형 생태계와 호환 가능한 아키텍처를 기반으로 구축되었다. 가장 먼저 출시되는 제온 6 프로세서는 인텔 제온 6 E-코어(코드명 시에라 포레스트)이며, 제온 6 P-코어(코드명 그래나이트 래피즈)는 다음 분기에 출시될 예정이다. 고집적도 코어 및 높은 와트당 성능을 갖춘 인텔 제온 6 E-코어는 전력 비용을 낮추면서 효율적인 컴퓨팅을 제공한다. 향상된 성능 및 전력 효율성은 클라우드 네이티브 애플리케이션 및 콘텐츠 전송 네트워크, 네트워크 마이크로서비스, 소비자 디지털 서비스 등 가장 까다로운 고밀도 스케일아웃 워크로드에 적합하다. 또한, 제온 6 E-코어는 집적도를 높여 랙 수준을 3대 1로 통합할 수 있으며, 미디어 트랜스코딩 워크로드에서 2세대 인텔 제온 프로세서 대비 최대 4.2배의 랙 레벨 성능 향상과 최대 2.6배의 와트당 성능 향상을 고객에게 제공할 수 있다. 더 적은 전력과 랙 공간을 사용하는 제온 6 프로세서는 혁신적인 새로운 AI 프로젝트를 위한 컴퓨팅 용량과 인프라를 확보한다. 인텔 제온 프로세서는 AI 워크로드를 위해 특별히 설계된 인텔 가우디 AI 가속기와 함께 시스템에서 구동한다. 인텔은 “대규모 언어 모델(LLM)의 훈련 및 추론을 위한 MLPerf 벤치마크 결과에서 가우디 아키텍처는 엔비디아의 H100보다 낮은 총 운영 비용으로 빠른 배포 시간을 제공하는 가격 대비 성능의 이점을 제공하여 고객이 원하는 생성형 AI 성능을 제공할 수 있다”고 전했다. 시스템 공급업체(SP)에 제공되는 8개의 인텔 가우디 2 가속기와 범용 베이스보드(UBB)가 포함된 표준 AI 키트는 6만 5000 달러로 동급 경쟁 플랫폼 가격의 3분의 1 수준으로 예상된다. 8개의 인텔 가우디 3 가속기와 UBB가 포함된 키트는 12만 5000 달러에 판매되며, 이는 동급 경쟁 플랫폼 가격의 약 3분의 2 수준이다. 인텔 가우디 3 가속기는 생성형 모델 훈련 및 추론 작업에서 성능 향상을 제공하여 기업이 자체 데이터의 가치를 실현할 수 있도록 지원한다. 인텔은 “8192개 가속기 클러스터를 갖춘 인텔 가우디 3는 동급 규모의 엔비디아 H100 GPU 클러스터에 비해 학습 시간이 최대 40% 빠르며, 64개 가속기 클러스터의 경우 엔비디아 H100의 라마2 700억개(Llama2-70B) 모델에 비해 최대 15% 빠른 학습 처리량을 제공할 것으로 예상된다”면서, “또한 인텔 가우디 3는 라마2 700억개(Llama2-70B) 및 미스트랄 70억개(Mistral-7B)와 같은 LLM을 실행할 때 엔비디아 H100 대비 평균 최대 2배 빠른 추론7을 제공할 것으로 예상된다”고 전했다. 인텔은 데이터센터를 넘어 에지와 PC에서도 AI를 강화하고 있다. AI PC가 2027년까지 신규 PC 중 60%를 차지할 것으로 예상됨에 따라, 인텔은 AI PC를 위한 하드웨어 및 소프트웨어 플랫폼을 발빠르게 구축했다. 100개 이상의 독립 소프트웨어 제작사(ISV)와 협력해 300개의 기능을 제공하고, 코어 울트라 플랫폼 전반에 걸쳐 500개의 AI 모델을 지원하고 있다. 인텔은 AI PC용 차세대 플래그십 프로세서인 루나 레이크(Lunar Lake)의 아키텍처와 관련한 세부 내용을 공개했다. 그래픽과 AI 처리 성능에서 발전을 이루고, 얇고 가벼운 디자인을 위한 전력 효율적인 컴퓨팅 성능에 중점을 둔 루나 레이크는 최대 40% SoC 전력과 3배 이상의 AI 컴퓨팅을 제공한다. 연말 성수기를 겨냥해 2024년 3분기에 시장에 출시할 예정이다. 인텔은 “다른 기업들이 AI PC 시장에 진입할 준비를 하는 동안, 인텔은 이미 대규모로 제품을 공급하고 있으며, 2024년 1분기 동안 경쟁사를 모두 합친 것보다 더 많은 AI PC 프로세서를 공급하고 있다”면서, “루나 레이크는 20개의 PC 제조사를 통해 80개 이상의 다양한 AI PC 디자인을 공급할 예정이며, 올해 4000만 개 이상의 코어 울트라 프로세서 출하 목표 달성을 예상하고 있다”고 전했다. 겔싱어 CEO는 “AI는 업계 역사상 가장 중대한 혁신의 시대를 주도하고 있다. 실리콘의 마법은 다시 한번 기하급수적인 컴퓨팅 성능의 진전을 가져올 것이며 이는 인간의 잠재력의 한계를 뛰어넘고 향후 수년간 전세계 경제를 견인할 것”이라면서, “인텔은 반도체 제조부터 PC, 네트워크, 에지 및 데이터센터 시스템에 이르기까지 AI 시장 기회의 전 영역에 걸쳐 혁신을 창출하고 있는 기업이다. 인텔의 최신 제온, 가우디 및 코어 울트라 플랫폼은 인텔의 하드웨어 및 소프트웨어 생태계의 역량과 결합하여, 미래의 엄청난 기회를 극대화하는 데 필요한 유연하고 안전하며 지속가능하고 비용효율적인 솔루션을 고객에게 제공한다”고 전했다.
작성일 : 2024-06-04
HPE, 미국 아르곤 국립 연구소에 엑사스케일 슈퍼컴퓨터 제공
HPE는 미국에서 열린 ‘국제 슈퍼컴퓨팅 컨퍼런스(ISC 2024)’에서 미국 에너지부 산하 아르곤 국립 연구소에 인텔과 협력해 엑사스케일 슈퍼컴퓨터인 ‘오로라(Aurora)’를 공급했다고 발표했다. 오로라는 시스템의 87%만 가동한 상태에서 1.012 엑사플롭(exaflop)에 도달하면서, ‘TOP500’ 슈퍼컴퓨터 차트에서 전 세계 두 번째로 빠른 슈퍼컴퓨터로 등재되었다. 오로라는 HPE가 두 번째로 제작한 엑사스케일 시스템일 뿐만 아니라 대규모의 인공지능 지원(AI-capable) 시스템이다. HPC 및 AI 워크로드 처리 성능을 측정하는 HPL 혼합 정밀도(Mixed-Precision : MxP) 벤치마크에서 전체 시스템의 89%만을 가동한 상태에서 10.6 엑사플롭을 달성했다. 엑사스케일 컴퓨팅 시스템은 초당 10의 18제곱 번의 작업을 처리할 수 있으며, 이러한 대규모 컴퓨팅 역량을 통해 인류가 당면한 어려운 문제를 해결해 나갈 수 있다. 오로라는 엑사스케일의 규모와 범위를 지원할 수 있도록 설계된 HPE 크레이 EX 슈퍼컴퓨터(HPE Cray EX supercomputer)로 구축됐다. 또한, 오로라는 단일 시스템으로는 개방형 이더넷 기반 슈퍼컴퓨팅 인터커넥트 솔루션인 HPE 슬링샷(HPE Slingshot)이 최대 규모로 배포된 시스템이기도 하다. 이러한 패브릭 시스템은 오로라의 컴퓨팅 노드 엔드포인트 7만 5000개, 2400개의 스토리지 및 서비스 네트워크 엔드포인트를 5600개의 스위치와 연결한다. 이를 통해 오로라의 컴퓨팅 블레이드 1만 624개, 인텔 제온 CPU 맥스 시리즈 프로세서(Intel Xeon CPU Max Series Processor) 2만 1248개 및 인텔 데이터 센터의 GPU 6만 3744개 유닛 전반에 걸쳐 고속 네트워킹을 지원함으로써 성능을 향상시킨다.     초기 설계 단계부터 AI 지원 시스템으로 개발된 오로라를 기반으로 연구원들은 생성형 AI 모델을 구동함으로써 과학 발전을 더욱 가속할 수 있게 되었다. 일례로 과학자들은 인간 두뇌 속 800억 개의 뉴런에 대해 더 깊이 연구하기 위한 브레인 매핑(brain mapping : 뇌 지도화) 연구, 딥러닝을 활용한 고에너지 입자 물리학, 머신 러닝 기술을 통한 신약 설계 및 개발 등 오로라를 활용해 초기 AI 기반 연구를 진행한 바 있다. 오로라 엑사스케일 슈퍼컴퓨터는 HPE, 인텔, 미국 에너지부, 아르곤 국립 연구소간 파트너십의 결과로, 혁신 엔지니어링 기술로 과학 기술 발전에 이바지하기 위해 공동 투자 및 협력을 진행했다. 오로라 초기 과학 프로그램(Aurora Early Science Program)을 통해 입증된 바와 같이 민관 부문의 파트너십은 과학 기술 진보를 위해서 필수이다. 나아가, 연구원들은 오로라 시스템의 최적화 및 스트레스 테스트(stress-test) 과정의 일환으로 이미 다양한 프로그래밍 모델, 언어 및 애플리케이션을 시스템에서 성공적으로 실행했다. HPE의 트리시 댐크로거(Trish Damkroger) HPC 및 AI 인프라 솔루션 담당 수석 부사장 겸 총괄은 “오로라는 세계가 당면한 가장 어려운 문제들을 해결하고 획기적인 과학 기술을 발견하기 위한 대규모 컴퓨팅 역량을 제공할 수 있으며, 이러한 오로라를 통해 엑사스케일 컴퓨팅에 또 하나의 이정표를 만들어갈 수 있게 되었다”면서, “HPE는 미국 에너지부, 아르곤 국립 연구소, 그리고 인텔과의 견고한 파트너십을 통해 이러한 대규모 수준의 시스템을 현실화할 수 있게 된 점을 자랑스럽게 여기며, 이러한 성과는 혁신적인 공동 엔지니어링, 다양한 부서들의 협력 그리고 무엇보다 과학 발전과 인류를 위해 최첨단 기술을 발전시키겠다는 핵심 가치를 공유함으로써 달성할 수 있었다”고 말했다.
작성일 : 2024-05-23
슈퍼마이크로, HPC와 AI 환경에 최적화된 데이터센터용 냉각 솔루션 출시
슈퍼마이크로컴퓨터가 ‘국제 슈퍼컴퓨팅 컨퍼런스(ISC 2024)’에 참가해 데이터센터 전력 소모량 감축과 동시에 AI 및 HPC 용량 확장을 목표로 할 때 직면하는 까다로운 요구사항을 충족할 수 있는 방안을 발표했다.   슈퍼마이크로는 콜드 플레이트, CDU, CDM, 냉각탑 전체 등을 포함한 수냉식 냉각 솔루션을 제공한다. 데이터센터에 수냉식 냉각 서버 및 인프라를 도입할 경우 데이터센터의 PUE가 크게 감소해 총 전력 소비량을 최대 40%까지 줄일 수 있다.   슈퍼마이크로 애플리케이션에 최적화된 고성능 서버는 높은 성능의 CPU 및 GPU를 탑재해 시뮬레이션, 데이터 분석 및 머신러닝에 적합하다. 슈퍼마이크로 4U 8-GPU 수냉식 냉각 서버는 엔비디아 H100/H200 HGX GPU를 통해 집적도가 높은 폼팩터에서 페타플롭스(PetaFlops) 수준의 AI 컴퓨팅 성능을 제공한다. 슈퍼마이크로는 곧 수냉식 X14 8U/6U 슈퍼블레이드, 랙마운트 X14 하이퍼, 그리고 슈퍼마이크로 X14 빅트윈을 출시할 예정이다. 다양한 HPC 최적화 서버 플랫폼이 P 코어(성능 코어)를 탑재한 콤팩트 멀티 노드 폼팩터 형태로 인텔 제온 6900을 지원한다.   슈퍼마이크로는 광범위한 수냉식 냉각 MGX 제품 포트폴리오를 지속적으로 출시하고 있다. 최근에는 새로운 인텔 가우디 3 가속기 및 AMD MI300X 가속기와 함께 인텔의 최신 가속기 지원을 확정했다. 랙당 최대 120개의 노드를 제공하는 슈퍼마이크로 슈퍼블레이드를 사용하면 대규모 HPC 애플리케이션을 단 몇 개의 랙에서 실행할 수 있다. 슈퍼마이크로는 인텔 제온 6 프로세서를 통합한 슈퍼마이크로 X14 서버를 비롯해 다양한 제품군을 ISC 2024에서 선보였다.     한편, 슈퍼마이크로는 ISC 2024에서 HPC 및 AI 환경을 위해 설계된 다양한 솔루션을 선보였다. 슈퍼마이크로의 새로운 4U 8-GPU 수냉식 냉각 서버는 엔비디아 HGX H100 및 H200 GPU를 탑재한 대표적인 제품군이다. 해당 제품을 비롯한 다양한 서버들이 출시되는 대로 엔비디아 B200 HGX GPU를 지원할 예정이다. 새로운 시스템은 고급 GPU를 탑재했으며, 고속 HBM3 메모리를 사용해 기존 시스템보다 더 많은 데이터를 GPU에 보다 가까이 가져와 AI 훈련 및 HPC 시뮬레이션을 가속화한다.    또한, 슈퍼마이크로는 ISC 2024에서 인텔 가우디 3 AI 액셀러레이터를 탑재한 8U 서버를 소개했다. 이 신규 서버는 AI 훈련 및 추론을 위해 설계됐으며, 기존 이더넷 패브릭과 직접 연결될 수 있다. 모든 인텔 가우디 3 가속기에 24개의 200Gb 이더넷 포트가 통합돼 유연한 개방형 표준 네트워킹을 제공한다. 또한 128GB의 HBM2e 고속 메모리가 포함된다. 인텔 가우디 3 가속기는 단일 노드에서 수천 개의 노드까지 효율적으로 확장 및 추가될 수 있도록 설계됐다. 이로 인해 생성형 AI 모델의 까다로운 요구 사항의 충족이 가능하다. 슈퍼마이크로의 찰스 리앙(Charles Liang) CEO는 “슈퍼마이크로는 데이터센터에 종합 수냉식 냉각 솔루션과 같은 최신 기술을 도입하기 위해 AI 및 HPC 고객과 지속적으로 협력하고 있다”며, “슈퍼마이크로의 완전한 수냉식 냉각 솔루션은 랙당 최대 100kW를 처리할 수 있다. 이로 인해 데이터센터의 TCO(총 소유 비용) 감축과 AI 및 HPC 컴퓨팅의 집적도 향상이 가능하다. 당사는 빌딩 블록 아키텍처를 통해 최신 GPU와 가속기를 시장에 출시하고 있다. 또한, 새로운 랙 스케일 솔루션을 지속적으로 출시함으로써 고객에게 보다 신속하게 제품을 공급하고 있다. 이 프로세스는 검증된 공급업체와 함께 이루어진다”고 설명했다.
작성일 : 2024-05-17
델, 클라우드 서비스 및 에지 워크로드 위한 파워엣지 서버 신모델 공개
델 테크놀로지스가 클라우드 서비스 사업자(CSP)를 위한 서버 신제품 2종과 및 에지 워크로드를 위한 컴팩트한 구성의 신제품 2종을 발표했다. 델이 이번에 파워엣지 서버 포트폴리오에 추가한 신제품은 다양한 규모의 CSP를 비롯해 에지 데이터를 서비스하는 소규모 사업자들이 인프라 운영을 간소화할 수 있도록 설계됐다. 또한 차세대 기술들을 적용하고 다양한 범위의 워크로드 처리에 용이하게끔 향상된 성능을 구현했다. ‘델 파워엣지 R670 CSP 에디션(Dell PowerEdge R670 CSP Edition)’과 ‘델 파워엣지 R770 CSP 에디션(Dell PowerEdge R770 CSP Edition)’ 서버는 CSP 기업이 가상화나 데이터 분석과 같은 고밀도 및 스케일 아웃 클라우드 워크로드를 구동하는데 최적화된 성능을 제공한다. R670 CSP 에디션과 R770 CSP 에디션을 도입하는 고객은 ‘델 얼리 액세스 프로그램(Dell Early Access Program)’을 활용해 해당 제품의 설계를 사전에 검토하여 서비스 개시일부터 즉시 운영 환경을 확장할 수 있다.   ▲ 델 파워엣지 R770 CSP 에디션   이번에 공개한 두 신모델은 델 테크놀로지스의 스마트 쿨링(Smart Cooling) 기술로 설계되어 에너지 효율적이며 변화하는 환경에 지능적으로 적응이 가능하다. 냉기 통로(cold aisle)를 최적화한 전면부 I/O나 유연한 구성이 가능한 컴팩트한 폼 팩터로 구축 및 서비스가 간편하여 전문 데이터 센터에 적합하다. 파워엣지 R670 CSP 에디션과 R770 CSP 에디션은 인텔 제온 6 이피션트(Intel Xeon 6 Efficient) 코어 프로세서를 탑재하여 이전 세대 제품 대비 랙당 최대 2.3배 향상된 성능을 제공한다. 오픈BMC(OpenBMC) 기반의 ‘델 오픈 서버 매니저(Dell Open Server Manager)’가 탑재되어 대규모 이기종 환경을 위한 개방형 에코시스템에서 관리를 간소화한다. 델은 이번 CSP 에디션 서버를 통해 파워엣지 포트폴리오에 ‘데이터센터-모듈러 하드웨어 시스템(DC-MHS) 아키텍처를 처음 선보인다. DC-MHS 아키텍처는 서버를 표준화하고 설계 및 고객 선택권을 개선하여 기존 인프라스트럭처에 보다 쉽게 서버를 통합할 수 있도록 지원한다. ‘오픈 컴퓨트 프로젝트(Open Compute Project)’의 일부인 DC-MHS는 델과 인텔을 포함한 6개 기업이 협력해 데이터센터, 에지 및 엔터프라이즈 인프라의 상호 운용성을 높이기 위해 하드웨어 기술을 새롭게 설계하는 이니셔티브이다. ‘델 파워엣지 T160(Dell PowerEdge T160)’ 및 ‘델 파워엣지 R260(Dell PowerEdge R260)’은 강력하고 고밀도의 서버 구성을 필요로 하는 소규모 기업 및 원격 사무실에 적합한 컴팩트 사이즈로 제공된다. 일반 서버 대비 42%의 크기로 물리적 설치 공간이 거의 절반에 불과한 스택형 T160은 도색을 입히지 않은 메탈 섀시를 비롯한 지속 가능한 소재의 사용을 늘려 탄소 배출량을 줄였으며, 이전 세대와 비교해 전력 효율이 최대 23% 향상됐다. R260 또한 물리적 설치 공간을 24% 줄여 높은 활용도를 제공한다. 두 서버 모두 인텔 제온 E-2400 프로세서를 탑재하여 이전 세대 대비 두 배의 성능을 제공한다. T160은 에지 환경의 근거리에 구축해 실시간 데이터 처리를 수행하려는 조직에 이상적이다. R260은 지연 시간을 최대 50%까지 줄여서 에지 환경에 근접한 가상화 구축에 적합하다. 열악한 환경에서도 안정적으로 구동할 수 있도록 필터 베젤이 장착되어 있어 먼지 및 윤활용제로부터 내부 하드웨어를 보호하고, 공기 흐름을 방해하지 않아 최적의 성능과 방음을 보장한다. 한국 델 테크놀로지스의 김경진 총괄 사장은 “컴퓨팅 집약적인 워크로드를 실행하는 동시에 전력 소비를 줄이고 탄소 배출량을 관리하기 위해 최신 기술이 적용된 서버로 교체하고자 하는 수요가 늘어나고 있다”고 말하며, “델 파워엣지 포트폴리오에는 30년 이상 IT 인프라 기술의 중추적인 역할을 맡아온 델의 경험이 집약되어 있다. 델은 에지, 코어 데이터센터, 클라우드 전반의 워크로드를 지원함으로써 고객들이 계속해서 진화하는 비즈니스 요구에 효과적으로 대응하도록 돕는다”고 덧붙였다. 델 파워엣지 R670 CSP 에디션과 R770 CSP 에디션은 7월 중 일부 클라우드 서비스 공급업체를 대상으로 출시되며, 이후 전체적인 공식 판매가 이루어질 예정이다. 델 파워엣지 T160 및 R260은 5월 중 한국을 비롯한 전 세계에 출시될 예정이다.
작성일 : 2024-05-16
[포커스] 레노버, “더 많은 CPU 코어로 워크스테이션 성능 높인다”
워크스테이션은 렌더링과 해석 등 전문 분야에 쓰이고 있으며, 최근에는 성장하는 인공지능 분야에도 대응하고 있다. 이런 분야에서 많은 양의 데이터를 빠르게 처리하기 위한 워크스테이션의 성능은 꾸준히 중요한 요구사항 중 하나로 여겨지고 있다. 특히 핵심 연산을 담당하는 CPU 코어의 수가 많을 수록 워크스테이션의 전반적인 성능도 높아진다. 한국레노버는 AMD CPU를 탑재한 씽크스테이션(thinkStation) 워크스테이션의 신제품을 발표하면서, 늘어난 CPU 코어로 더 높은 성능을 제공한다는 점을 강조했다. ■ 정수진 편집장     최대 96코어의 라이젠 스레드리퍼 프로 CPU 탑재 레노버는 2023년 6월 인텔 CPU 기반의 씽크스테이션 P5/P7/PX 라인업을 출시했는데, 이번에 발표된 씽크스테이션 P8은 큰 틀에서 이들 제품과 비슷한 특징을 갖고 있다. 가장 큰 차이점이라면 AMD의 라이젠 스레드리퍼 프로 7000WX(Ryzen Threadripper PRO 7000WX) 시리즈 CPU를 탑재했다는 것이다. 씽크스테이션 P8은 스레드리퍼 프로 7945WX부터 7995WX까지 CPU를 선택할 수 있는데, 가장 높은 사양의 7995WX는 96 코어 192 스레드를 제공한다. 씽크스테이션 PX에서 선택할 수 있는 최고 사양인 인텔 제온 플래티넘 8490H의 60 코어보다 많다.  AMD코리아의 김홍필 이사는 스레드리퍼 프로 7000WX 시리즈가 늘어난 코어 수를 바탕으로 더 높은 성능을 제공한다고 소개하면서. 특히 렌더링이나 시뮬레이션 등의 작업에서는 CPU 코어의 수가 작업 속도에 많은 영향을 준다고 짚었다. “2D CAD에서는 코어 수가 작업 속도에 주는 영향이 상대적으로 적지만, 최근에는 제조뿐 아니라 건설 설계에서도 2D에서 3D CAD로 전환이 일어나고 있다. 또한 시뮬레이션의 사용이 확대되면서 CPU 성능에 대한 요구가 늘고 있다”는 것이 김홍필 이사의 설명이다.   고성능 워크스테이션을 위한 구조 설계 및 성능 제공 또한 씽크스테이션 P8은 AMD 라데온 프로 W7900 등 하이엔드 GPU를 3개까지 탑재할 수 있고, PCIe Gen 5 슬롯, 8채널 메모리 아키텍처 등 고사양 워크스테이션을 위한 기능을 지원한다. 고성능의 하드웨어인만큼 열이 많이 발생하게 되는데, 씽크스테이션 P8은 P5/P7/PX과 마찬가지로 고성능 스포츠카 업체 애스턴마틴과 함께 설계한 섀시 디자인으로 이를 해결하고자 했다. 한국레노버의 이형우 상무는 “씽크스테이션 P8은 CPU, GPU, 저장장치 및 파워 섹터로 내부 공간을 나누고 각 섹터별로 냉각팬을 장착했다. CPU 팬과 서멀 장치를 이중으로 구성하고, CPU의 위아래에 4개씩 메모리 슬롯이 있어서 효율적인 열 관리가 가능하다. 전반적으로 공기 흐름이 원활하도록 내부를 디자인하면서, 내부 컴포넌트를 손쉽게 탈부착 및 교체할 수 있게 했다”고 설명했다. 씽크스테이션 P8은 타워형 데스크톱 워크스테이션이면서 데이터센터에도 유연하게 적용할 수 있도록 랙 구성에 최적화됐다. 밀스펙 테스트를 거쳐 내구성과 안정성을 확보하고, ISV 인증을 통해 산업별 전문 소프트웨어를 안정적으로 사용할 수 있도록 한다. 이외에 원격으로 워크스테이션을 사용하도록 돕는 TGX 솔루션을 통해 원격 업무에 대응할 수 있게 했다.   ▲ 레노버는 효율적인 열 관리를 위해 씽크스테이션 P8의 내부를 디자인했다.   AI 시장에 대응해 워크스테이션 비즈니스 성장 추진 한국레노버의 신규식 대표는 “워크스테이션은 시뮬레이션을 통해 자연세계의 새로운 지식을 얻고 이를 산업에 적용하는 데에 중요한 역할을 하고 있다”면서, “특히 챗GPT가 등장하면서 워크스테이션 시장에서도 생성형 AI가 주요한 이슈로 떠오르고, 이에 대응하려는 노력이 강화되고 있다. 생성형 AI와 LLM(대규모 언어 모델) 등을 중심으로 워크스테이션 시장이 성장할 것으로 보인다”고 전했다. AI는 빠르게 발전하고 있으며 모든 기업이 AI 관련 활동을 확대하고 있다. 컴퓨팅 성능이 발전하면서 AI가 본격적으로 구현되고 있는 상황인데, AI 서비스를 배포하기 전에 워크스테이션으로 테스트를 하거나 서버와 데이터센터가 아닌 워크스테이션에서 AI 환경을 구현하려는 움직임도 확산되는 것으로 보인다. 레노버는 이런 흐름이 워크스테이션 시장에 긍정적인 영향을 줄 것으로 기대하고 있다. 신규식 대표는 레노버의 강점으로 글로벌 공급망과 함께 비즈니스 전략의 실행 능력을 꼽았다. 비슷한 전략이라도 하드웨어/소프트웨어 파트너 및 워크스테이션 전문 파트너와 협력해 효과적으로 실행할 수 있는 것이 레노버의 차별점이라는 설명이다. 또한 신규식 대표는 레노버의 워크스테이션 비즈니스가 꾸준히 성장하고 있다면서, 전반적인 성장 모멘텀을 확보해 올해는 시장 평균보다 높은 성장률을 목표로 삼고 있다고 전했다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-05-02
슈퍼마이크로, X14 서버 제품군에 6세대 인텔 제온 프로세서 탑재 예정
슈퍼마이크로컴퓨터(SMCI)가 향후 6세대 인텔 제온 프로세서를 지원할 X14 서버 포트폴리오를 공개했다. 이번 신제품에는 슈퍼마이크로의 빌딩 블록 아키텍처, 랙 플러그 앤 플레이 및 수냉식 냉각 솔루션, 그리고 인텔 제온 6 프로세서 제품군이 결합됐으며, 이를 통해 다양한 워크로드와 규모에 최적화된 솔루션을 높은 성능과 효율성으로 제공하는 데에 초점을 맞추었다. 슈퍼마이크로는 고객이 솔루션 구축 기간을 단축할 수 있도록 조기 배송 프로그램을 통해 일부 고객에게 새로운 서버에 대한 조기 액세스를 제공하고, 점프스타트 프로그램으로 테스트 및 검증용 무료 원격 액세스도 지원할 예정이다. 랙 스케일의 신규 X14 서버는 공용 인텔 플랫폼을 활용해 통합 아키텍처를 갖춘 인텔 제온 6 프로세서에 대한 소켓 호환성을 지원한다. 이 프로세서 포트폴리오는 클라우드, 네트워킹, 분석 및 확장 워크로드에 대해 와트당 성능을 높이는 E-코어(효율 코어) SKU와 AI, HPC, 스토리지 및 에지 워크로드에 대해 코어당 성능을 높이는 P-코어(성능 코어) SKU로 제공된다. 인텔 AMX(Intel Advanced Matrix Extensions)에서 FP16을 새롭게 지원하는 인텔 엑셀러레이터 엔진도 내장된다. 새로운 슈퍼마이크로 X14 서버는 노드당 최대 576개의 코어는 물론 PCIe 5.0, 모든 장치 유형에 대한 CXL 2.0, NVMe 스토리지 및 최신 GPU 가속기를 지원해 AI 워크로드를 구동하는 사용자의 애플리케이션 실행 시간을 단축시킨다. 고객은 광범위한 슈퍼마이크로 X14 서버에서 E-코어 및 P-코어를 갖춘 인텔 제온 6 프로세서를 활용할 수 있으며, 이로 인해 소프트웨어 재설계를 최소화하고 새로운 서버 아키텍처의 이점을 누릴 수 있다.     인텔의 라이언 타브라(Ryan Tabrah) 부사장 겸 제온 E-코어 제품 부문 총괄은 “제온 6 CPU는 공용 소프트웨어 스택을 포함한 공통 플랫폼 설계에서 각각 최적화된 두 개의 마이크로아키텍처를 제공한다. 고객은 온프레미스, 클라우드, 또는 에지에서 업계 또는 배포 모델과 관계없이 다양한 워크로드 요구사항에 대한 최고의 가치를 얻을 수 있다. 슈퍼마이크로와의 강력한 파트너십은 차세대 프로세서의 이점을 고객에게 제공하는 데 도움이 될 것”이라고 설명했다. 슈퍼마이크로의 찰스 리앙(Charles Liang) CEO는 “슈퍼마이크로는 수냉식 100kW 랙 1,350개를 포함해 전 세계적으로 매월 5000개의 랙을 생산할 수 있는 능력을 지녔으며, 2주의 짧은 리드 타임을 제공한다. 현재 가장 진보된 AI 하드웨어를 비롯해 완전한 맞춤형 워크로드 최적화 솔루션을 랙 스케일로 설계, 구축, 검증 및 제공하는 것에서 타의 추종을 불허한다”면서, “슈퍼마이크로는 폭넓은 애플리케이션 최적화 솔루션의 설계 및 제공하는 것에 있어서 업계를 선도하고 있다. 인텔 제온 6 프로세서를 탑재한 X14 서버는 광범위한 슈퍼마이크로의 포트폴리오를 한층 더 확대할 것”이라고 전했다.
작성일 : 2024-04-17
델, 파워엣지 서버에서 인텔 가우디3 AI 가속기 지원
델 테크놀로지스는 자사의 고성능 AI 서버인 ‘델 파워엣지 XE9680(Dell PowerEdge XE9680)’에 ‘인텔 가우디 3(Intel Gaudi 3)’ AI 가속기 지원을 추가한다고 밝혔다. 델은 데이터 집약적이고 복잡한 워크로드를 효과적으로 지원하게끔 설계된 XE9680의 확장된 라인업을 통해 AI 활용을 고려하는 엔터프라이즈 고객들에게 더 넓어진 선택지를 제공하게 됐다고 전했다. 델 파워엣지 XE9680은 x86 서버 아키텍처에 8개의 GPU를 탑재하는 모델로 AI 운영에 특화된 성능을 제공한다. 델은 XE9680 에코시스템에 인텔 가우디3 가속기를 통합함으로써, 고객이 생성형 AI 워크로드와 관련된 컴퓨팅 요구 사항에 맞춰 시스템을 맞춤화할 수 있도록 지원한다. 델은 범용성과 강력한 성능을 모두 갖춘 AI 가속 인프라를 제공하겠다는 전략이다.     안전성과 확장성에 중점을 두고 설계된 XE9680은 가우디3 가속기를 추가함으로써 보다 풍부한 서버 구성 옵션을 제공하게 됐다. 최대 32개의 DDR5 메모리 DIMM 슬롯을 통해 데이터 처리량을 향상시켰고, 16개의 EDSFF3 플래시 스토리지 드라이브와 8개의 PCIe Gen 5.0 슬롯으로 확장된 연결성과 대역폭을 제공한다. 프로세서당 최대 56개 코어를 지원하는 4세대 인텔 제온 스케일러블(Intel Xeon Scalable) 프로세서를 2개를 장착했으며, 고난도의 AI/ML 워크로드에 대한 데이터 처리 및 분석에 최적화되어 있다. 인텔 가우디3 AI 가속기는 64개의 커스텀 및 프로그래밍 가능한 텐서 프로세서 코어(TPC)와 128GB의 HBMe2 메모리 용량, 3.7TB의 메모리 대역폭, 96MB의 온보드 SRAM 등 생성형 AI 워크로드에 대응하기 위한 스펙을 갖췄다. 가우디3는 또한 개방형 에코시스템을 갖춰 파트너십 기반의 최적화 및 모델 라이브러리 프레임워크 지원의 이점이 있다. 기존 코드베이스의 전환을 간소화하는 개발 툴로 간편한 마이그레이션을 지원한다. 가우디3 가속기로 강화된 파워엣지 XE9680은 6개의 OSFP 800GbE 포트를 통해 가속기에 직접 결합된 새로운 네트워킹 기능을 제공한다. 외장 NIC를 시스템에 배치할 필요 없이 외부 가속기 패브릭에 직접 연결이 가능해 인프라를 단순화하고, 인프라의 총소유비용과 복잡성을 낮추는데 효과적이다. 또한 인텔 가우디3 전문 미디어 디코더는 AI 비전 애플리케이션을 위해 설계됐다. 광범위한 사전 처리 작업을 지원해 비디오에서 텍스트로의 변환을 간소화하고 엔터프라이즈 AI 애플리케이션의 성능을 높인다. 기존 하드웨어 성능을 넘어 AI를 통해 심층적인 데이터 인사이트를 확보하고자 하는 기업에서는 폭넓은 가속기 옵션을 갖춘 XE9680을 중요 자산으로 활용할 수 있다. 고급 처리 능력과 효율적인 공랭식 설계가 결합된 것도 특징이다. 인텔 가우디 3 AI 가속기를 탑재한 파워엣지 XE9680 서버 모델은 2024년 안에 국내 출시될 계획이다  한국 델 테크놀로지스의 김경진 총괄 사장은 “델은 폭넓은 협업 전략을 통해 AI 개발의 경계를 확장하고, 새로운 표준을 끊임없이 제시하고 있다”면서, “고객이 AI 여정의 어느 단계에 있든 목표 달성을 가속하고 미래에 필요하게 될 요구 성능에 대비하는 동시에, 이 여정이 안전하게 지속될 수 있도록 지원하는데 집중할 계획”이라고 덧붙였다.
작성일 : 2024-04-15
인텔, 기업용 AI를 위한 ‘가우디 3’ 및 AI 개방형 시스템 전략 발표
인텔은 연례 고객 및 파트너 콘퍼런스인 ‘인텔 비전 2024’에서 기업용 생성형 AI를 위한 성능, 개방성 및 선택권을 제공할 인텔 가우디 3(Intel Gaudi 3) 가속기를 공개했다. 그리고 이와 함께 생성형 AI 도입 가속화를 위한 새로운 개방형 스케일러블 시스템 스위트, 차세대 제품 및 전략적 협력도 발표했다.  인텔 가우디 3 AI 가속기는 공통 표준을 따르는 이더넷을 통해 최대 수만 개의 가속기를 연결해 AI 시스템을 구동한다. 인텔 가우디 3는 BF16에 대해 4배 더 많은 AI 컴퓨팅 및 기존 모델 대비 1.5배 커진 메모리 대역폭을 지원한다. 인텔은 “이 가속기는 생성형 AI를 대규모로 배포하려는 글로벌 기업에게 AI 학습 및 추론 분야에서 획기적인 도약을 지원할 수 있다”고 설명했다.   ▲ 인텔 팻 겔싱어 CEO   인텔은 가우디 3가 70억 개 및 130억 개의 매개변수가 있는 라마2(Llama2) 모델과 GPT-3 1750억개 매개변수 모델 전체에서 엔비디아 H100보다 평균 50% 더 빠른 학습 시간을 제공할 것으로 예상하고 있다. 또한 인텔 가우디 3 가속기 추론 처리량은 평균적으로 H100보다 50%, 전력 효율성의 경우 라마(Llama) 70억 개 및 700억 개 매개변수와 팔콘(Falcon) 1800억 개 매개변수 모델에서 평균 40% 더 우수할 것으로 예상한다. 인텔 가우디 3는 개방형 커뮤니티 기반 소프트웨어와 업계 표준 이더넷 네트워킹을 제공한다. 또한 기업은 싱글 노드에서 클러스터, 슈퍼 클러스터, 수천 개의 노드가 있는 메가 클러스터로 유연하게 확장할 수 있으며, 최대 규모의 추론, 미세 조정 및 학습을 지원한다. 인텔 가우디 3는 2024년 2분기에 델 테크놀로지스, HPE, 레노버, 슈퍼마이크로를 비롯한 OEM 시스템에 탑재될 예정이다. 또한 인텔은 하드웨어, 소프트웨어, 프레임워크, 툴 등을 포함한 개방형 스케일러블 AI 시스템에 대한 전략을 제시했다. 인텔의 이러한 접근법은 기업별 생성형 AI 요구 사항을 충족하는 솔루션을 제공하기 위한 것으로, 다양하고 개방적인 AI 생태계를 가능케 한다. 여기에는 장비 제조업체, 데이터베이스 공급자, 시스템 통합업체, 소프트웨어 및 서비스 공급자 등이 포함된다. 또한, 기업 고객이 이미 알고 신뢰하는 생태계 파트너 및 솔루션을 활용할 수 있는 부분도 장점으로 꼽힌다. 인텔은 다양한 업계의 기업 고객 및 파트너들과 새롭고 혁신적인 생성형 AI 응용 프로그램을 개발하기 위해 인텔 가우디를 활용해 협력하고 있다고 밝혔다. 예를 들어, 네이버는 클라우드에서부터 온디바이스까지 첨단 AI 서비스를 전세계에 배포하기 위해 강력한 LLM 모델을 개발하고 있는데, 대규모 트랜스포머 아키텍처 기반 모델의 컴퓨팅 작업을 뛰어난 와트 당 퍼포먼스로 실행하기 위해 인텔 가우디를 사용한다. 보쉬는 자사 기반 모델 개발을 포함한 스마트 제조의 가능성을 모색하고 있으며, 합성 데이터 세트 생성과 더불어 자동 광학 검사와 같은 견고하고 분산된 트레이닝 세트 제공한다. 이에 더해 구글 클라우드, 탈레스, 코히시티(Cohesity)가 클라우드 환경에서 기밀 컴퓨팅 역량을 활용할 수 있도록 인텔과의 협력을 발표했다.    인텔은 인텔 가우디 3 가속기 외에도 엔터프라이즈 AI의 모든 부문에 걸쳐 차세대 제품 및 서비스에 대한 업데이트를 발표했다. 새로운 인텔 제온 6 프로세서는 폐쇄적 데이터를 사용하여 비즈니스에 특화된 결과를 생성하는 RAG를 포함한 최신 생성형 AI 솔루션을 실행할 수 있다. 2024년 출시될 차세대 인텔 코어 울트라 클라이언트 프로세서 제품군(코드명 루나레이크)은 차세대 AI PC를 위해 플랫폼 기준 100 TOPS 이상, NPU에서 45TOPS 이상을 제공할 예정이다. 인텔은 울트라 이더넷 컨소시엄(UEC)을 통해 AI 패브릭을 위한 개방형 이더넷 네트워킹을 선도하며 다양한 AI 최적화 이더넷 솔루션을 선보이고 있다.  인텔의 팻 겔싱어(Pat Gelsinger) CEO는 “혁신은 전례 없는 속도로 발전하고 있으며, 반도체가 이 모든 것을 가능하게 한다. 또한 모든 기업이 빠르게 AI 기업으로 거듭나고 있다”면서, “인텔은 PC부터 데이터센터, 에지에 이르기까지 기업 전반의 모든 곳에 AI를 가능하게 하고 있다. 인텔의 최신 가우디, 제온 및 코어 Ultra 플랫폼은 변화하는 고객과 파트너의 요구를 충족하고 앞으로의 엄청난 기회를 활용할 수 있도록  유연한 솔루션 세트를 제공하고 있다”고 밝혔다.
작성일 : 2024-04-11