• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "제온"에 대한 통합 검색 내용이 348개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
델, 파워엣지 서버에서 인텔 가우디3 AI 가속기 지원
델 테크놀로지스는 자사의 고성능 AI 서버인 ‘델 파워엣지 XE9680(Dell PowerEdge XE9680)’에 ‘인텔 가우디 3(Intel Gaudi 3)’ AI 가속기 지원을 추가한다고 밝혔다. 델은 데이터 집약적이고 복잡한 워크로드를 효과적으로 지원하게끔 설계된 XE9680의 확장된 라인업을 통해 AI 활용을 고려하는 엔터프라이즈 고객들에게 더 넓어진 선택지를 제공하게 됐다고 전했다. 델 파워엣지 XE9680은 x86 서버 아키텍처에 8개의 GPU를 탑재하는 모델로 AI 운영에 특화된 성능을 제공한다. 델은 XE9680 에코시스템에 인텔 가우디3 가속기를 통합함으로써, 고객이 생성형 AI 워크로드와 관련된 컴퓨팅 요구 사항에 맞춰 시스템을 맞춤화할 수 있도록 지원한다. 델은 범용성과 강력한 성능을 모두 갖춘 AI 가속 인프라를 제공하겠다는 전략이다.     안전성과 확장성에 중점을 두고 설계된 XE9680은 가우디3 가속기를 추가함으로써 보다 풍부한 서버 구성 옵션을 제공하게 됐다. 최대 32개의 DDR5 메모리 DIMM 슬롯을 통해 데이터 처리량을 향상시켰고, 16개의 EDSFF3 플래시 스토리지 드라이브와 8개의 PCIe Gen 5.0 슬롯으로 확장된 연결성과 대역폭을 제공한다. 프로세서당 최대 56개 코어를 지원하는 4세대 인텔 제온 스케일러블(Intel Xeon Scalable) 프로세서를 2개를 장착했으며, 고난도의 AI/ML 워크로드에 대한 데이터 처리 및 분석에 최적화되어 있다. 인텔 가우디3 AI 가속기는 64개의 커스텀 및 프로그래밍 가능한 텐서 프로세서 코어(TPC)와 128GB의 HBMe2 메모리 용량, 3.7TB의 메모리 대역폭, 96MB의 온보드 SRAM 등 생성형 AI 워크로드에 대응하기 위한 스펙을 갖췄다. 가우디3는 또한 개방형 에코시스템을 갖춰 파트너십 기반의 최적화 및 모델 라이브러리 프레임워크 지원의 이점이 있다. 기존 코드베이스의 전환을 간소화하는 개발 툴로 간편한 마이그레이션을 지원한다. 가우디3 가속기로 강화된 파워엣지 XE9680은 6개의 OSFP 800GbE 포트를 통해 가속기에 직접 결합된 새로운 네트워킹 기능을 제공한다. 외장 NIC를 시스템에 배치할 필요 없이 외부 가속기 패브릭에 직접 연결이 가능해 인프라를 단순화하고, 인프라의 총소유비용과 복잡성을 낮추는데 효과적이다. 또한 인텔 가우디3 전문 미디어 디코더는 AI 비전 애플리케이션을 위해 설계됐다. 광범위한 사전 처리 작업을 지원해 비디오에서 텍스트로의 변환을 간소화하고 엔터프라이즈 AI 애플리케이션의 성능을 높인다. 기존 하드웨어 성능을 넘어 AI를 통해 심층적인 데이터 인사이트를 확보하고자 하는 기업에서는 폭넓은 가속기 옵션을 갖춘 XE9680을 중요 자산으로 활용할 수 있다. 고급 처리 능력과 효율적인 공랭식 설계가 결합된 것도 특징이다. 인텔 가우디 3 AI 가속기를 탑재한 파워엣지 XE9680 서버 모델은 2024년 안에 국내 출시될 계획이다  한국 델 테크놀로지스의 김경진 총괄 사장은 “델은 폭넓은 협업 전략을 통해 AI 개발의 경계를 확장하고, 새로운 표준을 끊임없이 제시하고 있다”면서, “고객이 AI 여정의 어느 단계에 있든 목표 달성을 가속하고 미래에 필요하게 될 요구 성능에 대비하는 동시에, 이 여정이 안전하게 지속될 수 있도록 지원하는데 집중할 계획”이라고 덧붙였다.
작성일 : 2024-04-15
인텔, 기업용 AI를 위한 ‘가우디 3’ 및 AI 개방형 시스템 전략 발표
인텔은 연례 고객 및 파트너 콘퍼런스인 ‘인텔 비전 2024’에서 기업용 생성형 AI를 위한 성능, 개방성 및 선택권을 제공할 인텔 가우디 3(Intel Gaudi 3) 가속기를 공개했다. 그리고 이와 함께 생성형 AI 도입 가속화를 위한 새로운 개방형 스케일러블 시스템 스위트, 차세대 제품 및 전략적 협력도 발표했다.  인텔 가우디 3 AI 가속기는 공통 표준을 따르는 이더넷을 통해 최대 수만 개의 가속기를 연결해 AI 시스템을 구동한다. 인텔 가우디 3는 BF16에 대해 4배 더 많은 AI 컴퓨팅 및 기존 모델 대비 1.5배 커진 메모리 대역폭을 지원한다. 인텔은 “이 가속기는 생성형 AI를 대규모로 배포하려는 글로벌 기업에게 AI 학습 및 추론 분야에서 획기적인 도약을 지원할 수 있다”고 설명했다.   ▲ 인텔 팻 겔싱어 CEO   인텔은 가우디 3가 70억 개 및 130억 개의 매개변수가 있는 라마2(Llama2) 모델과 GPT-3 1750억개 매개변수 모델 전체에서 엔비디아 H100보다 평균 50% 더 빠른 학습 시간을 제공할 것으로 예상하고 있다. 또한 인텔 가우디 3 가속기 추론 처리량은 평균적으로 H100보다 50%, 전력 효율성의 경우 라마(Llama) 70억 개 및 700억 개 매개변수와 팔콘(Falcon) 1800억 개 매개변수 모델에서 평균 40% 더 우수할 것으로 예상한다. 인텔 가우디 3는 개방형 커뮤니티 기반 소프트웨어와 업계 표준 이더넷 네트워킹을 제공한다. 또한 기업은 싱글 노드에서 클러스터, 슈퍼 클러스터, 수천 개의 노드가 있는 메가 클러스터로 유연하게 확장할 수 있으며, 최대 규모의 추론, 미세 조정 및 학습을 지원한다. 인텔 가우디 3는 2024년 2분기에 델 테크놀로지스, HPE, 레노버, 슈퍼마이크로를 비롯한 OEM 시스템에 탑재될 예정이다. 또한 인텔은 하드웨어, 소프트웨어, 프레임워크, 툴 등을 포함한 개방형 스케일러블 AI 시스템에 대한 전략을 제시했다. 인텔의 이러한 접근법은 기업별 생성형 AI 요구 사항을 충족하는 솔루션을 제공하기 위한 것으로, 다양하고 개방적인 AI 생태계를 가능케 한다. 여기에는 장비 제조업체, 데이터베이스 공급자, 시스템 통합업체, 소프트웨어 및 서비스 공급자 등이 포함된다. 또한, 기업 고객이 이미 알고 신뢰하는 생태계 파트너 및 솔루션을 활용할 수 있는 부분도 장점으로 꼽힌다. 인텔은 다양한 업계의 기업 고객 및 파트너들과 새롭고 혁신적인 생성형 AI 응용 프로그램을 개발하기 위해 인텔 가우디를 활용해 협력하고 있다고 밝혔다. 예를 들어, 네이버는 클라우드에서부터 온디바이스까지 첨단 AI 서비스를 전세계에 배포하기 위해 강력한 LLM 모델을 개발하고 있는데, 대규모 트랜스포머 아키텍처 기반 모델의 컴퓨팅 작업을 뛰어난 와트 당 퍼포먼스로 실행하기 위해 인텔 가우디를 사용한다. 보쉬는 자사 기반 모델 개발을 포함한 스마트 제조의 가능성을 모색하고 있으며, 합성 데이터 세트 생성과 더불어 자동 광학 검사와 같은 견고하고 분산된 트레이닝 세트 제공한다. 이에 더해 구글 클라우드, 탈레스, 코히시티(Cohesity)가 클라우드 환경에서 기밀 컴퓨팅 역량을 활용할 수 있도록 인텔과의 협력을 발표했다.    인텔은 인텔 가우디 3 가속기 외에도 엔터프라이즈 AI의 모든 부문에 걸쳐 차세대 제품 및 서비스에 대한 업데이트를 발표했다. 새로운 인텔 제온 6 프로세서는 폐쇄적 데이터를 사용하여 비즈니스에 특화된 결과를 생성하는 RAG를 포함한 최신 생성형 AI 솔루션을 실행할 수 있다. 2024년 출시될 차세대 인텔 코어 울트라 클라이언트 프로세서 제품군(코드명 루나레이크)은 차세대 AI PC를 위해 플랫폼 기준 100 TOPS 이상, NPU에서 45TOPS 이상을 제공할 예정이다. 인텔은 울트라 이더넷 컨소시엄(UEC)을 통해 AI 패브릭을 위한 개방형 이더넷 네트워킹을 선도하며 다양한 AI 최적화 이더넷 솔루션을 선보이고 있다.  인텔의 팻 겔싱어(Pat Gelsinger) CEO는 “혁신은 전례 없는 속도로 발전하고 있으며, 반도체가 이 모든 것을 가능하게 한다. 또한 모든 기업이 빠르게 AI 기업으로 거듭나고 있다”면서, “인텔은 PC부터 데이터센터, 에지에 이르기까지 기업 전반의 모든 곳에 AI를 가능하게 하고 있다. 인텔의 최신 가우디, 제온 및 코어 Ultra 플랫폼은 변화하는 고객과 파트너의 요구를 충족하고 앞으로의 엄청난 기회를 활용할 수 있도록  유연한 솔루션 세트를 제공하고 있다”고 밝혔다.
작성일 : 2024-04-11
인텔, 기업용 AI를 위한 가우디 3 및 AI 개방형 시스템 전략, 네이버와 협력 발표
인텔코리아가 4월 11일 여의도 FKI타워(전경련회관)에서 기자간담회를 열고, 미국 애리조나에서 4월 8일~9일(현지시간) 진행된 '인텔 비전 2024'에서 발표된 주요 내용들을 소개했다. 특히 올해 하반기에 새롭게 출시 예정인 기업용 AI를 위한 가우디 3에 대해 자세히 소개하는 시간을 마련했다. 한편 인텔은 네이버가 AI 서비스 개발을 위해 인텔의 가우디 2를 테스트베드로 사용하는데 협력하기로 했다고 전했다. ▲ 인텔 비전 2024을 소개한 국내 기자간담회 현장모습 먼저 인텔의 연례 고객 및 파트너 컨퍼런스인 인텔 비전 2024(Intel Vision 2024)에서 인텔은 기업용 생성형 AI(GenAI)를 위한 성능, 개방성 및 선택권을 제공할 인텔 가우디 3(Intel Gaudi 3) 가속기와 함께 생성형 AI 도입 가속화를 위한 새로운 개방형 스케일러블 시스템 스위트, 차세대 제품 및 전략적 협력을 발표했다.  인텔 CEO 팻 겔싱어(Pat Gelsinger)는 “혁신은 전례없는 속도로 발전하고 있으며, 반도체가 이 모든 것을 가능하게 한다. 또한 모든 기업이 빠르게 AI 기업으로 거듭나고 있다”라며 “인텔은 PC부터 데이터센터, 엣지에 이르기까지 기업 전반의 모든 곳에 AI를 가능하게 하고 있다. 인텔의 최신 가우디, 제온 및 코어 Ultra 플랫폼은 변화하는 고객과 파트너의 요구를 충족하고 앞으로의 엄청난 기회를 활용할 수 있도록  유연한 솔루션 세트를 제공하고 있다”고 밝혔다. ▲ 인텔 비전 2024에서 인텔의 새로운 비전을 소개한 인텔 팻 겔싱어(Pat Gelsinger) CEO  인텔은 기업이 생성형 AI를 파일럿 단계에서 업무에 적용하는 것으로 확장하고자 한다고 전했다. 이를 위해서는 복잡성, 단편화, 데이터 보안 및 규정 준수 요구 사항을 해결하면서 인텔 가우디 3(Intel Gaudi 3) AI 가속기와 같이 성능, 비용 및 전력 효율성이 뛰어난 프로세서를 기반으로 구축된 즉시 도입 가능한 솔루션이 필요하다고 소개했다. 인텔 가우디 3 AI 가속기는 공통 표준을 따르는 이더넷을 통해 최대 수만 개의 가속기를 연결해 AI 시스템을 구동한다. 인텔 가우디 3는 BF16에 대해 4배 더 많은 AI 컴퓨팅 및 기존 모델 대비 1.5배 커진 메모리 대역폭을 지원한다. 이 가속기는 생성형 AI를 대규모로 배포하려는 글로벌 기업에게 AI 학습 및 추론 분야에서 획기적인 도약을 지원할 수 있다. 엔비디아 H100과 비교하여 인텔 가우디 3는 70억개 및 130억개의 매개변수가 있는 라마2(Llama2) 모델과 GPT-3 1750억개 매개변수 모델 전체에서 평균3 50% 더 빠른 학습 시간을 제공할 것으로 예상한다. 또한 인텔 가우디 3 가속기 추론 처리량은 평균적으로 H100보다 50%1, 전력 효율성의 경우 라마(Llama) 70억개 및 700억개 매개변수와 팔콘(Falcon) 1800억개 매개변수 모델에서 평균 40% 더 우수할 것으로 예상한다. 인텔 가우디 3는 개방형 커뮤니티 기반 소프트웨어와 업계 표준 이더넷 네트워킹을 제공한다. 또한 기업은 싱글 노드에서 클러스터, 슈퍼 클러스터, 수천 개의 노드가 있는 메가 클러스터로 유연하게 확장할 수 있으며, 최대 규모의 추론, 미세 조정 및 학습을 지원한다. 인텔 가우디 3는 2024년 2분기에 델 테크놀로지스(Dell Technologies), HPE, 레노버(Lenovo), 슈퍼마이크로(Supermicro)를 비롯한 OEM 시스템에 탑재될 예정이다. 한편 인텔코리아 나승주 상무는 인텔 비전 2024에서 발표된 내용들을 간략히 정리해 소개하는 브리핑을 진행했다. 나승주 상무는 인텔은 기업용 AI 활성화를 위해 개방형 생태계의 힘을 적극적으로 활용할 계획이라며, 가우디 3 AI 가속기는 생성형 AI를 위한 선택권을 제공한다고 설명했다. 기업용 AI는 확장 가능한 개방형 시스템이 될 전망이라고 말했다. 또한 고객 및 파트너 모멘텀으로 네이버 등과 협력하고 있다. 또한 차세대 제품 및 서비스를 위해 가우디 3 등 제품 개발에 힘쓸 계획이라고 밝혔다. ▲ 인텔코리아 나승주 상무 이번 브리핑에 앞서 진행된 네이버와의 협력에 대해서 특별 게스트로 네이버클라우드 이동수 박사(하이퍼스케일 AI담당이사)가 온라인 참석해 협력 관계애 대한 설명과 함께 질의응답에 참여했다. 네이버클라우드 이동주 박사는 AI 반도체 평가와 분석하는 과정에서 인텔 가우디 3의 성능이 뛰어나다는 것을 알게 됐다며, AI 서비스를 지원하기 위해서는 AI 개발을 좀 더 손쉽게 하기 위해서는 소프트웨어 작업들을 많이 하고 있다고 밝혔다. 단기간에 그칠 것이 아니라 국내 스타트업들이 함께 AI 협력을 기대하고 있다고 소개했다. ▲ 네이버클라우드 이동수 박사(하이퍼스케일 AI담당이사) 
작성일 : 2024-04-11
한국산업지능화협회, 한-일 IT 기업을 잇는 비즈니스 네트워킹 투어 진행
한국산업지능화협회가 지난 2월 27일부터 3월 1일까지 3박 4일간 일본 도쿄에서 ‘2024 DX GO in Japan’ 프로그램을 진행했다고 전했다. 이번 행사는 지난 2023년 10월 싱가포르에서 개최한 ‘글로벌 데이터 비즈니스 라운드테이블’에 이은 글로벌 네트워킹 행사로, 딥인사이트, 몬드리안AI, 유비씨, 제온스 등 한국 IT 기업 4개사가 참여하였다. 참여 기업은 ▲일본 진출 성공 전략 세미나 ▲한-일 Biz-Mathing Day ▲일본 비즈니스 문화 투어 등의 프로그램을 통해 일본 진출에 대한 전략적 기회를 탐색하였다. 특히 2월 28일에는 일본 KDDI종합연구소의 지원을 받아 도쿄시스템하우스가 운영하는 비즈니스 컬래버레이션 단체인 KT-NET과 한국산업지능화협회가 공동 주최한 ‘한-일 Biz-Matching Day’를 통해 일본 기업과 비즈니스 교류의 기회를 모색하였다. 비즈니스 매칭에 참여한 한국 기업과 System Soft, ITbook Technology, ISF NET, TRIPLEIZE, Tokyo System House 등 일본 기업은 각사의 솔루션 교류 및 협업 방안에 대해 논의하였다. 한국산업지능화협회의 김태환 부회장은 “일본 IT 시장을 심층 탐색하고 비즈니스 교류 기회를 모색하는 의미 있는 시간이었다”면서, “협회는 지속적으로 이와 같은 행사를 개최하여 우리 기업의 글로벌 진출 동반자로서의 역할을 이어나갈 것”이라고 밝혔다.
작성일 : 2024-03-06
인텔, “새로운 HPC 클러스터로 AI 처리 능력 2배 향상”
인텔은 델 테크놀로지스, 엔비디아, 오하이오 슈퍼컴퓨터 센터(OSC)와 협업한 결과로 최첨단 고성능 컴퓨팅(HPC) 클러스터인 카디널(Cardinal)을 공개했다. 카디널은 연구, 교육 및 산업 혁신, 특히 인공지능(AI) 분야에서 증가하는 지역 내 HPC 리소스 수요를 충족하기 위해 설계되었다. AI와 머신러닝은 과학, 공학, 바이오 의학 분야에서 복잡한 연구 문제를 해결하기 위해 필수로 활용되고 있다. 이러한 기술의 효능이 지속적으로 입증되면서 농업 과학, 건축학, 사회학과 같은 학문 분야에서도 활용도 늘어나고 있다. 카디널 클러스터는 증가하는 AI 워크로드의 수요를 충족할 수 있는 하드웨어를 갖추고 있다. 인텔은 이 새로운 클러스터가 “2016년에 출시된 오웬스 클러스터(Owens Cluster)를 대체할 시스템보다 기능과 용량 모든 면에서 더 대규모의 업그레이드가 될 것”이라고 밝혔다.     카디널 클러스터는 메모리 사용량이 많은 HPC 및 AI 워크로드를 효율적으로 관리하는 동시에 프로그래밍 기능, 이식성(portability) 및 에코시스템 채택을 촉진하는 기반이 되는 델 파워엣지(Dell PowerEdge) 서버와 고대역폭 메모리(HBM)를 갖춘 인텔 제온 CPU 맥스 시리즈(Intel Xeon CPU Max Series)를 활용한 이기종 시스템이다. 이 시스템은 총 3만 9312 개의 CPU 코어를 제공하는 756개 맥스 시리즈(Max Series) CPU 9470 프로세서와 128 기가바이트(GB) HBM2e 및 노드 당 512 GB의 DDR5 메모리를 탑재했다. 단일 소프트웨어 스택과 x86 기반 기존 프로그래밍 모델을 갖춘 이 클러스터는 광범위한 사용 케이스를 처리하고 쉽게 도입 및 배포할 수 있도록 지원하면서 OSC의 처리 능력을 두 배 이상 향상시킬 수 있다. 또한, 이 시스템은 32개의 노드로 104개의 코어, 1테라바이트(TB)의 메모리, 4개의 NV링크(NVLink) 연결로 상호 연결된 94GB HBM2e 메모리를 갖춘 엔비디아 호퍼 아키텍처 기반 H100 텐서 코어(H100 Tensor Core) GPU 4개를 탑재했다. 초당 400기가비트(Gbps)의 네트워킹 성능과 짧은 지연 시간을 제공하는 엔비디아 퀀텀-2(Nvidia Quantum-2) 인피니밴드(InfiniBand)로 대규모 AI 기반 과학 애플리케이션을 위한 500페타플롭(petaflop)의 최고 AI 성능(희소성 포함 FP8 텐서 코어)을 제공하며, 16개의 노드에 104개의 코어, 128GB HBM2e 및 2TB DDR5 메모리를 탑재해 대규모 대칭형 멀티프로세싱(SMP) 스타일 작업을 처리할 수 있다. 인텔의 데이터 센터 AI 솔루션 제품군을 총괄하는 오기 브르기치(Ogi Brkic) 부사장은 “인텔 제온 CPU 맥스 시리즈는 널리 채택된 AI 프레임워크와 라이브러리를 활용하여 HPC 및 AI 워크로드를 개발하고 구현하는 데 최적의 선택지”라면서, “이 시스템의 고유한 이기종성을 통해 OSC의 엔지니어, 연구원 및 과학자들이 이 시스템이 제공하는 두 배 이상 메모리 대역폭 성능을 최대한 활용할 수 있도록 지원할 것”이라고 전했다.
작성일 : 2024-02-23
인텔, 기업용 생성형 AI 솔루션 기업 ‘아티큘8’ 설립
인텔은 글로벌 투자 회사인 디지털브릿지 그룹(DigitalBridge Group)과 함께 기업 고객에게 최적화되며 안전한 풀스택 생성형 AI(generative AI) 소프트웨어 플랫폼을 제공하는 독립 회사인 ‘아티큘8 AI(Articul8 AI)’를 설립했다고 발표했다. 아티큘8의 플랫폼은 고객 데이터 학습 및 추론을 기업 보안 경계 내에서 제공하는 AI 기능을 제공한다. 또한 고객에게 클라우드, 온프레미스 또는 하이브리드 배포 중에서 선택할 수 있는 옵션을 제공한다. 아티큘8은 인텔의 지적재산(IP)과 기술을 바탕으로 설립되었으며, 양사는 향후 시장 진출 기회를 전략적으로 모색하고 기업 내 생성형 AI 도입을 위해 적극적으로 협력할 예정이다. 인텔의 데이터 센터 및 AI 그룹의 부사장 겸 총괄이었던 아룬 수브라마니얀(Arun Subramaniyan)이 아티큘8의 초대 CEO로 선임됐다. 아티큘8이 제공하는 턴키 방식의 생성형 AI 소프트웨어 플랫폼은 빠른 속도와 보안 및 비용 효율성을 바탕으로 대기업 고객사의 AI 운용 및 확장을 지원한다. 아티큘8의 플랫폼은 인텔 제온 스케일러블(Intel Xeon Scalable) 프로세서와 인텔 가우디(Intel Gaudi) 가속기 등을 포함한 인텔 하드웨어 아키텍처에 최적화되어 출시되었지만, 추후 다양한 하이브리드 인프라를 지원할 예정이다. 아티큘8은 보스턴 컨설팅 그룹(BCG)에 아티큘8 플랫폼을 배포하였고 현재 금융 서비스, 항공 우주, 반도체, 통신 등 높은 보안성과 분야별 전문 지식을 요하는 산업의 기업 고객을 대상으로 플랫폼을 확장해 나가고 있다고 밝혔다.     아티큘8은 디지털브릿지의 벤처 이니셔티브인 디지털브릿지 벤처스가 리드 투자사로 참여했으며, 인텔과 함께 핀캐피탈(Fin Capital), 마인드셋벤처스(Mindset Ventures), 커뮤니타스캐피탈(Communitas Capital), 자이언트립캐피탈(GiantLeap Capital), GS퓨처스(GS Futures), 자인그룹(Zain Group)등의 벤처 투자사도 참여했다. 업계 투자를 받고 있는 독립 회사인 아티큘8은 앞으로 자사의 시장 진출을 가속하고 보다 방대한 생성형 AI 생태계를 위해 제품군을 확대해 나갈 계획이다. 인텔의 팻 겔싱어(Pat Gelsinger) CEO는 “아티큘8은 AI 및 HPC 분야의 전문 지식과 기업용 생성형 AI 배포를 바탕으로 인텔을 비롯해 다양한 고객과 파트너로 이루어진 방대한 생태계에 실질적인 비즈니스 성과를 제공할 수 있는 유리한 입지에 있다”면서, “인텔이 AI 에브리웨어(AI Everywhere) 구현 가속화에 힘쓰고 있는 만큼, 앞으로 아티큘8과의 지속적인 협력을 기대한다”고 말했다. 디지털브릿지의 마크 간지(Marc Ganzi) CEO는 “현재 글로벌 기업들은 저마다 생성형 AI를 자사의 워크플로에 통합해야 하는 과제를 안고 있다. 아티큘8에서 구축한 확장 가능하고 배포가 용이한 생성형 AI 소프트웨어 플랫폼을 통해 기업들은 이미 자사의 데이터에서 가치를 실현하고 있다. 생성형 AI는 디지털 인프라를 촉진하는 중심축이 될 것이며, 디지털브릿지가 인텔과 함께 아티큘8의 성장을 도모할 수 있게 되어 기쁘다”고 말했다.
작성일 : 2024-01-08
레노버, AI 가속화를 위한 새로운 하이브리드 클라우드 플랫폼 및 서비스 출시
레노버가 향상된 기능의 하이브리드 클라우드 플랫폼을 출시하며 AI 애플리케이션에 대한 역량을 강화했다. 새롭게 출시된 레노버 씽크애자일(Lenovo ThinkAgile) 하이브리드 클라우드 솔루션과 레노버 씽크시스템(ThinkSystem) 서버는 향상된 성능 및 관리 기능, 효율성을 제공한다. 두 솔루션 모두 차세대 인텔 제온 스케일러블 프로세서(Intel® Xeon® Scalable Processor)를 기반으로 한다. 이는 고객들이 기존 IT 아키텍처를 통해 AI를 실현할 수 있도록 설계된 확장된 플랫폼으로써, 레노버의 비전인 ‘모두를 위한 AI’를 위해 퍼블릭, 프라이빗, 개인 모델 전반에 걸쳐 동적인 하이브리드 AI 접근 방식을 제공한다. 이번에 새롭게 출시된 레노버 씽크애자일 하이브리드 클라우드 솔루션은 언제 어디에서나 필요한 곳에 충분한 컴퓨팅과 빠른 속도의 메모리를 제공함으로써 AI 성능을 높이고 클라우드 민첩성을 구현해낸다. 또한, 레노버는 AI를 위한 새로운 전문 서비스뿐만 아니라 사용량만큼 지불 가능한 레노버 서비스형 트루스케일(Lenovo TruScale as-a-service) 및 엣지용 하이브리드 클라우드를 선보이며 기업 내 IT 프로세스를 간소화하고 AI의 구현을 가속화하고 있다. 수미르 바티아(Sumir Bhatia) 레노버 인프라스트럭처 솔루션 그룹(ISG) 아시아 태평양 사장은 “레노버의 ‘모두를 위한 AI’ 비전은 이번에 새롭게 출시된 하이브리드 클라우드 플랫폼 및 서비스를 통해 더욱 강화됐다. 레노버 신규 하이브리드 클라우드 플랫폼은 IT 혁신을 촉진하고 AI에 더 빠르고 유연하게 접근할 수 있는 최적의 경로를 제공한다. 또한, 최대 15% 향상된 AI 성능으로 고객들은 IT 풋프린트를 절감하고 보다 나은 투자수익률(ROI)의 비즈니스 성과를 달성할 수 있다”고 말했다. 더불어 “서비스형 레노버 트루스케일이라는 구독 기반 소비 모델을 통해 기존 인프라와의 원활한 통합 및 역동적인 하이브리드 AI 접근방식도 지원한다”고 덧붙였다. 이번 레노버 씽크애자일 하이브리드 클라우드 솔루션과 레노버 씽크시스템 서버는 가속기 내장형 5세대 인텔 제온 스케일러블 프로세서 및 인텔 AMX를 탑재하고 있다. 이로써 높은 효율성을 자랑할 뿐만 아니라 AI추론 및 최대 200억 개의 매개변수 미세 조정을 지원한다. 이번 포트폴리오는 모든 규모의 기업들로 하여금 멀티 클라우드에서 업무를 수행할 수 있도록 고급화된 관리 기능, 우수한 신뢰도, 엔드투엔드 보안 능력을 갖춘 고유한 개방형 아키텍처를 제공한다. •    하이브리드 클라우드를 위한 인공지능(AI) 비즈니스 성장을 따라잡기 위해 기업 내 IT 부서들은 배포 준비가 되어 있고, 기존 인프라와 호환 가능하며, 새롭고 복잡한 워크로드에 최적화된 엔드투엔드 데이터센터 솔루션 및 클라우드 서비스를 마련해야 한다. 5세대 인텔 제온 스케일러블 프로세서를 탑재한 ‘레노버 씽크애자일 HX, MX 및 VX 하이브리드 클라우드 솔루션’은 AI에 최적화되어 있는 턴키 하이브리드 클라우드 솔루션이다. 뉴타닉스, 마이크로소프트, VM웨어 등 개방형 파트너 에코 시스템을 통해 신속한 백업 및 복구 능력, 최대 75% 가량 줄어든 배포 시간으로 업계를 선도하는 클라우드 소프트웨어 성능을 제공한다.  레노버는 기업들이 가상화 및 컨테이너화된 워크로드를 처리할 수 있도록 VM웨어 클라우드 파운데이션(VCF, VMware Cloud Foundation) 레퍼런스 아키텍처를 갖춘 레노버 씽크애자일 VX을 출시하며 포트폴리오를 또 한 번 확장했다. 애저 아크(Azure Arc) 기반 ‘레노버 씽크애자일 MX450 엣지 통합 시스템’은 애저 클라우드 서비스와 엣지용 AI추론을 지원하는 콤팩트한 솔루션이다. 또한, 뉴타닉스와 협업한 ‘엣지용 레노버 씽크애자일 HX AI’는 AI 및 머신러닝 컴퓨팅, 스토리지 워크로드를 원격 처리하기 위한 반복 및 확장 가능한 솔루션을 구현한다. 한편, 레노버는 인텔과의 파트너십을 통해 고밀도에 최적화된 랙형 및 타워형 레노버 씽크시스템 서버 포트폴리오에 새로운 인텔 CPU기술을 적용했다. 레노버는 컴퓨팅 집약적인 워크로드를 처리하기 위해 5세대 인텔 제온 스케일러블 프로세서를 탑재한 ‘레노버 씽크시스템 SD530 V서버·SD550 V3 서버·SD650-N V3 서버’를 출시하며 멀티 노드 서버 기능을 확장했다. 레노버 넵튠 액체 냉각 기술을 활용하여 최대 40%까지 전력 소비를 줄이고 콤팩트한 공간에서도 처리 능력을 극대화할 수 있는 점이 특징이다. 이에 더해 강력한 성능을 갖춘 ‘레노버 씽크시스템 SR650 V3 서버’와 ‘레노버 씽크시스템 SR630 V3 랙 서버’는 기업용 AI워크로드에 최적화된 성능 및 유연성을 제공한다. 또한 ‘레노버 씽크시스템  SR250 V3 랙 서버’ 및 ‘레노버 씽크시스템 ST250 V3 타워 서버’는 지사 및 분점을 두고 있는 기업들을 위해 최대 21%까지 성능이 향상된 인텔E-2400 프로세서를 활용한 유연한 엣지 컴퓨팅을 지원한다. •    클라우드 민첩성 지원 레노버는 전 세계 모든 산업, 기업 및 개인에게 포켓에서 클라우드에 이르는 맞춤형 AI 지원 디바이스, 인프라, 솔루션 및 서비스를 제공하며 인텔리전트 트렌스포메이션(Intelligent Transformation)을 이끌고 있다. 하이브리드 클라우드용 레노버 트루스케일은 기업의 다양한 니즈에 맞게 유연하게 용량을 생성, 전환 및 확장할 수 있는 서비스형 온프렘 데이터센터 솔루션이다. 한편, 엣지용 레노버 트루스케일 하이브리드 클라우드 솔루션도 출시했다. 이는 비용 효율적인 서비스형 솔루션으로 고객이 필요로 하는 곳 어디든 하이브리드 클라우드용 AI를 지원한다. 또한, 데이터 워크로드 관리에 대한 민첩성과 제어력을 향상시킬 수 있는 셀프 서비스 클라우드 관리 플랫폼도 함께 제공된다. 레노버는 첨단 하이브리드 클라우드 플랫폼 외에도 AI 전문 서비스를 통해 고객들이 빠르게 AI를 구현할 수 있도록 돕는다. 단일 벤더 솔루션으로써 레노버가 보유하고 있는 방대한 인사이트와 업계 전문가로 구성된 글로벌 팀을 활용하고 있다. 이를 통해 기업 및 조직들은 AI에 대한 이해도를 높일 뿐만 아니라, 엔드투엔드 방식으로 IT 제품 및 서비스를 설치하여 원하는 비즈니스 결과를 신속히 달성할 수 있게 된다. 마지막으로 엔드 유저들은 레노버 하이브리드 클라우드 솔루션을 탑재한 신규 레노버 노트북의 장점을 누릴 수 있다. 사용자들은 인공지능(AI) PC 혁신을 이끌고 있는 최신 ‘씽크패드 X1’과 ‘아이디어패드 프로 5i’을 통해 AI 컴퓨팅을 기반으로 한 진보된 PC 경험을 즐길 수 있다. 인텔 코어 울트라 프로세서(Intel Core Ultra Processor) 및 고성능 와이파이 연결 기능을 탑재한 제품으로 로컬·퍼블릭·프라이빗 하이브리드 AI 모델에 걸친 우수한 속도 및 인텔리전스로 가속화된 AI PC 작업을 지원한다. 더 자세한 내용은 링크에서 확인할 수 있다.  
작성일 : 2023-12-24
인텔, “5세대 제온 및 코어 울트라 프로세서로 AI PC 시대를 주도한다”
인텔은 데이터 센터부터 클라우드, 네트워크, PC, 에지 등 다양한 인프라에서 AI 솔루션을 구현할 수 있도록 지원하는 5세대 인텔 제온 프로세서와 인텔 코어 울트라 프로세서를 출시했다. 5세대 인텔 제온(Intel Xeon) 프로세서 제품군은 모든 코어에 AI 가속기를 내장해 AI 성능 및 전반적인 성능을 높이고 총소유비용(TCO)을 줄인다. 그리고 노트북용 인텔 코어 울트라(Intel Core Ultra) 프로세서 제품군은 인텔 4 공정 기술 및 40년 만에 최대 규모로 변화한 아키텍처를 기반으로 설계된 프로세서로 높은 전력 효율을 제공한다. 또한, 인텔은 2024년 출시 예정인 차세대 AI 가속기 ‘인텔 가우디3(Intel Gaudi3)’에서 기업의 대규모 언어 모델(LLM) 및 딥러닝 워크로드 실행에 최적화된 성능을 제공할 예정이라고 밝혔다.   ▲ 5세대 인텔 제온 스케일러블 프로세서를 선보인 인텔코리아 나승주 상무   5세대 인텔 제온 프로세서 제품군은 이전 세대 제품 대비 성능과 효율성에서 큰 폭의 개선을 보이면서, 초대형 AI 모델뿐 아니라 에지 및 클라이언트에서 점차 증가하는 민첩한 소규모 AI 모델 수요를 충족시키며 하이브리드 AI 성장을 지원한다. 4세대 제온과 비교해, 새로운 제온 프로세서는 동일한 전력 범위 내에서 평균 21% 향상된 범용 컴퓨팅 성능을 제공하며, 평균 36% 향상된 와트당 성능을 제공해 기업의 광범위한 워크로드 요구사항을 충족시킨다. 인텔은 5년 주기로 업그레이드하는 고객 및 이전 세대에서 업그레이드하는 고객이 최대 77%까지 TCO를 절감할 수 있다고 전했다. 제온은 AI 가속기를 내장한 메인스트림 데이터 센터 프로세서다. 새롭게 출시되는 5세대 제온은 최대 200억 개 파라미터 규모의 대형 모델 상에서 최대 42% 향상된 추론 및 미세 조정 성능을 구현한다. 그 밖에도 MLPerf 훈련 및 추론 벤치마크 결과에서 일관적으로 성능을 향상시켜 온 것으로 나타났다. 제온에 내장된 AI 가속기는 통신 서비스 제공업체, 콘텐츠 전송 네트워크 및 소매·의료·제조를 포함한 다양한 시장을 대상으로 최적화된 소프트웨어 및 향상된 텔레메트리(원격자료송수신) 기술과의 결합을 통해 까다로운 네트워크 및 에지 워크로드를 더욱 손쉽고 효율적으로 배포할 수 있도록 지원한다. 인텔코리아의 나승주 상무는 “5세대 인텔 제온 프로세서는 AI 워크로드를 효율적으로 처리하기 위해 설계된 제품으로, 고객이 클라우드, 네트워크에서 에지에 이르는 광범위한 인프라에서 AI 역량을 갖추도록 지원할 것”라며, “인텔은 AI 인프라 구축 및 배포를 쉽게 만드는 하드웨어와 소프트웨어를 함께 제공함으로써 개발자가 어디서나 AI를 구현할 수 있도록 지원할 것”이라고 말했다.   ▲ 인텔 코어 울트라 프로세서를 선보인 인텔코리아 최원혁 상무   인텔 코어 울트라는 인텔 최초의 클라이언트 온칩 AI 가속기인 ‘신경처리장치(NPU)’가 새로 탑재돼 이전 세대와 비교해 2.5배 높은 전력 효율성을 제공하며, AI 가속 기능을 지원한다. 높은 수준의 GPU 및 CPU가 탑재돼 AI 솔루션 실행 속도를 더욱 가속화시킨다. 인텔 코어 울트라는 2024년 전 세계 노트북 및 PC 제조사의 230여 가지의 제품에 탑재돼 AI 가속 기능을 지원할 예정이며, 인텔은 앞으로 100여 개의 독립 소프트웨어 공급업체(ISV)와 협력해 PC 시장에 AI로 개선된 수백 가지의 애플리케이션을 선보일 계획이다. 인텔은 일반 소비자 및 기업 고객이 자신의 PC에서 이전보다 더 큰 규모로 더욱 광범위해진 AI 기반 애플리케이션의 성능을 활용할 수 있게 될 것으로 보고 있으며, AI의 성능 향상 이점에 힘입어 AI PC가 2028년까지 PC 시장에서 80%의 비중을 차지할 것으로 예상한다. 인텔코리아의 최원혁 상무는 “앞으로 2년 동안 인텔은 전용 AI 가속기를 탑재한 1억 개의 클라이언트 프로세서를 공급할 것이며, 이는 시장에서 가장 많은 물량을 공급하는 것”이라면서, “인텔은 폭넓은 하드웨어와 소프트웨어 파트너사들이 포함된 생태계와 협력해 차세대 컴퓨팅인 AI PC에서 최고의 위치를 점유해 나갈 것”이라고 설명했다. 인텔은 5세대 제온과 코어 울트라가 다양한 분야에서 에지 컴퓨팅의 새로운 활용 사례를 제시할 것으로 전망했다. 에지 컴퓨팅은 컴퓨팅 시장에서 가장 빠르게 성장하고 있으며, 향후 10년 안에 전 세계적으로 4450억 달러(약 578조 550억 원)의 가치를 지닌 시장으로 성장할 전망이다. 특히 에지 및 클라이언트 장치는 데이터 센터와 비교해 1.4배 더 많은 AI 추론 수요를 견인하고 있으며, AI는 가장 빠르게 성장하는 에지 컴퓨팅 워크로드가 됐다. 한편, 인텔은 “개발자가 사용하는 AI 프레임워크에 대한 최적화 기능 및 원API(oneAPI)를 통한 라이브러리 제공, AI 워크로드/솔루션에 하드웨어 가속 기능을 적용한 고급 개발자 도구 등 AI 하드웨어 기술의 접근성과 사용 편의성을 높이기 위해 노력하고 있다”면서, 딥러닝 및 대규모 생성형 AI 모델용 차세대 AI 가속기인 ‘인텔 가우디3(Intel Gaudi3)’가 2024년 출시될 것이라고 밝혔다. 인텔은 경쟁력 높은 TCO 및 가격대와 함께 더욱 향상된 성능 혜택을 바탕으로 가우디 파이프라인을 빠르게 확장하고 있다. 인텔은 생성형 AI 솔루션 수요가 증가하면서 2024년에는 가우디가 주도하는 AI 가속기 제품군을 주축으로 가속기 시장 점유율을 넓히겠다는 전략도 제시했다. 인텔코리아의 권명숙 사장은 “현재 전 산업의 디지털 전환 수요가 고도화되는 가운데, AI 혁신의 가속화로 인해 현재 GDP의 약 15%를 차지하는 디지털 경제의 비중이 앞으로 10년 안에 약 25%로 증가할 것이며, AI는 이를 가속화해 결국엔 GDP의 1/3 규모로 성장할 것”이라면서, “인텔은 효율적인 최상의 AI 성능을 제공하는 하드웨어 및 소프트웨어 솔루션을 지원해 고객이 클라우드, 네트워크는 물론 PC와 에지 인프라까지 AI를 원활하게 구축하고 확장해나갈 수 있도록 지원할 것”이라고 전했다.
작성일 : 2023-12-18
인텔, “4세대 제온 프로세서와 가우디 가속기로 GPT-3 성능 향상”
인텔은 ML커먼스가 인텔 가우디2(Intel Gaudi2) 가속기 및 인텔 어드밴스드 매트릭스 익스텐션(Intel AMX)이 탑재된 4세대 인텔 제온 스케일러블 프로세서의 AI 모델 학습에 대한 업계 표준 MLPerf 트레이닝(MLPerf Training) v3.1 벤치마크 측정 결과를 발표했다고 밝혔다.  최신 ML커먼스의 MLPerf 결과는 지난 6월 발표한 MLPerf 트레이닝 결과보다 강력한 인텔의 AI 성능을 기반으로 한다. 벤치마크 결과에 따르면, 가우디2는 v3.1 학습 GPT-3 벤치마크에서 FP8 데이터 유형을 적용해 두 배 높은 성능을 보여줬다.  인텔 가우디2 및 4세대 제온 프로세서는 다양한 하드웨어 구성으로 우수한 AI 학습 성능을 입증해 점점 더 다양해지는 고객의 AI 컴퓨팅 요구 사항을 해결할 수 있다. 인텔은 “가우디2는 AI 컴퓨팅 요구사항에 있어 가격 대비 높은 성능을 제공한다. 가우디2에 대한 MLPerf 결과는 AI 가속기의 학습 성능이 향상되었음을 입증한다”고 밝혔다.   ▲ 인텔 가우디2 가속기   가우디2는 FP8 데이터 유형 구현으로 v3.1 학습 GPT-3 벤치마크에서 두 배의 성능 향상을 보였다. 6월 MLPerf 벤치마크 대비 학습 시간이 절반 이상으로 단축됐으며, 384개의 인텔 가우디2 가속기를 사용해 153.38분 만에 학습을 완료하기도 했다. 가우디2 가속기는 E5M2 및 E4M3 형식 모두에서 FP8을 지원하며 필요 시 지연 스케일링 옵션도 제공한다. 인텔 가우디2는 BF16을 사용해 20.2분 만에 64개의 가속기로 스테이블 디퓨전(Stable Diffusion) 멀티모달 모델에 대한 학습을 시연했다. 향후 MLPerf 트레이닝 벤치마크에서는 FP8 데이터 유형에 대한 스테이블 디퓨전 성능이 제출될 예정이다. 8개의 인텔 가우디2 가속기에서 BERT와 ResNet-50에 대한 벤치마크 결과는 각각 BF16을 사용하여 13.27분과 15.92분을 나타냈다. 한편, 4세대 제온 스케일러블 프로세서의 ResNet50, RetinaNet 및 BERT에 대한 결과는 2023년 6월 MLPerf 벤치마크에 제출된 기본 성능 결과와 유사하게 나타났다. DLRM dcnv2는 6월에 제출된 새로운 CPU 모델로, 4개의 노드만 사용해 227분의 학습 시간을 기록했다. 인텔은 “4세대 제온 프로세서의 성능을 통해 많은 엔터프라이즈 기업이 범용 CPU를 사용하여 기존 엔터프라이즈 IT 인프라에서 중소 규모의 딥 러닝 모델을 경제적이고 지속적으로 학습할 수 있으며, 특히 학습이 간헐적인 워크로드인 사용 사례에 적합하다”고 전했다. 한편, 인텔은 소프트웨어 업데이트 및 최적화를 통해 향후 MLPerf 벤치마크에서 AI 성능 결과가 더욱 향상될 것으로 예상하고 있다. 인텔은 고객에게 성능, 효율성 및 유용성을 요구하는 동적인 요구 사항을 충족하는 AI 솔루션에 대한 더 많은 선택지를 제공하겠다는 전략이다. 인텔 데이터센터 및 AI 그룹 총괄 산드라 리베라(Sandra Rivera) 수석부사장은 “인텔은 AI 포트폴리오를 지속적으로 혁신하고 있으며, 연이은 MLPerf 성능 결과를 통해 ML커먼스 AI 벤치마크의 기준을 높이고 있다. 인텔 가우디 및 4세대 제온 프로세서는 고객에게 뚜렷한 가격 대비 성능 이점을 제공하며 즉시 사용 가능하다. 인텔의 다양한 AI 하드웨어 및 소프트웨어 구성은 고객에게 AI 워크로드에 맞는 포괄적인 솔루션과 선택지를 제공한다”고 말했다.  
작성일 : 2023-11-10
VM웨어-인텔, 데이터센터부터 에지까지 프라이빗 AI 확장 위해 협력
VM웨어(VMware)가 데이터센터, 퍼블릭 클라우드 및 에지 환경 전반에서 고객의 AI 도입을 가속화하고 어디서든 프라이빗 AI(private AI)를 구현할 수 있도록 지원하기 위해 인텔과 협업을 확장한다고 발표했다. VM웨어와 인텔은 공동 검증된 AI 스택을 제공하는 데 협력하고 있다. 해당 AI 스택을 통해 고객은 기존의 범용 VM웨어 및 인텔 인프라와 오픈 소스 소프트웨어를 사용해 더 간편하게 AI 모델을 구축하고 배포할 수 있다. VM웨어 클라우드 파운데이션(Cloud Foundation)과 인텔의 AI 소프트웨어 제품군, AI 가속기가 내장된 인텔 제온 프로세서 그리고 인텔 맥스 시리즈 GPU의 결합은 데이터 준비, 모델 학습, 미세 조정 및 추론을 위한 AI 스택을 제공하며, 과학적 발견을 가속화하고 비즈니스 및 소비자 서비스를 강화한다. VM웨어 클라우드(VMware Cloud)는 전 세계 30만 개 이상의 기업 고객을 보유하고 있으며, VM웨어 가상화 소프트웨어는 데이터가 생성, 처리 및 소비되는 기업 환경 전반에 배포돼 있다. “VM웨어 클라우드를 활용하면 비즈니스 전반에서 AI 가속화 컴퓨팅과 모델을 빠르게 도입할 수 있다”는 것이 VM웨어의 설명이다. 인텔 역시 수십만 고객에게 확장 가능하고 신뢰할 수 있는 개방형 솔루션을 제공하고 있다. 기업 내 VM웨어와 인텔 제품의 보편화는 데이터 과학에 대한 접근성을 개선하고, 전 세계 조직이 AI를 통한 비즈니스적 이점을 누리는 동시에 개인 정보 보호 및 규정 준수 요구 사항을 충족하는 아키텍처 접근 방식인 프라이빗 AI를 도입할 수 있도록 지원한다. VM웨어 프라이빗 AI는 기존 AI/ML 워크로드 및 생성형 AI에 대한 지원을 바탕으로 퍼블릭 클라우드, 엔터프라이즈 데이터센터, 에지 등 엔터프라이즈 데이터가 생성, 처리 및 소비되는 다양한 환경에 컴퓨팅 용량과 AI 모델을 제공한다. VM웨어와 인텔은 고객의 프라이빗 기업 데이터를 사용해 수 분에서 수 시간 내에 작업 특화 모델을 미세 조정하고, 대규모 언어 모델을 사람보다 빠르게 추론할 수 있다. 이번 협력 확장으로 양사는 공유 가상 시스템에서 업데이트 및 유지관리가 용이한 한층 작고 경제적인 최신 모델을 미세 조정할 수 있게 됐으며, 배치(batch) AI 작업 후 IT 리소스 풀에 다시 제공할 수 있다. 또한 AI 지원 코드 생성, 경험 기반 고객 서비스 센터 추천 시스템, 전통적인 머신 통계 분석 등 사용 사례를 애플리케이션을 실행하는 동일 범용 서버에서 구동하는 것도 가능하다.     VM웨어와 인텔은 VM웨어 클라우드 파운데이션에 인텔의 AI 소프트웨어 제품군과 인텔 제온 프로세서, 데이터센터 GPU를 결합해 고객이 이미 보유하고 있는 인프라에 프라이빗 AI 모델을 구축 및 배포할 수 있게 함으로써 TCO(총소유비용)를 줄이고 환경 지속 가능성 문제도 해결하는 레퍼런스 아키텍처를 설계하고 있다. 인텔 어드밴스드 매트릭스 익스텐션(Intel AMX)이 내장된 4세대 인텔 제온 프로세서는 표준 산업 프레임워크 및 라이브러리, 엔드투엔드 데이터 과학 생산성 툴, 최적화된 AI 모델을 사용해 최대 10배 향상된 기본 성능을 제공한다. 최대 128개의 Xe 코어를 제공하는 인텔 데이터센터 GPU 맥스는 까다로운 AI 워크로드를 다루는 인텔의 기본 GPU 컴퓨팅 빌딩 블록이다. 인텔 맥스 시리즈 GPU는 다양한 고객의 요구 사항을 충족하는 다양한 형태의 폼팩터로 제공될 예정이다. 인텔의 AI 소프트웨어 제품군은 엔드투엔드 오픈 소스 소프트웨어와 선택적 라이선스 구성 요소로 패키징됐다. 이를 통해 개발자가 데이터 준비부터 미세 조정, 추론에 이르는 전체 AI 파이프라인 워크플로를 실행하고, 멀티 노드 확장과 엔터프라이즈 IT 인프라 상의 AI 배포를 가속화할 수 있다. VM웨어 AI 랩스의 크리스 울프(Chris Wolf) 부사장은 “프라이빗 AI는 AI에 대한 선택권, 개인 정보 보호, 제어 등 세 가지 요소를 모두 제공하기 때문에 고객은 AI 도입을 가속화하며 미래형 AI 인프라를 구축할 수 있다”면서, “VM웨어 프라이빗 AI는 인텔과의 협력을 바탕으로 양사 고객이 직원 생산성을 획기적으로 개선하고, 주요 비즈니스 기능 전반에서 혁신을 일으키며, 경제적 효과를 창출하는 데 기여할 것”이라고 말했다. 인텔의 데이터센터 및 AI 그룹을 총괄하는 산드라 리베라(Sandra Rivera) 수석부사장은 “지난 수십 년간 인텔과 VM웨어는 고객이 더 빠르게 움직이고 혁신을 거듭하며 효율적인 운영을 할 수 있도록 차세대 데이터센터-투-클라우드(data center-to-cloud) 기능을 제공해 왔다”면서, “AI는 새롭고 강력한 가능성을 열어주며 전 세계 모든 이들의 삶을 개선할 수 있는 잠재력을 가지고 있다. 인텔과 VM웨어는 실리콘과 소프트웨어 기반의 새로운 AI 시대로 기업을 이끌 준비가 돼 있다”고 전했다.
작성일 : 2023-11-08