• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "가우디"에 대한 통합 검색 내용이 14개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
델, 파워엣지 서버에서 인텔 가우디3 AI 가속기 지원
델 테크놀로지스는 자사의 고성능 AI 서버인 ‘델 파워엣지 XE9680(Dell PowerEdge XE9680)’에 ‘인텔 가우디 3(Intel Gaudi 3)’ AI 가속기 지원을 추가한다고 밝혔다. 델은 데이터 집약적이고 복잡한 워크로드를 효과적으로 지원하게끔 설계된 XE9680의 확장된 라인업을 통해 AI 활용을 고려하는 엔터프라이즈 고객들에게 더 넓어진 선택지를 제공하게 됐다고 전했다. 델 파워엣지 XE9680은 x86 서버 아키텍처에 8개의 GPU를 탑재하는 모델로 AI 운영에 특화된 성능을 제공한다. 델은 XE9680 에코시스템에 인텔 가우디3 가속기를 통합함으로써, 고객이 생성형 AI 워크로드와 관련된 컴퓨팅 요구 사항에 맞춰 시스템을 맞춤화할 수 있도록 지원한다. 델은 범용성과 강력한 성능을 모두 갖춘 AI 가속 인프라를 제공하겠다는 전략이다.     안전성과 확장성에 중점을 두고 설계된 XE9680은 가우디3 가속기를 추가함으로써 보다 풍부한 서버 구성 옵션을 제공하게 됐다. 최대 32개의 DDR5 메모리 DIMM 슬롯을 통해 데이터 처리량을 향상시켰고, 16개의 EDSFF3 플래시 스토리지 드라이브와 8개의 PCIe Gen 5.0 슬롯으로 확장된 연결성과 대역폭을 제공한다. 프로세서당 최대 56개 코어를 지원하는 4세대 인텔 제온 스케일러블(Intel Xeon Scalable) 프로세서를 2개를 장착했으며, 고난도의 AI/ML 워크로드에 대한 데이터 처리 및 분석에 최적화되어 있다. 인텔 가우디3 AI 가속기는 64개의 커스텀 및 프로그래밍 가능한 텐서 프로세서 코어(TPC)와 128GB의 HBMe2 메모리 용량, 3.7TB의 메모리 대역폭, 96MB의 온보드 SRAM 등 생성형 AI 워크로드에 대응하기 위한 스펙을 갖췄다. 가우디3는 또한 개방형 에코시스템을 갖춰 파트너십 기반의 최적화 및 모델 라이브러리 프레임워크 지원의 이점이 있다. 기존 코드베이스의 전환을 간소화하는 개발 툴로 간편한 마이그레이션을 지원한다. 가우디3 가속기로 강화된 파워엣지 XE9680은 6개의 OSFP 800GbE 포트를 통해 가속기에 직접 결합된 새로운 네트워킹 기능을 제공한다. 외장 NIC를 시스템에 배치할 필요 없이 외부 가속기 패브릭에 직접 연결이 가능해 인프라를 단순화하고, 인프라의 총소유비용과 복잡성을 낮추는데 효과적이다. 또한 인텔 가우디3 전문 미디어 디코더는 AI 비전 애플리케이션을 위해 설계됐다. 광범위한 사전 처리 작업을 지원해 비디오에서 텍스트로의 변환을 간소화하고 엔터프라이즈 AI 애플리케이션의 성능을 높인다. 기존 하드웨어 성능을 넘어 AI를 통해 심층적인 데이터 인사이트를 확보하고자 하는 기업에서는 폭넓은 가속기 옵션을 갖춘 XE9680을 중요 자산으로 활용할 수 있다. 고급 처리 능력과 효율적인 공랭식 설계가 결합된 것도 특징이다. 인텔 가우디 3 AI 가속기를 탑재한 파워엣지 XE9680 서버 모델은 2024년 안에 국내 출시될 계획이다  한국 델 테크놀로지스의 김경진 총괄 사장은 “델은 폭넓은 협업 전략을 통해 AI 개발의 경계를 확장하고, 새로운 표준을 끊임없이 제시하고 있다”면서, “고객이 AI 여정의 어느 단계에 있든 목표 달성을 가속하고 미래에 필요하게 될 요구 성능에 대비하는 동시에, 이 여정이 안전하게 지속될 수 있도록 지원하는데 집중할 계획”이라고 덧붙였다.
작성일 : 2024-04-15
인텔, 기업용 AI를 위한 ‘가우디 3’ 및 AI 개방형 시스템 전략 발표
인텔은 연례 고객 및 파트너 콘퍼런스인 ‘인텔 비전 2024’에서 기업용 생성형 AI를 위한 성능, 개방성 및 선택권을 제공할 인텔 가우디 3(Intel Gaudi 3) 가속기를 공개했다. 그리고 이와 함께 생성형 AI 도입 가속화를 위한 새로운 개방형 스케일러블 시스템 스위트, 차세대 제품 및 전략적 협력도 발표했다.  인텔 가우디 3 AI 가속기는 공통 표준을 따르는 이더넷을 통해 최대 수만 개의 가속기를 연결해 AI 시스템을 구동한다. 인텔 가우디 3는 BF16에 대해 4배 더 많은 AI 컴퓨팅 및 기존 모델 대비 1.5배 커진 메모리 대역폭을 지원한다. 인텔은 “이 가속기는 생성형 AI를 대규모로 배포하려는 글로벌 기업에게 AI 학습 및 추론 분야에서 획기적인 도약을 지원할 수 있다”고 설명했다.   ▲ 인텔 팻 겔싱어 CEO   인텔은 가우디 3가 70억 개 및 130억 개의 매개변수가 있는 라마2(Llama2) 모델과 GPT-3 1750억개 매개변수 모델 전체에서 엔비디아 H100보다 평균 50% 더 빠른 학습 시간을 제공할 것으로 예상하고 있다. 또한 인텔 가우디 3 가속기 추론 처리량은 평균적으로 H100보다 50%, 전력 효율성의 경우 라마(Llama) 70억 개 및 700억 개 매개변수와 팔콘(Falcon) 1800억 개 매개변수 모델에서 평균 40% 더 우수할 것으로 예상한다. 인텔 가우디 3는 개방형 커뮤니티 기반 소프트웨어와 업계 표준 이더넷 네트워킹을 제공한다. 또한 기업은 싱글 노드에서 클러스터, 슈퍼 클러스터, 수천 개의 노드가 있는 메가 클러스터로 유연하게 확장할 수 있으며, 최대 규모의 추론, 미세 조정 및 학습을 지원한다. 인텔 가우디 3는 2024년 2분기에 델 테크놀로지스, HPE, 레노버, 슈퍼마이크로를 비롯한 OEM 시스템에 탑재될 예정이다. 또한 인텔은 하드웨어, 소프트웨어, 프레임워크, 툴 등을 포함한 개방형 스케일러블 AI 시스템에 대한 전략을 제시했다. 인텔의 이러한 접근법은 기업별 생성형 AI 요구 사항을 충족하는 솔루션을 제공하기 위한 것으로, 다양하고 개방적인 AI 생태계를 가능케 한다. 여기에는 장비 제조업체, 데이터베이스 공급자, 시스템 통합업체, 소프트웨어 및 서비스 공급자 등이 포함된다. 또한, 기업 고객이 이미 알고 신뢰하는 생태계 파트너 및 솔루션을 활용할 수 있는 부분도 장점으로 꼽힌다. 인텔은 다양한 업계의 기업 고객 및 파트너들과 새롭고 혁신적인 생성형 AI 응용 프로그램을 개발하기 위해 인텔 가우디를 활용해 협력하고 있다고 밝혔다. 예를 들어, 네이버는 클라우드에서부터 온디바이스까지 첨단 AI 서비스를 전세계에 배포하기 위해 강력한 LLM 모델을 개발하고 있는데, 대규모 트랜스포머 아키텍처 기반 모델의 컴퓨팅 작업을 뛰어난 와트 당 퍼포먼스로 실행하기 위해 인텔 가우디를 사용한다. 보쉬는 자사 기반 모델 개발을 포함한 스마트 제조의 가능성을 모색하고 있으며, 합성 데이터 세트 생성과 더불어 자동 광학 검사와 같은 견고하고 분산된 트레이닝 세트 제공한다. 이에 더해 구글 클라우드, 탈레스, 코히시티(Cohesity)가 클라우드 환경에서 기밀 컴퓨팅 역량을 활용할 수 있도록 인텔과의 협력을 발표했다.    인텔은 인텔 가우디 3 가속기 외에도 엔터프라이즈 AI의 모든 부문에 걸쳐 차세대 제품 및 서비스에 대한 업데이트를 발표했다. 새로운 인텔 제온 6 프로세서는 폐쇄적 데이터를 사용하여 비즈니스에 특화된 결과를 생성하는 RAG를 포함한 최신 생성형 AI 솔루션을 실행할 수 있다. 2024년 출시될 차세대 인텔 코어 울트라 클라이언트 프로세서 제품군(코드명 루나레이크)은 차세대 AI PC를 위해 플랫폼 기준 100 TOPS 이상, NPU에서 45TOPS 이상을 제공할 예정이다. 인텔은 울트라 이더넷 컨소시엄(UEC)을 통해 AI 패브릭을 위한 개방형 이더넷 네트워킹을 선도하며 다양한 AI 최적화 이더넷 솔루션을 선보이고 있다.  인텔의 팻 겔싱어(Pat Gelsinger) CEO는 “혁신은 전례 없는 속도로 발전하고 있으며, 반도체가 이 모든 것을 가능하게 한다. 또한 모든 기업이 빠르게 AI 기업으로 거듭나고 있다”면서, “인텔은 PC부터 데이터센터, 에지에 이르기까지 기업 전반의 모든 곳에 AI를 가능하게 하고 있다. 인텔의 최신 가우디, 제온 및 코어 Ultra 플랫폼은 변화하는 고객과 파트너의 요구를 충족하고 앞으로의 엄청난 기회를 활용할 수 있도록  유연한 솔루션 세트를 제공하고 있다”고 밝혔다.
작성일 : 2024-04-11
인텔, 기업용 AI를 위한 가우디 3 및 AI 개방형 시스템 전략, 네이버와 협력 발표
인텔코리아가 4월 11일 여의도 FKI타워(전경련회관)에서 기자간담회를 열고, 미국 애리조나에서 4월 8일~9일(현지시간) 진행된 '인텔 비전 2024'에서 발표된 주요 내용들을 소개했다. 특히 올해 하반기에 새롭게 출시 예정인 기업용 AI를 위한 가우디 3에 대해 자세히 소개하는 시간을 마련했다. 한편 인텔은 네이버가 AI 서비스 개발을 위해 인텔의 가우디 2를 테스트베드로 사용하는데 협력하기로 했다고 전했다. ▲ 인텔 비전 2024을 소개한 국내 기자간담회 현장모습 먼저 인텔의 연례 고객 및 파트너 컨퍼런스인 인텔 비전 2024(Intel Vision 2024)에서 인텔은 기업용 생성형 AI(GenAI)를 위한 성능, 개방성 및 선택권을 제공할 인텔 가우디 3(Intel Gaudi 3) 가속기와 함께 생성형 AI 도입 가속화를 위한 새로운 개방형 스케일러블 시스템 스위트, 차세대 제품 및 전략적 협력을 발표했다.  인텔 CEO 팻 겔싱어(Pat Gelsinger)는 “혁신은 전례없는 속도로 발전하고 있으며, 반도체가 이 모든 것을 가능하게 한다. 또한 모든 기업이 빠르게 AI 기업으로 거듭나고 있다”라며 “인텔은 PC부터 데이터센터, 엣지에 이르기까지 기업 전반의 모든 곳에 AI를 가능하게 하고 있다. 인텔의 최신 가우디, 제온 및 코어 Ultra 플랫폼은 변화하는 고객과 파트너의 요구를 충족하고 앞으로의 엄청난 기회를 활용할 수 있도록  유연한 솔루션 세트를 제공하고 있다”고 밝혔다. ▲ 인텔 비전 2024에서 인텔의 새로운 비전을 소개한 인텔 팻 겔싱어(Pat Gelsinger) CEO  인텔은 기업이 생성형 AI를 파일럿 단계에서 업무에 적용하는 것으로 확장하고자 한다고 전했다. 이를 위해서는 복잡성, 단편화, 데이터 보안 및 규정 준수 요구 사항을 해결하면서 인텔 가우디 3(Intel Gaudi 3) AI 가속기와 같이 성능, 비용 및 전력 효율성이 뛰어난 프로세서를 기반으로 구축된 즉시 도입 가능한 솔루션이 필요하다고 소개했다. 인텔 가우디 3 AI 가속기는 공통 표준을 따르는 이더넷을 통해 최대 수만 개의 가속기를 연결해 AI 시스템을 구동한다. 인텔 가우디 3는 BF16에 대해 4배 더 많은 AI 컴퓨팅 및 기존 모델 대비 1.5배 커진 메모리 대역폭을 지원한다. 이 가속기는 생성형 AI를 대규모로 배포하려는 글로벌 기업에게 AI 학습 및 추론 분야에서 획기적인 도약을 지원할 수 있다. 엔비디아 H100과 비교하여 인텔 가우디 3는 70억개 및 130억개의 매개변수가 있는 라마2(Llama2) 모델과 GPT-3 1750억개 매개변수 모델 전체에서 평균3 50% 더 빠른 학습 시간을 제공할 것으로 예상한다. 또한 인텔 가우디 3 가속기 추론 처리량은 평균적으로 H100보다 50%1, 전력 효율성의 경우 라마(Llama) 70억개 및 700억개 매개변수와 팔콘(Falcon) 1800억개 매개변수 모델에서 평균 40% 더 우수할 것으로 예상한다. 인텔 가우디 3는 개방형 커뮤니티 기반 소프트웨어와 업계 표준 이더넷 네트워킹을 제공한다. 또한 기업은 싱글 노드에서 클러스터, 슈퍼 클러스터, 수천 개의 노드가 있는 메가 클러스터로 유연하게 확장할 수 있으며, 최대 규모의 추론, 미세 조정 및 학습을 지원한다. 인텔 가우디 3는 2024년 2분기에 델 테크놀로지스(Dell Technologies), HPE, 레노버(Lenovo), 슈퍼마이크로(Supermicro)를 비롯한 OEM 시스템에 탑재될 예정이다. 한편 인텔코리아 나승주 상무는 인텔 비전 2024에서 발표된 내용들을 간략히 정리해 소개하는 브리핑을 진행했다. 나승주 상무는 인텔은 기업용 AI 활성화를 위해 개방형 생태계의 힘을 적극적으로 활용할 계획이라며, 가우디 3 AI 가속기는 생성형 AI를 위한 선택권을 제공한다고 설명했다. 기업용 AI는 확장 가능한 개방형 시스템이 될 전망이라고 말했다. 또한 고객 및 파트너 모멘텀으로 네이버 등과 협력하고 있다. 또한 차세대 제품 및 서비스를 위해 가우디 3 등 제품 개발에 힘쓸 계획이라고 밝혔다. ▲ 인텔코리아 나승주 상무 이번 브리핑에 앞서 진행된 네이버와의 협력에 대해서 특별 게스트로 네이버클라우드 이동수 박사(하이퍼스케일 AI담당이사)가 온라인 참석해 협력 관계애 대한 설명과 함께 질의응답에 참여했다. 네이버클라우드 이동주 박사는 AI 반도체 평가와 분석하는 과정에서 인텔 가우디 3의 성능이 뛰어나다는 것을 알게 됐다며, AI 서비스를 지원하기 위해서는 AI 개발을 좀 더 손쉽게 하기 위해서는 소프트웨어 작업들을 많이 하고 있다고 밝혔다. 단기간에 그칠 것이 아니라 국내 스타트업들이 함께 AI 협력을 기대하고 있다고 소개했다. ▲ 네이버클라우드 이동수 박사(하이퍼스케일 AI담당이사) 
작성일 : 2024-04-11
인텔, 기업용 생성형 AI 솔루션 기업 ‘아티큘8’ 설립
인텔은 글로벌 투자 회사인 디지털브릿지 그룹(DigitalBridge Group)과 함께 기업 고객에게 최적화되며 안전한 풀스택 생성형 AI(generative AI) 소프트웨어 플랫폼을 제공하는 독립 회사인 ‘아티큘8 AI(Articul8 AI)’를 설립했다고 발표했다. 아티큘8의 플랫폼은 고객 데이터 학습 및 추론을 기업 보안 경계 내에서 제공하는 AI 기능을 제공한다. 또한 고객에게 클라우드, 온프레미스 또는 하이브리드 배포 중에서 선택할 수 있는 옵션을 제공한다. 아티큘8은 인텔의 지적재산(IP)과 기술을 바탕으로 설립되었으며, 양사는 향후 시장 진출 기회를 전략적으로 모색하고 기업 내 생성형 AI 도입을 위해 적극적으로 협력할 예정이다. 인텔의 데이터 센터 및 AI 그룹의 부사장 겸 총괄이었던 아룬 수브라마니얀(Arun Subramaniyan)이 아티큘8의 초대 CEO로 선임됐다. 아티큘8이 제공하는 턴키 방식의 생성형 AI 소프트웨어 플랫폼은 빠른 속도와 보안 및 비용 효율성을 바탕으로 대기업 고객사의 AI 운용 및 확장을 지원한다. 아티큘8의 플랫폼은 인텔 제온 스케일러블(Intel Xeon Scalable) 프로세서와 인텔 가우디(Intel Gaudi) 가속기 등을 포함한 인텔 하드웨어 아키텍처에 최적화되어 출시되었지만, 추후 다양한 하이브리드 인프라를 지원할 예정이다. 아티큘8은 보스턴 컨설팅 그룹(BCG)에 아티큘8 플랫폼을 배포하였고 현재 금융 서비스, 항공 우주, 반도체, 통신 등 높은 보안성과 분야별 전문 지식을 요하는 산업의 기업 고객을 대상으로 플랫폼을 확장해 나가고 있다고 밝혔다.     아티큘8은 디지털브릿지의 벤처 이니셔티브인 디지털브릿지 벤처스가 리드 투자사로 참여했으며, 인텔과 함께 핀캐피탈(Fin Capital), 마인드셋벤처스(Mindset Ventures), 커뮤니타스캐피탈(Communitas Capital), 자이언트립캐피탈(GiantLeap Capital), GS퓨처스(GS Futures), 자인그룹(Zain Group)등의 벤처 투자사도 참여했다. 업계 투자를 받고 있는 독립 회사인 아티큘8은 앞으로 자사의 시장 진출을 가속하고 보다 방대한 생성형 AI 생태계를 위해 제품군을 확대해 나갈 계획이다. 인텔의 팻 겔싱어(Pat Gelsinger) CEO는 “아티큘8은 AI 및 HPC 분야의 전문 지식과 기업용 생성형 AI 배포를 바탕으로 인텔을 비롯해 다양한 고객과 파트너로 이루어진 방대한 생태계에 실질적인 비즈니스 성과를 제공할 수 있는 유리한 입지에 있다”면서, “인텔이 AI 에브리웨어(AI Everywhere) 구현 가속화에 힘쓰고 있는 만큼, 앞으로 아티큘8과의 지속적인 협력을 기대한다”고 말했다. 디지털브릿지의 마크 간지(Marc Ganzi) CEO는 “현재 글로벌 기업들은 저마다 생성형 AI를 자사의 워크플로에 통합해야 하는 과제를 안고 있다. 아티큘8에서 구축한 확장 가능하고 배포가 용이한 생성형 AI 소프트웨어 플랫폼을 통해 기업들은 이미 자사의 데이터에서 가치를 실현하고 있다. 생성형 AI는 디지털 인프라를 촉진하는 중심축이 될 것이며, 디지털브릿지가 인텔과 함께 아티큘8의 성장을 도모할 수 있게 되어 기쁘다”고 말했다.
작성일 : 2024-01-08
인텔, “5세대 제온 및 코어 울트라 프로세서로 AI PC 시대를 주도한다”
인텔은 데이터 센터부터 클라우드, 네트워크, PC, 에지 등 다양한 인프라에서 AI 솔루션을 구현할 수 있도록 지원하는 5세대 인텔 제온 프로세서와 인텔 코어 울트라 프로세서를 출시했다. 5세대 인텔 제온(Intel Xeon) 프로세서 제품군은 모든 코어에 AI 가속기를 내장해 AI 성능 및 전반적인 성능을 높이고 총소유비용(TCO)을 줄인다. 그리고 노트북용 인텔 코어 울트라(Intel Core Ultra) 프로세서 제품군은 인텔 4 공정 기술 및 40년 만에 최대 규모로 변화한 아키텍처를 기반으로 설계된 프로세서로 높은 전력 효율을 제공한다. 또한, 인텔은 2024년 출시 예정인 차세대 AI 가속기 ‘인텔 가우디3(Intel Gaudi3)’에서 기업의 대규모 언어 모델(LLM) 및 딥러닝 워크로드 실행에 최적화된 성능을 제공할 예정이라고 밝혔다.   ▲ 5세대 인텔 제온 스케일러블 프로세서를 선보인 인텔코리아 나승주 상무   5세대 인텔 제온 프로세서 제품군은 이전 세대 제품 대비 성능과 효율성에서 큰 폭의 개선을 보이면서, 초대형 AI 모델뿐 아니라 에지 및 클라이언트에서 점차 증가하는 민첩한 소규모 AI 모델 수요를 충족시키며 하이브리드 AI 성장을 지원한다. 4세대 제온과 비교해, 새로운 제온 프로세서는 동일한 전력 범위 내에서 평균 21% 향상된 범용 컴퓨팅 성능을 제공하며, 평균 36% 향상된 와트당 성능을 제공해 기업의 광범위한 워크로드 요구사항을 충족시킨다. 인텔은 5년 주기로 업그레이드하는 고객 및 이전 세대에서 업그레이드하는 고객이 최대 77%까지 TCO를 절감할 수 있다고 전했다. 제온은 AI 가속기를 내장한 메인스트림 데이터 센터 프로세서다. 새롭게 출시되는 5세대 제온은 최대 200억 개 파라미터 규모의 대형 모델 상에서 최대 42% 향상된 추론 및 미세 조정 성능을 구현한다. 그 밖에도 MLPerf 훈련 및 추론 벤치마크 결과에서 일관적으로 성능을 향상시켜 온 것으로 나타났다. 제온에 내장된 AI 가속기는 통신 서비스 제공업체, 콘텐츠 전송 네트워크 및 소매·의료·제조를 포함한 다양한 시장을 대상으로 최적화된 소프트웨어 및 향상된 텔레메트리(원격자료송수신) 기술과의 결합을 통해 까다로운 네트워크 및 에지 워크로드를 더욱 손쉽고 효율적으로 배포할 수 있도록 지원한다. 인텔코리아의 나승주 상무는 “5세대 인텔 제온 프로세서는 AI 워크로드를 효율적으로 처리하기 위해 설계된 제품으로, 고객이 클라우드, 네트워크에서 에지에 이르는 광범위한 인프라에서 AI 역량을 갖추도록 지원할 것”라며, “인텔은 AI 인프라 구축 및 배포를 쉽게 만드는 하드웨어와 소프트웨어를 함께 제공함으로써 개발자가 어디서나 AI를 구현할 수 있도록 지원할 것”이라고 말했다.   ▲ 인텔 코어 울트라 프로세서를 선보인 인텔코리아 최원혁 상무   인텔 코어 울트라는 인텔 최초의 클라이언트 온칩 AI 가속기인 ‘신경처리장치(NPU)’가 새로 탑재돼 이전 세대와 비교해 2.5배 높은 전력 효율성을 제공하며, AI 가속 기능을 지원한다. 높은 수준의 GPU 및 CPU가 탑재돼 AI 솔루션 실행 속도를 더욱 가속화시킨다. 인텔 코어 울트라는 2024년 전 세계 노트북 및 PC 제조사의 230여 가지의 제품에 탑재돼 AI 가속 기능을 지원할 예정이며, 인텔은 앞으로 100여 개의 독립 소프트웨어 공급업체(ISV)와 협력해 PC 시장에 AI로 개선된 수백 가지의 애플리케이션을 선보일 계획이다. 인텔은 일반 소비자 및 기업 고객이 자신의 PC에서 이전보다 더 큰 규모로 더욱 광범위해진 AI 기반 애플리케이션의 성능을 활용할 수 있게 될 것으로 보고 있으며, AI의 성능 향상 이점에 힘입어 AI PC가 2028년까지 PC 시장에서 80%의 비중을 차지할 것으로 예상한다. 인텔코리아의 최원혁 상무는 “앞으로 2년 동안 인텔은 전용 AI 가속기를 탑재한 1억 개의 클라이언트 프로세서를 공급할 것이며, 이는 시장에서 가장 많은 물량을 공급하는 것”이라면서, “인텔은 폭넓은 하드웨어와 소프트웨어 파트너사들이 포함된 생태계와 협력해 차세대 컴퓨팅인 AI PC에서 최고의 위치를 점유해 나갈 것”이라고 설명했다. 인텔은 5세대 제온과 코어 울트라가 다양한 분야에서 에지 컴퓨팅의 새로운 활용 사례를 제시할 것으로 전망했다. 에지 컴퓨팅은 컴퓨팅 시장에서 가장 빠르게 성장하고 있으며, 향후 10년 안에 전 세계적으로 4450억 달러(약 578조 550억 원)의 가치를 지닌 시장으로 성장할 전망이다. 특히 에지 및 클라이언트 장치는 데이터 센터와 비교해 1.4배 더 많은 AI 추론 수요를 견인하고 있으며, AI는 가장 빠르게 성장하는 에지 컴퓨팅 워크로드가 됐다. 한편, 인텔은 “개발자가 사용하는 AI 프레임워크에 대한 최적화 기능 및 원API(oneAPI)를 통한 라이브러리 제공, AI 워크로드/솔루션에 하드웨어 가속 기능을 적용한 고급 개발자 도구 등 AI 하드웨어 기술의 접근성과 사용 편의성을 높이기 위해 노력하고 있다”면서, 딥러닝 및 대규모 생성형 AI 모델용 차세대 AI 가속기인 ‘인텔 가우디3(Intel Gaudi3)’가 2024년 출시될 것이라고 밝혔다. 인텔은 경쟁력 높은 TCO 및 가격대와 함께 더욱 향상된 성능 혜택을 바탕으로 가우디 파이프라인을 빠르게 확장하고 있다. 인텔은 생성형 AI 솔루션 수요가 증가하면서 2024년에는 가우디가 주도하는 AI 가속기 제품군을 주축으로 가속기 시장 점유율을 넓히겠다는 전략도 제시했다. 인텔코리아의 권명숙 사장은 “현재 전 산업의 디지털 전환 수요가 고도화되는 가운데, AI 혁신의 가속화로 인해 현재 GDP의 약 15%를 차지하는 디지털 경제의 비중이 앞으로 10년 안에 약 25%로 증가할 것이며, AI는 이를 가속화해 결국엔 GDP의 1/3 규모로 성장할 것”이라면서, “인텔은 효율적인 최상의 AI 성능을 제공하는 하드웨어 및 소프트웨어 솔루션을 지원해 고객이 클라우드, 네트워크는 물론 PC와 에지 인프라까지 AI를 원활하게 구축하고 확장해나갈 수 있도록 지원할 것”이라고 전했다.
작성일 : 2023-12-18
인텔, “4세대 제온 프로세서와 가우디 가속기로 GPT-3 성능 향상”
인텔은 ML커먼스가 인텔 가우디2(Intel Gaudi2) 가속기 및 인텔 어드밴스드 매트릭스 익스텐션(Intel AMX)이 탑재된 4세대 인텔 제온 스케일러블 프로세서의 AI 모델 학습에 대한 업계 표준 MLPerf 트레이닝(MLPerf Training) v3.1 벤치마크 측정 결과를 발표했다고 밝혔다.  최신 ML커먼스의 MLPerf 결과는 지난 6월 발표한 MLPerf 트레이닝 결과보다 강력한 인텔의 AI 성능을 기반으로 한다. 벤치마크 결과에 따르면, 가우디2는 v3.1 학습 GPT-3 벤치마크에서 FP8 데이터 유형을 적용해 두 배 높은 성능을 보여줬다.  인텔 가우디2 및 4세대 제온 프로세서는 다양한 하드웨어 구성으로 우수한 AI 학습 성능을 입증해 점점 더 다양해지는 고객의 AI 컴퓨팅 요구 사항을 해결할 수 있다. 인텔은 “가우디2는 AI 컴퓨팅 요구사항에 있어 가격 대비 높은 성능을 제공한다. 가우디2에 대한 MLPerf 결과는 AI 가속기의 학습 성능이 향상되었음을 입증한다”고 밝혔다.   ▲ 인텔 가우디2 가속기   가우디2는 FP8 데이터 유형 구현으로 v3.1 학습 GPT-3 벤치마크에서 두 배의 성능 향상을 보였다. 6월 MLPerf 벤치마크 대비 학습 시간이 절반 이상으로 단축됐으며, 384개의 인텔 가우디2 가속기를 사용해 153.38분 만에 학습을 완료하기도 했다. 가우디2 가속기는 E5M2 및 E4M3 형식 모두에서 FP8을 지원하며 필요 시 지연 스케일링 옵션도 제공한다. 인텔 가우디2는 BF16을 사용해 20.2분 만에 64개의 가속기로 스테이블 디퓨전(Stable Diffusion) 멀티모달 모델에 대한 학습을 시연했다. 향후 MLPerf 트레이닝 벤치마크에서는 FP8 데이터 유형에 대한 스테이블 디퓨전 성능이 제출될 예정이다. 8개의 인텔 가우디2 가속기에서 BERT와 ResNet-50에 대한 벤치마크 결과는 각각 BF16을 사용하여 13.27분과 15.92분을 나타냈다. 한편, 4세대 제온 스케일러블 프로세서의 ResNet50, RetinaNet 및 BERT에 대한 결과는 2023년 6월 MLPerf 벤치마크에 제출된 기본 성능 결과와 유사하게 나타났다. DLRM dcnv2는 6월에 제출된 새로운 CPU 모델로, 4개의 노드만 사용해 227분의 학습 시간을 기록했다. 인텔은 “4세대 제온 프로세서의 성능을 통해 많은 엔터프라이즈 기업이 범용 CPU를 사용하여 기존 엔터프라이즈 IT 인프라에서 중소 규모의 딥 러닝 모델을 경제적이고 지속적으로 학습할 수 있으며, 특히 학습이 간헐적인 워크로드인 사용 사례에 적합하다”고 전했다. 한편, 인텔은 소프트웨어 업데이트 및 최적화를 통해 향후 MLPerf 벤치마크에서 AI 성능 결과가 더욱 향상될 것으로 예상하고 있다. 인텔은 고객에게 성능, 효율성 및 유용성을 요구하는 동적인 요구 사항을 충족하는 AI 솔루션에 대한 더 많은 선택지를 제공하겠다는 전략이다. 인텔 데이터센터 및 AI 그룹 총괄 산드라 리베라(Sandra Rivera) 수석부사장은 “인텔은 AI 포트폴리오를 지속적으로 혁신하고 있으며, 연이은 MLPerf 성능 결과를 통해 ML커먼스 AI 벤치마크의 기준을 높이고 있다. 인텔 가우디 및 4세대 제온 프로세서는 고객에게 뚜렷한 가격 대비 성능 이점을 제공하며 즉시 사용 가능하다. 인텔의 다양한 AI 하드웨어 및 소프트웨어 구성은 고객에게 AI 워크로드에 맞는 포괄적인 솔루션과 선택지를 제공한다”고 말했다.  
작성일 : 2023-11-10
인텔 랩, 텍스트로 360도 이미지를 생성하는 AI 확산 모델 공개
인텔 랩은 블록케이드 랩(Blockade Labs)과 협력해 생성형 인공지능(AI)을 사용해 사실적인 3D 시각 콘텐츠를 제작하는 새로운 확산 모델인 LDM3D(Latent Diffusion Model for 3D)를 공개했다. LDM3D는 확산 프로세스를 사용해 뎁스 맵(depth map)을 생성하며, 선명하고 몰입감 있는 360도 3D 이미지를 생성한다. 인텔 랩은 "LMD3D는 콘텐츠 제작, 메타버스 애플리케이션, 디지털 경험의 혁신을 통해 엔터테인먼트, 게임, 건축, 디자인에 이르기까지 다양한 산업을 바꿀 잠재력을 가지고 있다"고 평가했다. 컴퓨터 비전 분야, 특히 생성형 AI는 최근 몇 년 간 상당한 발전을 이룬 분야 중 하나이지만, 현재 고급 생성형 AI 모델 중 상당수는 2D 이미지 생성에 국한되어 있다. LDM3D를 사용하면 주어진 텍스트 프롬프트에서 이미지와 뎁스 맵 모두 생성할 수 있다. 잠재 안정 확산 모델과 거의 동일한 수의 파라미터를 사용하는 LDM3D는 깊이 추정을 위한 표준 포스트 프로세싱 방법 대비 이미지 각 픽셀에 대한 더욱 정확한 상대적 깊이를 제공한다.     LDM3D는 4억 개 이상의 이미지 및 캡션을 포함하고 있는 LAION-400M 데이터베이스의 1만 개의 샘플 하위 집합으로 구성된 데이터 세트 기반으로 학습됐다. 팀은 학습 말뭉치(corpus)에 주석을 달기 위해 과거 인텔 랩에서 개발한 고밀도 예측 트랜스포머(DPT) 대규모 추정 모델을 사용했다. DPT 모델은 이미지의 각 픽셀에 대해 정확한 상대적 깊이를 제공한다. LAION-400M 데이터세트는 연구진은 물론 해당 분야에 관심을 가진 커뮤니티가 대규모로 모델 학습을 테스트할 수 있도록 연구 목적으로 구축됐다. LDM3D 모델은 인텔 제온 프로세서와 인텔 하바나 가우디 AI 가속기로 구동되는 인텔 AI 슈퍼컴퓨터에서 학습됐다. 결과 모델 및 파이프라인은 생성된 RGB 이미지와 뎁스 맵을 결합해 몰입감 넘치는 360도 뷰를 생성한다. 인텔과 블로케이드 연구진은 LDM3D의 잠재력을 선보이기 위해 표준 2D RGB 사진과 뎁스 맵을 활용, 몰입감 높은 상호활동적인 360도 뷰 경험을 제작하는 뎁스퓨전(DepthFusion)을 개발했다. 뎁스퓨전은 실시간 멀티미디어 콘텐츠를 위한 노드 기반 시각적 프로그래밍 언어인 터치 디자이너(TouchDesigner)를 활용, 텍스트 프롬프트를 상호활동적이고 몰입감 있는 디지털 경험으로 전환한다. LDM3D 모델은 RGB 이미지와 뎁스 맵을 모두 생성하는 단일 모델로서 메모리 공간을 절약하고 지연 시간을 개선한다. 해당 연구는 사용자가 이전에는 상상할 수 없던 방식으로 텍스트 프롬프트를 경험할 수 있게 함으로써, 디지털 콘텐츠와 상호 작용하는 방식을 혁신적으로 바꿀 수 있다. LDM3D로 생성된 이미지와 뎁스 맵을 통해 사용자는 텍스트 묘사를 고요한 열대 해변, 현대적인 고층 빌딩 또는 공상 과학 세계의 설명을 360도 디테일한 파노라마로 전환할 수 있다. 방대한 정보를 포착할 수 있는 이 기능은 전반적인 사실감과 몰입감을 즉각적으로 향상시켜 엔터테인먼트, 게임, 인테리어 디자인, 부동산 목록은 물론 가상 박물관부터 몰입형 가상현실(VR) 경험까지 다양한 산업 분야에서 혁신적인 애플리케이션을 구현할 수 있다. 인텔은 인간의 역량을 높이고 강력한 오픈소스 AI 연구 개발 생태계를 구축해 더 많은 사람들이 기술을 활용할 수 있도록 생성형 AI 활용에 대한 연구를 지속한다는 계획이다. LMD3D는 허깅페이스를 통해 오픈소스로 제공되며, 이는 AI 분야의 개방형 생태계를 강력히 지원하기 위한 인텔의 노력의 일환이다. AI 연구진들은 이 시스템을 더욱 개선하고 애플리케이션에 따라 조정할 수 있다. 인텔 랩의 바스데브 라르(Vasudev Lal) 인공지능/머신러닝 담당 과학자는 "생성형 AI 기술의 목표는 인간의 창의력을 더욱 향상시키며 시간을 절약하는 것이다. 그러나 오늘날 생성형 AI 모델은 대부분 2D 이미지 생성에 국한되어 있으며 텍스트로 3D 이미지를 생성할 수 있는 모델은 극소수에 불과하다”면서, “기존의 잠재 안정 확산 모델과 달리 LDM3D를 사용하면 거의 동일한 수의 파라미터를 사용하여 주어진 텍스트 프롬프트에서 이미지와 뎁스 맵을 생성할 수 있다. 깊이 추정을 위한 표준 후처리 방법에 비해 이미지의 각 픽셀에 대해 더 정확한 상대적 깊이를 제공하며 개발자는 상당한 시간을 절약할 수 있다"고 말했다.
작성일 : 2023-06-23
인텔-Arm-엔비디아, "AI 소프트웨어 개발 위한 하드웨어 사양 통합에 나선다"
인텔과 Arm 그리고 엔비디아는 인공지능(AI) 학습과 추론에 적용되는 교환가능 포맷을 제공하기 위해 8비트 부동소수점(FP8) 사양 및 E5M2와 E4M3을 기술하는 논문을 공동으로 작성했다고 밝혔다. 이들 업체는 기업간 사양 합의를 통해 다양한 AI 모델이 하드웨어 플랫폼을 넘나들며 일관되게 작동하고 성능을 발휘하고, AI 소프트웨어 개발을 가속화할 수 있을 것으로 기대하고 있다. 인공지능에 대한 컴퓨팅 요구 사항은 기하급수적으로 증가하고 있다. AI를 발전시키는 데 필요한 컴퓨팅 처리량을 달성하기 위해서는 하드웨어와 소프트웨어에 걸쳐 새로운 혁신이 필요한 상황이다. 증가하는 컴퓨팅 격차를 해결하기 위해 각광받고 있는 연구 분야 중 하나는 메모리 및 계산 효율성 개선을 위한 딥 러닝에 대한 수치 정밀 요구 사항을 줄이는 것이다. 정밀도 감소 방법은 심층 신경망의 고유한 노이즈 복원 특성을 활용해 컴퓨팅 효율성을 향상한다. FP8은 하드웨어와 소프트웨어 간의 균형을 기반으로 기존 IEEE 754 부동소수점 형식으로부터의 편차를 최소화하여 기존에 적용 부분을 활용하고 신규 채택을 가속화하고 개발자 생산성을 향상한다. Arm, 엔비디아 및 인텔의 해당 포맷 제안의 원칙은 IEEE 표준화에 기반한 규약, 개념 및 알고리즘을 활용하는 것이다. 이번 포맷 제안은 현재의 산업 규약을 고수하면서 미래의 AI 혁신을 위한 큰 폭의 자유도를 부여하기 위한 것이다. 인텔은 "하바나 가우디 딥 러닝 가속기를 포함한 CPU, GPU 및 기타 AI 가속기에 대한 AI 제품 로드맵에서 해당 사양을 지원할 계획"이라고 전했다.
작성일 : 2022-09-16
인텔, "2세대 하바나 가우디2의 딥러닝 학습 성능이 엔비디아 A100을 넘어섰다"
인텔은 MLPerf 산업 벤치마크의 측정 결과, 자사의 2세대 하바나 가우디2 딥 러닝 프로세서가 엔비디아 A100보다 AI 총 학습 시간(Time-to-Train, 이하 TTT) 성능이 높았다고 밝혔다. MLPerf 공동체는 머신러닝 솔루션에 대해 '정확성, 속도, 효율성에 대한 일관적인 측정치'를 제공하는 공정하고 유용한 벤치마크를 설계하는 것을 목표로 한다. 학계, 연구실, 업계의 AI 분야 리더들이 벤치마크를 결정하며, 공급업체 간 공정한 비교를 보장하는 규칙을 정의하고 있다. MLPerf에 결과를 제출하는 경우, 이를 검증하기 위해 한 달 동안의 동료 검토 프로세스를 거친다. 인텔 데이터 센터 팀은 하바나 랩스(Habana Labs)의 가우디 플랫폼을 활용해 딥 러닝 프로세서 기술에 중점을 두었으며, 데이터 과학자 및 머신러닝 엔지니어가 학습을 가속화할 수 있도록 지원했다. 아울러, 몇 줄의 코드로 새로운 모델을 구축하거나 기존 모델을 이전해 생산성을 높이고 운영 비용을 절감할 수 있도록 구현했다.   ▲ 하바나 가우디2 메자닌 카드   하바나 랩스는 8개의 GPU 서버 및 HLS-가우디2 레퍼런스 서버 상에서 가우디1 및 가우디2와 기존 상용 소프트웨어 간 성능을 비교했다. 학습 처리량은 NGC 및 하바나 공용 저장소의 텐서플로우 도커를 사용해 측정했으며, 제조사에서 권장하는 최고의 성능 매개 변수를 채택했다. 하바나 가우디2는 1세대 가우디 제품에 비해 TTT 부문에 있어 발전을 이루었다. 하바나 랩스는 지난 2022년 5월 진행한 MLPerf 벤치마크를 통해 가우디2가 8개의 가속기를 사용하는 비전 및 언어 모델에서 엔비디아 A100-80G 대비 높은 성능을 기록했다고 밝혔다. ResNet-50 모델의 경우, 가우디2는 엔비디아 A100-80G 제품 대비 학습 시간이 36% 단축됐다. 델이 진행한 8개의 가속기 서버에서 진행한 ResNet-50 모델 및 BERT 모델 학습 테스트 결과 가우디2가 엔비디아 A100-40GB 대비 학습 시간을 45% 단축했다. 또한, 가우디2는 1세대 가우디 대비 ResNet-50 및 BERT 모델에서 각각 3배와 4.7배 높은 학습 처리량을 기록했다. 인텔은 해당 프로세서를 기존 16나노 공정에서 7나노 공정으로 전환해 텐서 프로세서 코어 수를 3배 늘렸고, GEMM 엔진 컴퓨팅 용량 증설, 패키지 내 고대역폭 메모리 용량 3배 확대, 대역폭 및 SRAM 크기 2배 확장을 통해 이번 성과를 달성했다. 비전 모델의 경우 가우디2는 독립적으로 작동해 AI 학습에 필요한 데이터 증강을 포함, 압축 영상화를 위한 전반적인 전처리 파이프를 처리할 수 있는 통합 미디어 엔진 형태의 기능을 갖췄다. 하바나 랩스의 에이탄 메디나(Eitan Medina) 최고운영책임자는 “가우디2는 최신 MLPerf 결과로도 입증됐듯이 모델 학습에 있어 업계 선도적인 성능을 제공한다”며 “하바나 랩스는 비용 경쟁력이 높은 AI 학습 솔루션을 제공하기 위해 딥 러닝 교육 아키텍처와 소프트웨어를 지속적으로 혁신하고 있다”고 말했다. 인텔의 데이터센터 및 AI 그룹을 총괄하는 산드라 리베라(Sandra Rivera) 수석부사장은 “가우디2가 출시 한 달 만에 MLPerf 벤치마크에서 뛰어난 성능을 기록해 기쁘다”면서, “인텔은 비전 및 언어 모델 모두에서 동급 최고의 성능을 제공해, 고객에 가치를 제공하고 AI 딥러닝 솔루션 개발을 가속화하도록 지원할 것”이라고 전했다.
작성일 : 2022-07-01
국내 최대 규모 도심형 VR 테마파크, ‘몬스터 VR’ 오픈
문화체육관광부와 한국콘텐츠진흥원(KOCCA)이 8월 4일 오전 11시 인천 송도 트리플 스트리트에서 국내 최대 규모의 도심형 VR테마파크 ‘몬스터 VR’의 오픈식을 개최한다고 밝혔다. 이날 행사는 정식 개관을 축하하는 테이프 커팅과 축사 및 VR 체험 등으로 진행된다. ‘몬스터 VR’은 놀이공원 규모의 인테리어에 VR 콘텐츠의 엔터테인먼트적인 요소를 가미한 신개념 테마파크로, ▲정글존 ▲시네마 VR존 ▲큐브 VR존 ▲익스트림 VR존 등 총 4개의 테마존으로 구성됐으며, 이용자가 테마파크에 온 기분을 느낄 수 있도록 꾸며졌다. 한콘진의 ‘2017 VR콘텐츠 체험존 구축 지원사업’에 선정된 지피엠, 비브스튜디오스, 미디어프론트가 참여해 사업을 수행했다.  정글존에서는 열기구와 번지점프, 래프팅 등 다양한 스포츠·레저 콘텐츠를 체험할 수 있으며, 시네마 VR존에서는 <볼트 : 체인시티(VOLT : chain city)>, , 등 VR 영상콘텐츠를 상영한다. <볼트 : 체인시티>는 올해 1월, 미국에서 개최된 VR영화제‘VR FEST’에서 글로벌 최우수 애니메이션상을 수상한 작품으로 미국 AIS(Advanced Imaging Society)가 개최하는 ‘뤼미에르어워즈(The LumiereAwards)’에서도 VR 애니메이션 부문 수상후보에 오른 바 있다.  시네마 VR존은 사업 참여기관인 비브스튜디오스가 삼성전자, 피엔아이시스템, VR 오디오 스타트업인 가우디오디오랩과 함께 구축해 대·중소기업 간 상생협력에 앞장선 모범사례로 꼽힌다.  큐브 VR존에서는 3m2 x 3m2 룸 안에서 사격, 우주체험 등 20여 종의 다채로운 콘텐츠를 즐길 수 있다. VR 큐브는 콘텐츠를 선보이려는 개발자와 콘텐츠를 즐기고 싶은 소비자를 이어주는 유통 플랫폼으로서 VR 제작사와의 상생을 위한 서비스 인프라는 물론, 투명한 정산시스템을 제공해 VR 유통과 대중화를 이끌 것으로 기대된다. 몬스터 VR은 해외 VR 테마파크와 견주었을 때 뒤지지 않는 높은 경제성과 다양성을 자랑한다고. 미국, 유럽, 일본 등의 VR 테마파크가 평균 10개 내외의 콘텐츠를 보유한 것에 비해 ‘몬스터 VR’은 영화·게임·스포츠·교육·음악 등 해외 선진국보다 4배 가량 많은 총 40개의 콘텐츠를 갖추고 있다는 점이 특징이다. 이밖에 국내 VR콘텐츠 유통 활성화를 위해 우수 정부지원과제를 수급해 시연하고, 중·소기업의 다양한 VR콘텐츠를 테스트하는 거점으로도 활용되는 등 국내 VR산업 전반의 동반성장을 위한 공공 플랫폼으로서의 역할도 수행할 예정이다.  한국콘텐츠진흥원 강만석 원장 직무대행은 “몬스터 VR은 국내 우수 VR 콘텐츠가 세계시장을 선점해 나갈 수 있도록 발판을 마련해주는 핵심 거점 중 하나가 될 것”이라며 “앞으로도 한콘진은 역량 있는 VR 콘텐츠의 성장을 견인하고 대한민국 VR산업의 글로벌 경쟁력 강화를 위해 관련 인재육성에도 앞장서는 등 전방위적 지원에 나설 계획”이라고 말했다. 한편 ‘몬스터 VR’ 입장료는 성인 1인 기준으로 평일(월~목) 자유이용권 28,000원, 주말(금~일) 자유이용권 38,000원이다. 2인 자유이용권, 패밀리 자유이용권 구매 시 할인된 가격이 적용된다. 이용시간은 오전 10시 30분부터 오후 10시까지다.
작성일 : 2017-08-03