• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "추론"에 대한 통합 검색 내용이 257개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
[포커스] PLM/DX 베스트 프랙티스 컨퍼런스 2024, 제조산업의 디지털 전환 전략과 사례 소개 (2)
‘PLM/DX 베스트 프랙티스 컨퍼런스 2024’가 지난 6월 13~14일 온라인으로 진행됐다. 한국산업지능화협회, 한국CDE학회, 캐드앤그래픽스가 공동 주최하는 이번 행사는 20주년을 맞아 이름을 바꾸었으며, 제품/제조 데이터와 프로세스를 통합 관리하는 PLM(제품 수명주기 관리)과 함께 제조산업의 혁신을 위한 디지털 전환(DX)에 대해 폭넓게 짚어보는 기회가 되었다. ■ 정수진 편집장   ▲ 한국CDE학회 유병현 회장, SK경영경제연구소 김지현 부사장, 캐드앤그래픽스 최경화 국장   한국CDE학회 유병현 회장은 격려사를 통해 “지난 20년 동안 PLM 베스트 프랙티스 컨퍼런스는 국내 PLM 분야의 성공 사례를 공유하면서 제조업계의 경쟁력을 높이는 마중물 역할을 해왔다. 특히, 올해는 ‘PLM/DX 베스트 프랙티스 컨퍼런스’로 명칭을 변경하고 제조업계의 화두인 디지털 전환과 디지털 트윈, 생성형 AI의 도입을 통해서 변화하는 트렌드에 주목하고자 한다”고 전했다. 그리고 “생성형 AI와 소프트웨어 주도의 변화는 제조업계를 한 단계 도약시키는 큰 기여를 하게 될 것이며, 이러한 변화는 우리가 미래를 준비하는데 필수적인 요소가 될 것”이라면서, “지난 20년 동안 PLM 베스트 프랙티스 컨퍼런스를 공동 주최하면서 함께 성장해 온 한국CDE학회는 CAD/CAM부터 인공지능과 디지털 전환, 생성형 AI에 이르기까지 다양한 기술의 융합을 통해서 디지털 혁신을 선도하고자 한다”고 덧붙였다.   ▲ 한국CDE학회 유병현 회장(한국과학기술연구원)   이번 행사에서는 ‘PLM 베스트 프랙티스 적용 사례 & DX 전략(6월 13일)’과 ‘디지털 전환을 위한 신기술과 솔루션(6월 14일)’이라는 두 개의 트랙에서 14편의 발표를 통해 다양한 내용이 소개됐다.   ■ 함께 읽기 : [포커스] PLM/DX 베스트 프랙티스 컨퍼런스 2024, 제조산업의 디지털 전환 전략과 사례 소개 (1)   AI가 가져 올 제조산업의 새로운 가치 행사 둘째 날인 6월 14일에는 SK경영경제연구소의 김지현 부사장이 ‘AI를 품은 제조업의 서비스 혁신’이라는 주제의 기조연설을 통해 “챗GPT(ChatGPT)로 대표되는 생성형 AI가 제조 공정의 혁신을 가져다 줄 수 있으며, 각종 디지털 디바이스가 생성형 AI와 결합될 때 새로운 고객 가치와 사용자 경험을 만들어낼 수 있다”고 짚었다. 기존에도 빅데이터나 AI 기술을 접목한 로봇은 존재했다. 하지만 생성형 AI의 차이점은 LLM(대규모 언어 모델)으로 사람의 말을 이해해 대화가 가능하고, LMM(대규모 멀티 모달 모델)을 통해 주변 상황을 인지할 수 있다는 것이다. 김지현 부사장은 “사람처럼 눈과 귀가 달려서 상황의 변화를 인식하고 사람의 말을 명확하게 이해해서 이를 기반으로 공장에서 작동하는 로봇이 향후 몇 년 사이에 확산된다면 제조 공정의 혁신을 더욱 가속화할 것”이라고 전망했다. 이런 제조 공정 혁신과 함께 디바이스 즉 하드웨어의 변화도 본격화될 것으로 보인다. 기존의 하드웨어가 AI를 품으면서, 이를 기반으로 하드웨어의 성능과 기능이 더욱 향상된다는 것이다.  김지현 부사장은 “AI 칩과 SLM(소형 언어 모델)이 내장된 디바이스는 더욱 다양한 사용자 경험과 편의, 새로운 가치를 제공한다. 하드웨어를 만드는 제조업체로서는 새로운 기술 혁신과 제품 혁신의 기회를 얻는다는 부분에 주목할 필요가 있다”고 말했다. 또한, 김지현 부사장은 “지난 30년간의 디지털 전환에서 아날로그와 디지털이 따로 놀았다면 앞으로의 디지털 전환은 디지털에서 구현된 것이 아날로그에서도 구현되고, 아날로그에서 반영된 것이 디지털로도 구현되면서 양쪽이 긴밀하게 결합되는 세상으로 바뀌고 있다”고 짚으면서, “제조업의 향후 과제는 공장을 어떻게 디지털 트윈이나 스마트 팩토리로 만들 것인가, 그리고 AI를 활용을 해서 어떻게 제품을 온디바이스 AI화할 것인가가 되었다고 본다”고 전했다.   ▲ SK경영경제연구소 김지현 부사장   비전 AI 분야의 발전과 전망 소개 씨이랩의 이문규 책임리더는 ‘다양한 산업에서 적용되는 비전 AI의 현재와 미래’라는 주제의 기조연설에서 비전 AI의 현재와 미래, 그리고 제조 물류 분야에서 비전 AI 모델의 활용 방안에 대해 소개했다. 비전 AI(vision AI)는 컴퓨터가 시각적 세계를 해석하고 이해하는 부분에 관한 인공지능 분야이다. 비전 AI의 발전은 하드웨어, 빅데이터 알고리즘, 딥러닝 기술과 같이 진보했으며 다양한 산업에서 혁신을 이끌고 있다. 이문규 책임리더는 “비전 AI 시장은 연평균 21.5% 성장하고 있으며, 시장 규모는 457억 달러에 이를 것으로 추산된다. 비전 AI의 성장은 심층 학습, 딥페이크를 생성하는 대립 네트워크, 컴퓨터 비전의 자연어 처리 등의 기술 발전에 영향을 받고 있으며, 멀티 모달 AI 기술의 발전으로 새로운 응용 서비스가 꾸준히 나오고 있다”고 소개했다. 비전 AI 분야에서는 방대한 데이터셋, 광대규모의 데이터셋, 광범위한 데이터에 대한 증강, 모델 성능을 최적화하기 위한 훈련 체계 등의 기술이 꾸준히 발전하고 있다. 그리고, 대형 비전 모델의 발전은 이미지 객체의 탐지 및 인식뿐 아니라 복잡함 이미지를 인간 수준으로 이해할 수 있도록 가능성의 경계를 넓히는 도전을 하고 있다. 이런 기술 발전은 물류, 제조, 자율주행, 의료 이미지 분석, 감시 시스템 등 다양한 산업 분야로 비전 AI의 확장을 뒷받침하는 추세이다. 이문규 책임리더는 “씨이랩은 영상 분석을 전문으로 하는 회사로, AI 모델의 학습/추론 영역에서 GPU를 효율적으로 활용 및 관리하는 기술, 소량 또는 얻기 어려운 데이터에서 학습 데이터를 생성하는 기술을 활용해 비전 AI 모델을 만들고 실시간 영상 분석으로 인사이트를 만드는 연구에 집중하고 있다”고 소개했다.   ▲ 씨이랩 이문규 책임리더   디지털 트윈부터 AI까지 기술 활용 방안 짚다 아이지피넷의 윤정두 차장은 ‘기업과 부서에서 3D 데이터 활용을 통한 3D 데이터 공유 및 디지털화 실현’이라는 주제로 발표를 진행했다. 많은 기업이 한 가지의 CAD만 갖고 있는 것이 아니라 멀티 CAD를 기반으로 하고 있다. 이는 제품 설계, 금형 설계, 해석, 가공 시뮬레이션 등 각 부서에서 사용하는 툴이 다양하기 때문이다. 그리고 OEM과 다른 CAD 환경을 구축한 경우도 있다.  윤정두 차장은 “이런 멀티 CAD 환경에서 3D 데이터를 잘 활용하기 위해서는 일방적인 변환이 아니라 각 부서에 맞게 데이터를 최적화할 필요가 있다. 이를 위해서는 중립 포맷 대신 이기종 CAD 환경에 맞춰 설계 의도와 의미를 유지할 수 있도록 데이터를 변환해야 한다. 또한 3D 데이터를 작성하는 과정에서 생길 수 있는 에러를 효과적으로 해결해서 품질을 확보하면 다운스트림 공정에서 데이터를 더욱 잘 활용할 수 있다”면서, 데이터 준비 및 최적화 작업의 시간 소모를 줄일 수 있는 툴이 중요하다고 설명했다. 또한 데이터 품질 체크, 자동 데이터 힐링 및 최적화, 속성 및 PMI 정보의 변환, 데이터 비교 리포트 작성 등 데이터 변환 툴에 필요한 핵심 기능을 소개했다.   ▲ 아이지피넷 윤정두 차장   다쏘시스템코리아의 정유선 에노비아 브랜드 세일즈 부문 대표는 ‘멀티 CAD 환경에서의 협업 방안’에 대해 발표했다. 경쟁력 있는 제품을 만들기 위한 비용 절감뿐 아니라 새로운 소비자 경험을 제공하기 위한 혁신에 대한 요구가 늘면서, 제품 개발 환경의 어려움이 커지는 상황이다. 여기에 더해 최근에는 제품 개발에서 AI 적용에 대한 요구가 강화되고 있다. 기업이 제품을 개발할 때 AI 기술을 어떻게 적용할 것인지가 제품 개발의 새로운 이슈가 된 것이다. 정유선 대표는 “기업이 제품을 개발할 때 AI를 적용하기 위해서는 학습 모델이 필요하고, AI학습을 위한 양질의 데이터셋을 수집해야 한다”면서, “AI 학습을 위한 고품질의 데이터셋을 확보하기 위해 제품 개발 과정의 모든 데이터가 원활하게 연결되는 데이터 기반의 업무 환경을 조성하는 것이 중요해질 것으로 보인다”고 전했다. 다쏘시스템은 설계부터 검증/해석, 생산, 판매 이후 서비스 단계까지 모든 데이터를 연속성 있게 연결하는 플랫폼을 내세우고 있다. 정유선 대표는 “플랫폼 기반으로 협업을 하면 모든 데이터가 연결 구조를 갖기 때문에, 이슈를 빠르게 추적 및 조치할 수 있고 재사용도 쉬워진다. 결과적으로 개발 기간을 줄일뿐 아니라 인력이나 비용도 최소화할 수 있는 것이 장점”이라고 소개했다.   ▲ 다쏘시스템코리아 정유선 에노비아 브랜드 세일즈 부문 대표   스노우플레이크의 박경호 영업대표는 ‘사례를 통해 알아보는 데이터 플랫폼 구축을 통한 비용 절감 및 비즈니스 성장 실현 방안’을 주제로 발표를 진행했다. 공급망 관리의 복잡성과 예측이 어려운 글로벌 환경 변화 등이 기업의 비즈니스 과제로 여겨지면서, 많은 기업이 이에 대응하기 위해 디지털 전환 및 디지털 트윈을 통한 기술 혁신을 추진하고 있다. 하지만, 이를 위한 데이터가 여러 시스템에 분산되어 있고 외부 데이터를 받아오는 데에 많은 비용이 드는 등의 어려움도 커졌다. 박경호 영업대표는 “새로운 데이터 원본을 통합하는 데에는 시간이 걸리고, 하드웨어와 소프트웨어를 갖추기 위해서는 대규모의 투자가 필요하다. 변화에 대응하기 어려운 레거시 파이프라인을 관리 및 유지하는 데에도 꾸준히 비용이 발생한다”고 짚었다. 또한 “스노우플레이크는 이러한 제조기업의 변화에 맞춰 유기적인 데이터 연계를 통해 제조 프로세스의 문제를 해결할 수 있는 시스템을 제공한다. 이를 통해 전반적인 프로세스 데이터를 관리하면서, 변화하는 제조업의 환경에 알맞게 데이터를 관리할 수 있다”고 전했다.   ▲ 스노우플레이크 박경호 영업대표   팀솔루션의 서경진 상무는 ‘디지털 트윈을 위한 지능형 경량화/최적화 모델 생성 방안’에 대해 발표했다.  제조산업 및 엔지니어링 분야에서 디지털 트윈은 효율을 높이는 혁신적인 도구로 여겨지고 있으며, 이를 통해 기업은 제품 수명주기 전반에 걸쳐 더 나은 의사결정을 내릴 수 있다. 하지만, 기존의 수많은 3D CAD 모델을 디지털 트윈으로 변환하는 과정에서 많은 수작업과 개별 프로그래밍이 필요하기 때문에 비효율이 존재한다. 서경진 상무는 “3D 기반의 플랫폼에서 엔지니어링 및 제조 정보를 취합하고 활용 목적에 맞게 가공 및 전달하는 디지털 트윈을 가장 빠르게 구축하는 방법은 3D 캐드를 활용하는 것”이라면서, “이를 위해 3D 데이터를 경량화하고 묶어서 빠르게 사용자에게 보여주는 체계를 구축하는 것이 필요하다”고 짚었다. 또한, “경량화된 3D 데이터는 3D 엔진에서 가볍게 활용할 수 있도록 프레임을 높였으며, 웹과 VR/MR/XR 등 다양한 형태로 제공될 수 있다”고 덧붙였다.   ▲ 팀솔루션 서경진 상무   연세대학교의 송경우 교수는 ‘생성형 AI 동향과 제조 엔지니어링 적용 방법’에 대해 발표했다. GPT와 같은 대규모 언어 모델은 특정한 단어가 주어졌을 때 그 다음에 어떤 단어가 올 것인지를 예측하도록 학습된 모델이다. 이런 특성으로 번역을 하거나 이미지를 이해할 수 있지만, 정확한 답변을 요구하는 엔지니어링 영역에서도 이 언어 모델을 활용할 수 있을지에 대한 의문도 있다. 송경우 교수는 전문 용어가 많은 IT 개발 문서를 기반으로 GPT-4의 답변 테스트 내용을 소개하면서, “단순히 문서 내용을 기반으로 한 답변은 정확하지 않았지만, 여러 단계로 순차적인 질문을 할 때 답변의 신뢰도가 높아지는 알고리즘을 찾을 수 있었다”고 소개했다. 제조 엔지니어링이 특화된 언어 모델을 만들기 위해서 데이터 구축을 진행 중이라고 전한 송경우 교수는 “특정 작업에서 성능을 발휘할 수 있는 언어 모델을 만드는 데에는 생각보다 비용이 들지 않을 것으로 생각한다. 관건은 학습 데이터를 구축하는 것”이라고 전했다.   ▲ 연세대학교 송경우 교수   한편, 5월 30일에는 엘타워에서 PLM/DX 베스트 프랙티스 VIP 간담회가 개최되었다. 이날 간담회에는 PLM/DX 업계를 리드하는 업계 관계자들이 참석, PLM 기술의 발전과 현재 상황, 그리고 발전을 위한 협력과 지원 방안에 대해 논의하는 자리를 가졌다.  기업의 핵심 요소인 PLM은 DX, AI와 결합하여 새로운 도전과제를 받고 있으며, 각 기업들은 차세대 시스템과 새로운 기술의 접목과 방향에 대해 소개했다.       관련기사 함께 보기 [포커스] PLM/DX 베스트 프랙티스 컨퍼런스 2024, 제조산업의 디지털 전환 전략과 사례 소개 (1)
작성일 : 2024-07-02
HPE, 파트너 수익성 강화 위한 신규 AI 및 하이브리드 클라우드 프로그램 공개
HPE가 엔비디아(NVIDIA)와 협력하여 파트너들이 수익성을 더욱 강화하고 새로운 수익원을 창출할 수 있도록 지원하는 인공지능(AI) 활성화 프로그램을 발표했다. 해당 프로그램은 AI, 컴퓨팅, 스토리지, 네트워킹, 하이브리드 클라우드, 지속가능성 부문을 모두 아우르는 새로운 기능 및 추가 리소스와 함께 향상된 HPE 그린레이크(HPE GreenLake) 프로그램 및 역량을 제공한다.    HPE는 새롭게 공개한 HPE 기반 엔비디아 AI 컴퓨팅 포트폴리오(NVIDIA AI Computing by HPE)의 일환으로 엔비디아와 협력하여 새로운 AI 파트너 전략을 수립했다. 해당 전략을 바탕으로 양사는 HPE의 선두적인 엣지-투-클라우드(edge-to-cloud) 포트폴리오를 활용해 더 큰 혁신과 기회를 도모할 계획이다. HPE는 HPE의 주요 파트너사들이 자사 AI 기술을 더욱 발전시킬 수 있도록 다음과 같은 차별화된 트레이닝 및 자격 과정 AI 워크숍 및 역량 프로그램을 제공할 예정이다:   -   AI 가속화 워크숍(AI Acceleration workshop): 해당 워크숍은 AI 활용을 희망하는 파트너들을 지원하며, AI 활용 준비 상태를 평가하고 맞춤형 AI 성장 전략, 성공여부 평가기준, AI 서비스 사례 구축을 위한 로드맵 등을 제공한다.  -   AI 기술 개발 워크숍, 자기주도 학습 콘텐츠 및 자격증 프로그램: HPE 테크 프로(HPE Tech Pro)에서는 해당 워크숍 및 프로그램 등 모든 기능들을 이용할 수 있으며, 엔비디아가 개발한 자기주도 트레이닝 프로그램도 제공될 예정이다. 또한 HPE는 엔비디아의 최신 자격증 프로그램도 활용할 계획이다. 이러한 자료들은 HPE와 엔비디아의 AI 솔루션 포트폴리오의 풀스택 AI 솔루션을 판매하고 구축할 수 있는 역량 등, 파트너사들의 AI 역량을 한층 더 발전시킬 수 있도록 도와준다.  -   HPE AI 솔루션 역량: 해당 역량은 파트너들이 AI의 모든 라이프 사이클에 걸쳐서 폭넓은 AI 사용 사례를 개발할 수 있도록 지원한다. AI를 처음 도입하는 고객사, 또는 기존 사용 사례를 더욱 확장하는 경우, 고급 AI 연구를 실행하는 사례에 이르기까지 다양한 단계에 거쳐 활용할 수 있다. 엔비디아와 협력하여, HPE는 채널 파트너들을 대상으로 더욱 종합적인 역량 강화 프로그램을 제공한다. 이를 통해 채널 파트너들은 AI 워크로드용으로 설계된 풀스택 턴키 프라이빗 클라우드인 HPE 프라이빗 클라우드 AI(HPE Private Cloud AI)와 같은 AI 소프트웨어 및 하드웨어 솔루션 스택을 추천, 배포 및 관리할 수 있는 역량을 기를 수 있다. 파트너들은 완전한 AI 솔루션을 설계할 수 있는 기술을 개발함으로써 고객이 리소스를 집중 활용하여 더욱 빠르게 AI 사용 사례를 개발하고 구축하여 생산성을 높이고 새로운 수익원을 창출할 수 있도록 지원한다.     HPE 컴퓨팅 역량: 해당 역량은 파트너들로 하여금 고객이 계획한 AI 모델과 사용사례를 더욱 원활하게 지원할 수 있도록 추론 솔루션에 대한 전문성을 개발할 수 있도록 한다. 일례로 엔비디아 인증 HPE 프로라이언트 GenAI 추론 서버(NVIDIA-Certified HPE ProLiant GenAI inference server)는 고객이 원하는 추론 성능 요구 사항에 최적화된 AI 및 데이터 소프트웨어를 갖추고 있으며 성능 대비 효율성도 뛰어나 투자수익률(ROI)에도 긍정적인 효과를 가져올 수 있다. 파트너들은 파트너 프로그램을 통해 이처럼 최적화된 HPE의 컴퓨팅 역량을 고객에게 추천할 수도 있다.  -   HPE의 엔터프레이즈 레벨 고성능 컴퓨팅(HPC) 역량: 해당 역량은 파트너들이 더욱 독자적인 생성형 AI 모델을 개발하고 있는 기업 고객들의 더욱 높은 수준을 지원할 수 있도록 한다. 또한, HPC 역량은 딥러닝, 자율주행, 금융 모델링과 같은 데이터 집약적인 모델과 사용사례를 지원할 수 있는 전문성을 더욱 개발할 수 있다. 해당 역량은 파트너들이 엔비디아 인증 HPE 크레이 시스템(NVIDIA-Certified HPE Cray system) 등 HPE 크레이 포트폴리오를 자사 AI 및 HPC 전략에 통합하여 활용할 수 있도록 한다.  -   HPE 스토리지 및 데이터 서비스 역량: 해당 역량은 HPE Alletra MP File 스토리지를 지원할 수 있는 전문성이 더욱 강화되어 업데이트되었다. NVIDIA DGX BasePOD 인증 및 NVIDIA OVX 검증이 완료된 엔터프라이즈급 파일 스토리지 솔루션을 제공해 AI, 생성형 AI 및 GPU 집약적인 워크로드의 대규모 활용을 가속화한다.  사이먼 유잉턴(Simon Ewington) HPE 월드와이드 채널 및 파트너 생태계 부사장은 “이러한 최신 기술들을 통해 HPE는 파트너 에코시스템이 더욱 확장하고 새로운 수익원을 창출할 수 있도록 계속해서 투자하고 있다. 파트너들이 AI를 활용할 수 있도록 필요한 툴과 기술을 제공하고 시장에서 거대한 기회를 모색할 수 있도록 지원하고 있는 노력들이 이에 해당된다. 엔비디아와의 협력을 더욱 확대하면서, HPE의 새로운 기술 개발 프로그램은 파트너들로 하여금 그들의 고객이 새로운 AI 기술을 개발하고 배포하는 방법을 더욱 잘 안내할 수 있도록 지원한다. 이로써 고객은 다양한 사용 사례를 개발하고 전 산업부문에 걸쳐 경쟁력을 더욱 강화할 수 있게 된다”고 말했다.    HPE 파트너 레디 벤티지(HPE Partner Ready Vantage) 프로그램을 통한 수익성 증대 HPE 파트너 레디 벤티지 프로그램은 파트너들이 연간 반복 매출(ARR)을 증대시키고 서비스를 지속적으로 성장시킬 수 있는 기반을 제공하는 프로그램이다. 해당 프로그램은 포괄적인 영역을 다루는 COE(Centers of Expertise) 및 역량(competency)을 제공해 파트너들이 새로운 역량과 더욱 차별화된 솔루션 및 서비스를 개발하여 수익과 성장을 견인할 수 있도록 지원한다.  또한, HPE는 글로벌 시장조사기관 카날리스(Canalys)와 협력하여 파트너 경제 승수 지표에 대한 연구를 통해 프로그램에 등록한 파트너들이 수익을 낼 수 있는 기회들을 수치화했다. 해당 연구에 따르면, 고객이 HPE 솔루션에 투자한 1달러당, 파트너의 제품 및 서비스에 최대 4.9달러를 지출한다. 이는 곧 HPE 파트너 레디 벤티지 프로그램에 등록해 고객들에게 추가적인 서비스를 제공하는 파트너들은 잠재적으로 지속 우상향하는 수익 창출 기회를 얻을 수 있다는 점을 시사한다.  제시 차베스(Jesse Chavez) HPE 글로벌 파트너 프로그램 운영 부사장은 “해당 연구는 HPE 프로그램의 기반을 잘 입증해준다. HPE는 파트너들이 HPE의 혁신 기술과 자신들의 독보적인 서비스를 통해서 고객들에게 가치를 더욱 확대할 수 있는 역량과 전문성을 갖추고 있다고 믿는다. HPE 파트너 레디 벤티지 프로그램과 자신들의 독자적인 IP를 HPE 솔루션에 통합하여 기회를 확대시킨 파트너들을 통해서 우리는 파트너의 승수효과(multiplier effect)를 입증했다”고 말했다.   
작성일 : 2024-06-30
엔비디아, “AI로 전력망과 유틸리티의 에너지 효율 향상 가능”
엔비디아의 젠슨 황(Jensen Huang) CEO가 미국 및 국제 유틸리티 협회인 에디슨 전기협회(Edison Electric Institute, EEI)의 연례 회의에서 “전력망과 이를 관리하는 유틸리티는 AI와 가속 컴퓨팅이 주도하는 차세대 산업 혁명에서 중요한 역할을 담당하고 있다”고 전했다. 젠슨 황은 청중으로 참여한 천여 명 이상의 유틸리티와 에너지 업계 경영진 앞에서 "디지털 인텔리전스의 미래는 매우 밝으며, 그만큼 에너지 분야의 미래도 밝다"고 말했다. 다른 기업들과 마찬가지로 유틸리티도 직원 생산성을 높이기 위해 AI를 적용할 것으로 예상된다. 젠슨 황 CEO는 에디슨 인터내셔널의 CEO이자 EEI의 회장인 페드로 피사로(Pedro Pizarro)와의 대담에서 “가장 큰 영향력과 수익은 전력망을 통한 에너지 공급에 AI를 적용하는 데에 있다”면서, 전력망이 AI 기반 스마트 계량기를 사용해 고객이 여분의 전력을 이웃에게 판매할 수 있도록 하는 방법을 하나의 예시로 설명했다.     오늘날의 전력망은 주로 몇몇 대형 발전소와 많은 사용자를 연결하는 단방향 시스템이다. 그러나 앞으로는 태양광 패널, 배터리, 전기 자동차 충전기를 갖춘 가정과 건물을 연결하는 태양광과 풍력 발전소를 통해 양방향의 유연하고 분산된 네트워크가 될 것으로 예상된다. 이는 방대한 양의 데이터를 실시간으로 처리하고 분석하는 자율 제어 시스템을 필요로 하는 대규모 작업으로, AI와 가속 컴퓨팅에 적합한 작업이다. 엔비디아는 유틸리티가 에지에서 AI 모델을 사용해 실시간 전력망 데이터를 처리하고 분석하기 위해 배포하는 엔비디아 젯슨 플랫폼, 전력망 복원력을 강화하기 위해 디지털 트윈을 구축해 예측 유지보수를 개선하는 AI와 옴니버스(Omniverse) 등 자사의 기술을 기반으로 AI가 전력망 전반의 사용 사례에 적용되고 있다고 소개했다.  이러한 발전은 엔비디아가 AI 배포에 필요한 비용과 에너지를 절감하면서 이루어졌다. 젠슨 황 CEO는 최근 컴퓨텍스(COMPUTEX) 기조연설에서 “지난 8년 동안 엔비디아는 최첨단 대규모 언어 모델(LLM)에서 AI 추론 실행의 에너지 효율성을 4만 5000배 향상시켰다”고 말했다. 엔비디아 블랙웰(Blackwell) 아키텍처 GPU는 AI와 고성능 컴퓨팅을 위해 CPU보다 약 20배 더 높은 에너지 효율을 제공한다. 이러한 작업을 위한 모든 CPU 서버를 GPU로 전환하면 사용자는 연간 37테라와트시(TWh)를 절약할 수 있다. 이는 이산화탄소 2500만 메트릭 톤과 500만 가구의 전기 사용량에 해당하는 양이다.
작성일 : 2024-06-20
HPE-엔비디아, “생성형 AI 산업 혁명 가속화 위한 컴퓨팅 포트폴리오 출시”
HPE는 미국 라스베이거스에서 개최한 연례행사 ‘HPE 디스커버 2024’에서 새로운 ‘HPE 기반 엔비디아 AI 컴퓨팅(NVIDIA AI Computing by HPE) 포트폴리오’를 출시했다. 이는 HPE가 기업 고객들이 생성형 AI의 도입을 가속화할 수 있도록 엔비디아와 협력해 공동 개발한 AI 솔루션 및 고투마켓(Go-to-market) 포트폴리오다. 이 포트폴리오가 제공하는 주요 서비스 중 하나는 HPE 프라이빗 클라우드 AI(HPE Private Cloud AI)이다. HPE 프라이빗 클라우드 AI는 엔비디아의 AI 컴퓨팅, 네트워킹과 소프트웨어를 HPE의 AI 스토리지, 컴퓨팅, 및 HPE 그린레이크 클라우드(HPE GreenLake Cloud)와 견고하게 통합한 솔루션으로, 모든 규모의 기업이 에너지 효율적이고 빠르며 유연한 방식으로 생성형 AI 애플리케이션을 지속 가능하게 개발하고 배포할 수 있도록 한다. 새로운 옵스램프 AI 코파일럿(OpsRamp AI copilot)을 통해 IT 운영이 워크로드 및 IT 효율성을 향상시킬 수 있도록 지원하는 HPE 프라이빗 클라우드(HPE Private Cloud AI)는 전체 수명주기 관리를 포함한 셀프 서비스 클라우드 경험을 제공하며, 다양한 AI 워크로드와 사용 사례를 지원하기 위해 4가지 사이즈의 다른 구성으로 제공된다. HPE 프라이빗 클라우드 AI 솔루션은 ▲고유 데이터(proprietary data)를 활용한 추론, 미세 조정 및 RAG AI 워크로드 지원 ▲데이터 프라이버시, 보안, 투명성, 거버넌스 요건을 위한 엔터프라이즈급 제어 기능 ▲생산성 향상을 위한 ITOps 및 AIOps 기능이 포함된 클라우드 경험 ▲미래의 AI 기회와 성장을 충족하기 위한 유연한 소비 경로 등을 제공한다.     AI 및 데이터 소프트웨어 스택의 기반은 엔비디아 NIM 추론 마이크로 서비스(NVIDIA NIM inference microservice)를 포함한 엔비디아 AI 엔터프라이즈(NVIDIA AI Enterprise) 소프트웨어 플랫폼으로 시작된다. 엔비디아 AI 엔터프라이즈는 데이터 사이언스 파이프라인을 가속화하고, 프로덕션급 코파일럿 및 기타 생성형 AI 애플리케이션의 개발 및 배포를 간소화한다. 엔비디아 AI 엔터프라이즈에 포함된 엔비디아 NIM은 최적화된 AI 모델 추론을 위한 사용하기 쉬운 마이크로서비스를 제공하여 다양한 사용 사례에 대해 프로토타입에서 안전한 AI 모델 배포로 원활하게 전환할 수 있도록 한다. 엔비디아 AI 엔터프라이즈 및 엔비디아 NIM을 보완하는 HPE AI 에센셜(HPE AI Essentials) 소프트웨어는 적응형 솔루션, 지속적인 기업 지원, 안전한 AI 서비스를 제공하는 통합 컨트롤 플레인(control plane)을 갖춘 준비된(curate) AI 및 데이터 기반 툴 세트를 제공하며, 이를 통해 데이터 및 모델 준수, 확장 가능한 기능 등 AI 수명 주기 전반에 걸쳐, AI 파이프라인이 규정을 준수하는 동시에 설명 및 재현이 가능하도록 보장한다. AI 및 데이터 소프트웨어 스택에 최적의 성능을 제공하기 위해, HPE 프라이빗 클라우드 AI는 엔비디아 스펙트럼-X 이더넷(NVIDIA Specturm-X Ethernet) 네트워킹, HPE Alletra MP File 스토리지, 엔비디아 L40S, 엔비디아 H100 NVL 텐서 코어 GPU, 엔비디아 GH200 NVL2 플랫폼을 지원하는 HPE 프로라이언트(ProLiant) 서버가 포함된 완전 통합형 AI 인프라 스택을 제공한다. HPE가 제공하는 모든 엔비디아 AI 컴퓨팅 제품 및 서비스는 양사의 공통 고투마켓 전략을 기반으로 제공된다. 이 전략에는 판매팀 및 채널 파트너, 교육, 그리고 딜로이트, HCL테크, 인포시스, TCS 및 위프로 등의 SI 업체를 아우르는 글로벌 네트워크가 포함되어, 이를 통해 다양한 분야의 기업이 복잡한 AI 워크로드를 실행할 수 있도록 돕게 될 것이다. HPE의 안토니오 네리(Antonio Neri) CEO는 “생성형 AI는 기업 혁신을 위한 엄청난 잠재력을 가지고 있지만, 단편화된 AI 기술의 복잡성은 대규모 기업의 AI 기술 도입을 어렵게 하는 많은 리스크와 장애물을 포함하고 있으며, 기업의 가장 가치 있는 자산인 고유 데이터를 위험에 처하게 할 수 있다”면서, “HPE와 엔비디아는 기업에서 생성형 AI의 엄청난 잠재력을 발휘할 수 있도록 하기 위해 AI를 위한 포괄적인 턴키 프라이빗 클라우드를 공동 개발하였고, 기업이 생산성을 높이고 새로운 수익원을 창출할 수 있는 새로운 AI 사용 사례 개발에 자원을 집중할 수 있도록 했다”고 말했다. 엔비디아의 젠슨 황(Jensen Huang) CEO는 “생성형 AI와 가속 컴퓨팅은 모든 산업이 산업 혁명에 동참하기 위해 경쟁하면서 근본적인 변화를 일으키고 있다. 엔비디아와 HPE는 우리의 기술을 이렇게 깊게 통합한 적이 없었으며, 엔비디아의 전체 AI 컴퓨팅 스택과 HPE의 프라이빗 클라우드 기술을 결합하여 기업 고객과 AI 전문가들에게 AI의 경계를 확장할 수 있는 가장 진보된 컴퓨팅 인프라와 서비스를 제공할 계획”이라고 말했다.
작성일 : 2024-06-19
WD, AI 워크로드를 위한 스토리지 구성 프레임워크 및 신제품 공개
웨스턴디지털(WD)이 대규모 AI 워크로드를 위한 이상적인 스토리지 구성을 정의하는 6단계 AI 데이터 사이클(AI Data Cycle) 프레임워크를 공개했다. 이와 함께 웨스턴디지털은 ‘울트라스타 DC SN861 SSD(Ultrastar DC SN861 SSD)’, ‘울트라스타 DC SN655 SSD(Ultrastar DC SN655 SSD)’, ‘울트라스타 DC HC690 울트라SMR HDD(Ultrastar DC HC690 UltraSMR HDD)’ 등 신제품도 발표했다. AI 모델은 새로운 독창적인 데이터를 생산하는 동시에 텍스트, 이미지, 오디오, 비디오 등을 처리하는 연속적인 데이터 생성과 소비의 반복을 기반으로 작동한다. AI 기술이 발전함에 따라 데이터 스토리지 시스템은 대량의 데이터를 관리하면서 방대하고 복잡한 모델에 요구되는 컴퓨팅 로드와 속도를 지원하는 것이 중요하다. 웨스턴디지털의 새로운 AI 데이터 사이클 프레임워크는 고객이 인공지능(AI) 분야 투자 효과 극대화, 효율성 향상, AI 워크플로 총소유비용(TCO) 절감을 위한 고도화된 스토리지 인프라를 계획하고 구축할 수 있게끔 지원한다.     또한, 웨스턴디지털은 AI 훈련 및 추론을 지원하는 고성능 PCIe Gen5 SSD, 고속 AI 데이터 레이크를 위한 대용량 64TB SSD, 비용 효율적인 대규모 스토리지를 제공하는 ePMR 울트라SMR 32TB HDD 등 신제품을 선보였다. 이를 통해 웨스턴디지털은 AI 데이터 사이클의 핵심 단계에 필요한 스토리지 요구사항에 부합하는 플래시 메모리와 HDD 제품 및 기술 로드맵을 구축하게 됐다고 밝혔다. 울트라스타 DC SN861 SSD는 웨스턴디지털의 첫 번째 엔터프라이즈급 PCIe Gen 5.0 솔루션으로, AI 워크로드를 위한 랜덤 읽기 성능과 높은 수준의 전력 효율성을 지원한다. 최대 16TB 용량을 갖췄으며 대규모 언어 모델 훈련 및 추론, AI 서비스 적용 등을 위한 초저지연성과 반응성을 바탕으로 이전 세대 대비 최대 3배 빠른 랜덤 읽기 성능을 제공한다. 또한 낮은 전력 프로필을 통해 더욱 낮은 와트 당 초당입출력처리속도(IOPS/Watt)를 가능하게 하며 절감된 전체 TCO를 지원한다. 향상된 PCIe Gen5 대역폭은 빠른 속도의 가속화된 컴퓨팅(accelerated computing)과 컴퓨팅 집약적인 AI 환경을 위한 저지연성에 대한 AI 시장의 니즈에 대응한다. 미션 크리티컬한 워크로드를 위해 설계된 울트라스타 DC SN861 SSD는 NVMe 2.0 및 OCP 2.0 지원, 1 DWPD(Drive Writes per Day) 및 3 DWPD 등의 기능을 갖추었으며, 5년 제한 보증을 지원한다. 울트라스타 DC SN861 SSD E1.S 모델은 현재 샘플 출하 중이며, U.2 모델은 6월 중 샘플 출하 및 올해 3분기 대량 출하를 앞두고 있다. E1.S 및 E3.S 폼팩터 모델에 대한 추가 정보는 올해 중으로 공개될 예정이다. 확장된 엔터프라이즈급 울트라스타 DC SN655 SSD 라인업은 스토리지 집약적인 애플리케이션을 위해 설계됐다. 새로운 U.3 SSD 옵션은 최대 64TB 용량을 지원해 AI 데이터의 준비 작업은 물론, 더욱 빠르고 큰 데이터 레이크를 위한 향상된 성능과 용량을 제공한다. 울트라스타 DC SN655 SSD 라인업의 신규 U.3 SSD 모델은 현재 샘플 출하 중이며, 추가 정보는 올해 중 대량 출하와 함께 공개될 예정이다. 한편, 웨스턴디지털은 32TB 용량의 ePMR 엔터프라이즈급 HDD를 일부 고객에 대해 샘플 출하 중이라고 전했다. 하이퍼스케일 클라우드 및 엔터프라이즈 데이터센터의 대용량 데이터 스토리지용으로 설계된 새로운 대용량 울트라스타 DC HC690 울트라SMR HDD는 대규모 데이터 스토리지와 낮은 TCO가 중요한 AI 워크플로에서 핵심 역할을 한다. 기존 제품의 검증된 설계를 기반으로 한 신제품 32TB 드라이브는 향상된 신뢰성을 제공하면서 신속한 사용을 위한 원활한 검증 및 통합을 통해 방대한 용량을 지원한다. 신제품 드라이브에 대한 상세한 정보는 올 여름 늦게 공개될 예정이다. 웨스턴디지털의 롭 소더버리(Rob Soderbery) 플래시 비즈니스 부문 수석 부사장(EVP) 겸 제너럴 매니저는 “새로운 AI 데이터 사이클 프레임워크는 고객이 AI 애플리케이션의 성능, 확장성 및 활용에 실질적인 영향을 미치는 스토리지 인프라를 구축할 수 있도록 지원한다”면서, “웨스턴디지털은 AI 및 데이터 스토리지 간의 역동적인 상호 작용에 대한 이해를 바탕으로 향상된 용량을 지원할 뿐만 아니라, 차세대 AI 워크로드의 강력한 성능과 내구성을 위해 특화된 솔루션을 제공하고 있다. 웨스턴디지털은 자사의 성장하고 있는 포트폴리오, 장기적인 로드맵, 지속적인 혁신을 통해 고객이 AI의 혁신적인 역량을 실현할 수 있게끔 지원하는 것을 목표로 삼는다”고 전했다.
작성일 : 2024-06-11
인텔, 컴퓨텍스 2024에서 ‘AI 에브리웨어’ 구현 가속화하는 기술 소개
인텔은 대만에서 진행된 컴퓨텍스(Computex)에서 데이터센터, 클라우드와 네트워크에서 에지 및 PC에 이르기까지 AI 생태계를 가속화할 기술 및 아키텍처를 공개했다. 인텔은 “이를 통해 고객은 더 많은 처리 능력, 첨단 전력 효율성, 낮은 총소유비용(TCO)을 통해 AI 시스템에서의 가능성을 실현할 수 있다”고 설명했다. 인텔의 팻 겔싱어(Pat Gelsinger) CEO는 컴퓨텍스 기조연설에서 AI 기회를 가속화할 개방형 표준과 인텔의 생태계를 강조하면서, 인텔이 AI 혁신을 이끌고 차세대 기술을 예정보다 앞서 제공하고 있다는 점을 소개했다. 인텔은 6개월 만에 5세대 인텔 제온(5th Gen Intel Xeon) 프로세서를 출시한데 이어 제온 6 첫 제품을 선보였으며, 가우디 AI 가속기를 선공개하고 기업 고객에게 비용 효율적인 고성능 생성형 AI 훈련 및 추론 시스템을 제공했다. 또한, 800만 대 이상의 디바이스에 인텔 코어 Ultra(Intel Core Ultra) 프로세서를 탑재해 AI PC 시대를 열었고, 올해 말 출시 예정인 클라이언트 아키텍처도 공개했다. 디지털 혁신이 가속화됨에 따라 기업들은 노후화된 데이터센터 시스템을 교체하여 비용 절감, 지속 가능성 목표 달성, 물리적 공간 및 랙 공간 활용 극대화하고 기업 전반에 걸쳐 새로운 디지털 역량을 창출해야 한다는 압박에 직면해 있다. 제온 6 플랫폼 및 프로세서 제품군은 이러한 과제를 해결할 목적으로 효율 코어(Efficient -core) 및 성능 코어(Performance-core) 모델이 설계되었으며, AI 및 기타 고성능 컴퓨팅 요구사항부터 확장 가능한 클라우드 네이티브 애플리케이션에 이르기까지 폭넓은 워크로드 및 사용 사례를 처리할 수 있다는 점을 내세운다. E-코어와 P-코어는 모두 공통의 소프트웨어 스택과 하드웨어 및 소프트웨어 공급업체의 개방형 생태계와 호환 가능한 아키텍처를 기반으로 구축되었다. 가장 먼저 출시되는 제온 6 프로세서는 인텔 제온 6 E-코어(코드명 시에라 포레스트)이며, 제온 6 P-코어(코드명 그래나이트 래피즈)는 다음 분기에 출시될 예정이다. 고집적도 코어 및 높은 와트당 성능을 갖춘 인텔 제온 6 E-코어는 전력 비용을 낮추면서 효율적인 컴퓨팅을 제공한다. 향상된 성능 및 전력 효율성은 클라우드 네이티브 애플리케이션 및 콘텐츠 전송 네트워크, 네트워크 마이크로서비스, 소비자 디지털 서비스 등 가장 까다로운 고밀도 스케일아웃 워크로드에 적합하다. 또한, 제온 6 E-코어는 집적도를 높여 랙 수준을 3대 1로 통합할 수 있으며, 미디어 트랜스코딩 워크로드에서 2세대 인텔 제온 프로세서 대비 최대 4.2배의 랙 레벨 성능 향상과 최대 2.6배의 와트당 성능 향상을 고객에게 제공할 수 있다. 더 적은 전력과 랙 공간을 사용하는 제온 6 프로세서는 혁신적인 새로운 AI 프로젝트를 위한 컴퓨팅 용량과 인프라를 확보한다. 인텔 제온 프로세서는 AI 워크로드를 위해 특별히 설계된 인텔 가우디 AI 가속기와 함께 시스템에서 구동한다. 인텔은 “대규모 언어 모델(LLM)의 훈련 및 추론을 위한 MLPerf 벤치마크 결과에서 가우디 아키텍처는 엔비디아의 H100보다 낮은 총 운영 비용으로 빠른 배포 시간을 제공하는 가격 대비 성능의 이점을 제공하여 고객이 원하는 생성형 AI 성능을 제공할 수 있다”고 전했다. 시스템 공급업체(SP)에 제공되는 8개의 인텔 가우디 2 가속기와 범용 베이스보드(UBB)가 포함된 표준 AI 키트는 6만 5000 달러로 동급 경쟁 플랫폼 가격의 3분의 1 수준으로 예상된다. 8개의 인텔 가우디 3 가속기와 UBB가 포함된 키트는 12만 5000 달러에 판매되며, 이는 동급 경쟁 플랫폼 가격의 약 3분의 2 수준이다. 인텔 가우디 3 가속기는 생성형 모델 훈련 및 추론 작업에서 성능 향상을 제공하여 기업이 자체 데이터의 가치를 실현할 수 있도록 지원한다. 인텔은 “8192개 가속기 클러스터를 갖춘 인텔 가우디 3는 동급 규모의 엔비디아 H100 GPU 클러스터에 비해 학습 시간이 최대 40% 빠르며, 64개 가속기 클러스터의 경우 엔비디아 H100의 라마2 700억개(Llama2-70B) 모델에 비해 최대 15% 빠른 학습 처리량을 제공할 것으로 예상된다”면서, “또한 인텔 가우디 3는 라마2 700억개(Llama2-70B) 및 미스트랄 70억개(Mistral-7B)와 같은 LLM을 실행할 때 엔비디아 H100 대비 평균 최대 2배 빠른 추론7을 제공할 것으로 예상된다”고 전했다. 인텔은 데이터센터를 넘어 에지와 PC에서도 AI를 강화하고 있다. AI PC가 2027년까지 신규 PC 중 60%를 차지할 것으로 예상됨에 따라, 인텔은 AI PC를 위한 하드웨어 및 소프트웨어 플랫폼을 발빠르게 구축했다. 100개 이상의 독립 소프트웨어 제작사(ISV)와 협력해 300개의 기능을 제공하고, 코어 울트라 플랫폼 전반에 걸쳐 500개의 AI 모델을 지원하고 있다. 인텔은 AI PC용 차세대 플래그십 프로세서인 루나 레이크(Lunar Lake)의 아키텍처와 관련한 세부 내용을 공개했다. 그래픽과 AI 처리 성능에서 발전을 이루고, 얇고 가벼운 디자인을 위한 전력 효율적인 컴퓨팅 성능에 중점을 둔 루나 레이크는 최대 40% SoC 전력과 3배 이상의 AI 컴퓨팅을 제공한다. 연말 성수기를 겨냥해 2024년 3분기에 시장에 출시할 예정이다. 인텔은 “다른 기업들이 AI PC 시장에 진입할 준비를 하는 동안, 인텔은 이미 대규모로 제품을 공급하고 있으며, 2024년 1분기 동안 경쟁사를 모두 합친 것보다 더 많은 AI PC 프로세서를 공급하고 있다”면서, “루나 레이크는 20개의 PC 제조사를 통해 80개 이상의 다양한 AI PC 디자인을 공급할 예정이며, 올해 4000만 개 이상의 코어 울트라 프로세서 출하 목표 달성을 예상하고 있다”고 전했다. 겔싱어 CEO는 “AI는 업계 역사상 가장 중대한 혁신의 시대를 주도하고 있다. 실리콘의 마법은 다시 한번 기하급수적인 컴퓨팅 성능의 진전을 가져올 것이며 이는 인간의 잠재력의 한계를 뛰어넘고 향후 수년간 전세계 경제를 견인할 것”이라면서, “인텔은 반도체 제조부터 PC, 네트워크, 에지 및 데이터센터 시스템에 이르기까지 AI 시장 기회의 전 영역에 걸쳐 혁신을 창출하고 있는 기업이다. 인텔의 최신 제온, 가우디 및 코어 울트라 플랫폼은 인텔의 하드웨어 및 소프트웨어 생태계의 역량과 결합하여, 미래의 엄청난 기회를 극대화하는 데 필요한 유연하고 안전하며 지속가능하고 비용효율적인 솔루션을 고객에게 제공한다”고 전했다.
작성일 : 2024-06-04
스노우플레이크-엔비디아, 맞춤형 AI 앱 구축 위한 협력 강화
스노우플레이크가 미국 샌프란시스코에서 열린 ‘스노우플레이크 서밋 2024’에서 기업들이 자사 플랫폼에서 엔비디아 AI를 기반으로 맞춤형 AI 데이터 애플리케이션을 구축할 수 있도록 엔비디아와의 협력을 강화한다고 발표했다.  스노우플레이크와 엔비디아는 양사의 AI 기반 애플리케이션, 모델 및 하드웨어를 통합해 고객이 비즈니스 전반에 걸쳐 쉽고 효율적이며 안전하게 엔터프라이즈 AI를 도입할 수 있도록 지원할 계획이다. 스노우플레이크는 엔비디아 AI 엔터프라이즈(NVIDIA AI Enterprise) 소프트웨어를 적용해, 네모 리트리버(NeMo Retriever) 마이크로서비스를 완전 관리형 LLM(대규모 언어 모델) 및 벡터 검색 서비스인 스노우플레이크 코텍스 AI(Snowflake Cortex AI)에 통합했다. 이를 통해 고객들은 맞춤형 모델을 다양한 비즈니스 데이터에 원활히 연결하고 정확한 응답을 제공할 수 있게 된다.  개방성을 특징으로 내세우는 엔터프라이즈급 LLM인 스노우플레이크 아크틱(Snowflake Arctic)은 엔비디아 텐서RT-LLM(TRT-LLM) 소프트웨어를 지원해 최적화된 성능을 제공한다. 또한, 엔비디아 NIM(NVIDIA Inference Microservice) 추론 마이크로서비스로도 사용할 수 있게 돼 더 많은 개발자가 아크틱에서 인사이트를 얻을 수 있다.     기업들은 AI를 적용할 수 있는 다양한 방법들을 모색하고 있고, 맞춤화된 모델을 생성하기 위해 데이터 활용은 더욱 중요해졌다. 스노우플레이크와 엔비디아는 기업이 맞춤형 사례별 AI 솔루션을 빠른 속도로 구축하고, 엔터프라이즈 AI의 잠재력을 실현할 수 있도록 돕는다는 비전을 밝혔다. 스노우플레이크와 엔비디아는 네모 리트리버와 같은 엔비디아의 AI 엔터프라이즈(NVIDIA AI Enterprise) 소프트웨어 제품군의 핵심 기술을 코텍스 AI에 통합하기 위해 협력하고 있다. 이를 통해 기업들은 AI 투자를 극대화하는 맞춤형 AI 기반 애플리케이션을 효율적으로 구축하고 활용할 수 있게 된다.  또한, 양사의 협력을 통해 고객들은 엔비디아 AI 소프트웨어 기반의 AI 솔루션 NIM을 스노우파크 컨테이너 서비스(Snowpark Container Services)에 네이티브 앱의 형태로 배포해 사용할 수 있다. 이를 통해 기업은 스노우플레이크 내 일련의 파운데이션 모델을 쉽게 배포할 수 있게 된다.  지난 4월 출시된 스노우플레이크 아크틱은 엔비디아 H100 텐서 코어 GPUs(H100 Tensor Core GPUs)를 통해 학습되었으며, 엔비디아 NIM에 통합돼 사용할 수 있어 몇 초 만에 시작할 수 있다. 엔비디아가 호스팅하는 아크틱 NIM은 엔비디아 AI 카탈로그(AI Catalog)를 통해 실시간으로 제공돼 개발자가 무료 크레딧을 사용하여 선호하는 인프라를 선택해 개방성이 높은 기업용 LLM을 배포할 수 있도록 지원한다.  스노우플레이크의 슈리다 라마스워미(Sridhar Ramaswamy) CEO는 “엔비디아의 풀스택 가속 컴퓨팅 및 소프트웨어와 스노우플레이크의 최신 AI 기능을 코텍스 AI에 통합시키는 것은 시장 판도를 바꿀 것”이라며, “양사는 모든 산업과 모든 기술 수준의 고객이 쉽고 효율적이며 안전하게 맞춤형 AI 애플리케이션을 기업 데이터에 구축할 수 있는 AI 의 새로운 시대를 열고자 노력하고 있다”고 강조했다.  엔비디아의 젠슨 황(Jensen Huang) CEO는 “데이터는 AI 산업 혁명의 필수재다. 두 기업의 협력으로 고객이 기업 고유의 데이터를 정제하고 가치 있는 생성형 AI로 전환할 수 있도록 지원할 것”이라고 말했다.
작성일 : 2024-06-04
[포커스] AWS, 산업 혁신 지원하는 포괄적 클라우드/AI 기술 소개
아마존웹서비스(AWS)가 연례 클라우드 기술 콘퍼런스인 ‘AWS 서밋 서울 2024(AWS Summit Seoul 2024)’를 5월 16~17일 진행했다. 이번 AWS 서밋에서는 생성형 AI와 클라우드 분야의 기술 혁신과 미래 비전에 관한 내용이 소개됐다. ■ 정수진 편집장     AWS는 10주년을 맞은 이번 행사에 10만 명 이상이 참석했다고 밝혔다. 이틀 동안 진행된 AWS 서밋에서는 다양한 산업 분야와 기술 주제에 대한 100여 개 이상의 강연이 진행됐으며, 생성형 AI 솔루션 데모 및 산업별 클라우드 활용 관련 세션과 데모가 선보였다. AWS코리아의 함기호 대표이사는 개회사에서 “AWS는 국내 AWS 리전에 200개 이상의 서비스를 출시하는 등 지난 15년간 국내에 투자를 이어오면서, 다양한 산업 분야에서 혁신 기업 고객을 지원해 왔다. 앞으로도 국내 기업을 위한 클라우드를 제공하면서 이들의 혁신을 뒷받침할 것”이라고 소개했다. 또한, 생성형 AI 혁신을 주도하기 위한 앤트로픽(Anthropic)과의 전략적 파트너십에 대해서도 소개했다. 앤트로픽은 대화형 인공지능인 클로드(Claude)를 AWS의 생성형 AI 애플리케이션 구축 서비스인 아마존 베드록(Amazon Bedrock)에 제공하며, AI 연구개발과 모델 구축/배포에 AWS의 서비스와 프로세서를 사용한다. 또한 AWS는 앤트로픽에 대규모 투자를 진행할 예정이다.   혁신을 위한 인공지능 기술의 장벽 허문다 AWS의 프로페셔널 서비스 및 생성형 AI 혁신센터를 총괄하는 프란체스카 바스케즈(Francessca Vasquez) 부사장은 AWS 서밋 첫째 날 기조연설에서 생성형 AI를 통한 비즈니스 혁신 방법에 대해 소개했다. 바스케즈 부사장은 “디지털 기술 혁신은 새로운 가능성을 열어왔다. 클라우드 컴퓨팅은 다양한 기업이 비즈니스를 개발하고 확장할 수 있도록 지원했고, AWS는 네트워크, 스토리지, 데이터베이스, 컴퓨팅 등의 서비스를 제공하면서 클라우드 기술에 대한 접근성을 높여왔다”고 설명했다. 클라우드 다음의 혁신 기술로 AWS는 인공지능에 주목하고 있다. 작년에 특히 두드러진 생성형 AI의 발전은 데이터를 해석하고 상호작용하는 방법을 완전히 바꿔놓았으며, 제품을 개발하고 비즈니스를 개척하는 방식을 근본적으로 변화시켰다는 것이 바스케즈 부사장의 설명이다. 그는 “AWS는 업무 효율뿐 아니라 복잡한 추론 작업의 자동화를 위해 AI 기술의 장벽을 허물도록 지원하고자 한다”고 전했다.   ▲ 생성형 AI를 위한 AWS의 포괄적 기술 스택   생성형 AI 위한 포괄적 기술 지원 많은 기업이 생성형 AI에 주목하고 있지만, 한편으로 생성형 AI를 도입하는 과정에서 어려움을 겪고 있다. 이를 지원하기 위해 AWS는 ▲파운데이션 모델의 훈련 및 추론을 위한 인프라 ▲파운데이션 모델 및 LLM(대규모 언어 모델) 기반 애플리케이션 개발 플랫폼 ▲파운데이션 모델 및 LLM의 활용을 위한 애플리케이션 등 생성형 AI를 위한 포괄적인 기술을 제공한다.   파운데이션 모델 훈련·추론 인프라 AWS는 자사 클라우드에서 엔비디아 H100 GPU를 제공하고, GPU의 운영을 최적화하도록 지원한다. 그리고 프로젝트 세이바(Project Ceiba)를 통해 엔비디아 GPU를 탑재한 AI 슈퍼컴퓨터를 구축하고 있다. 한편으로 AWS는 AI 맞춤형 칩셋의 자체 개발도 진행 중이다. 여기에는 기계학습 가속기인 트레이니움(AWS Trainium)과 딥러닝/생성형 AI 추론 애플리케이션을 위한 가속기인 인퍼런시아(AWS Inferentia) 등이 있는데, AWS는 이를 통해 AI 학습과 추론에 드는 비용을 줄이면서 성능과 에너지 효율을 높일 수 있을 것으로 기대하고 있다.   파운데이션 모델·LLM 기반 앱 개발 플랫폼 완전 관리형 서비스인 아마존 베드록(Amazon Bedrock)은 다양한 파운데이션 모델(FM)을 API를 통해 사용할 수 있게 해 준다. 사용자는 베드록이 제공하는 모델 평가 도구를 활용해 목적에 맞는 고성능 FM을 선택할 수 있다. 베드록에서 제공하는 미세 조정(fine-tuning), 검색 증강 생성(RAG) 등의 기능 세트와 보안 기능은 기업이 자체 데이터를 이용하여 비즈니스 관련 애플리케이션을 안전하게 구축할 수 있도록 돕는다. 바스케즈 부사장은 “현대의 모든 비즈니스는 데이터 비즈니스라고 할 수 있다. AWS는 포괄적인 데이터 서비스 세트를 제공하며, 데이터의 활용을 극대화하기 위한 클라우드 활용 방안을 제시한다. 그리고 베드록을 통해 맞춤화된 엔터프라이즈 데이터를 활용한 앱 개발을 지원한다”고 소개했다.   파운데이션 모델·LLM 활용 앱 AWS의 생성형 AI 기반 어시스턴트인 아마존 Q(Amazon Q)는 다양한 비즈니스 요구에 대응해 최적화가 가능하다는 점을 내세운다. AI 코딩 어시스턴트인 아마존 Q 디벨로퍼(Amazon Q Developer)가 한 가지 사례이다.  아마존 Q는 애플리케이션의 개발부터 구축까지 모든 단계에서 효율을 높일 수 있도록 지원하며, 아마존 Q와 베드록은 개발자가 복잡한 생성형 AI 애플리케이션을 빠르고 효율적으로, 안전하게 구축할 수 있도록 돕는다.   ▲ AWS와 현대자동차는 클라우드로 자동차의 다양한 정보를 분석하고, 생성형 AI로 새로운 콘텐츠를 제안해 주는 기술 데모를 선보였다.   클라우드/AI 활용한 산업 혁신 사례와 인사이트 소개 이틀 간 진행된 이번 AWS 서밋의 기조연설에서는 우아한형제들의 송재하 CTO, SK텔레콤의 정석근 AI 사업 총괄, 인프랩의 이동욱 CTO, 카카오페이증권의 조지훈 실장, 샌드버드의 구정진 CTO 등이 AWS 기술에 기반한 혁신 사례에 대해 소개했다. 그리고 아마존의 워너 보겔스(Werner Vogels) CTO와 맷 우드(Matt Wood) AI 서비스 부사장이 온라인 대담을 통해 클라우드 및 AI 기술에 대한 인사이트를 공유했다. 강연 세션에서는 기술 트렌드와 함께 제조/하이테크, 금융/핀테크, 통신/미디어 및 엔터테인먼트, 유통/소비재 상품 등 산업분야별로 비즈니스 트렌드 및 기술 활용 사례가 소개됐다. 이 중 제조/하이테크 분야에서는 ▲현대자동차의 실시간 차량 데이터 수집과 활용을 통한 인포테인먼트 진화 ▲GS에너지의 AI 전략 및 통합 분석 플랫폼 ▲두산디지털이노베이션의 AI 및 머신러닝을 활용한 설비 관리 전략 ▲한화큐셀의 가상 파워 플랜트 플랫폼 구축 ▲인코어드의 에너지 솔루션 고도화 등 AWS 기술 활용 사례가 발표됐다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-06-03
AMD, 컴퓨텍스 2024에서 새로운 프로세서 및 AI 가속기 발표
AMD가 컴퓨텍스 2024 개막 기조연설에서 데이터 센터 및 PC에 이르기까지 엔드 투 엔드 AI 인프라를 지원하는 자사의 새로운 CPU, NPU 및 GPU 아키텍처를 공개했다.  AMD는 확장된 AMD 인스팅트(AMD Instinct) 가속기 로드맵을 공개하고 2024년 4분기 출시 예정인 인스팅트 MI325X 가속기를 포함한 AI 가속기 개발 계획을 소개했다. AMD는 5세대 AMD 에픽(AMD EPYC) 서버 프로세서도 발표했다. 이는 높은 성능과 효율성을 갖춘 제품으로, 2024년 하반기 출시를 목표로 하고 있다. 이와 함께 AMD는 AI 지원 모바일 프로세서의 3세대 제품인 AMD 라이젠 (AMD Ryzen) AI 300 시리즈와 노트북 및 데스크톱 PC용 라이젠 9000 시리즈 프로세서도 공개했다. AMD는 여러 세대에 걸친 가속기 로드맵을 공개했으며, 생성형 AI의 연간 주기에 따른 향후 성능 개발 및 메모리 탑재 등의 계획을 설명했다. 확장된 로드맵에는 2024년 4분기에 출시되는 AMD 인스팅트 MI325X 가속기도 포함되어 있는데, 이 제품은 288GB의 초고속 HBM3E 메모리를 탑재할 예정이다. 2025년 출시가 예상되는 차세대 AMD CDNA 4 아키텍처는 AMD 인스팅트 MI350 시리즈에 활용되며, 기존 AMD CDNA 3가 탑재된 AMD 인스팅트 MI300 시리즈 대비 최대 35배 향상된 AI 추론 성능을 제공할 전망이다. 또한, 지속적 성능 및 기능 개선을 통해 2026년 출시 계획인 MI400 시리즈 가속기에는 CDNA ‘넥스트(Next)’ 아키텍처를 활용할 계획이다.     리사 수 CEO는 마이크로소프트, HP, 레노버, 에이수스 등의 경영진과 함께 3세대 AMD 라이젠 AI 300 시리즈 프로세서 및 AMD 라이젠 9000 시리즈 데스크톱 프로세서로 구동되는 새로운 PC 경험에 대해 설명했다. 그리고 슈퍼컴퓨터와 클라우드에서 PC에 이르기까지 높은 성능과 에너지 효율 제공을 염두에 두고 개발된 차세대 ‘젠 5’ CPU 코어에 대한 정보를 공개했다. 또한, 생성형 AI 워크로드에서 50 TOPs의 AI 연산 성능, 이전 세대 대비 최대 2배의 예상 전력 효율성을 제공하는 AMD XDNA 2 NPU 코어 아키텍처를 발표했다. 한편, 이번 컴퓨텍스 기조 연설에서 AMD는 자사의 AI 및 적응형 컴퓨팅 기술이 어떻게 에지 AI 혁신의 차세대 물결을 이끌어 나가고 있는지 설명했다. AMD는 전체 에지 AI 애플리케이션 가속화에 필요한 모든 IP를 결합할 수 있는 기업이라는 점을 내세운다. 새로운 AMD 버설 AI 에지(AMD Versal AI Edge) 시리즈의 2세대 제품은 실시간 프리-프로세싱을 위해 프로그래밍 가능한 FPGA 로직, 효율적인 AI 추론을 위한 XDNA 기술 기반 차세대 AI 엔진, 포스트-프로세싱을 위한 임베디드 CPU를 결합하여 고성능을 갖춘 단일 칩 기반의 적응형 솔루션을 에지 AI 환경에 제공한다. AMD의 리사 수(Lisa Su) CEO는 “최근 AI 도입의 가속화로 인해 AMD의 고성능 컴퓨팅 플랫폼에 대한 수요가 증가하고 있다. 이번 컴퓨텍스에서 차세대 라이젠 데스크톱 및 노트북 프로세서 기반 제품을 출시할 마이크로소프트, HP, 레노버, 에이수스 등 전략적 파트너들과 함께 하게 되어 자랑스럽다. 또한, 차세대 에픽 프로세서의 선도적인 성능을 미리 공개하고, 향후 AMD 인스팅트 AI 가속기의 로드맵을 발표하게 되어 기쁘다”고 밝혔다.
작성일 : 2024-06-03
유니티, 최신 기술 선보이는 ‘U Day Seoul’ 개최
유니티가 ‘U Day Seoul’을 마무리했다고 밝혔다. ‘U Day Seoul’은 지난 5월 22일 판교 경기창조혁신센터에서, 5월 22일과 23일 양일간 유니티 코리아 공식 유튜브 채널을 통해 유니티의 최신 기술과 활용 사례를 선보였다. 총 21개 세션이 진행됐으며 400여 명 이상의 업계 관계자가 현장을 찾았다. 또한 유니티 코리아 유튜브 채널에서 진행된 실시간 라이브는 4000여 명이 시청했다. 참가자들의 만족도가 가장 높았던 세션은 유니티의 김한얼 시니어 소프트웨어 엔지니어가 발표한 유니티 AI 제품군인 ‘유니티 센티스(Unity Sentis)’로 데스크톱, 모바일, 콘솔, 웹 등 하나의 코드로 딥러닝 모델을 추론할 수 있는 ‘유니티 센티스’ 기술을 상세히 소개했다. 유니티 이제민 시니어 파트너 엔지니어의 ‘유니티 ECS 개발 시작하기’ 역시 참가자들의 만족도가 높았다. 이 세션에서는 ESC(Entity Component System : 엔티티 컴포넌트 시스템) 개발에 필요한 가이드는 물론, DOTS의 배경과 ECS의 동작 방식을 예제 게임들과 함께 다뤘다.     최근 업계에서 많은 관심을 받고 있는 AI 주제의 세션도 진행됐다. 유니티의 김범주 APAC 애드버킷 리드는 AI를 기반으로 실시간 3D 콘텐츠 제작을 가속화할 수 있는 ‘유니티 뮤즈’를 활용해 게임 프로토타입을 만드는 과정을 소개했다. 특히 유니티 뮤즈에서는 최근 업데이트가 이뤄져 사용자들은 유니티 에디터에서 곧바로 뮤즈를 활용할 수 있고, 새로운 에디터 연동 버전의 뮤즈 챗(Muse Chat)이 프로젝트 맞춤형 응답을 제공한다. 또한 뮤즈 애니메이트(Muse Animate)를 사용하여 프로젝트의 컨텍스트에 맞는 애니메이션을 제작할 수 있게 되었다. 이와 함께 넥슨의 ‘데이브 더 다이버’ 세션은 모든 세션을 통틀어 최고 동시접속자수를 기록했고, 원더포션의 ‘산나비’, 이세계아이돌 멤버 '아이네'의 단독 콘서트 포스트모템 등 유니티 기반으로 개발된 프로젝트들의 포스트모템 세션도 인기를 끌었다.   유니티 코리아의 송민석 대표는 “유니티 한국 지사는 물론 본사 기술 전문가들이 직접 현장에 참석해 게임 개발자들에게 실질적이고 유용한 세션을 제공하기 위해 노력했다”면서, “오는 10월에는 게임 외에 다양한 산업군에서 활용되는 유니티의 활용 사례와 관련 기술을 공유하는 두 번째 U Day Seoul 행사를 개최할 예정”이라고 전했다.
작성일 : 2024-05-27