• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "LLM"에 대한 통합 검색 내용이 321개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
슈나이더 일렉트릭, 액체 냉각 솔루션 전문 기업 모티브에어 인수
슈나이더 일렉트릭이 액체 냉각 및 열 관리 솔루션 전문 기업인 모티브에어(Motivair Corporation)의 경영권 지분 인수를 위한 계약을 체결했다고 밝혔다. 생성형 AI와 대규모 언어 모델(LLM)의 도입으로 디지털화가 가속화되면서 전력 수요가 급증했다. 이는 데이터센터와 같은 고성능 컴퓨터 시스템의 높은 발열을 초래하여 열 관리 문제도 덩달아 심화되고 있다. 그러나 기존의 공랭식 냉각만으로는 이러한 발열을 처리하는 데에 한계가 있어, 보다 효율적인 액체 냉각 솔루션에 대한 필요성이 제기되고 있다. 업계 전문가들은 향후 몇 년간 액체 냉각 솔루션 시장이 연평균 30% 이상의 성장을 기록할 것으로 전망하고 있다. 슈나이더 일렉트릭은 이번 인수계약을 통해, 향후 다이렉트 투 칩(D2C) 액체 냉각 및 고용량 열 관리 솔루션 포트폴리오를 강화하여, 데이터센터 냉각 기술의 혁신을 더욱 촉진할 것으로 기대하고 있다. 미국 버팔로에 본사를 둔 모티브에어는 1988년 설립 이래 열 관리용 냉각기를 포함 냉각수 분배 장치(CDU), 후면 도어 열 교환기(RDHX), 콜드 플레이트 및 열 발산 장치(HDU) 등과 같은 열 관리 제품군을 제공해왔다. 모티브에어는 슈퍼컴퓨터에 액체 냉각 솔루션을 공급해온 경험을 바탕으로 최근 두 자릿수 성장률을 기록하고 있으며, 향후 AI와 대형 데이터센터 시장에서도 엔드 투 엔드 액체 냉각 솔루션을 제공할 계획이다.     슈나이더 일렉트릭의 피터 허윅(Peter Herweck) CEO는 “이번 모티브에어 인수는 데이터센터 산업 전반에서 슈나이더 일렉트릭의 글로벌 리더십을 더욱 강화하는 중요한 단계”라면서, “모티브에어의 독보적인 액체 냉각 포트폴리오는 데이터센터 냉각 솔루션을 더욱 보완하고, 그리드에서 칩으로, 칩에서 냉각기로 이어지는 데이터센터 구축의 모든 단계에서도 슈나이더 일렉트릭의 입지를 한층 더 탄탄히 할 것”이라고 전했다. 모티브에어의 리치 휘트모어(Rich Whitmore) CEO는 “슈나이더 일렉트릭과의 협력을 통해 혁신과 지속 가능성에 대한 우리의 헌신과 노력을 공유할 수 있게 되어 매우 기쁘다”면서, “앞으로 양사의 협력을 통해 사업을 확장하고, 새로운 기술에 대한 투자를 아끼지 않으며 업계 리더로서의 입지를 공고히 할 수 있을 것”이라고 말했다.
작성일 : 2024-11-20
델, AI 팩토리 포트폴리오에 최신 기술 적용한 서버/랙 시스템/전문 서비스 추가
델 테크놀로지스는 자사의 AI 설루션 포트폴리오인 ‘델 AI 팩토리(Dell AI Factory)’에 AI 구축 간소화를 위한 신규 인프라 설루션과 전문 서비스를 추가했다고 밝혔다. 델은 확장된 라인업을 통해 기업 및 기관이 AI 워크로드를 가속하고 데이터 관리를 효율화할 수 있도록 지원할 계획이다. 올해 새롭게 공개된 통합 랙 스케일러블 시스템인 ‘델 IRSS(Integrated Rack Scalable Systems)’는 플러그 앤 플레이 방식의 랙 스케일 시스템을 제공하는 공장 통합형 턴키 프로그램으로, 델 스마트 쿨링(Dell Smart Cooling) 기술이 적용되어 있다. IRSS는 전체 랙에 대한 원콜 서비스 및 지원 옵션을 통해 에너지 효율적인 AI 인프라스트럭처 구축을 더욱 간소화한다. 설치가 완료되면 델에서 패키징 폐기물 및 재활용을 처리하고 기존 노후 하드웨어의 재활용까지 지원한다. 표준 19인치 모델인 ‘델 IR5000(Dell Integrated Rack 5000)’에 탑재되는 서버로 ‘델 파워엣지 XE9685L(Dell PowerEdge XE9685L)’ 및 ‘델 파워엣지 XE7740(Dell PowerEdge XE7740)’이 추가됐다. 델 IR5000은 공간 효율적인 폼 팩터로 고집적 애플리케이션을 위해 설계되었으며, 고성능을 제공하는 동시에 에너지 효율을 유지한다.  델 파워엣지 XE9685L은 AI, 머신러닝, 고성능 컴퓨팅(HPC) 및 기타 데이터 집약적인 워크로드를 위해 설계된 고집적 4U 수랭식 서버이다. 최대 12개의 PCIe 젠 5.0 슬롯과 함께 엔비디아 HGX (NVIDIA HGX) H200 및 B200 GPU와 페어링된 듀얼 AMD 5세대 에픽(EPYC) CPU는 특정 컴퓨팅 요구 사항을 충족하는 맞춤형 구성, 최적화된 스토리지 연결 및 까다로운 워크로드를 위한 최대 IO 처리량을 지원한다. 이 플랫폼은 랙당 최대 96개의 엔비디아 GPU를 탑재할 수 있어 업계 최고 수준의 GPU 집적도를 제공한다.   ▲ 델 파워엣지 XE7740 서버   델 파워엣지 XE7740은 공랭식의 4U 모델로 2개의 인텔 제온 6(Intel Xeon) P-코어 프로세서와 인텔 가우디(Intel Gaudi) 3 PCIe 가속기 또는 엔비디아 H200 NVL 등 최대 8개의 더블 와이드 가속기, 또는 엔비디아 L4 텐서 코어(Tensor Core) GPU 등의 최대 16개의 싱글 와이드 가속기를 사용할 수 있다. 델은 “다양한 선택의 폭이 제공되는 만큼 생성형 AI 모델의 미세 조정이나 추론에서부터 대규모 데이터 세트에 대한 가치 추출에 이르기까지 규모에 맞게 서버 구성의 적절히 조정할 수 있다”고 설명했다.   델은 곧 출시될 엔비디아 GB200 그레이스 블랙웰 NVL4 슈퍼칩(Grace Blackwell NVL4 Superchip)을 델 IR7000용으로 설계된 새로운 델 파워엣지 XE 서버를 통해 50OU 표준 랙에서 랙당 최대 144개의 GPU를 지원할 계획이다. IR7000 랙은 100%에 가까운 열 포집 능력으로 고전력 및 액체 냉각을 필요로 하는 대규모 HPC 및 AI 워크로드를 지원한다. 또한, 델 테크놀로지스는 AI 작업을 위해 데이터를 효율적으로 관리하고 분석할 수 있는 최신 아키텍처 수요에 대응하게 위해 ‘델 데이터 레이크하우스(Dell Data Lakehouse)’도 업데이트 했다. 이 플랫폼은 AI에 최적화된 하드웨어와 풀 스택 소프트웨어 제품군을 기반으로 구축되었으며, 향후 대규모 분산 데이터 처리를 위한 아파치 스파크(Apache Spark)를 포함하도록 확장될 예정이다. 대량의 데이터를 관리하는 기업의 경우, 이를 통해 데이터 애널리틱스와 관리 및 처리에 이르기까지 통합된 접근 방식을 확보함으로써 효율성을 높이고 보다 신속하게 실행 가능한 인사이트를 얻을 수 있다. 한편, 델은 AI 에코시스템 전반의 파트너와 협력하여 AI 구축을 강화하고 간소화하는데 노력하고 있다고 전했다. 엔비디아 기반 델 AI 팩토리(Dell AI Factory with NVIDIA)는 AI 운영 및 활용 사례 구축을 위해 성능을 보다 가속화한다. 새로운 엔비디아 HGX H200 및 H100NVL 지원 옵션은 엔비디아 HGX H100 대비 최대 1.9배 더 높은 성능을 제공한다. 엔비디아 기반 델 AI 팩토리의 일부인 ‘엔비디아 기반 델 에이전틱 RAG(Dell Agentic RAG with NVIDIA)’를 통해 고객은 복잡한 쿼리를 수행하고 검색 증강 생성(RAG) 작업을 가속할 수 있다. 대규모 데이터 세트를 보유한 조직에서는 델의 이 설계를 기반으로 AI 에이전트를 사용하여 RAG 워크플로 성능을 개선하고, 복잡한 쿼리를 처리하며, 더 높은 품질의 결과를 제공할 수 있다. 이 설루션은 델 파워엣지와 델 파워스케일(Dell PowerScale)을 비롯해 니모 리트리버(NeMo Retriever) 마이크로서비스, 멀티모달 PDF 데이터 추출을 위한 ‘엔비디아 AI 블루프린트(NVIDIA AI Blueprint)’ 등 엔비디아 AI 엔터프라이즈(NVIDIA AI Enterprise) 소프트웨어를 활용한다. AI PC를 위한 델 검증 설계(Dell Validated Designs for AI PCs)는 NPU 기술이 탑재된 델 AI PC에서 AI 애플리케이션 개발을 촉진하기 위해 설계된 오픈 소스 가이드이다. 개발자는 모듈식 설계를 쉽게 맞춤화하여 LLM, 비전, 텍스트 및 음성 등의 기능을 애플리케이션에 통합할 수 있다. 또한 다양한 프로세서 종류나 플랫폼에 걸쳐 AI 애플리케이션을 배포할 수 있다. 이러한 확장 가능한 접근 방식을 통해 온디바이스 AI에서 일상적인 프로세스를 자동화하고 시간과 비용을 절감하고 데이터 보안을 개선할 수 있다. 델 프로페셔널 서비스(Dell Professional Services)는 AI 관련 전략 개발이나 구현에 어려움을 겪는 기업과 기관들이 AI 목표를 보다 효율적으로 달성할 수 있도록 지원한다. ‘지속 가능한 데이터 센터를 위한 자문 및 구현 서비스(Advisory and Implementation Services for Sustainable Data Centers)’는 지능형 전력 및 냉각 관리를 통해 저탄소, 에너지 효율적인 데이터 센터를 위한 전략을 수립하고 구현하는데 필요한 전문 지식을 제공한다. ‘데이터 관리 서비스(Data Management Services)’는 데이터를 검색, 분류, 정제하여 AI-레디 카탈로그를 제공하고 체계화된 고품질 데이터에 대한 안정적이고 간소화된 액세스를 보장한다. ‘AI 네트워킹을 위한 설계 서비스(Design Services for AI Networking)’는 더 빠른 속도, 지연 시간 단축, 향상된 확장성을 통해 AI 워크로드에 최적화된 네트워크 설계를 제공한다. ‘서비스나우 나우 어시스트를 위한 구현 서비스(Implementation Services for ServiceNow Now Assist)’는 AI 기반 요약을 통해 콘텐츠 수집을 간소화하여 결과를 자동화하고 생산성을 향상시키는 ‘나우 어시스트’를 통해 서비스 관리 워크플로에 생성형 AI 기능을 통합한다. 한국 델 테크놀로지스의 김경진 총괄사장은 “여러 고객들이 AI를 구축하고 실행하기까지 점점 더 다양한 도전과제에 직면하게 된다”면서, “델은 계속해서 진일보한 AI 오퍼링을 선보임으로써 고객이 AI를 통해 보다 스마트하고 유연하게 대응할 수 있는 미래를 만들어갈 수 있도록 하는데 집중하고 있다”고 밝혔다. 델 파워엣지 XE9685L과 델 파워엣지 XE7740은 2025년 1분기에 전 세계에 출시될 예정이며, 델 데이터 레이크하우스 업데이트는 현재 전세계에서 이용 가능하다. AI PC를 위한 델 검증 설계는 현재 전 세계에서 이용 가능하며, 엔비디아 기반의 델 생성형 AI 설루션의 GPU 업데이트는 올해 내에 제공될 예정이고, 엔터프라이즈 RAG 업데이트는 현재 이용이 가능하다. ‘델 데이터 관리 서비스’와 ‘지속 가능한 데이터 센터를 위한 델 서비스,’ ‘AI 네트워킹을 위한 델 설계 서비스,’ ‘서비스나우 나우 어시스트를 위한 델 구현 서비스’는 현재 일부 국가에서 제공되고 있다.
작성일 : 2024-11-19
레노버, 스냅드래곤 X 엘리트 탑재한 코파일럿+ PC ‘씽크패드 T14s 6세대 퀄컴’ 출시
한국레노버가 퀄컴 스냅드래곤 X 엘리트를 탑재한 AI PC ‘씽크패드 T14s 6세대 퀄컴’을 오픈마켓에 출시하고, 12월 31일까지 특별 프로모션을 진행한다고 밝혔다. 씽크패드 T14s 6세대 퀄컴은 씽크패드의 첫 번째 코파일럿+ PC로 퀄컴 헥사곤 NPU가 내장된 퀄컴 스냅드래곤 X 엘리트를 탑재했다. 클라우드 연결 없이도 대규모 언어 모델(LLM) 등의 온디바이스 AI 기능을 활용할 수 있다. 민감한 데이터를 보호하고 높은 전력 효율을 유지하며 비즈니스 환경에서 AI 잠재력을 극대화한다. 와이파이(Wi-Fi) 7 지원으로 지연 시간을 줄이고 효율을 높일 수 있다. 최대 2.8K OLED 디스플레이는 16:10 비율로 넓은 화면을 제공한다. 100% DCI-P3 넓은 색 영역을 지원하며, 400 니트 밝기와 돌비 비전 인증을 받아 생생한 색감을 구현한다. 아이세이프(Eyesafe) 인증을 획득해 장시간 업무 시에도 눈의 피로를 줄인다. 돌비 오디오 지원 2개 스테레오 스피커는 입체 음향을 지원하며, FHD IR 카메라는 화상회의 시 안정적 화면을 지원한다.      T14s 6세대 퀄컴은 두께 16.9mm, 최소 무게 1.24kg로 휴대성을 높였다. 고속 충전을 지원하는 58Wh 배터리는 1시간에 80% 충전이 가능하며, 전 세대 대비 더 넓어진 벤틸레이션(ventilation)으로 향상된 발열 관리 기능을 제공한다. 미 육군 납품 규정 밀스펙을 통과해 물리적 충격에 내구성을 갖추고 있으며, 보안 소프트웨어인 레노버 씽크쉴드(ThinkShield)는 엔터프라이즈급 보안 성능을 제공한다. 한국레노버는 오픈마켓 출시를 기념해 G마켓, 11번가 등 오픈마켓에서 프로모션을 진행한다고 전했다. 씽크패드 T14s 6세대 퀄컴을 구매한 고객 모두에게 노트북 가방과 무소음 블루투스 마우스를 증정하며, 포토상품평 응모 시 씽크비전 E24-28 모니터를 사은품으로 제공한다. 한국레노버의 신규식 대표는 “성능과 생산성, 안정성을 모두 잡은 씽크패드 T14s 6세대 퀄컴은 직관적이고 혁신적인 경험을 제공하는 AI PC”라면서, “씽크패드 T14s 6세대 퀄컴은 AI를 토대로 창의적인 표현력과 탁월한 생산성을 제공해 기업 고객은 물론 일반 사용자에게도 새로운 경험을 선사할 것”이라고 전했다.
작성일 : 2024-11-18
뉴타닉스, 기업의 AI 플랫폼을 퍼블릭 클라우드로 확장하는 ‘뉴타닉스 엔터프라이즈 AI ‘ 출시
뉴타닉스는 새로운 클라우드 네이티브 제품인 ‘뉴타닉스 엔터프라이즈 AI(Nutanix Enterprise AI, 이하 NAI)’를 출시했다고 발표했다. NAI는 기업의 AI 인프라 플랫폼을 확장하며, 에지, 코어 데이터센터와 아마존 EKS(Amazon Elastic Kubernetes Service), 애저 쿠버네티스 서비스(Azure Kubernetes Service : AKS), 구글 쿠버네티스 엔진(Google Kubernetes Engine : GKE)과 같은 퍼블릭 클라우드 서비스 등 모든 쿠버네티스 플랫폼에 배포될 수 있다. NAI는 가속화된 AI 워크로드를 위한 일관된 하이브리드 멀티클라우드 운영 모델을 제공한다. 이를 통해 조직은 선택한 안전한 위치에서 모델과 데이터를 활용하면서 투자 수익(ROI)을 개선할 수 있다. 엔비디아 NIM(NVIDIA Inference Microservices)을 활용해 파운데이션 모델의 성능을 최적화한 NAI는 조직이 대규모 언어 모델(LLM)의 추론 엔드포인트를 안전하게 배포, 실행 및 확장할 수 있게 한다. 이로써 생성형 AI 애플리케이션을 몇 분 내에 배포할 수 있다. 생성형 AI는 본질적으로 하이브리드 워크로드로, 새로운 애플리케이션은 주로 퍼블릭 클라우드에서 구축되고, 사설 데이터를 사용한 모델의 미세 조정은 온프레미스에서 이루어진다. 추론은 비즈니스 로직과 가장 가까운 곳에 배포되는데, 이는 에지, 온프레미스 또는 퍼블릭 클라우드일 수 있다. 이러한 분산된 하이브리드 생성형 AI 워크플로는 복잡성, 데이터 프라이버시, 보안 및 비용 측면에서 조직에게 과제를 제시할 수 있다.     NAI는 일관된 멀티클라우드 운영 모델과 엔비디아 NIM에 최적화된 추론 마이크로서비스 및 허깅페이스(Hugging Face)의 오픈 파운데이션 모델을 사용해 LLM을 안전하게 배포, 확장 및 실행할 수 있는 간단한 방법을 제공한다. 이를 통해 고객은 비즈니스 핵심 애플리케이션에 필요한 복원력, 데이 2(day 2) 운영 역량 및 보안성을 갖춘 엔터프라이즈 생성형 AI 인프라를 온프레미스 또는 아마존 EKS, 애저 쿠버네티스 서비스, 구글 쿠버네티스 엔진에 구축할 수 있다. 또한, NAI는 예측하기 어려운 사용량 또는 토큰 기반 가격 책정과는 달리, 인프라 리소스를 기반으로 한 투명하고 예측 가능한 가격 모델을 제공한다. 이는 생성형 AI 투자에서 ROI를 최대화하려는 고객에게 중요하다. 뉴타닉스는 NAI가 ▲AI 기술 격차 해소 ▲ AI 준비 플랫폼 구축의 장벽 제거 ▲데이터 프라이버시 및 보안 우려 해소 ▲ 생성형AI 워크로드에 엔터프라이즈급 인프라 제공 등의 이점을 고객에게 제공한다고 설명했다. NAI는 뉴타닉스 GPT인어박스(Nutanix GPT-in-a-Box) 2.0의 구성 요소이다. GPT 인어박스에는 뉴타닉스 클라우드 인프라(Nutanix Cloud Infrastructure : NCI), 뉴타닉스 쿠버네티스 플랫폼(Nutanix Kubernetes Platform : NKP), 뉴타닉스 통합 스토리지(Nutanix Unified Storage : NUS)와 함께 온프레미스 훈련 및 추론을 위한 맞춤형 서비스가 포함된다. 퍼블릭 클라우드 배포를 원하는 고객은 NAI를 모든 쿠버네티스 환경에 배포될 수 있으며, 온프레미스 배포와 운영 일관성을 유지할 수 있다. NAI는 엔비디아 전체 스택 AI 플랫폼과 함께 배포될 수 있으며 엔비디아 AI 엔터프라이즈(AI Enterprise) 소프트웨어 플랫폼으로 검증됐다. 여기에는 엔비디아 NIM이 포함되는데, 이는 고성능 AI 모델 추론을 안전하고 안정적으로 배포하기 위해 설계된 사용하기 쉬운 마이크로서비스 세트이다. 또한 뉴타닉스 GPT인어박스는 엔비디아 인증시스템(NVIDIA-Certified System)으로 성능의 안전성을 보장한다.  뉴타닉스는 NAI를 활용하는 주요 사용 사례로 ▲고객 피드백과 문서 분석을 통한 생성형 AI로 고객 경험 개선 ▲코파일럿과 지능형 문서 처리를 활용한 코드 및 콘텐츠 생성 가속화 ▲특정 도메인 데이터로 모델을 미세 조정해 코드 및 콘텐츠 생성 효율화 ▲사기 탐지, 위협 탐지, 경고 강화, 자동 정책 생성을 위한 AI 모델 활용으로 보안 강화 ▲사내 데이터로 미세 조정된 모델을 활용한 분석 개선 등을 소개했다. 뉴타닉스의 토마스 코넬리(Thomas Cornely) 제품 관리 부문 수석 부사장은 “뉴타닉스는 NAI를 통해 고객이 온프레미스나 퍼블릭 클라우드에서 생성형 AI 애플리케이션을 쉽고 안전하게 실행할 수 있도록 지원하고 있다”면서, “NAI는 모든 쿠버네티스 플랫폼에서 실행 가능하며, 고객의 AI 애플리케이션을 예측 가능한 비용으로 안전한 환경에서 운영할 수 있게 한다”고 말했다. 엔비디아의 저스틴 보이타노(Justin Boitano) 엔터프라이즈 AI 부사장은 “생성형 AI 워크로드는 본질적으로 하이브리드 특성을 가지고 있어, 훈련, 맞춤화, 추론이 퍼블릭 클라우드, 온프레미스 시스템, 에지 환경에 걸쳐 이루어진다”면서, “엔비디아 NIM을 NAI에 통합하면 안전한 API를 갖춘 일관된 멀티클라우드 모델을 제공해, 고객이 비즈니스 핵심 애플리케이션에 필요한 높은 성능과 보안으로 다양한 환경에서 AI를 배포할 수 있게 된다”고 말했다.
작성일 : 2024-11-18
HPE, 직접 수냉 방식 HPC 설루션 및 대규모 AI 모델 학습을 위한 AI 서버 발표
HPE는 리더십급 ‘HPE 크레이 슈퍼컴퓨팅 EX’ 설루션과 대규모 언어 모델(LLM) 학습, 자연 언어 프로세싱(NLP) 및 멀티 모달 모델 학습에 최적화된 시스템 2종을 포함한 새로운 HPC 및 인공지능(AI) 인프라 포트폴리오를 발표했다. HPE 크레이 슈퍼컴퓨팅 EX 시스템을 기반으로 하는 전체 리더십급 HPC 포트폴리오의 신제품은 세계의 난제 해결을 맡은 연구 기관과 소버린 AI 이니셔티브를 개발하는 정부 기관을 위해 설계되었다. 이 포트폴리오는 100% 팬리스 직접 수냉 방식(Fanless DLC) 시스템 아키텍처를 기반으로 하며 컴퓨팅 노드, 네트워킹, 스토리지를 포함한 HPE 슈퍼컴퓨팅 설루션의 모든 레이어에 걸쳐 새로운 소프트웨어 오퍼링으로 보완된다. 단일 캐비닛에서 최대 9만 8304개의 코어를 제공할 수 있는 HPE 크레이 슈퍼컴퓨팅 EX4252 2세대 컴퓨팅 블레이드(HPE Cray Supercomputing EX4252 Gen 2 Compute Blade)는 슈퍼컴퓨팅을 위한 강력한 원랙 유닛 시스템을 구현하는 제품이다. 8개의 5세대 AMD 에픽(EPYC) 프로세서를 탑재한 이 컴퓨팅 블레이드는 CPU 집적도의 이점을 제공하여 고객이 동일한 공간 내에서 더 높은 성능의 컴퓨팅을 실현할 수 있도록 지원한다. HPE Cray 슈퍼컴퓨팅 EX4252 2세대 컴퓨팅 블레이드는 2025년 봄에 출시될 예정이다.     슈퍼컴퓨팅 워크로드를 완료하는 데 걸리는 시간을 단축하기 위해 HPE 크레이 슈퍼컴퓨팅 EX154n 가속기 블레이드(HPE Cray Supercomputing EX154n Accelerator Blade)는 단일 캐비닛에 최대 224개 엔비디아 블랙웰(NVIDIA Blackwell) GPU를 탑재할 수 있다. 각 가속기 블레이드는 엔비디아 GB200 그레이스 블랙웰 NVL4 슈퍼칩(NVIDIA GB200 Grace Blackwell NVL4 Superchip)을 탑재하고 있으며, 엔비디아 NV링크-C2C를 통해 2개의 엔비디아 그레이스 CPU와 통합된 4개의 엔비디아 NV링크 연결 블랙웰(NVIDIA NVLink-connected Blackwell) GPU를 보유하고 있다. HPE 크레이 슈퍼컴퓨팅 EX154n 가속기 블레이드는 2025년 말에 공급될 예정이다. 차세대 엑사스케일 지원 HPE 인터커넥트 포트폴리오는 초당 400GB 속도의 네트워크 인터페이스 컨트롤러(NIC), 케이블 및 스위치를 제공한다. HPE 슬링샷 인터커넥트 400(HPE Slingshot interconnect 400)은 이전 세대보다 2배 빠른 회선 속도를 제공하는 동시에 자동화된 혼잡 관리 및 초저 테일 레이턴시(ultra-low tail latency)를 위한 어댑티브 라우팅과 같은 기능을 제공하여 고객이 더 적은 네트워크 인프라로 대규모 워크로드를 실행할 수 있도록 지원한다. 이 버전의 HPE 슬링샷은 2025년 하반기부터 HPE Cray 슈퍼컴퓨팅 EX 시스템 기반 클러스터에 적용될 예정이다 HPE 크레이 슈퍼컴퓨팅 스토리지 시스템 E2000은 이전 세대 대비 입출력(I/O) 성능이 두 배 이상 향상되었다. 대규모 슈퍼컴퓨터용으로 설계된 이 시스템은 오픈 소스 러스터(Lustre) 파일 시스템을 기반으로 하며, I/O 작업 중 유휴 시간을 줄여 CPU 및 GPU 기반 컴퓨팅 노드 모두의 활용도를 높일 수 있다. 이 HPC 스토리지 시스템은 2025년 초에 HPE 크레이 슈퍼컴퓨팅 EX 시스템에서 일반적으로 제공될 예정이다. 또한, HPE는 컴퓨팅 집약적 워크로드 실행의 사용자 경험을 개선하는 새로운 소프트웨어 제품을 출시한다. 현재 이용 가능한 HPE 크레이 슈퍼컴퓨팅 사용자 서비스 소프트웨어에는 고객이 시스템 효율성을 최적화하고 전력 소비를 조절하며 슈퍼컴퓨팅 인프라에서 다양한 워크로드를 유연하게 실행하는 데 도움이 되는 기능이 포함되어 있다. 한편, HPE는 고객이 대규모 고성능 AI 클러스터를 간소화할 수 있도록 지원하는 새로운 카테고리의 서버를 계속 선보이고 있다고 전했다. 자체 AI 모델을 학습하는 SP와 대기업을 위해 설계된 HPE 프로라이언트 컴퓨트 XD 서버는 대규모 AI 시스템 설치 및 배포에 대한 HPE의 전문성을 활용한다. HPE의 최첨단 제조 시설 내에서 설루션의 구축, 맞춤화, 통합, 검증, 전체 테스트를 지원하는 HPE 서비스 옵션을 활용하면 신속한 온사이트 배포가 가능하다. HPE 프로라이언트 컴퓨트 서버에서만 사용 가능한 HPE iLO(Integrated Lights-Out) 관리 기술을 사용하면 일부 권한이 있는 직원이 서버에 대한 대역 외 원격 제어 액세스를 허용하여 표준 대역 내 네트워크 액세스보다 보안을 강화할 수 있다. 가격 대비 성능을 염두에 두고 최적화된 공냉 방식 HPE 프로라이언트 컴퓨트 XD680 서버는 복잡한 AI 학습, 튜닝 및 추론 워크로드를 처리하도록 설계되었다. HPE가 설계한 섀시에는 단일 컴팩트 노드에 8개의 인텔 가우디 3 AI 가속기가 탑재되어 있다. 인텔 가우디 3가 탑재된 HPE 프로라이언트 컴퓨트 XD680 서버는 2024년 12월에 출시될 예정이다. HPE는 성능, 경쟁 우위, 에너지 효율성을 우선시하는 고객을 위해 대규모의 복잡한 AI 모델에 대한 학습을 가속화할 수 있는 엔비디아 GPU가 탑재된 새로운 버전의 HPE 프로라이언트 컴퓨트 XD685 서버가 출시될 예정이다. 이 서버는 5개의 랙 유닛 섀시에 8개의 엔비디아 H200 SXM 텐서 코어 GPU 또는 엔비디아 블랙웰 GPU로 구동되며, 수냉식 냉각 분야에서 수십 년간 쌓아온 HPE의 전문성을 활용하여 GPU, CPU 및 스위치를 효율적으로 냉각시킨다. HPE 프로라이언트 컴퓨트 XD685 서버의 엔비디아 HGX H200 8-GPU 버전은 2025년 초에 출시될 예정이며, 엔비디아 블랙웰 GPU 버전은 출시에 맞춰 선보일 예정이다. HPE의 트리시 댐크로거(Trish Damkroger) HPC 및 AI 인프라 설루션 부문 수석 부사장 겸 총괄은 “소버린 AI 이니셔티브에 투자하는 서비스 제공업체와 국가들은 발견과 혁신을 가속화하기 위한 대규모 AI 학습을 가능하게 하는 중요한 백본으로 HPC를 점점 더 많이 고려하고 있다”면서 “고객은 세계 최고의 HPC 설루션과 완전 통합형 시스템 제공, 배포 및 서비스 분야에서 수십 년간 쌓아온 경험을 활용하여 더 빠르고 효율적으로 가치를 실현하면서 AI 시스템 배포를 빠르게 진행하기 위해 HPE에 주목하고 있다”고 밝혔다.
작성일 : 2024-11-15
엔비디아-소프트뱅크, 일본 내 AI 이니셔티브 가속화 위해 협력
엔비디아가 ‘엔비디아 AI 서밋 재팬’ 이벤트에서 소프트뱅크와의 협업을 발표했다. 이를 통해 엔비디아는 일본의 소버린 AI 이니셔티브를 가속화하고 글로벌 기술 리더십을 강화하기 위해 지원할 계획이다. 또한 이 협업은 전 세계 통신 사업자에게 수십억 달러의 AI 수익 기회를 창출할 것을 목표로 한다. 엔비디아의 젠슨 황(Jensen Huang) CEO는 엔비디아 AI 서밋 재팬의 기조연설에서 소프트뱅크가 엔비디아 블랙웰(Blackwell) 플랫폼을 사용해 일본에서 가장 강력한 AI 슈퍼컴퓨터를 구축하고 있다고 말했다. 아울러 차기 슈퍼컴퓨터에 엔비디아 그레이스(Grace) 블랙웰 플랫폼을 사용할 계획이라고 발표했다. 아울러 엔비디아는 소프트뱅크가 엔비디아 AI 에리얼(Aerial) 가속 컴퓨팅 플랫폼을 사용해 AI와 5G 통신 네트워크를 결합한 시범 서비스에 성공했다. 이는 통신 사업자에게 잠재적으로 수십억 달러 상당의 AI 수익원을 열어주는 컴퓨팅 기술이다. 또한 엔비디아는 소프트뱅크가 엔비디아 AI 엔터프라이즈 소프트웨어를 사용해 로컬 보안 AI 컴퓨팅에 대한 수요를 충족할 수 있는 AI 마켓플레이스를 구축할 계획이라고 발표했다. 소프트뱅크는 AI 훈련과 에지 AI 추론을 지원하는 새로운 서비스를 통해 일본의 산업, 소비자, 기업 전반에 걸쳐 AI 서비스의 생성, 배포, 사용을 위한 새로운 비즈니스 기회를 촉진할 예정이다. 소프트뱅크는 세계 최초로 엔비디아 DGX B200 시스템을 공급받을 예정이며, 이는 새로운 엔비디아 DGX SuperPOD 슈퍼컴퓨터의 빌딩 블록 역할을 할 것이다. 소프트뱅크는 자체 생성형 AI 개발과 AI 관련 사업뿐만 아니라 일본 전역의 대학, 연구 기관, 기업에서 블랙웰 기반 DGX SuperPOD을 사용할 계획이다. 엔비디아는 “이 프로젝트가 완료되면 소프트뱅크의 DGX SuperPOD이 일본에서 가장 뛰어난 성능을 발휘할 것”이라면서, “이 시스템은 엔비디아 AI 엔터프라이즈 소프트웨어와 엔비디아 퀀텀-2 인피니밴드(Quantum-2 InfiniBand) 네트워킹을 갖추고 있어 대규모 언어 모델(LLM) 개발에도 이상적”이라고 전했다. 소프트뱅크는 DGX SuperPOD 외에도 극도로 컴퓨팅 집약적인 워크로드를 실행하기 위해 또 다른 엔비디아 가속 슈퍼컴퓨터를 구축할 계획이다. 이 슈퍼컴퓨터의 초기 계획은 엔비디아 그레이스 블랙웰 플랫폼 설계를 기반으로 하고 있다. 이 설계는 엔비디아 블랙웰 GPU와 Arm 기반 엔비디아 그레이스 CPU를 결합한 엔비디아 GB200 NVL72 멀티노드 수냉식 랙 스케일 시스템을 갖추고 있다.     한편, 소프트뱅크는 엔비디아와 협력해 AI와 5G 워크로드를 동시에 실행할 수 있는 새로운 종류의 통신 네트워크인 AI-RAN(artificial intelligence radio access network)을 개발했다. 이 새로운 유형의 인프라는 통신 사업자에게 기지국을 비용 센터에서 AI 수익 창출 자산으로 전환할 수 있는 기능을 제공해, 통신 업계의 생태계 지원을 받고 있다. 소프트뱅크는 일본 가나가와 현에서 실시한 실외 실험을 통해 엔비디아 가속 AI-RAN 설루션이 캐리어급 5G 성능을 달성했으며, 네트워크의 초과 용량을 사용해 AI 추론 워크로드를 동시에 실행할 수 있음을 입증했다. 기존 통신사 네트워크는 피크 부하를 처리하도록 설계돼 평균적으로 해당 용량의 3분의 1만 사용했다. 한편, AI-RAN이 제공하는 공통 컴퓨팅 기능을 활용하면 나머지 3분의 2 용량을 AI 추론 서비스를 위해 수익화할 수 있을 것으로 예상된다. 엔비디아와 소프트뱅크는 통신 사업자가 새로운 AI-RAN 인프라에 1달러의 자본을 투자할 때마다 약 5달러의 AI 추론 수익을 얻을 수 있을 것으로 예상하고 있다. 소프트뱅크는 운영 비용과 자본 비용을 고려할 때, 인프라에 추가하는 모든 AI-RAN 서버에 대해 최대 219%의 수익을 달성할 수 있을 것으로 예상하고 있다. 소프트뱅크는 실험을 통해 엔비디아 AI 엔터프라이즈를 사용해 자율주행 자동차 원격 지원, 로보틱스 제어, 에지에서의 멀티모달 검색 자동 생성을 포함한 실제 AI 추론 애플리케이션을 구축했다. 모든 추론 워크로드는 소프트뱅크의 AI-RAN 네트워크에서 최적으로 실행될 수 있었다. 젠슨 황 CEO는 “일본은 전 세계에 영향을 미치는 기술 혁신을 선도해온 오랜 역사를 갖고 있다. 소프트뱅크가 엔비디아의 풀스택 AI, 옴니버스(Omniverse), 5G AI-RAN 플랫폼에 대한 막대한 투자를 함으로써 일본은 AI 산업 혁명의 글로벌 리더로 도약하고 있다. 일본은 통신, 교통, 로보틱스, 의료 산업 전반에 걸쳐 새로운 성장의 시대를 주도해 AI 시대에 인류에게 큰 혜택을 제공할 것”이라고 말했다. 소프트뱅크의 미야카와 준이치(Junichi Miyakawa) 사장 겸 CEO는 “전 세계 국가와 지역이 사회와 경제 성장을 위해 AI 도입을 가속화하고 있으며, 사회는 중대한 변화를 겪고 있다. 소프트뱅크는 엔비디아와의 오랜 협력을 통해 이러한 변화를 최전선에서 주도하고 있다. 매우 강력한 AI 인프라와, AI를 위한 5G 네트워크를 재창조하는 새로운 분산형 AI-RAN 설루션 '아이트라스(AITRAS)'를 통해 일본 전역과 전 세계에서 혁신을 가속화할 것”이라고 말했다.
작성일 : 2024-11-13
유아이패스, 차세대 AI 어시스턴트에 앤스로픽 클로드 언어 모델 도입
유아이패스가 앤스로픽의 클로드(Anthropic Claude) LLM(대규모 언어 모델)을 자사의 세 가지 핵심 제품에 통합해 더욱 진화된 AI 기능을 선보인다고 밝혔다. '유아이패스 오토파일럿 포 에브리원(UiPath Autopilot for Everyone)', '클립보드 AI(Clipboard AI)', 새로운 생성형 AI 헬스케어 설루션을 통해 기업들은 생산성 향상과 비용 절감은 물론, 더욱 정확하고 신뢰할 수 있는 의사결정 역량을 확보할 수 있게 됐다. 특히 이번 통합으로 고객들은 유아이패스 플랫폼에서 클로드의 고급 AI 기능을 활용해 신뢰할 수 있고 책임감 있는 방식으로 AI를 업무에 활용할 수 있게 됐다. 유아이패스 오토파일럿 포 에브리원은 AI를 통해 일상적인 업무를 간소화한다. 이 설루션은 앤스로픽 클로드 3.5 소넷, 유아이패스 도큐먼트 언더스탠딩(UiPath Document Understanding), 유아이패스 컨텍스트 그라운딩(UiPath Context Grounding)의 기능을 결합했다. 이를 통해 ▲신뢰할 수 있는 기업 지식을 활용해 다양한 업무 관련 질문에 즉각적이고 정확한 답변을 제공하며, 유아이패스 자동화를 통해 여러 시스템에서 작업을 수행 ▲사용자가 기존 회사의 자동화 기능을 발견, 실행, 결합해 복잡한 작업을 완료 ▲디지털 문서에서 정보를 추출하고 클립보드 AI 기술을 사용해 기업 애플리케이션 내에 붙여넣기 ▲사용자가 API와 UI 자동화를 통해 새로운 자동화를 만들고, 비즈니스 시스템을 업데이트하며, 사람의 감독 하에 더 많은 작업을 자동화 등 특징을 제공한다.   현재 고객들은 오토파일럿 포 에브리원을 활용해 직원 셀프 서비스를 개선하고, 도메인 및 비즈니스 특화 지식을 기반으로 응답하며, 반복적인 작업을 자동화하고 있다. 예를 들어 의료 서비스 및 재난 구호 단체에서는 헌혈자 온보딩에 활용하고 있으며, 여러 조직에서는 영업팀의 고객 접근 가이드와 HR 업무 관련 직원 셀프 서비스용으로 사용하고 있다. 유아이패스는 의료 기관이 의료 기록 요약을 혁신하고 생성형 AI와 기업 자동화의 결합된 힘을 최대한 활용할 수 있도록 돕는 새로운 산업 설루션을 출시한다. 임상 전문가들과 협력하여 개발된 이 설루션은 의료 문서를 분석하는 더 효율적이고 정확한 방법을 만들기 위해 앤스로픽 클로드와 유아이패스 도큐먼트 언더스탠딩을 통합했다.    유아이패스 클립보드 AI는 정보를 한 곳에서 다른 곳으로 복사하는 시간 소모적인 수동 작업에서 사람들을 해방시킨다. 이는 반복적인 데이터 입력을 신속하고 지능적인 프로세스로 전환하여, 사용자가 더 큰 가치를 제공하는 작업에 우선순위를 둘 수 있게 한다. 클립보드 AI는 클로드를 활용한 범용 추출 기능을 도입해 신뢰할 수 있는 소스에서 데이터를 빠르고 정확하게 처리하여 수동 복사-붙여넣기 작업의 필요성을 제거한다. 클립보드 AI를 활용하는 기업들은 생산성을 높이고, 고객 및 직원 만족도를 개선하며, 운영 효율성을 향상시킬 수 있다. 예를 들어, 기업 간 유통, 물류 서비스 및 공급망 설루션을 제공하는 기업은 클립보드 AI를 사용해 공급업체로부터 받은 수천 개의 재고 문서를 처리하고 있다. 이 도구는 반구조화된 코멘트에서 데이터를 추출하여 ERP 앱으로 전송한다. 이전에 수동으로 처리하던 이 프로세스를 자동화함으로써 직원들은 주당 수백 시간을 절약하고 있다. 클립보드 AI는 2023년 타임(TIME)이 선정한 최고의 발명품 중 하나로 선정되기도 했다. 앤스로픽의 마이크 크리거(Mike Krieger) 최고제품책임자는 “AI는 기업의 업무 방식과 전문가들의 의사결정 방식을 근본적으로 변화시키고 개선하고 있다”면서, “이는 단순히 일상적인 작업에서 시간을 절약하는 것을 넘어, 사람들이 더 의미 있는 일에 집중할 수 있게 해주는 것이다. 클로드는 오토파일럿을 통한 일상 업무 간소화, 클립보드 AI를 통한 데이터 입력 자동화, 그리고 의료 기록 분석 개선을 통해 다양한 비즈니스 프로세스에서 더 빠르고 정확하며 지능적인 자동화를 가능하게 함으로써 더 큰 고객 가치를 제공할 것”이라고 말했다.
작성일 : 2024-11-12
대규모 언어 모델의 핵심 개념인 토큰, 임베딩과 모델 파인튜닝에 대해
BIM 칼럼니스트 강태욱의 이슈 & 토크   이번 호에서는 LLM(대규모 언어 모델)의 자연어 처리에서 핵심 기술인 토큰, 임베딩 및 모델 파인튜닝의 이해를 위한 개념과 임베딩 모델의 동작 메커니즘을 살펴본다. 여기서 토큰은 문장을 구성하는 단어로 가정하면 이해하기 쉽다. 토큰과 임베딩은 입력 시퀀스에 대한 출력을 학습, 예측할 때 훈련의 전제가 되는 LLM의 기본조건이다. 이에 대해 좀 더 깊게 이해해 보자.    ■ 강태욱  건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다.  페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com  홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast    최근 대규모 언어 모델(LLM : Large Language Model)과 검색 증강 생성(RAG : Retrieval-Augmented Generation) 기술을 이용해 다양한 전문가 서비스 에이전트를 개발하는 사례가 많아지고 있다. 특히, 전문가처럼 행동하며 문제를 해결하거나 의사결정을 지원하는 멀티 에이전트 기술은 이미 선진국을 중심으로 금융, 제조, 건설 등 엔지니링 분야에 개발되고 있다.    도메인 의존 정보와 토큰  의학과 같은 특별한 분야에서는 환각 현상 등으로 인해 챗GPT(ChatGPT)와 같은 범용 LLM이 제대로 정보를 생성하지 못하는 경우가 많다. 이런 문제를 해결하기 위해 전문 분야의 지식을 기존 LLM 모델을 이용해 재학습하는 방법이 생겨났는데, 파인튜닝은 그 중 한 가지 방법이다.  파인튜닝은 빅테크 업체가 공개한 LLM 모델을 특정 도메인 지식을 잘 표현할 수 있도록 재학습하는 방법 중 하나이다. LLM의 신경망 전체를 재학습하기 위해서는 매우 비싼 GPU 사용 비용이 필요하다. 이는 일반적인 기업에서 수행할 수 없는 수준이다. 이런 이유로, 파인튜닝은 메타에서 공개한 라마(LLaMA)와 같은 파운데이션 LLM 모델의 신경망에 별도의 작은 신경망을 추가해, 이를 별도로 준비된 데이터로 학습하는 방식을 사용한다.  LLM을 파인튜닝하기 전에 어떤 토큰이 사용되었는지, 임베딩 모델이 무엇인지 확인해야 한다. 파인튜닝 시 용어가 LLM에 사전 학습되어 있지 않다면, 용어 간 관계를 통계적으로 추론하는 학습 절차가 매우 비효율적으로 계산된다. 일반적으로 모델을 파인 튜닝하려면 LLM 토큰 확인 및 개발, 임베딩 모델의 적절한 사용이 필요하다.  <그림 1>은 토큰이 수치화된 결과를 보여준다. 참고로, 토큰이 숫자로 표현되지 못하는 문제를 OOV(Out-Of-Vocabulary)라 한다.    그림 1. 숫자 토큰화 결과   임베딩은 학습 모델이 입력되는 문장의 토큰 패턴을 통계적으로 계산하기 전, 토큰을 수치화시키는 함수이다. 이 함수를 임베딩 모델이라 한다. 임베딩 모델은 토큰을 수치화하여 모델 학습에 사용하는데 필요한 입력값을 출력한다. 이런 이유로, 토큰 사전과 임베딩 모델이 다르면 제대로 된 모델 학습, 예측, 패턴 계산 결과를 얻기 어렵다. 임베딩 모델도 별도의 신경망 모델이며 다양한 방식으로 학습될 수 있다. 이번 호에서는 구글에서 공개한 BERT(Bidirectional Encoder Representations from Transformers) 임베딩 모델을 사용한다.  이와 관련된 실험을 하기 위해, 개발 환경을 설치하고 파이썬 코드를 준비해 본다.    개발 환경 준비 미리 컴퓨터에 파이썬, 아나콘다 등 필수적인 라이브러리가 설치되어 있다는 조건에서, 실습을 위해 명령창에서 다음을 실행해 설치한다. pip install transformers torch   참고로, 다음은 파인튜닝에 사용하는 오픈소스 라이브러리를 보여준다. Torch : 텐서 계산 및 딥 러닝을 위한 핵심 라이브러리이다. PEFT : 낮은 순위의 적응 기술을 사용하여 대규모 언어 모델을 효율적으로 미세 조정할 수 있다. 특히 리소스가 제한된 장치에서 학습 가능한 매개 변수의 수를 줄여 모델을 압축하고 더 빠르게 미세 조정할 수 있다. bitsandbytes : 신경망에 대한 양자화 및 이진화 기술을 제공하여 모델 압축을 지원한다. 모델 압축에 도움이 되므로 메모리와 계산 능력이 제한된 에지 장치에 모델을 보다 실현 가능하게 만들 수 있다. Transformers : 대규모 언어 모델 작업을 간소화하여 사전 학습된 모델 및 학습 파이프라인을 제공한다. trl : 대규모 언어 모델의 경우 효율적인 모델 학습 및 최적화에 중점을 둔다. accelerate : 다양한 하드웨어 플랫폼에서 학습 및 추론을 가속화한다. dataset : 기계 학습 작업을 위한 데이터 세트 로드 및 준비를 간소화한다. pipeline : 사용자 지정 학습 없이 일반적인 NLP 작업에 대해 사전 학습된 모델의 사용을 간소화한다. PyArrow : 효율적인 데이터 로드 및 처리를 위해 사용될 수 있다. LoraConfig : LoRA 기반 미세 조정을 위한 구성 매개변수를 보유한다. SFTTrainer : 모델 학습, 최적화 및 평가를 처리한다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2024-11-04
[칼럼] AI 트렌드 2025 : 세 권의 책을 통해 본 미래 전망
책에서 얻은 것 No. 23    “AI는 본질적으로 공백이다. 우리는 그 공백에 의미와 목적을 부여하는 창조적 존재다.”  - 에두아르도 갈레아노(Eduardo Galeano), 작가, 철학자 최근에 읽은 세 권의 책은 AI의 현재와 미래를 이해하는 데 큰 도움이 되었다. 첫 번째 책은 ‘박태웅의 AI 강의 2025(박태웅 지음)’, 두 번째는 ‘생성형 AI 산업별 활용 트렌드(이호수 지음)’, 세 번째는 ‘IT 트렌드 2025(김지현 지음)’이다. 이들 책은 AI 기술의 발전이 어떻게 우리의 삶을 변화시키고, 각 산업에서의 응용 가능성을 제시하는지를 다루고 있다. 이번 호 칼럼에서는 2025년까지의 AI 트렌드를 철학적 의미, 기술과 비즈니스, 그리고 산업별 활용 트렌드로 나누어 자세히 살펴보겠다.    AI의 철학적 의미  AI의 발전은 단순히 기술적인 진보에 그치지 않는다. ‘박태웅의 AI 강의 2025’는 AI가 인간의 사고 방식과 존재 방식에 미치는 철학적 영향을 탐구하고 있다. 박태웅 저자는 AI가 인간의 인지와 감정을 보완할 수 있는 능력을 가지게 되며, 이는 결국 인간과 기계 간의 관계를 재정의할 것이라고 주장했다. AI가 우리의 일상에 더욱 깊숙이 침투함에 따라, 우리는 기계와의 협업을 통해 새로운 가 치와 경험을 창출할 수 있게 될 것이다.  AI가 창조적인 영역에까지 영향을 미친다면, 과연 창작의 주체는 누구인가에 대한 질문도 함께 제기된다. AI가 만들어내는 음악, 미술, 문학은 과연 기계의 창작물인가, 아니면 인간의 창의성을 증대시키는 도구일 뿐인가? 이러한 질문은 앞으로의 AI 논의에서 필수적으로 다루어져야 할 주제이며, 이는 인간 존재의 의미를 다시 한 번 고민하게 만든다.  “기계의 사고는 인간의 사고를 확장시키지만, 우리가 진정 추구해야 할 것은 기계가 아니라 우리 자신의 의식이다.”  - 칼 융(Carl Jung), 분석 심리학의 창시자   AI 기술과 비즈니스의 진화  ‘생성형 AI 산업별 활용 트렌드’에서 이호수 저자는 AI 기술이 비즈니스 모델을 혁신하는 방법에 대해 깊이 있는 분석을 제공하고 있다. 특히 생성형 AI는 단순한 데이터 처리의 경계를 넘어, 콘 텐츠를 생성하고 창의적인 결과물을 만들어낼 수 있는 잠재력을 지니고 있다. 기업은 이를 활용해 마케팅 캠페인을 자동화하거나, 고객에게 맞춤형 서비스를 제공하는 데에 큰 이점을 얻고 있다.  이호수 저자는 기업이 AI를 통해 비즈니스의 효율성을 높이는 방법을 여러 사례로 설명했다. 예를 들어, 패션 브랜드는 AI를 활용해 고객의 구매 패턴을 분석하고, 이에 맞는 스타일과 사이즈를 추천하는 개인화된 쇼핑 경험을 제공할 수 있다. 이러한 맞춤형 서비스는 고객 만족도를 높이고, 브랜드 충성도를 강화하는 데 기여한다.  나아가, LLM(대규모 언어 모델)은 기업이 고객과의 상호작용을 개선하는 데에 큰 역할을 하고 있다. LLM은 자연어 처리 기술을 활용해 고객의 문의에 실시간으로 응답하고, 문제를 해결하는 데 에 도움을 줄 수 있다. 고객 서비스의 효율성을 높이고, 기업과 고객 간의 커뮤니케이션을 원활하게 만드는 데에 기여하는 것이다.  LAM(대규모 행동 모델)은 기업이 다양한 복잡한 작업을 보다 효율적으로 수행할 수 있도록 지원한다. 특히 자율주행 자동차와 같은 산업에서는 LAM이 중요한 역할을 하며, 안전하고 효율적인 운전을 가능하게 한다. LMM(대규모 멀티모달 모델)은 텍스트, 이미지, 비디오 등 다양한 형태의 데이터를 동시에 처리할 수 있어, 광고와 마케팅 분야에서 더욱 다양하고 창의적인 캠페인을 전개할 수 있도록 해준다.  “인공지능은 우리를 초월로 이끌지도 모른다. 그러나 그 초월은 항상 인간성의 깊이에서 출발한다.”  - 레이 커즈와일(Ray Kurzweil), 미래학자, 구글 엔지니어링 디렉터   산업별 AI 활용 트렌드  ‘IT 트렌드 2025’에서 김지현 저자는 AI가 다양한 산업에 어떻게 적용되고 있는지를 상세히 설명하고 있다. 의료, 금융, 제조, 교육 등 여러 산업에서 AI는 디지털 혁신의 핵심 동력이 되고 있으며, 향후 몇 년 간 그 속도가 더욱 가속화될 것이다.    의료  AI의 가장 중요한 적용 분야 중 하나는 의료 산업이다. 김지현 저자는 AI가 어떻게 맞춤형 치료와 예측 분석을 가능하게 하는지를 설명했다. 예를 들어, AI는 환자의 유전자 정보와 건강 기록을 분석하여 개별 환자에게 최적화된 치료 방법을 제시할 수 있다. 이러한 접근은 환자의 회복률을 높이고, 의료비용을 절감하는데 기여할 것이다.  또한, AI는 조기 진단의 가능성을 높이고 치료의 효율성을 개선하는 데에 큰 도움이 된다. 예를 들어, 이미지 분석 기술을 활용한 AI는 암과 같은 질병을 조기에 발견하는 데에 도움을 줄 수 있다. 이러한 발전은 의료진이 더 정확한 진단을 내리고, 환자에게 맞춤형 치료를 제공할 수 있도록 해 준다.    금융 AI는 금융 산업에서도 큰 변화를 일으키고 있다. 김지현 저자는 AI가 실시간 데이터 분석, 리스크 관리, 사기 탐지 등의 분야에서 중요한 역할을 하고 있다고 강조했다. 금융 기관은 AI를 통해 고객 의 행동 패턴을 분석하고, 보다 맞춤화된 금융 상품을 제공할 수 있다. 특히 LLM은 고객 서비스의 효율성을 극대화하고, 고객의 요구에 신속하게 대응하는 데에 큰 도움을 준다.  AI는 또한 비트코인과 같은 암호화폐 거래에서도 사용되고 있다. AI 알고리즘은 시장의 변화를 실시간으로 분석하고, 최적의 거래 시점을 포착하는 데에 도움을 줄 수 있다. 이러한 기술은 투자자 에게 더 나은 결정을 내릴 수 있게 해 준다.    제조 AI는 제조 산업에서도 혁신적인 변화를 일으키고 있다. 김지현 저자는 스마트 제조 시스템이 AI를 활용해 예측 유지보수와 자율 생산 공정을 구현하고 있다고 설명했다. 이를 통해 기계의 상태를 실시간으로 모니터링하고, 고장을 미리 예측하여 생산성을 극대화할 수 있다.  이러한 AI 기반의 시스템은 생산 공정의 효율성을 높이고, 불필요한 비용을 절감하는 데에 기여한다. 또한, 인간과 협력하는 로봇인 코봇(cobot, 협동로봇)의 사용이 증가하면서, 작업자와 로봇 간의 협업이 더욱 원활해질 것이다. 이를 통해 제조업체는 인력의 안전성을 보장하면서도 생산성을 높일 수 있다.    교육 AI는 교육 분야에서도 큰 변화를 가져오고 있다. 이호수 저자는 AI가 개인 맞춤형 학습을 가능하게 하는 방식에 대해 설명했다. AI 는 학습자의 성향과 능력을 분석하여 적절한 학습 콘텐츠를 추천할 수 있으며, 이러한 접근은 교육의 질을 높이고 학습 효율성을 극대화하는 데에 기여한다.  특히 LMM은 다양한 유형의 학습 자료를 활용하여 학생에게 맞 춤형 학습 경험을 제공할 수 있다. AI는 또한 온라인 교육 플랫폼에서 학생들의 학습 경과를 분석하고, 필요한 피드백을 제공하는 데에 유용하다. 이를 통해 학생들은 자신에게 맞는 학습 방법을 찾아 더욱 효과적으로 공부할 수 있다.  “AI는 인간의 지성에 대한 거울이다. 그 거울 속에서 우리는 우리의 한계와 가능성을 동시에 발견하게 된다.”  - 주디스 버틀러(Judith Butler), 철학자   결론 이 세 권의 책은 AI가 2025년까지 전 산업에 걸쳐 큰 변화를 일으킬 것이라는 점에서 공통적인 메시지를 전달한다. AI는 단순한 도구가 아니라 인간의 사고와 창의성을 확장시키는 존재로 발전하고 있으며, 기업들은 AI를 활용해 더 개인화된 서비스를 제공하거나 혁신적인 제품을 개발하게 될 것이다.  AI는 의료, 금융, 제조, 교육 등 다양한 분야에서 중요한 역할을 하며, 각 산업의 디지털 전환을 가속화할 것으로 예상된다. 우리는 AI와 함께 어떻게 살아가고, AI를 어떻게 활용할 지를 고민해야 할 시점에 와 있다. 이와 함께 AI의 발전에 따른 윤리적 문제와 인간의 정체성에 대한 논의도 반드시 필요하다.  결국, AI는 우리의 삶을 편리하게 만들어 줄 뿐만 아니라, 그에 따른 새로운 사회적, 철학적 질문을 던지게 될 것이다. 우리는 그 질문에 대해 진지하게 고민해야 할 때가 왔다.  “기계는 우리를 더욱 인간답게 만든다. 그것은 우리가 어떤 존재가 되고 싶은지 끝없이 물음을 던지기 때문이다.”  - 셰리 터클(Sherry Turkle), MIT 교수, 사회심리학자   그림 1. 세 권의 AI 책으로부터 본 AI 트렌드 2025(Map by 류용효)  (클릭하면 큰 그림으로 볼 수 있습니다.)   AI 트렌드 맵 최근 읽은 세 권의 책을 모두 서평 맵으로 만들어 보았다. 그리고 그 연결 고리를 찾는 중이다. AI의 철학적 의미와 기술적 의미, 그리고 AI의 비즈니스 의미를 찾아보는 것이다. 그래서 AI에 대한 이 해와 스킬을 가지는 것이 2025년을 적절히 준비하는 마음가짐일 것이다.    ■ 류용효 디원의 상무이며 페이스북 그룹 ‘컨셉맵연구소’의 리더로 활동하고 있다. 현업의 관점으로 컨설팅, 디자인 싱킹으로 기업 프로세스를 정리하는데 도움을 주며, 1장의 빅 사이즈로 콘셉트 맵을 만드는데 관심이 많다. (블로그)     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2024-11-04
엔비디아, 인도 제조업체에 ‘공장 디지털 트윈’ 구축 지원
엔비디아는 인도의 제조기업들이 엔비디아 옴니버스(NVIDIA Omniverse)를 채택해 차세대 공장을 구축하고 있다고 밝혔다.  인도 제조업이 계속 성장함에 따라 제조업체는 프로세스 디지털화와 로보틱스를 위해 AI를 도입해 운영을 확장하고 증가하는 글로벌 수요를 충족하고 있다. 인도의 제조업체와 서비스 제공업체는 시뮬레이션, 디지털 트윈과 생성형 AI를 활용해 공장 계획을 가속화하고 보다 효율적인 운영을 위한 자동화를 추진하기 위해 엔비디아 옴니버스를 채택하고 있다. 지난 10월 25일까지 뭄바이에서 개최된 ‘엔비디아 AI 서밋 인디아’에서는 옴니버스를 활용해 가상 창고와 생산 시설을 구축함으로써 차세대 산업과 물리적 AI 시대를 구현하는 제조 자동화의 사례가 소개됐다. 엔비디아 AI 서밋에는 올라 일렉트릭, 릴라이언스 인더스트리, 테크 마힌드라, 타타 컨설턴시 서비스 등 인도 내 주요 기업이 참여했다. 인도의 전기 스쿠터 제조업체인 올라 일렉트릭은 엔비디아 옴니버스를 기반으로 올라 디지털 트윈(ODT) 플랫폼을 개발했다고 발표했다. 이 회사는 ODT 플랫폼을 통해 제조 운영의 설계부터 시운전까지 시장 출시 기간을 20% 단축할 수 있었다고 밝혔다. 엔비디아 아이작 심(Isaac Sim)을 기반으로 구축된 ODT 플랫폼은 데이터 상호운용성을 위한 오픈USD(OpenUSD), 물리 기반 렌더링을 위한 RTX, 합성 데이터 생성이나 자율 주행 로봇, 로봇 팔 훈련을 위한 세계 구축 가속화하는 생성형 AI 등을 포함한다. 올라는 디지털 트윈 플랫폼을 사용해 통합 자동화 전기 이륜차 제조 공장인 차세대 퓨처 팩토리(Future Factory)를 8개월 만에 계획하고 구축했다. 이 플랫폼은 공장, 건설 계획은 물론 품질 검사 시스템, 제조 프로세스, 안전 훈련에 대한 인사이트를 제공하는 데에 도움이 됐다. 아울러 이 회사는 디지털 트윈을 사용해 실제 환경과 시뮬레이션 환경을 비교하고 예측 유지보수를 지원하고 있다. 릴라이언스 인더스트리는 인도 잠나가르에 새로운 태양광 패널 공장을 짓기 위해 옴니버스를 도입하고 있다. 5000에이커 규모의 통합 태양광 제조 공장은 인도 최대의 태양광 기가팩토리가 될 것으로 보이는데, 릴라이언스는 이 기가팩토리의 계획, 설계, 자동화, 운영, 지속 가능성, 인력 훈련을 위한 데이터 통합에 옴니버스를 활용하고 있다. 또한, 3D 데이터 관리, 가상 협업, 시뮬레이션, 최적화된 운영을 위한 애플리케이션을 개발하는 데에도 옴니버스가 사용된다. 아울러 릴라이언스는 공장 건물, 제조 장비, 로봇, 운동학, 자재, 제품 모델을 포함한 오픈USD 기반의 심레디(SimReady) 가상 공장 자산을 개발하는 데에 옴니버스를 사용하고 있으며, 물류와 작업자를 위한 시뮬레이션을 실행하고 있다.     TCS와 테크 마힌드라와 같은 SI/컨설팅 업체는 옴니버스에서 산업용 AI 애플리케이션과 서비스를 개발하고 있다. 이를 통해 제조업체의 공장 계획 가속화, 프로세스 최적화, 로보틱스 훈련, 대규모 자동화를 위한 디지털 트윈 개발을 지원하고 있다. TCS는 제조업체가 여러 부문에 걸쳐 제품과 생산 시설을 설계, 시뮬레이션, 운영, 최적화할 수 있도록 엔비디아 옴니버스를 기반으로 구축된 디지털 트윈 설루션 제품군을 개발 중이라고 발표했다. 사용 사례는 실시간 공장 계획과 모니터링을 위한 가상 공장 구축부터 몰입형 훈련과 예측 유지보수를 위한 항공기 부품의 디지털 트윈 제작에 이르기까지 중공업의 거의 모든 측면을 포괄한다. 또한 TCS는 엔비디아 AI 엔터프라이즈(Enterprise) 플랫폼을 기반으로 한 생성형 AI 설루션인 TCS 산업용 제조 AI(TCS Manufacturing AI for Industrials)를 출시했다. 이 설루션은 엔비디아 네모(NeMo)를 사용해 AI 애플리케이션 라이프사이클을 구축하고 관리하며, 범용 대규모 언어 모델(LLM)을 제조 전문 AI 에이전트로 전환해 고객의 다양한 생산 시설에서 산업별 실시간 인사이트를 제공한다. 이러한 에이전틱 AI는 옴니버스에서 개발된 가상 공장에 연결돼 시설 계획, 설계, 운영을 강화할 수 있다. 테크 마힌드라는 엔비디아 AI 엔터프라이즈와 옴니버스를 기반으로 하는 전문 센터를 설립한다고 발표했다. 이 센터는 소버린 LLM 프레임워크, 에이전틱 AI, 물리적 AI의 발전 촉진을 목표로 한다. 테크 마힌드라의 전문 센터는 엔비디아 옴니버스를 활용해 제조, 자동차, 통신, 의료, 은행, 금융 서비스, 보험 등 다양한 분야의 고객을 위한 연결된 산업용 AI 디지털 트윈과 물리적 AI 애플리케이션을 개발하고 있다. 엔비디아는 위프로, 인포시스와 같은 시스템 통합업체도 엔비디아 AI 스택을 사용해 설루션을 구축하고 옴니버스를 통해 물리적 AI로 확장하고 있다고 전했다.
작성일 : 2024-10-29