• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "머신러닝"에 대한 통합 검색 내용이 748개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
AMD 기반 ‘엘 캐피탄’, 세계에서 가장 빠른 슈퍼컴퓨터로 등재
AMD는 세계에서 가장 빠른 슈퍼컴퓨터를 선정하는 톱500(Top500) 리스트에 AMD 기반 슈퍼컴퓨터가 6회 연속 등재되면서 고성능 컴퓨팅(HPC) 분야에서 리더십을 입증했다고 밝혔다. AMD 인스팅트(Instinct) MI300A APU로 구동되고 휴렛팩커드 엔터프라이즈(HPE)가 구축한 미국 로렌스 리버모어 국립 연구소(LLNL)의 엘 캐피탄(El Capitan) 슈퍼컴퓨터는 최신 톱500 리스트에서 1.742 엑사플롭스의 HPL(High-Performance Linpack) 스코어를 기록하며, 세계에서 가장 빠른 슈퍼컴퓨터로 선정되었다.  미국 핵안보국(NNSA)의 첫 번째 엑사스케일급 시스템인 엘 캐피탄은 NNSA의 트리랩스(Tri-Labs)인 LLNL과 로스앨러모스(Los Alamos) 및 샌디아(Sandia) 국립 연구소의 최고 컴퓨팅 자원으로 자리잡았다. 엘 캐피탄은 과학적 탐구와 국가 안보를 강화하는데 사용되며, 핵실험 없는 안전한 핵 억지력과 보안 및 신뢰성을 보장하는데 필요한 방대한 컴퓨팅 성능을 제공한다. 이 시스템은 노후 핵 비축물 인증과 같은 NNSA의 핵 비축물 관리 프로그램(Stockpile Stewardship Program)을 비롯해 확산 방지 및 대테러와 같은 주요 핵 안보 임무에 필수적인 모델링 및 시뮬레이션 기능을 지원한다.     LLNL과 NNSA의 다른 연구소들은 엘 캐피탄과 함께 AI 및 머신러닝 기반 데이터 분석을 수행하는 투올러미(Tuolumne) 시스템을 활용하여 빠르고 정확하게 예측 불확실성을 정량화할 수 있는 과학 모델을 생성하기 위한 LLNL의 AI 기반 목표를 더욱 가속화하고 있다. 엘 캐피탄은 AI를 적용하여 관성 봉입 핵융합(Inertial Confinement Fusion) 연구와 같은 고밀도 에너지 문제를 해결하는데 사용되고, 투올러미는 기후 모델링과 방역 및 신약 개발, 지진 모델링 등 비분류 공개 과학(Unclassified Open Science) 응용 분야에 활용될 예정이다. AMD의 최신 에픽 9005 시리즈 프로세서는 엔터프라이즈, AI 및 클라우드 환경을 위한 서버 CPU로, 고성능 컴퓨팅 및 AI 워크로드에서 이전 세대 대비 최대 37% 향상된 IPC(Instruction Per Cycle) 성능을 제공한다. 또한, 이 프로세서는 세계적인 난제를 해결하는 과학 및 고성능 컴퓨팅 애플리케이션에서 경쟁사 대비 최대 3.9배 더 빠른 인사이트 도출 시간을 제공한다. AMD 인스팅트 가속기는 AI 설루션에서 엑사스케일급 슈퍼컴퓨터에 이르기까지 다양한 규모의 데이터센터를 위한 고성능을 제공한다. AMD 인스팅트 MI300X 및 MI325X 가속기는 높은 AI 성능과 메모리 기능을 갖추고 있으며, CPU 및 GPU 코어와 적층형 메모리를 단일 패키지로 통합한 AMD 인스팅트 MI300A APU는 고성능 컴퓨팅 및 AI 워크로드를 위한 향상된 효율과 성능을 제공한다. AMD는 이외에도 오크리지 국립 연구소(Oak Ridge National Lab)의 엘 캐피탄과 프론티어(Frontier) 시스템이 그릭500(Green500) 리스트에서 각각 18위와 22위를 차지하면서, 고성능 컴퓨팅 워크로드를 지원하는 AMD 에픽 프로세서와 인스팅트 GPU의 성능 및 에너지 효율을 다시 한 번 입증했다고 전했다. AMD의 포레스트 노로드(Forrest Norrod) 수석 부사장 겸 총괄 책임자는 “엘 캐피탄이 엑사플롭의 장벽을 깨고, 세계에서 가장 빠른 AMD 기반 두 번째 슈퍼컴퓨터로 선정되어 매우 기쁘다. AMD 인스팅트 MI300 APU의 뛰어난 성능과 효율성을 입증한 이 획기적인 컴퓨터는 AMD와 LLNL 및 HPE 간의 헌신적인 협력의 결과물”이라면서, “AMD는 고성능 컴퓨팅과 AI의 컨버전스를 새롭게 정의하는 선도적인 성능과 기능을 통해 지속적으로 컴퓨팅의 미래를 주도하게 될 것”이라고 밝혔다. LLNL의 리버모어 컴퓨팅 최고기술책임자(CTO)인 브로니스 R. 드 수핀스키(Bronis R. de Supinski)는 “AMD 인스팅트 MI300A APU를 활용하여 절대적 한계치를 넘어서는 컴퓨팅 성능과 이전에는 상상하지 못한 뛰어난 에너지 효율성을 갖춘 시스템을 구축했다. 엘 캐피탄은 더욱 보편화되고 있는 AI를 기존의 시뮬레이션 및 모델링 워크로드와 통합함으로써 다양한 과학적 연구 분야에서 새로운 발견의 가능성을 높일 수 있게 되었다”고 전했다.
작성일 : 2024-11-19
델, AI 팩토리 포트폴리오에 최신 기술 적용한 서버/랙 시스템/전문 서비스 추가
델 테크놀로지스는 자사의 AI 설루션 포트폴리오인 ‘델 AI 팩토리(Dell AI Factory)’에 AI 구축 간소화를 위한 신규 인프라 설루션과 전문 서비스를 추가했다고 밝혔다. 델은 확장된 라인업을 통해 기업 및 기관이 AI 워크로드를 가속하고 데이터 관리를 효율화할 수 있도록 지원할 계획이다. 올해 새롭게 공개된 통합 랙 스케일러블 시스템인 ‘델 IRSS(Integrated Rack Scalable Systems)’는 플러그 앤 플레이 방식의 랙 스케일 시스템을 제공하는 공장 통합형 턴키 프로그램으로, 델 스마트 쿨링(Dell Smart Cooling) 기술이 적용되어 있다. IRSS는 전체 랙에 대한 원콜 서비스 및 지원 옵션을 통해 에너지 효율적인 AI 인프라스트럭처 구축을 더욱 간소화한다. 설치가 완료되면 델에서 패키징 폐기물 및 재활용을 처리하고 기존 노후 하드웨어의 재활용까지 지원한다. 표준 19인치 모델인 ‘델 IR5000(Dell Integrated Rack 5000)’에 탑재되는 서버로 ‘델 파워엣지 XE9685L(Dell PowerEdge XE9685L)’ 및 ‘델 파워엣지 XE7740(Dell PowerEdge XE7740)’이 추가됐다. 델 IR5000은 공간 효율적인 폼 팩터로 고집적 애플리케이션을 위해 설계되었으며, 고성능을 제공하는 동시에 에너지 효율을 유지한다.  델 파워엣지 XE9685L은 AI, 머신러닝, 고성능 컴퓨팅(HPC) 및 기타 데이터 집약적인 워크로드를 위해 설계된 고집적 4U 수랭식 서버이다. 최대 12개의 PCIe 젠 5.0 슬롯과 함께 엔비디아 HGX (NVIDIA HGX) H200 및 B200 GPU와 페어링된 듀얼 AMD 5세대 에픽(EPYC) CPU는 특정 컴퓨팅 요구 사항을 충족하는 맞춤형 구성, 최적화된 스토리지 연결 및 까다로운 워크로드를 위한 최대 IO 처리량을 지원한다. 이 플랫폼은 랙당 최대 96개의 엔비디아 GPU를 탑재할 수 있어 업계 최고 수준의 GPU 집적도를 제공한다.   ▲ 델 파워엣지 XE7740 서버   델 파워엣지 XE7740은 공랭식의 4U 모델로 2개의 인텔 제온 6(Intel Xeon) P-코어 프로세서와 인텔 가우디(Intel Gaudi) 3 PCIe 가속기 또는 엔비디아 H200 NVL 등 최대 8개의 더블 와이드 가속기, 또는 엔비디아 L4 텐서 코어(Tensor Core) GPU 등의 최대 16개의 싱글 와이드 가속기를 사용할 수 있다. 델은 “다양한 선택의 폭이 제공되는 만큼 생성형 AI 모델의 미세 조정이나 추론에서부터 대규모 데이터 세트에 대한 가치 추출에 이르기까지 규모에 맞게 서버 구성의 적절히 조정할 수 있다”고 설명했다.   델은 곧 출시될 엔비디아 GB200 그레이스 블랙웰 NVL4 슈퍼칩(Grace Blackwell NVL4 Superchip)을 델 IR7000용으로 설계된 새로운 델 파워엣지 XE 서버를 통해 50OU 표준 랙에서 랙당 최대 144개의 GPU를 지원할 계획이다. IR7000 랙은 100%에 가까운 열 포집 능력으로 고전력 및 액체 냉각을 필요로 하는 대규모 HPC 및 AI 워크로드를 지원한다. 또한, 델 테크놀로지스는 AI 작업을 위해 데이터를 효율적으로 관리하고 분석할 수 있는 최신 아키텍처 수요에 대응하게 위해 ‘델 데이터 레이크하우스(Dell Data Lakehouse)’도 업데이트 했다. 이 플랫폼은 AI에 최적화된 하드웨어와 풀 스택 소프트웨어 제품군을 기반으로 구축되었으며, 향후 대규모 분산 데이터 처리를 위한 아파치 스파크(Apache Spark)를 포함하도록 확장될 예정이다. 대량의 데이터를 관리하는 기업의 경우, 이를 통해 데이터 애널리틱스와 관리 및 처리에 이르기까지 통합된 접근 방식을 확보함으로써 효율성을 높이고 보다 신속하게 실행 가능한 인사이트를 얻을 수 있다. 한편, 델은 AI 에코시스템 전반의 파트너와 협력하여 AI 구축을 강화하고 간소화하는데 노력하고 있다고 전했다. 엔비디아 기반 델 AI 팩토리(Dell AI Factory with NVIDIA)는 AI 운영 및 활용 사례 구축을 위해 성능을 보다 가속화한다. 새로운 엔비디아 HGX H200 및 H100NVL 지원 옵션은 엔비디아 HGX H100 대비 최대 1.9배 더 높은 성능을 제공한다. 엔비디아 기반 델 AI 팩토리의 일부인 ‘엔비디아 기반 델 에이전틱 RAG(Dell Agentic RAG with NVIDIA)’를 통해 고객은 복잡한 쿼리를 수행하고 검색 증강 생성(RAG) 작업을 가속할 수 있다. 대규모 데이터 세트를 보유한 조직에서는 델의 이 설계를 기반으로 AI 에이전트를 사용하여 RAG 워크플로 성능을 개선하고, 복잡한 쿼리를 처리하며, 더 높은 품질의 결과를 제공할 수 있다. 이 설루션은 델 파워엣지와 델 파워스케일(Dell PowerScale)을 비롯해 니모 리트리버(NeMo Retriever) 마이크로서비스, 멀티모달 PDF 데이터 추출을 위한 ‘엔비디아 AI 블루프린트(NVIDIA AI Blueprint)’ 등 엔비디아 AI 엔터프라이즈(NVIDIA AI Enterprise) 소프트웨어를 활용한다. AI PC를 위한 델 검증 설계(Dell Validated Designs for AI PCs)는 NPU 기술이 탑재된 델 AI PC에서 AI 애플리케이션 개발을 촉진하기 위해 설계된 오픈 소스 가이드이다. 개발자는 모듈식 설계를 쉽게 맞춤화하여 LLM, 비전, 텍스트 및 음성 등의 기능을 애플리케이션에 통합할 수 있다. 또한 다양한 프로세서 종류나 플랫폼에 걸쳐 AI 애플리케이션을 배포할 수 있다. 이러한 확장 가능한 접근 방식을 통해 온디바이스 AI에서 일상적인 프로세스를 자동화하고 시간과 비용을 절감하고 데이터 보안을 개선할 수 있다. 델 프로페셔널 서비스(Dell Professional Services)는 AI 관련 전략 개발이나 구현에 어려움을 겪는 기업과 기관들이 AI 목표를 보다 효율적으로 달성할 수 있도록 지원한다. ‘지속 가능한 데이터 센터를 위한 자문 및 구현 서비스(Advisory and Implementation Services for Sustainable Data Centers)’는 지능형 전력 및 냉각 관리를 통해 저탄소, 에너지 효율적인 데이터 센터를 위한 전략을 수립하고 구현하는데 필요한 전문 지식을 제공한다. ‘데이터 관리 서비스(Data Management Services)’는 데이터를 검색, 분류, 정제하여 AI-레디 카탈로그를 제공하고 체계화된 고품질 데이터에 대한 안정적이고 간소화된 액세스를 보장한다. ‘AI 네트워킹을 위한 설계 서비스(Design Services for AI Networking)’는 더 빠른 속도, 지연 시간 단축, 향상된 확장성을 통해 AI 워크로드에 최적화된 네트워크 설계를 제공한다. ‘서비스나우 나우 어시스트를 위한 구현 서비스(Implementation Services for ServiceNow Now Assist)’는 AI 기반 요약을 통해 콘텐츠 수집을 간소화하여 결과를 자동화하고 생산성을 향상시키는 ‘나우 어시스트’를 통해 서비스 관리 워크플로에 생성형 AI 기능을 통합한다. 한국 델 테크놀로지스의 김경진 총괄사장은 “여러 고객들이 AI를 구축하고 실행하기까지 점점 더 다양한 도전과제에 직면하게 된다”면서, “델은 계속해서 진일보한 AI 오퍼링을 선보임으로써 고객이 AI를 통해 보다 스마트하고 유연하게 대응할 수 있는 미래를 만들어갈 수 있도록 하는데 집중하고 있다”고 밝혔다. 델 파워엣지 XE9685L과 델 파워엣지 XE7740은 2025년 1분기에 전 세계에 출시될 예정이며, 델 데이터 레이크하우스 업데이트는 현재 전세계에서 이용 가능하다. AI PC를 위한 델 검증 설계는 현재 전 세계에서 이용 가능하며, 엔비디아 기반의 델 생성형 AI 설루션의 GPU 업데이트는 올해 내에 제공될 예정이고, 엔터프라이즈 RAG 업데이트는 현재 이용이 가능하다. ‘델 데이터 관리 서비스’와 ‘지속 가능한 데이터 센터를 위한 델 서비스,’ ‘AI 네트워킹을 위한 델 설계 서비스,’ ‘서비스나우 나우 어시스트를 위한 델 구현 서비스’는 현재 일부 국가에서 제공되고 있다.
작성일 : 2024-11-19
레드햇, RHEL 9.5 출시와 함께 리눅스 자동화 확장
레드햇은 레드햇 엔터프라이즈 리눅스(Red Hat Enterprise Linux, 이하 RHEL) 9.5의 정식 출시를 발표했다. RHEL은 애플리케이션과 워크로드를 비용은 절감하면서 보다 빠르고 안정적으로 배포할 수 있도록 한다. 하이브리드 클라우드 배포 전반에서 효과적으로 워크로드를 관리할 수 있도록 하고, 데이터센터에서 퍼블릭 클라우드, 에지에 이르기까지 IT 리스크 완화를 지원한다. IDC의 연구에 따르면, 조직은 시간과 자원이 부족한 상황에서 리눅스 운영 체제 환경을 유지 관리하고 지원하는 워크로드 간의 균형을 맞추는데 계속해서 어려움을 겪고 있다. 클라우드와 인공지능(AI), 머신러닝(ML)과 같은 차세대 워크로드의 확산으로 상황은 더욱 복잡해지고 있다. RHEL 표준화는 운영체제를 통합하고, 확장 및 프로비저닝과 같은 수동 작업 자동화하며, 배포의 복잡성을 줄여 IT 인프라 관리 관리팀의 민첩성을 향상시켰다. 그 결과, 인프라 팀은 비즈니스 및 인프라 혁신에 26% 더 많은 시간을 할애할 수 있게 됐다. RHEL 9.5는 ▲강화된 보안 및 컴플라이언스 관리 기능 제공 ▲자동화를 통한 복잡성 감소 ▲대규모 앱 배포를 위한 보다 신속한 하이브리드 클라우드 운영 등을 통해 AI부터 에지 컴퓨팅에 이르는 급속한 IT 혁신을 지원하는 운영 체제에 일관성과 향상된 기능을 제공한다. RHEL 시스템은 RHEL 구독에 포함된 레드햇 앤서블 콘텐츠(Red Hat Ansible Content) 컬렉션으로, 일상적인 관리 작업을 자동화해 조직이 보다 일관된 구성과 대규모 워크플로를 제공할 수 있게 돕는다. RHEL 9.5는 리눅스의 명령줄(커맨드 라인) 유틸리티인 ‘sudo’의 신규 기능을 포함한 여러 시스템 역할을 추가해 sudo 구성을 대규모로 자동화한다. 이는 적절한 규칙 관리 가드레일을 통해 관리자용 커맨드를 일반 사용자가 실행할 수 있게 한다. 높은 권한의 사용자는 자동화로 환경 전체에 걸쳐 sudo 구성을 더 일관되고 안전하게 구현할 수 있어, 조직이 비즈니스 전반의 복잡성을 감소시킬 수 있다. 또한 기밀 컴퓨팅(confidential computing) 플랫폼 지원 확대로 AI 워크로드의 데이터를 보호하고 내부자 위협을 낮출 수 있다. 기밀 컴퓨팅은 민감한 데이터를 보거나 변조하는 잠재적 위협을 방지함으로써 기업은 데이터 세분화를 유지하고 데이터 규정을 준수하는 동시에 대량의 데이터를 검토하는데 AI를 더 안전하게 사용할 수 있다. RHEL 관리 도구는 시스템 관리를 단순화해 조직의 수동 작업 자동화, 대규모 배포 표준화, 시스템 복잡성 감소를 지원한다. 또한, RHEL 9.5는 웹 콘솔에 새로운 파일 관리 기능을 제공해 사용자가 명령줄을 사용하지 않고도 파일 시스템 검색, 파일 업로드 및 다운로드, 권한 변경, 디렉토리 생성과 같은 파일 관리 작업을 수행할 수 있도록 지원한다. RHEL 9.5는 오픈소스 컨테이너 엔진의 최신 버전인 포드맨(Podman) 5.0 기능 포함 및 지원을 통해 플랫폼 수준에서 컨테이너 네이티브 혁신을 촉진한다. 포드맨은 개발자에게 리눅스 환경에서 컨테이너를 구축, 관리 및 실행하기 위한 오픈소스 도구를 제공한다. 이번 주요 출시에서는 포드맨 팜 빌드를 도입해 개발자가 단일 명령으로 원격 머신에서 멀티 플랫폼 이미지를 빠르게 구축할 수 있게 한다. 조직은 다양한 플랫폼에서 애플리케이션을 효율적으로 테스트하고 배포해 개발 시간을 단축하고 이식성을 향상시킬 수 있다. RHEL 9.5의 애플리케이션 스트림은 혁신적인 애플리케이션을 구동하는데 필요한 선별된 최신 개발자 도구, 언어 및 데이터베이스를 제공한다. 또한 RHEL 9.5은 포스트그레SQL용 PG벡터(PG Vector for PostgreSQL), 노드js(Node.js), GCC툴셋, 러스트(Rust) 툴셋 및 LLVM 툴셋의 신규 버전을 포함한다. 또한, RHEL 9에서 유지관리가 종료된 자바 개발 키트(JDK) 11은 레드햇에서 지원하며, 해당 패키지를 계속 사용할 수 있다. JDK 17은 최신 자바 애플리케이션 구축 및 관리를 위한 신규 기능과 도구를 제공하며 이전 버전과의 호환성을 유지해 애플리케이션과 사용자가 일관성 있게 JDK 업그레이드를 유지할 수 있게 한다. 
작성일 : 2024-11-18
AWS, ‘생성형 AI 파트너 혁신 얼라이언스’ 발표
아마존웹서비스(AWS)는 ‘생성형 AI 파트너 혁신 얼라이언스(Generative AI Partner Innovation Alliance)’의 출범을 발표했다. 생성형 AI 파트너 혁신 얼라이언스는 고객이 생성형 AI 설루션을 성공적으로 구축하고 배포할 수 있도록 지원하는 프로그램인 ‘생성형 AI 혁신센터(Generative AI Innovation Center)’의 범위와 규모를 확장할 예정이다. 2023년 6월에 처음 출범한 생성형 AI 혁신센터는 고객을 AWS의 인공지능(AI)·머신러닝(ML) 과학자 및 전략 전문가와 연결하고, 기업이 생성형 AI 설루션을 구상, 식별, 개발할 수 있도록 지원한다. 생성형 AI 혁신센터는 출범 이래로 도어대시, 나스닥, PGA투어 등 수천 개의 고객사가 생성형 AI를 통해 성공을 거둘 수 있도록 지원했다. 실제로 생성형 AI 혁신센터를 통해 개발된 개념증명(PoC) 설루션의 50% 이상이 현재 고객의 프로덕션 환경에서 운영되고 있다. 생성형 AI 파트너 혁신 얼라이언스를 통해 고객들은 생성형 AI 혁신센터의 검증된 방법론을 공유하는 생성형 AI 분야의 입증된 전문성을 갖춘 전 세계 시스템 통합업체 및 컨설팅 기업 네트워크에 접근할 수 있게 된다. 이 얼라이언스는 초기에 부즈앨런해밀턴, 크래용, 에스칼라24x7, 메가존클라우드, NCS그룹, 퀀티파이, 랙스페이스 등 산업 및 지역별 전문성을 보유한 9개의 파트너와 함께 출범한다. 또한 케일런트와 딜로이트를 포함한 시스템 통합업체와도 협력할 예정이다. 이들 파트너는 공동으로 개념증명 및 프로덕션 구현을 통해 지원할 수 있는 고객 수를 확장하기 위한 추가 리소스를 제공할 것이다. AWS 생성형 AI 혁신센터의 스리 엘라프롤루(Sri Elaprolu) 글로벌 책임자는 “생성형 AI 혁신센터에서 우리의 접근 방식은 고객이 실질적인 비즈니스 가치를 제공하는 AI 활용 사례를 식별하고 개선할 수 있도록 지원하는 데에 초점을 맞추고 있다. 우리는 엔드 투 엔드 설루션 개발과 필요 시 특정 요구 사항을 해결하기 위해 파운데이션 모델을 커스터마이즈하는 데에 중점을 두며, 항상 보안과 확장성을 우선시한다. 이러한 고객 중심 전략은 생성형 AI 혁신센터를 통한 성공을 이끄는 데 핵심적인 역할을 해왔다”면서, “이제 파트너 네트워크가 확대됨에 따라 더 많은 고객이 생성형 AI를 활용해 혁신과 생산성을 높이고 경쟁 우위를 강화하도록 지원할 수 있게 됐다”고 말했다.
작성일 : 2024-11-12
[온에어] 새로운 트렌드, 산업 데이터 스페이스와 제조업의 변화
캐드앤그래픽스 CNG TV 지식방송 지상 중계   지난 9월 23일 CNG TV는 ‘새로운 트렌드, 산업 데이터 스페이스와 제조업의 변화’를 주제로 웨비나를 진행했다. 이번 웨비나에서는 산업 데이터 스페이스와 제조업의 변화에 대해 소개하고, 기업 차원에서 공급망 데이터의 가치 전환을 강조하는 논의가 이루어졌다. 웨비나의 자세한 내용은 다시보기로 확인할 수 있다. ■ 박경수 기자   ▲ 왼쪽부터 디지털지식연구소 조형식 대표, 건국대 임채성 교수, KPMG컨설팅 박문구 전무    이번 방송은 디지털지식연구소의 조형식 대표가 사회를 맡았으며, 건국대학교의 임채성 교수와 KPMG컨설팅의 박문구 전무가 산업 데이터 인터페이스의 중요성을 설명했다. 최근 10년 동안 기업 중심의 데이터 가치가 중요시되었다면, 이제는 공급망 중심의 데이터 가치로 전환되고 있음을 강조했다.  발표자들은 인더스트리 4.0의 궁극적인 목적이 데이터를 연결하여 혁신을 이루는 것이라며, 기업 간 데이터 연결의 어려움을 해결하기 위한 인프라의 필요성을 강조했다. 또한, 제조업의 디지털 전환이 필수적이며, 데이터 기반의 혁신이 중요하다고 주장했다.  지난 4월 독일에서 열린 ‘하노버 메세 2024’에서는 기계, 전자, 디지털, 에너지 산업의 선도 기업들이 모여 효율적이고 지속 가능한 산업 솔루션을 선보였다. 특히 AI 및 머신러닝, 탄소 중립 생산, 수소 및 연료 전지, 인더스트리 4.0 등과 같은 주제가 집중적으로 다뤄져 큰 관심을 끌었다.    ▲ 건국대학교 임채성 교수   임채성 교수는 “인더스트리 4.0은 기업 간의 데이터 연결을 통해 가치를 창출하는 혁신으로, 데이터 인프라 부족으로 인해 제대로 구현되지 않았다. 그러나 최근 자동차 산업에서는 공급망 혁신을 위해 데이터 스페이스 개념이 도입되고 있다. BMW, 벤츠 등 주요 기업 들이 이를 통해 탄소 측정 등의 사례를 시연하고 있다”고 설명했다.  박문구 전무는 “현대차와 기아차는 소비자 중심의 라이프스타일 데이터를 활용해 자율주행차와 스마트시티같은 미래 모빌리티 서비스를 준비 중이다. 이 과정에서 디지털 트윈 기술을 통해 공간의 이동 경로를 추적하고, 자율주행차를 위한 새로운 서비스를 계획하고 있다”고 언급했다.    ▲ KPMG컨설팅 박문구 전무    데이터 스페이스는 각 기업이 기밀 데이터를 노출하지 않고도 상호 신뢰를 바탕으로 데이터를 교환할 수 있는 구조를 제공한다. 기존의 데이터 댐과 달리, 개별적으로 데이터를 보유한 상태에서 필요시 데이터를 연결해 교환하는 접근 방식은 데이터 보안과 신뢰 문제를 해결하기 위한 기술적 기반을 갖추고 있다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2024-11-04
오토데스크, “AI로 M&E 프로그램 기능 및 효율성 높인다”
오토데스크가 자사의 오토데스크 AI(Autodesk AI)를 기반으로 마야(Autodesk Maya) 및 플로우(Autodesk Flow) 등의 기능을 향상시키고, 미디어&엔터테인먼트(M&E) 업무의 효율성과 창의성을 높일 수 있도록 지원한다고 밝혔다. 오토데스크는 오토데스크 AI를 통해 콘텐츠 제작 파이프라인 전반에 걸쳐 인력, 워크플로 및 데이터를 연결함으로써 반복 작업의 효율성을 개선하고 작업 속도를 향상해, 고객이 고품질 콘텐츠를 제작할 수 있도록 지원한다는 계획이다. 오토데스크는 M&E 산업을 위한 설루션으로 마야, 플로우, 원더 스튜디오(Wonder Studio), 플레임(Flame) 등을 제공한다. 플로우는 M&E 분야의 산업 클라우드로 초기 개념부터 최종 결과물에 이르기까지 전체 생산 주기에 걸쳐 고객의 워크플로, 데이터, 팀을 연결한다. 마야는 DCC(디지털 콘텐츠 제작)라 불리는 3D 작업 및 미디어 제작 도구로, 모션 캡처 데이터나 환경 데이터를 제작할 수 있다. 원더 스튜디오는 AI 기능을 통해 영상 속 배우의 모션을 인식하고, CG 캐릭터를 배우 위에 아이콘을 드래그하는 것과 같은 간단한 방식으로 영상에 추가할 수 있다. 플레임은 AI를 활용해 영상 합성, 카메라 트래킹과 같은 수동 작업을 자동화한다.     오토데스크는 아티스트의 워크플로를 가속화하기 위해 기존의 창작 도구에 오토데스크 AI 기능을 추가하고 있다고 소개했다. 렌더링의 노이즈를 줄이기 위해서는 높은 컴퓨팅 성능이 필요했지만, 아놀드(Arnold)의 AI를 사용하면 렌더링 이미지의 노이즈를 신속하게 제거할 수 있다. 플레임에서 영상을 느리게 하고 싶은 경우에는 AI를 사용해 프레임 사이에 추가 프레임을 생성해, 훨씬 더 현실적인 결과를 만들어낼 수 있다. 마야에 적용된 머신러닝 디포머(ML Deformer)는 장면의 데이터만으로 복잡한 캐릭터의 움직임을 학습한다. 복잡한 변형 값을 근사치로 만드는 도구를 통해 사용자는 실시간으로 캐릭터의 자세를 설정할 수 있다. 또한, 오토데스크는 원더 스튜디오의 AI 기능인 모션 예측(Motion Prediction)을 공개했다. 사용자는 이를 통해 캐릭터를 실사 장면에 더욱 쉽게 삽입할 수 있다. 이 기능은 배우의 시야가 물체에 가려져 있을 때도 캐릭터를 예측해 더 자연스러운 포즈를 생성하고, 흔들림과 노이즈를 줄인다.  플로우의 핵심은 오토데스크가 AU를 통해 선보인 새로운 기능을 뒷받침하는 공통 데이터 모델이다. 카메라-클라우드 설루션인 플로우 캡처(Flow Capture)는 사용자의 경험을 좌우하는 애셋 사용을 중심에 두고 있다. 원더 스튜디오는 중앙에서 단번에 애셋을 찾고 드래그하는 것만으로 이를 정리 및 구성할 수 있는 기능을 제공한다.  한편, 오토데스크는 개발자가 클라우드에서 바이프로스트(Autodesk Bifrost) 그래프를 실행하고 맞춤형 설루션을 구축할 수 있는 플로우 그래프 엔진 API(Flow Graph Engine API)를 출시하고, 이를 기반으로 한 생태계를 만들고 있다. 제작진이 세트를 스캔해 디지털 트윈을 생성한 후 플로우 그래프 엔진 API를 사용해 완성하는 것으로, VFX(특수효과) 아티스트는 디지털 트윈에 반응하는 3D 애셋과 VFX 시뮬레이션을 추가할 수 있다. 클라우드에서 시뮬레이션된 시각 효과를 통해 감독은 시각 효과가 장면을 어떻게 변화시킬지 정확하게 파악할 수 있고, 배우들은 연기를 더 다듬고, 촬영 감독은 최상의 카메라 각도를 구성하는 등 전체 스태프는 3D 요소와 상호작용할 수 있다. 또한 플로우 그래프 엔진 API를 사용해 마야 및 3ds 맥스(3ds Max) 2025에서 모두 사용 가능한 플로우 리토폴로지(Flow Retopology) 서비스를 구축해, 아티스트가 애니메이션 및 클라우드로의 렌더링을 위한 복잡한 메시 준비에서 벗어날 수 있다. 오토데스크는 "급변하는 M&E 환경에서 사용자들이 더욱 창의적이고 효율적으로 일할 수 있도록 지원하고자 한다”면서, “현재 사용되고 있는 제품에 계속해서 가치를 제공하고 플로우와 오토데스크 AI 설루션을 더해 사용자 곁에 언제나 함께 하는 것이 목표”라고 전했다.
작성일 : 2024-10-30
지코어코리아-몬드리안에이아이, GPU 클라우드 사업 고도화 위한 MOU 체결
퍼블릭 클라우드, 에지 컴퓨팅 및 에지 AI 전문 기업인 지코어코리아는 AI 플랫폼 전문기업 몬드리안에이아이와 GPU 클라우드 사업의 고도화를 위한 양해각서(MOU)를 체결했다고 밝혔다. 지코어는 엔비디아 GPU 기반으로 고성능 머신러닝 및 AI 작업을 지원하는 클라우드 인프라를 제공한다. 또한 엄격한 기준을 충족하는 6개 대륙 180개 이상의 PoP(point of presence)를 토대로 한 글로벌 저지연 네트워크를 통해 클라우드 및 에지 AI 솔루션을 운영하고 있다.  몬드리안에이아이는 AI 클라우드 서비스 'Runyour AI’를 통해 고성능 GPU 자원을 저렴한 비용으로 수요자에게 연결하는 서비스를 제공하고 있다. 이번 협약으로 양사는 지코어의 고성능 GPU 데이터센터 자원과 Runyour AI 플랫폼을 결합해 클라우드 사업에서 시너지를 창출할 예정이다. 몬드리안에아이는 지코어의 GPU 기반 클라우드 및 스토리지 인프라를 활용해 한국을 비롯한 아시아 시장에서 구독형 AI 클라우드 서비스인 GPUaaS(GPU-as-a-Service)를 공급해 나갈 예정이다. 지코어코리아의 정현용 지사장은 “지코어의 빠르고 안정적인 GPU 클라우드가 몬드리안에이아이의 플랫폼과 만나, 그 동안 지코어의 클라우드를 선듯 도입하지 못했던 기업들에게 익숙하고 편리한 UI 환경을 제공할 수 있게 되었다”며, “양사의 이번 협업을 통해 국내 AI 비즈니스 시장 저변 확대에 기여할 것이라 자신한다”고 말했다. 몬드리안에이아이의 홍대의 대표는 “이번 지코어와의 협력으로 Runyour AI의 글로벌 시장 진출에 중요한 발판을 마련했다”며, “글로벌 AI 및 클라우드 시장에서의 경쟁력을 더욱 강화해 나가겠다”고 전했다. 몬드리안에이아이는 Runyour AI에 ‘Dev Cloud’ 기능을 추가할 예정이다. 몬드리안에이아이는 이 기능이 가상머신(VM) 기반의 CPU 상품을 월 단위로 제공함으로써 AI 모델 추론 및 데이터 분석 작업에 효과를 더할 것으로 기대하고 있다. 한편 지코어는 지난 6월에 ‘인퍼런스 앳더 에지’ 솔루션을 출시했다. 이 서비스는 사전 학습된 머신러닝 모델을 전 세계에 분포되어 있는 에지 추론 노드 중 사용자와 가장 가까운 경로 또는 위치에서 응답할 수 있도록 함으로써 원활한 실시간 추론을 지원하고 있다.
작성일 : 2024-10-15
유한양행, 글로벌 약물 감시 운영 위해 오라클 아거스 클라우드 서비스 활용
오라클은 국내 최대의 제약 회사 중 하나인 유한양행이 글로벌 약물 감시 운영을 위해 ‘오라클 아거스 클라우드 서비스(Oracle Argus Cloud Service)’를 채택했다고 밝혔다. 오라클은 이를 통해 유한양행이 향상된 첨단 안전 데이터 분석 및 운영 지표와 국내외 시판 전후 보고 기능의 이점을 얻을 것으로 기대하고 있다. 오라클 아거스 클라우드 서비스를 도입한 유한양행은 첨단 이상 사례 처리 기능을 임상 시험 및 시판 후 안전성 정보 관리에 활용할 수 있게 된다. 특히 서비스에 내장된 자동화, 워크플로 최적화 등의 기능은 수동 작업의 필요성을 줄이고 효율성을 높일 뿐만 아니라, 유한양행이 신속한 이상사례 보고 기능을 통해 글로벌 규제 준수 목표를 달성할 수 있도록 지원한다. 오라클 클라우드 인프라스트럭처(OCI)에 내장된 아거스는 전 세계의 민감도 높은 데이터 보호에 사용되는 것과 동일한 성능 및 군사시설 등급의 보안 기능을 탑재하고 있다. 유한양행은 위험 발생 가능성을 줄이기 위한 패칭 등 정기 혁신 및 유지 관리 업데이트의 이점을 얻을 수 있다. 또한, 오라클 아거스 클라우드 서비스는 유한양행과 식품의약품안전처간의 보안 게이트웨이를 제공한다. 이로써 유한양행은 다양한 이상사례를 식품의약품안전처에 전자적으로 직접 보고할 수 있어, 규정 준수를 위한 보고 절차의 속도가 가속화된다. 안전, AI, 머신러닝 분야에서 전문성을 갖춘 오라클은 최근 아거스를 비롯한 오라클의 새로운 통합 약물 감시 포트폴리오를 통해 새로운 기능을 발표했다. 또한, 유한양행은 제품 구현과 데이터 마이그레이션, 시스템 통합, 기술 교육 및 기타 다양한 이니셔티브 관리를 위해 오라클의 생명 과학 기술 컨설팅 팀과도 협력하고 있다. 오라클의 시마 버마(Seema Verma) 헬스 및 생명 과학의 총괄 부사장 겸 총괄 관리자는 “약물 감시 관련 요구 사항이 지속적으로 확대, 변화됨에 따라 제약 기업은 그 추세를 따라가는 데에 엄청난 압박을 느끼고 있다”면서, “유한양행은 오라클 아거스 클라우드 서비스를 통한 클라우드로의 이전으로 이상 사례 관리 처리 및 보고 절차의 혁신은 물론, 궁극적으로는 새로운 치료제의 안전성 정보 관리를 높은 수준으로 유지할 수 있게 됐다”고 말했다.
작성일 : 2024-10-14
[포커스] 태성에스엔이, “CAE와 AI의 융합으로 제품 개발 혁신”
태성에스엔이는 9월 11일 서울 aT센터에서 'CAE×AI 세미나 2024'를 개최했다. 이날 세미나에는 300명 이상의 업계 전문가들이 참석한 가운데, 앤시스의 해석 프로그램과 AI의 접목을 통한 혁신적인 해석 기법들이 소개되었다. 참석자들은 최신 CAE 해석 기술과 AI의 융합을 통해 향후 제조업과 설계 분야의 발전 가능성에 대한 인사이트를 얻었다. ■ 박경수 기자      AI/ML을 활용한 해석 혁신 이번 세미나에서는 AI/ML 기술의 CAE 해석 적용을 주제로 앤시스 심AI(Ansys SimAI)와 앤시스GPT(AnsysGPT)를 포함한 다양한 AI 트렌드가 소개되었으며, 이를 활용해 더 빠르고 효율적인 해석 결과를 도출할 수 있는 방법이 논의되었다.  태성에스엔이 노은솔 매니저와 김도현 매니저는 ‘기초 이론과 사례로 살펴보는 인공지능’을 주제로, AI 도입으로 해석 부문이 어떤 변화가 생겼는지 설명했다. 이어 윤진환 이사는 '태성에스엔이와 Ansys의 AI 기술과 고객 서비스'를 소개하며, AI 기술이 CAE 해석에 어떻게 실질적으로 적용되고 있는지 설명했다. 권기태 수석매니저는 ‘태성에스엔이가 제공하는 시뮬레이션 데이터 기반 AI/ML 서비스’를 주제로, AI가 시뮬레이션 데이터를 활용해 성능을 최적화하는 방법에 대해 심도 깊은 논의를 진행했다.    Stochos와 AI 응용사례 CADFEM Germany GmbH의 다니엘 수쿠프(Daniel Soukup)는 Stochos라는 온프레미스 기반 AI 프로그램을 소개했다. Stochos는 신경망과 가우시안 프로세스를 결합한 Deep Infinite Mixture of Gaussian Processes(DIM-GP) 알고리즘을 통해 소량의 데이터로도 높은 예측 정확도를 제공하는 기술이다. 특히, 확률론적 머신러닝을 도입해 예측 결과의 신뢰도를 함께 제시하여 엔지니어들이 AI 결과를 더욱 신뢰할 수 있도록 만들어 준다. 이 기술은 복잡한 시뮬레이션 문제 해결에 있어 뛰어난 성능을 발휘하며 관심을 끌었다.   CAE와 AI 융합의 미래 이외에도 이번 행사에서는 앤시스의 최적화 전용 프로그램인 옵티스랭(optiSLang)에서 AI 사용 방법, 심AI, 앤시스GPT, 트윈AI(Ansys TwinAI) 등 AI를 접목한 앤시스의 최적화 기술이 차례로 소개되었고, 다양한 시각에서 AI 기술이 CAE에 어떻게 접목될 수 있는지 소개됐다.  태성에스엔이는 CAE와 AI의 결합을 통한 미래 산업의 변화 가능성에 대해 참석자들과 함께 토론하는 시간을 가지며 세미나를 마무리했다. AI 기반의 CAE 해석 기술은 향후 설계 및 제조 산업의 혁신을 주도할 중요한 요소로 자리잡을 것으로 기대된다.   ‘CAE×AI 세미나 2024’ 인터뷰  CAE×AI 세미나 2024 행사 관련해 태성에스엔이의 석진 영업본부 이사, 윤진환 기술본부 이사, 권기태 기술본부 AI 팀 수석매니저와 이야기를 나눴다. Q. 이번 세미나에서 발표된 AI/ML 기술 적용 사례 중, 특히 성공적인 사례를 하나 꼽는다면? 해당 사례에서는 어떤 방식으로 해석 프로세스를 개선했는지? ■ 윤진환 : 많은 분들이 AI/ML의 도입은 아직 시기상조이거나, 중견기업 이상의 대형 기업에서만 시험적으로 적용되고 있다고 생각할 수 있다. 하지만, 태성에스엔이의 AI 팀이 개발한 AI/ML 솔루션은 이미 국내 중소기업에서 실사용 되고 있는 사례를 보여드리고자 했다. 이 프로그램은 AI 모델 자동 생성 프로그램으로, 앤시스 일렉트릭 데스크톱(Ansys Electric Desktop)에서 계산된 시뮬레이션 결과를 기반으로 AI 모델을 자동으로 생성한다. 해석자가 앤시스 일렉트릭 데스크톱에서 설계 형상에 대한 변수만 지정해 두면, 본 프로그램은 자동으로 해당 변수를 추출해 실험계획법(DoE)을 기반으로 여러 번의 해석을 진행한 뒤, AI 모델을 구축한다.   ▲ 해석팀 : 해석 변수 자동 추출 및 AI모델 생성 자동화    이후, 설계자는 구축된 AI 모델을 기반으로, 임의의 설계 변수 값을 입력해 실시간으로 해당 설계안에 대한 예측 결과값을 확인할 수 있다.   ▲ 설계팀 : AI 모델을 통한 실시간 성능 예측   이후 설계자는 구축된 AI 모델을 바탕으로 임의의 설계 변수 값을 입력해 실시간으로 해당 설계안에 대한 예측 결과를 확인할 수 있다. 이 기능 덕분에 해석자는 설계팀으로부터 반복되는 동일 작업 요청을 줄일 수 있었고, 더 높은 수준의 분석이나 추가적인 AI 모델 구축에 시간을 투자할 수 있게 되었다. 설계팀 또한 실시간 예측을 통해 빠른 결과 분석을 반영해 작업 효율을 크게 향상시킬 수 있었다. 이 프로그램은 유사한 환경에서 구조해석, 열해석 등에도 적용 가능하며, 맞춤형 UI와 다양한 AI 기능을 구현할 수 있어 여러 기업으로부터 관심을 받고 있다.   Q. 심AI와 앤시스GPT와 같은 최신 기술 및 제품 트렌드가 CAE 해석 분야에서 어떤 변화를 가져올 것으로 기대하나? 이 기술들이 현장에서 어떻게 적용되고 있으며, 궁극적으로 해석 결과의 품질에 어떤 영향을 미칠 것으로 보는지? ■ 석진 : 심AI와 같은 AI 기반 도구는 반복적인 작업을 자동화하여 사용자가 모델링부터 해석에 이르는 전 과정을 보다 신속하게 수행할 수 있도록 지원한다. 설계 초기 단계에서 최적화를 진행할 수 있는 가능성이 높아지며, 이를 통해 설계 주기가 단축될 것이다. 또한, 인적 오류를 최소화함으로써 실험과 프로토타입 제작에 소요되는 비용과 시간을 절감하여 궁극적으로 시장 출시 주기를 획기적으로 단축시킬 것으로 기대된다. AI 기술을 활용해 대량의 해석 데이터를 분석하고 패턴을 인식함으로써 더 나은 설계 결정을 지원할 수 있으며, 앤시스GPT는 앤시스 공식 웹사이트 내에서 사용자 질문에 대한 정확하고 신뢰할 수 있는 답변을 제공하거나 최적의 설계 옵션을 제안하는 데 유용할 것이다. 이러한 기술은 CAE 도구의 사용을 더욱 쉽게 만들어 준다. 예를 들어, 복잡한 해석 과정이나 설정에 대한 자동 안내 및 추천 기능은 비전문가들도 손쉽게 접근할 수 있도록 도와준다. 또한, 다양한 팀과 부서 간 협업도 향상될 것이다. AI 기반 도구는 설계, 해석, 생산 팀 간의 원활한 커뮤니케이션을 지원하여 더 통합된 접근 방식을 가능하게 한다. 결론적으로, 심AI, 앤시스GPT, 앤시스 AI+ 등 앤시스의 AI 솔루션은 CAE 해석의 정확성, 효율성, 접근성을 크게 향상시킬 것으로 기대하며, 이는 산업 전반에 혁신적인 변화를 가져올 것이다.   Q. CAE 프로그램에 AI를 접목했을 때 해석 속도와 정확도는 얼마나 향상되었는지? 이런 기술적 통합이 실무 현장에서 얼마나 실질적인 성과를 보여주고 있다고 보는지? ■ 권기태 : 앤시스는 다음 그림과 같이 CAE 프로그램에 순차적으로 AI 기능을 추가하고 있다.  그 중 앤시스 CFD AI+ 기능을 하나의 사례로 소개하겠다. 플루언트(Ansys Fluent)에서 제공하는 Generalized k-ω Model(GEKO) 난류 모델은 사용자가 직접 계수를 설정해야 하며, 도메인 내에서도 각기 다른 계수를 설정해야 하는 어려움이 있다. 이러한 문제를 해결하기 위해 앤시스 CFD AI+는 Adjoint Solver와 Neural Network/Machine Learning 기법을 결합하여 GEKO 모델의 계수를 자동으로 조정하는 기능을 제공한다.  AI 기술의 효과를 확인하기 위해 S805 Airfoil 문제에 GEKO 모델 계수의 자동 튜닝 기능을 적용한 결과 GEKO 기본 계수를 사용할 때 오차는 기준값 대비 13.2%였지만, AI 기반 자동 튜닝 계수를 적용한 경우 오차가 0.2%로 크게 감소한 것을 확인할 수 있었다. 앤시스 AI+를 통해 CAE 프로그램과 AI 기술을 기술적으로 통합함으로써 해석 속도와 정확도를 개선하고 있다. 또한, 시뮬레이션 결과 데이터에 AI 기술을 적용하여 실무 현장에서 많은 성과를 보이고 있다. 심AI 프로그램은 형상과 시뮬레이션 필드 결과 데이터를 활용해 시뮬레이션 솔버를 대체할 수 있는 인공지능 모델을 제작할 수 있는 사례를 보여 준다. 이 모델을 사용하면 형상을 입력하여 기존 시뮬레이션 솔버에 비해 10배에서 최대 1000배 더 빠르게 필드 결과를 예측할 수 있다.  디지털 트윈 분야에서는 복잡한 물리 기반의 시뮬레이션 모델을 ROM(축소 차수 모델)이라는 머신러닝 기법을 통해 시스템 수준의 해석 모델로 전환하여, 실시간 물리적 예측이 가능하며 빠른 속도와 높은 정확도를 제공한다.  향후 품질 및 생산 관리와 같은 측정 데이터 기반 인공지능 모델이 많이 사용되는 영역에서도 시뮬레이션 데이터 기반 인공지능 모델의 사용이 활발해질 것으로 기대된다. 이를 통해 시뮬레이션 기술은 설계 단계에만 머무르지 않고, 공정 및 품질 개발, 생산 및 품질 관리, 그리고 디지털 트윈과 같은 장치의 효율적인 운용 단계까지 그 활용 범위가 더욱 확장될 것이다.   Q. Stochos와 같은 온프레미스 기반의 AI 프로그램이 다른 클라우드 기반 AI 프로그램과 비교했을 때 어떤 차별화된 장점이 있다고 보나? 특히 보안성과 데이터 처리 측면에서 어떤 이점이 있는지? ■ 윤진환 : CAE 분야에서 클라우드 기반의 AI를 이용하는 이유는 사용자의 접근성을 높이기 위한 목적도 있지만, AI 학습을 위해서는 고가의 고성능 GPU가 필요하며 때로는 여러 대의 GPU를 묶어야 학습이 가능하기 때문에 장비 구축 비용이 매우 높다는 현실적인 이유도 있다. 다시 말해 온프레미스 환경에서 CAE에 대한 AI를 학습할 수 있다는 것은 기존의 AI 알고리즘과 달리 상대적으로 적은 계산 장비 리소스만으로도 정확하고 빠르게 학습할 수 있는 AI 기술을 보유하고 있다는 의미다.  Stochos는 일반적인 신경망 기반의 AI와 Gaussian Process기법을 결합한 DIM-GP 기법을 이용하여 적은 샘플수로도 높은 정확성의 AI모델을 만들어 내며, 저가의 GPU 또는 CPU만으로도 빠른 속도로 학습할 수 있다. 또한 Scalar, Signal, 이미지, 3D 형상, 정상상태, 과도상태 등의 다양한 해석 데이터와 일반 정보에 대한 AI 모델을 만들 수 있어서 활용도도 넓다. 특히 AI 모델 생성 시의 내부변수 설정(하이퍼파라미터)을 별도로 조절할 필요가 없으며, 자동으로 노이즈를 처리하는 기능이 있어 복잡한 AI 설정 과정이 필요 없는 것이 큰 장점이다.  보안성과 데이터 처리 부분에서는 클라우드 기반의 AI와 비교했을 때 사내 장비에서 모든 작업을 할 수 있어 데이터 유출이나 유실의 우려를 원천적으로 차단할 수 있으며, 사내망에서 구동되므로 데이터 전송 및 예측 속도가 빠르다는 장점이 있다. 따라서 보안 문제에 대한 우려가 있거나 사내 AI 장비 구축 비용에 부담을 느끼고 있다면, 이 솔루션이 훌륭한 대안이 될 수 있다고 생각한다.      Q. 태성에스엔이는 향후 AI 관련 기술을 어떻게 발전시켜 나갈 계획인지? 앞으로 예상되는 CAE 해석 관련 기술 발전 방향 및 비전에 대한 설명도 부탁드린다. ■ 윤진환 : 태성에스엔이는 열유동/구조/전기전장/시스템/광학/최적화 등의 분야에 대한 100여명의 전문엔지니어를 보유하고 있으며, 앤시스 AI+, 심AI, 앤시스GPT에 대해서는 모든 엔지니어가 각자의 해석분야와 산업분야에 대한 초기 대응을 수행하고 있다.  이에 더해 태성에스엔이에는 AI를 위한 전문 그룹이 구성되어 있다. 이 그룹은 기술 엔지니어 중에서 AI 분야의 전문성을 가진 인원들로 이루어졌으며, 다양한 산업군에서 필요로 하는 CAE AI 응용 방안을 고객과 논의하여 선제적이고 맞춤형 서비스를 제공하는 것을 목적으로 하고 있다.  그리고 상용 AI 프로그램인 Stochos과 오픈소스를 활용해 맞춤형 AI 환경을 구축하거나 AI 모델 생성 서비스를 제공하는 것도 주요 사업 중 하나이며, 엔비디아 옴니버스(Omniverse)와의 협업을 통해 3차원 실시간 그래픽 플랫폼에 CAE AI를 적용하는 작업도 병행하고 있다. 각종 학회, 기업체 연구소, 프로그램 개발 업체 등에서 CAE에 AI 기술을 접목하고 응용 방안을 연구하는 활동이 그 어느 때보다 활발히 진행되고 있다. CAE 자체의 해석 속도와 전후 처리 속도 향상, 그리고 편의성 증대는 전문 해석자의 업무 부담을 덜어줄 것이다. 또한, CAE AI 모델 구축을 통한 빠른 예측과 실시간 결과 도출은 설계자와 해석자 간의 협업을 더욱 긴밀하게 하여 해석이 실제 업무 현장에 더 활발하게 활용될 것으로 예상된다. 이에 따라 해석자는 CAE를 통해 AI 모델을 구축하고 배포하며, 이를 사내에서 쉽게 활용할 수 있도록 하는 플랫폼 환경 구축 업무가 꾸준히 증가할 것으로 예상된다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-10-04
[포커스] IBM, 산업 혁신을 돕는 AI와 하이브리드 클라우드 기술 소개
한국IBM은 9월 3일 서울 강남구 삼성동 그랜드 인터컨티넨탈 서울 파르나스에서 'IBM AI 서밋 코리아 2024'를 개최했다. 이번 행사는 '기업 혁신을 극대화하는 AI, 자동화, 하이브리드 클라우드'를 주제로 하여, 디지털 전환을 촉진하는 IBM의 AI 및 클라우드 솔루션을 중심으로 다양한 산업 혁신 사례들이 소개됐다. ■ 박경수 기자    ▲ IBM이 개최한 ‘IBM AI 서밋 코리아 2024’ 발표현장   왓슨x를 통한 글로벌 기업 AI 혁신 사례  IBM은 2023년에 출시한 왓슨x(watsonx) 플랫폼을 활용해 전 세계 기업들이 AI를 활용해 어떻게 비즈니스 가치를 창출하고 있는지를 강조했다. 왓슨x는 IBM이 개발한 AI 및 데이터 플랫폼으로, 기업이 AI 모델을 구축하고 관리할 수 있도록 지원하는 통합 솔루션이다. 왓슨x는 생성형 AI와 머신러닝 모델의 학습, 튜닝, 배포를 돕는 플랫폼으로, 기업이 신뢰할 수 있는 데이터 기반의 AI를 통해 더 효율적이고 비용 효과적으로 AI 솔루션을 도입할 수 있도록 설계되었다. 유럽의 한 통신사는 왓슨x로 고객 응대 시스템을 혁신했다. 이 통신사는 왓슨x를 사용해 매달 80만 건의 고객 문의 응답 시간을 30% 단축했고, 이를 통해 고객 만족도를 40% 향상시키는 성과를 거두었다. 미국의 한 헬스케어 기업은 왓슨x를 통해 환자 데이터 관리 시스템을 개선했다. 이를 통해 더 나은 진료 분석과 예측 모델을 구현해, 의료 서비스의 질을 크게 향상시켰다. 이 기업은 왓슨x를 통해 대규모 데이터셋을 효과적으로 관리하며, 진단과 치료 방식을 자동화했다. 왓슨x는 금융 서비스 분야에서도 활용되어 리스크 관리와 자동화된 고객 서비스 개선에 기여하고 있다. 금융 회사들은 왓슨x의 AI 솔루션을 활용해 실시간 거래 분석과 예측 모델을 구축함으로써 더 나은 투자 결정을 내리는데 활용하고 있다. 이은주 한국IBM 사장은 환영사에서 “현재 많은 기업이 AI를 시험 단계를 넘어 비즈니스 전반으로 확산하려는 방안을 모색하고 있지만, 여러 도전 과제가 있다”며, “AI 여정을 성공적으로 이끌고 있는 고객들은 소수의 AI 프로젝트에 집중한 뒤 이를 기업 전체로 확장하고 있다”고 설명했다. 이어서 “전 세계 1000개 이상의 고객과 파트너들이 고객 경험, 애플리케이션 현대화, 디지털 노동(digital labor) 등 특정 영역에 IBM의 생성형 AI 플랫폼인 왓슨x를 적용하고 있다. IBM 왓슨x는 신뢰할 수 있는 데이터로 학습된 파운데이션 모델을 제공하며, 목적에 맞게 조정된 소규모 모델을 활용해 AI 추론 비용을 제어하면서도 성능과 품질을 유지할 수 있다”고 강조했다.   ▲ ‘IBM AI 서밋 코리아 2024’에서 부스를 꾸미고 관람객과 소통에 나선 IBM과 채널사들   AI와 하이브리드 클라우드를 통한 디지털 혁신 IBM은 이번 서밋에서 AI와 하이브리드 클라우드가 어떻게 기업의 디지털 전환을 가속화하고 있는지에 대해 다양한 사례를 들어 설명했다. IBM의 하이브리드 클라우드는 온프레미스(기업 내부 서버), 프라이빗 클라우드, 퍼블릭 클라우드를 모두 통합해 사용할 수 있도록 설계된 클라우드 컴퓨팅 환경이다. 이를 통해 기업은 유연성과 효율성을 극대화하면서도 보안과 데이터 관리의 유연성을 유지할 수 있다. 하이브리드 클라우드는 IBM의 레드햇 오픈시프트(Red Hat OpenShift) 플랫폼과 통합되어 운영되며, 이를 통해 다양한 클라우드 환경에서 일관된 애플리케이션 관리를 가능하게 한다는 점이 특징이다. 이처럼 IBM의 하이브리드 클라우드는 다양한 IT 환경에서 AI 모델을 유연하게 배포하고 관리할 수 있도록 설계되어 있으며, 이를 통해 기업은 비용을 절감하고 성능을 극대화할 수 있다. 특히 IBM 왓슨x 플랫폼은 고품질 데이터와 맞춤형 모델로 AI 추론 비용을 제어하면서도 우수한 성능을 유지할 수 있도록 설계되었다는 점이 특징이다. 이는 IBM의 글로벌 고객들이 디지털 노동, 애플리케이션 현대화 등 다양한 비즈니스 과제에서 AI를 활용해 혁신을 이루는데 기여하고 있다. 한편, 전 프로골퍼이자 기업인으로 방송인으로 활발한 활동을 보여주고 있는 박세리 감독이 이번 서밋에 참석했다. 박세리 감독은 한국IBM CTO 이지은 전무와 함께 ‘AI 기술로 변화하는 스포츠의 미래’를 주제로 스포츠 업계에서 어떻게 AI를 활용하고 있는지 토론에 참여했다. 박세리 감독은 “스포츠에서는 팬들의 참여를 유도하는 것이 비즈니스 성공의 핵심 요소”라며, “스포츠 업계는 더 많은 관중 참여와 관심을 끌기 위해 매년 최첨단 기술 도입에 적극 나서고 있다”고 설명했다. 실제로 IBM은 마스터즈 골프, 윔블던 테니스, US 오픈 등 글로벌 스포츠 이벤트뿐만 아니라 금융, 제조, 유통 등 다양한 산업에서 사용되는 생성형 AI, 자동화, 하이브리드 클라우드를 접목해 디지털 팬 경험을 향상시키고, 스포츠 비즈니스의 생산성을 높이는데 기여하고 있다.  박세리 감독은 마스터즈 골프를 예로 들며, “생성형 AI와 같은 기술이 도입되면서 현장에 참여하지 못한 팬들도 높은 만족감을 느낄 수 있었다. 이 기술이 다양한 분야에서 스포츠 비즈니스의 성장을 이끌고 변화를 가져올 것이라고 기대한다”고 말했다.   ▲ 이지은 한국IBM CTO와 스포츠 분야에 AI 도입에 대해 토론 중인 박세리 감독   성공적인 AI 적용을 위한 데이터 관리의 중요성 IBM의 데이터 및 AI 전문가들은 생성형 AI의 성공적인 비즈니스 적용을 위해서는 신뢰할 수 있는 모델과 데이터 관리가 필수임을 강조했다. IBM의 인스트럭트랩(InstructLab) 기술은 이러한 데이터 관리 과정을 체계화하여, 기업이 AI 모델을 더 효율적으로 학습시키고 운영할 수 있도록 돕는다. 이 기술은 AI와 클라우드를 통합하여 기업이 데이터 통합, 거버넌스, 그리고 신뢰성 문제를 해결하는 데 중요한 역할을 한다. 인스트럭트랩은 AI 모델 학습 및 데이터 관리를 위한 도구로, 주로 기업이 AI 프로젝트에서 데이터를 보다 효율적으로 관리하고 생성형 AI 모델을 성공적으로 적용할 수 있도록 지원하는 기술이다. 인스트럭트랩은 왓슨x 플랫폼과 통합되어 AI 모델을 학습시키고, 다양한 비즈니스 요구에 맞게 조정하는데 필수적인 기능을 제공한다. 이 기술의 핵심 목표는 데이터 통합, 품질 관리, 신뢰할 수 있는 데이터 거버넌스를 통해 AI 모델이 더 정확하고 효율적으로 학습할 수 있도록 돕는 것이다. 특히, 인스트럭트랩은 복잡한 데이터 관리 과정을 자동화하고 체계화함으로써 AI 프로젝트의 생산성과 성공률을 높이는 역할을 한다. 미드하트 샤히드 IBM 월드와이드 데이터 패브릭 및 클라우드 팩 포 데이터 제품 관리 부사장과 아눕 쿠마 IBM 아태지역 데이터 & AI CTO는 생성형 AI를 비즈니스에 성공적으로 적용하기 위해서는 신뢰할 수 있는 모델, 고품질의 데이터, 데이터 통합 및 거버넌스 등 체계적인 데이터 관리가 필수라고 강조했다. 이들은 이번 서밋에서 생성형 AI를 성공적으로 비즈니스에 적용하려면 신뢰할 수 있는 모델, 고품질 데이터, 데이터 통합 및 거버넌스가 필수적이라고 강조했다. 또한 AI 프로젝트의 성공을 위해 신뢰성 있고 일관된 데이터 관리가 필수적이라며, 이를 통해 AI 모델의 성능을 극대화할 수 있다고 이야기했다. 샤히드 부사장은 IBM의 데이터 패브릭(Data Fabric) 기술을 통해 다양한 데이터 소스에서 실시간으로 데이터를 안전하게 통합하고 관리하는 중요성에 대해 설명했다. 이 데이터 패브릭은 AI 모델 학습의 기초가 되며, 신뢰할 수 있는 데이터를 지속적으로 공급함으로써 AI 프로젝트가 시험 단계를 넘어 실제 비즈니스에 도입될 수 있도록 돕는다. 쿠마 CTO는 기업이 생성형 AI를 성공적으로 도입하기 위해서는 데이터 거버넌스가 매우 중요하다고 강조했다. AI 모델이 공정하고 편향되지 않도록 관리하는 것이 중요한데, 그는 IBM의 watsonx.governance가 이를 자동화된 방식으로 해결한다고 설명했다. 이 도구는 AI 모델의 신뢰성, 공정성, 편향 여부를 지속적으로 모니터링하고, 규제 요구사항에 맞게 관리할 수 있게 해준다. 한편, 이번 서밋에서는 한국IBM의 데이터 및 AI 전문가와 국내 고객이 함께 진행한 다양한 산업별, 업무 영역별 생성형 AI 파일럿 프로젝트의 경험과 교훈도 공유되었다. 또한 AI 프로젝트 지원을 위한 디스커버리 워크샵, 핸즈온 프로그램, 인큐베이션 프로그램 등도 소개되었다.   ■ 같이 보기 : [피플&컴퍼니] 한국IBM 이은주 사장     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-10-04