• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "소프트웨어"에 대한 통합 검색 내용이 9,990개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
시스코, AI 기반 데이터센터·클라우드 보안 강화하는 ‘시스코 하이퍼쉴드’ 공개
시스코가 데이터센터 및 클라우드를 보호하는 기술인 ‘시스코 하이퍼쉴드(Cisco Hypershield)’를 공개했다. 인공지능(AI)이 확대되며 IT 인프라 요구 수준이 높아짐에 따라 시스코는 이 기술을 통해 인공지능과 워크로드의 활용 및 보호 방식을 재구성하겠다는 계획이다. 시스코 하이퍼쉴드는 퍼블릭 및 프라이빗 데이터센터, 클라우드 등 고객이 필요로 하는 다양한 장소에서 애플리케이션, 기기, 데이터를 보호한다. 설계 단계부터 AI 기술이 고려돼 사람의 힘으로 달성하기 어려운 높은 수준의 보안 시스템을 구축할 수 있도록 지원함으로써, 보안 담당자가 업무를 보다 원활히 할 수 있도록 돕는다. 시스코는 이와 함께 최근 발표한 이더넷 스위칭, 실리콘, 컴퓨팅 포트폴리오를 통해 AI 인프라 가속화를 진행해 나가고 있다. 시스코 하이퍼쉴드는 신규 보안 아키텍처로 하이퍼스케일 퍼블릭 클라우드를 위해 개발된 기술이 사용됐으며, 모든 IT 팀이 조직 규모에 따른 제약 없이 구축할 수 있다. 보안 울타리보다는 보안 패브릭에 가까워 데이터센터 내 모든 애플리케이션 서비스, 퍼블릭 클라우드 내 모든 쿠버네티스 클러스터, 가상머신(VM) 및 컨테이너까지 모든 보안을 강화하는 것이 가능하다. 또한, 네트워크 포트를 고성능 보안 적용 지점(security enforcement point)으로 변환시켜 클라우드뿐만 아니라 데이터센터, 공장, 병원 영상실 등 다양한 공간에서 새로운 보안 기능을 제공할 수 있다. 이로써 애플리케이션 취약점 공격을 몇 분 이내로 차단하고 측면 이동 공격(lateral movement)을 막는다. 하이퍼쉴드를 통한 보안 강화는 하이퍼스케일의 퍼블릭 클라우드에서 광범위하게 사용되는 강력한 하드웨어 가속기를 활용해 ▲소프트웨어 ▲가상머신 ▲네트워크, 컴퓨팅 서버, 어플라이언스 등 세 가지 계층에서 이루어진다. 하이퍼쉴드는 구축 단계부터 자율화와 예측이 가능하도록 설계돼, 시스템이 스스로를 자체적으로 관리할 수 있어 대규모의 초분산(hyper-distributed) 구조의 지원 접근이 가능하다. 또한, 하이퍼스케일 클라우드 안에서 클라우드 네이티브 워크로드를 연결하고 보호하기 위해 사용되는 기본 메커니즘인 오픈소스 기술 eBPF(확장 버클리 패킷 필터)를 기반으로 구축됐다. 시스코 하이퍼쉴드는 모든 클라우드에 걸쳐 데이터 처리 장치(DPU)와 같은 하드웨어 가속 장치를 활용해 애플리케이션 및 네트워크 동작의 이상 징후를 분석하고 대응한다. 또한, 보호가 필요한 워크로드에 보안을 더 적용한다. 시스코 하이퍼쉴드는 오늘날의 정교한 위협 환경으로부터 인프라를 방어하고 고객들이 직면하는 분산 취약점 방어, 자율 세그멘테이션, 자체 검증 업그레이드 등 세 가지 문제를 해결하는 데에 초점을 맞추었다. 시스코 하이퍼쉴드는 보안 적용 지점의 분산된 패브릭에서 테스트를 진행하고 보완 컨트롤(compensating controls)을 추가해 불과 몇 분 내로 네트워크를 보호할 수 있다. 그리고, 하이퍼쉴드는 기존에 가지고 있는 정책을 지속적으로 관찰하고 자동추론 및 재평가를 진행해 네트워크를 자율적으로 세분화함으로써 대규모의 복잡한 환경에서도 문제를 해결한다. 또한, 이중 데이터 평면(dual data plane)을 활용해 복잡하고 시간이 소요되는 많은 테스트 및 업그레이드 배포 과정을 자동화한다. 시스코의 AI기반 교차 도메인 보안 플랫폼인 ‘시큐리티 클라우드’에 탑재된 시스코 하이퍼쉴드는 올해 8월에 정식 출시될 예정이다. 최근 이루어진 스플렁크(Splunk) 인수로 인해 시스코의 기업 고객들은 모든 디지털 시스템에 대한 가시성과 인사이트를 확보하고 높은 수준의 보안 태세를 구축할 수 있게 됐다. 시스코의 지투 파텔(Jeetu Patel) 보안 및 협업 부문 부회장 겸 총괄 매니저는 “AI는 전 세계 80억 인구의 영향력을 800억 명의 규모로 늘릴 수 있는 거대한 잠재력을 가지고 있다. 이러한 변화로 인해 연결부터 보안, 운영, 확장 방식 등 데이터센터의 역할도 변해야 한다”고 전했다. 또한 “시스코 하이퍼쉴드를 사용하면 소프트웨어와 서버, 그리고 향후에는 네트워크 스위치까지 필요한 모든 곳에 보안을 적용할 수 있다. 수십만 개의 보안 적용 지점을 가진 분산된 시스템은 관리 방법의 간소화, 비용 감소를 이루고 시스템을 자율화하는 것이 중요하다”고 설명했다. 시스코의 척 로빈스 CEO는 “시스코 하이퍼쉴드는 시스코 역사 상 가장 중요한 보안 혁신 중 하나”라면서, “시스코는 보안, 인프라, 가시성 플랫폼의 강점을 바탕으로 고객이 AI를 활용할 수 있도록 지원할 수 있는 차별화된 포트폴리오를 갖고 있다”고 설명했다.
작성일 : 2024-04-19
AMD, 기업용 AI PC 프로세서 라이젠 프로 8040/8000 시리즈 발표
AMD는 비즈니스 환경에서 높은 생산성과 프리미엄급 AI 및 연결 경험을 제공하는 새로운 기업용 모바일 및 데스크톱 AI PC 프로세서를 공개했다. 새로운 AMD 라이젠 프로 8040(Ryzen PRO 8040) 시리즈는 기업용 노트북과 모바일 워크스테이션을 위해 개발된 x86 프로세서이다. AMD는 비즈니스 사용자를 위한 AI 지원 데스크톱 프로세서인 AMD 라이젠 프로 8000 시리즈 데스크톱 프로세서도 출시했다. 이 제품은 낮은 전력 소모로 첨단 성능을 제공하도록 설계되었다. AMD는 이번에 새롭게 공개된 일부 모델에 AMD 라이젠 AI(AMD Ryzen AI)를 탑재했다. 새로운 라이젠 AI 기반 프로세서는 CPU, GPU 및 전용 온칩 NPU(Neural Processing Unit)를 탑재한다. 전용 NPU의 경우 최대 16 TOPS의 연산 성능을 제공하며, 전체 시스템은 최대 39 TOPS로 이전 세대보다 향상된 전용 AI 프로세싱 성능을 제공한다. 새로운 라이젠 AI 지원 프로세서를 장착한 기업용 PC는 AI 기반 협업과 콘텐츠 제작, 데이터 및 분석 워크로드에서 더 높은 성능과 향상된 사용자 경험을 제공한다. 또한, AMD 프로 기술이 추가됨에 따라 IT 관리자들은 IT 운영을 간소화하고, 조직 전반에 걸쳐 보다 신속하게 PC를 구축할 수 있는 엔터프라이즈급 관리 기능을 사용할 수 있다. AMD는 정교한 공격으로부터 프로세서와 클라우드를 방어할 수 있는 통합 보안 기능 및 안정성과 신뢰성 및 플랫폼 수명을 갖춘 엔터프라이즈 소프트웨어 등의 이점을 제공한다고 전했다.     전문가용 노트북 및 모바일 워크스테이션을 위한 AMD 라이젠 프로 8040 시리즈 모바일 프로세서는 집약적인 비즈니스 및 AI 워크로드에 최적화된 효율과 프로세싱 성능을 제공한다. 이 프로세서는 까다로운 모바일 워크스테이션 애플리케이션에서 최대 30% 향상된 성능을 제공하는 4nm의 ‘젠 4(Zen 4)’ 아키텍처를 기반으로 하며, 최대 8개의 고성능 코어를 탑재한다. 일부 모델에는 AMD 라이젠 AI를 탑재하고 AMD RDNA 3 그래픽을 통합했는데, AMD는 “경쟁사 프로세서 대비 화상회의 시 84% 더 적은 전력으로 최대 72% 더 높은 성능을 제공한다”고 설명했다. 또한, 라이젠 프로 8040 시리즈 프로세서 기반 PC는 와이파이 7(WiFi-7) 기술도 활용할 수 있다. 시리즈 중 최상위 제품인 AMD 라이젠 9 프로 8945HS는 8개의 코어와 16개의 스레드, 24MB 캐시 및 라데온(Radeon) 780M 그래픽을 탑재하고 있다. 이 프로세서는 테크니컬 컴퓨팅, 멀티미디어 콘텐츠 제작, 개별 그래픽 등 리소스 집약적 애플리케이션에 필요한 연산 성능을 제공하며, 3D 렌더링, 비디오 인코딩 및 사진 편집 등과 같은 까다로운 그래픽 관련 워크로드를 처리한다. 기업용 데스크톱을 위한 AMD 라이젠 프로 8000 시리즈 프로세서는 4nm 공정 기술을 기반으로 최대 8개의 고성능 젠 4 코어를 탑재했으며, 일부 모델은 전용 AI 엔진을 탑재하여 향상된 전력 및 효율과 몰입형 AI 경험을 제공한다.  AMD 라이젠 프로 8000 시리즈 프로세서를 장착한 데스크톱은 주요 비즈니스 애플리케이션 및 데이터에 대한 보다 빠른 액세스와 초고속 데이터 전송, 원활한 워크플로를 위해 최신 DDR5 및 PCIe 4를 지원하며, 일부 모델은 와이파이 7 기반의 차세대 연결성도 제공한다. 라인업 중 최상위 제품인 AMD 라이젠 8700G 프로세서는 고성능 8 코어 16 스레드, 24MB 캐시 및 통합 AMD 라데온 780M 그래픽을 탑재한다. AMD 라이젠 8700G는 AMD의 성능 테스트에서 경쟁 제품 대비 더 적은 전력을 소모하면서도 최대 19% 향상된 성능을 제공하는 것으로 나타났다. AMD는 “AMD 라이젠 7 프로 8799G 프로세서를 탑재한 기업용 데스크톱은 특정 테스트를 기준으로 경쟁사 프로세서에 비해 최대 47% 향상된 시스템 성능과 3배 향상된 그래픽 성능을 제공한다”고 전했다. 새로운 라이젠 프로 8040 시리즈 모바일 프로세서는 2024년 2분기부터 HP와 레노버를 포함한 OEM 파트너사를 통해 공급될 예정이며, 라이젠 프로 8000 시리즈 데스크톱 프로세서는 2024년 2분기부터 OEM 파트너사인 HP와 레노버, 일부 채널 파트너 플랫폼을 통해 공급될 예정이다. AMD의 컴퓨팅 및 그래픽 그룹 총괄 책임자인 잭 후인(Jack Huynh) 수석 부사장은 “AMD는 최신 비즈니스 요구사항을 해결하기 위해 광범위한 AI 기술 포트폴리오를 제공하고 있다. 또한, 다양한 유형의 데스크톱과 모바일 PC에 더욱 뛰어난 성능과 효율성을 제공하기 위해 AI PC 리더십을 지속해서 확장하고 있다”면서, “AMD의 최신 프로 시리즈 프로세서는 프리미엄 컴퓨팅 경험에 대한 새로운 기준을 제시하고, 업계 선도적인 성능과 보안을 통해 기업들이 모든 PC에 AI 기능을 구축할 수 있도록 지원한다”고 밝혔다.
작성일 : 2024-04-17
슈퍼마이크로, X14 서버 제품군에 6세대 인텔 제온 프로세서 탑재 예정
슈퍼마이크로컴퓨터(SMCI)가 향후 6세대 인텔 제온 프로세서를 지원할 X14 서버 포트폴리오를 공개했다. 이번 신제품에는 슈퍼마이크로의 빌딩 블록 아키텍처, 랙 플러그 앤 플레이 및 수냉식 냉각 솔루션, 그리고 인텔 제온 6 프로세서 제품군이 결합됐으며, 이를 통해 다양한 워크로드와 규모에 최적화된 솔루션을 높은 성능과 효율성으로 제공하는 데에 초점을 맞추었다. 슈퍼마이크로는 고객이 솔루션 구축 기간을 단축할 수 있도록 조기 배송 프로그램을 통해 일부 고객에게 새로운 서버에 대한 조기 액세스를 제공하고, 점프스타트 프로그램으로 테스트 및 검증용 무료 원격 액세스도 지원할 예정이다. 랙 스케일의 신규 X14 서버는 공용 인텔 플랫폼을 활용해 통합 아키텍처를 갖춘 인텔 제온 6 프로세서에 대한 소켓 호환성을 지원한다. 이 프로세서 포트폴리오는 클라우드, 네트워킹, 분석 및 확장 워크로드에 대해 와트당 성능을 높이는 E-코어(효율 코어) SKU와 AI, HPC, 스토리지 및 에지 워크로드에 대해 코어당 성능을 높이는 P-코어(성능 코어) SKU로 제공된다. 인텔 AMX(Intel Advanced Matrix Extensions)에서 FP16을 새롭게 지원하는 인텔 엑셀러레이터 엔진도 내장된다. 새로운 슈퍼마이크로 X14 서버는 노드당 최대 576개의 코어는 물론 PCIe 5.0, 모든 장치 유형에 대한 CXL 2.0, NVMe 스토리지 및 최신 GPU 가속기를 지원해 AI 워크로드를 구동하는 사용자의 애플리케이션 실행 시간을 단축시킨다. 고객은 광범위한 슈퍼마이크로 X14 서버에서 E-코어 및 P-코어를 갖춘 인텔 제온 6 프로세서를 활용할 수 있으며, 이로 인해 소프트웨어 재설계를 최소화하고 새로운 서버 아키텍처의 이점을 누릴 수 있다.     인텔의 라이언 타브라(Ryan Tabrah) 부사장 겸 제온 E-코어 제품 부문 총괄은 “제온 6 CPU는 공용 소프트웨어 스택을 포함한 공통 플랫폼 설계에서 각각 최적화된 두 개의 마이크로아키텍처를 제공한다. 고객은 온프레미스, 클라우드, 또는 에지에서 업계 또는 배포 모델과 관계없이 다양한 워크로드 요구사항에 대한 최고의 가치를 얻을 수 있다. 슈퍼마이크로와의 강력한 파트너십은 차세대 프로세서의 이점을 고객에게 제공하는 데 도움이 될 것”이라고 설명했다. 슈퍼마이크로의 찰스 리앙(Charles Liang) CEO는 “슈퍼마이크로는 수냉식 100kW 랙 1,350개를 포함해 전 세계적으로 매월 5000개의 랙을 생산할 수 있는 능력을 지녔으며, 2주의 짧은 리드 타임을 제공한다. 현재 가장 진보된 AI 하드웨어를 비롯해 완전한 맞춤형 워크로드 최적화 솔루션을 랙 스케일로 설계, 구축, 검증 및 제공하는 것에서 타의 추종을 불허한다”면서, “슈퍼마이크로는 폭넓은 애플리케이션 최적화 솔루션의 설계 및 제공하는 것에 있어서 업계를 선도하고 있다. 인텔 제온 6 프로세서를 탑재한 X14 서버는 광범위한 슈퍼마이크로의 포트폴리오를 한층 더 확대할 것”이라고 전했다.
작성일 : 2024-04-17
헥사곤, 아이터스 디지털 인수로 설비자산 성능 관리 솔루션 역량 확보
헥사곤 자산 수명주기 인텔리전스 사업부(헥사곤 ALI)가 설비자산 성능 관리(APM) 소프트웨어 공급기업인 아이터스 디지털(Itus Digital)을 인수했다고 발표했다. 아이터스 디지털은 헥사곤의 모든 제품, 특히 헥사곤 설비 관리 솔루션(HxGN EAM) 플랫폼에 더해져 완성된다. 설비자산 성능 관리는 설비 관리 운영에서 신뢰성 최적화, 가동 시간 향상, 비용 절감에 중점을 둔다. 아이터스 디지털은 SaaS(서비스형 소프트웨어) 기반의 솔루션을 통해 설비자산의 성능을 최대화한다. 아이터스의 APM 플랫폼은 전체 설비자산 관리 전략과 플랜트 디지털 트윈의 라이프사이클을 관리하며, 이는 설비 고장 모드, 설비 모니터링을 통해 설비자산의 잠재 리스크가 올라가거나 위험요소를 설비 리스크 평가, 설비관리 업무 우선순위화를 통해 관리한다. 이러한 APM 플랫폼은 빠르고 쉬운 구축을 통해 기존의 설비관리 전략을 고도화하기 위해 개발됐다. 헥사곤의 파올로 구글리엘미니(Paolo Guglielmini) CEO는 “이번에 전략적으로 인수를 한 아이터스 디지털의 APM 기술은 헥사곤 EAM 플랫폼과 결합해 산업 기업 고객의 설비자산 안정성과 가용성을 개선해 시간과 비용을 최소화하고, 고객사의 규모나 업종에 관계 없이 최고의 기회를 제공하게 됐다는 점에서 의미가 크다”고 전했다.
작성일 : 2024-04-15
Qt그룹, 퀄컴과 협력해 산업용 IoT 기기 UI 개발 간소화
애플리케이션 및 기기 인터페이스 개발 플랫폼 업체인 Qt그룹이 산업용 IoT(사물인터넷) 기기의 그래픽 사용자 인터페이스(GUI) 및 소프트웨어 품질 보증 개발을 간소화하기 위해 퀄컴 테크놀로지스와 협력한다고 밝혔다. 이번 협력을 통해 퀄컴의 고성능 프로세서에 Qt그룹의 크로스플랫폼 개발 툴을 포팅할 수 있게 되어, IoT 기기 제조 과정에서 UI 솔루션 개발 및 테스트 방식을 간소화할 수 있게 되었다. 또한, 로봇부터 보안 카메라까지 임베디드 기기를 쉽게 제조할 수 있도록 초소형 컴퓨터 시스템인 SoM(시스템 온 모듈)을 대규모로 쉽고 빠르게 개발할 수 있다. 뿐만 아니라 Qt를 지원하는 퀄컴의 프로세서에 액세스하는 OEM(주문자상표부착생산) 기업은 Qt그룹의 소프트웨어 개발 및 품질 보증 툴을 이용하여 생산 장벽을 낮출 수 있다. IoT 제품 개발 시에 Qt 개발 툴과 프레임워크를 활용하면 고급 3D 그래픽 기능을 디바이스 UI에 적용할 수 있다. “게임 엔진과 같은 다른 프레임워크에는 IoT 디바이스 GUI에 불필요한 기능이 포함되어 있지만, Qt 프레임워크는 IoT 기기에 맞게 기능을 조정하기 때문에 개발자는 훨씬 낮은 하드웨어 요구 사항에서 UI를 설계하고 실행할 수 있다”는 것이 Qt그룹의 설명이다. 제품의 설계, 개발 및 품질 보증을 위한 Qt그룹의 툴은 개발자와 디자이너 간의 긴밀한 협력을 촉진하며, 동일한 프레임워크 내에서 동시에 작업할 수 있도록 지원하여 워크플로를 간소화하는 것을 목표로 한다. 특히 저전력 및 임베디드 디바이스를 위한 크로스 플랫폼 개발에 적합하다. 퀄컴의 만빈더 싱(Manvinder Singh) IoT 전략 및 파트너 솔루션 개발 담당 부사장은 “퀄컴은 제조업체가 칩셋을 사용하여 수직적 시장(vertical market)을 위한 우수한 하드웨어 및 소프트웨어 솔루션을 개발할 수 있는 산업 생태계를 구축하는 것을 중요하게 생각한다”면서, “Qt그룹과의 이번 협력을 통해 창의적인 제품 솔루션을 즉각 개발할 수 있는 준비된 솔루션을 제공할 수 있게 되었다”고 전했다. Qt그룹의 유하페카 니에미(Juhapekka Niemi) 제품 관리 수석 부사장은 “Qt 기술의 장점은 다양한 산업 분야에서 구현된 이력이 있다는 점이다. 이제는 IoT용 하드웨어 및 소프트웨어 벤더에게 필요한 UI/UX 개발 및 QA 툴을 즉시 제공하여, GUI 개발을 간소화하고 제품 출시에 소요되는 시간을 단축할 수 있도록 도울 수 있다”고 말했다.
작성일 : 2024-04-15
엔비디아, AI 개발 가속화 위해 구글 클라우드와 협력
엔비디아가 구글 클라우드와 협력을 통해 전 세계 스타트업의 생성형 AI 애플리케이션과 서비스 개발 가속화를 지원한다고 발표했다. 양사의 이번 협력은 다양한 규모의 기업이 생성형 AI 애플리케이션을 개발하는데 드는 비용을 절감하고 장벽을 완화하기 위해 공개된 일련의 발표들 중 가장 최근에 이뤄진 것이다.  특히 스타트업은 AI 투자에 대한 높은 비용으로 인해 많은 제약을 받고 있다. 이번 협업으로 엔비디아와 구글 클라우드는 클라우드 크레딧, 시장 진출 지원, 그리고 기술 전문 지식에 대한 접촉 기회 확대를 통해 고객에게 더 빠르게 스타트업의 가치를 제공하도록 지원한다. 1만 8000개 이상의 스타트업을 지원하는 엔비디아 인셉션 글로벌 프로그램의 회원은 특히 AI에 중점을 둔 스타트업의 경우 최대 35만 달러의 구글 클라우드 크레딧을 제공받고 구글 클라우드 인프라 사용 가속화 경로를 확보할 수 있다. 구글 포 스타트업 클라우드 프로그램 멤버는 엔비디아 인셉션에 가입해 기술 전문 지식, 엔비디아 딥 러닝 인스티튜트(Deep Learning Institute) 과정 크레딧, 엔비디아 하드웨어와 소프트웨어 등을 이용할 수 있다. 또한 구글 포 스타트업 클라우드 프로그램의 스타트업 회원은 해당 분야에 관심이 있는 벤처 투자 기관에 노출될 기회를 주는 엔비디아 인셉션 캐피탈 커넥트(Inception Capital Connect) 플랫폼에 참여할 수 있다. 두 프로그램 모두에서 급성장한 신생 소프트웨어 제조업체는 구글 클라우드 마켓플레이스(Marketplace) 등록해 공동 마케팅, 제품 개발 가속화 지원을 우선적으로 받을 수 있다.     구글 딥마인드(DeepMind)는 지난 2월 최첨단 개방형 모델 제품군 젬마(Gemma)를 공개했는데,  엔비디아는 최근 구글과 협력해 모든 젬마 전용 엔비디아 AI 플랫폼에 대한 최적화를 실시했다. 젬마는 구글 딥마인드의 가장 뛰어난 모델인 제미나이(Gemini) 제작에 사용된 동일한 연구와 기술로 구축됐다. 양사의 긴밀한 협력으로 거대 언어 모델(LLM) 추론 최적화를 위한 오픈 소스 라이브러리 엔비디아 텐서RT-LLM(TensorRT-LLM)을 통해 엔비디아 GPU로 젬마를 실행, 젬마의 성능을 발전시켰다. 젬마 7B(Gemma 7B), 리커런트젬마(RecurrentGemma), 코드젬마(CodeGemma)를 포함한 젬마 모델 제품군은 엔비디아 API 카탈로그에서 사용 가능하며, 사용자는 이를 브라우저에서 사용하거나, API 엔드포인트로 프로토타입을 제작하거나, NIM을 통한 셀프 호스팅을 할 수 있다. 구글 클라우드를 사용하면 GKE와 구글 클라우드 HPC 툴킷으로 플랫폼 전반에 엔비디아 네모(NeMo) 프레임워크를 배포하기 쉬워진다. 이를 통해 개발자는 생성형 AI 모델의 훈련과 제공을 확장하고 자동화할 수 있으며, 개발 과정에 빠르게 착수하는 맞춤형 청사진을 통해 턴키 환경을 신속히 구축할 수 있다. 엔비디아 AI 엔터프라이즈의 일부인 엔비디아 네모는 구글 클라우드 마켓플레이스에서도 이용 가능하다. 이를 통해 고객들은 네모 및 기타 프레임워크에 쉽게 액세스해 AI 개발을 가속할 수 있다. 구글 클라우드는 엔비디아 생성형 AI 가속 컴퓨팅의 가용성 확대를 위해 5월 A3 메가(Mega)의 정식 출시를 발표했다. 이 인스턴스는 엔비디아 H100 텐서 코어(H100 Tensor Core) GPU로 구동되는 A3 가상 머신(VM) 제품군의 확장으로, A3 VM에서 GPU 대 GPU 네트워크 대역폭이 두 배로 늘었다. A3에 탑재된 구글 클라우드의 새로운 컨피덴셜(Confidential) VM에는 컨피덴셜 컴퓨팅에 대한 지원도 포함돼 있어, 고객이 H100 GPU 가속에 액세스하는 동안 코드를 변경하지 않고도 민감 데이터의 기밀성과 무결성을 보호하고 학습과 추론 도중 애플리케이션과 AI 워크로드를 보호할 수 있다. 이 GPU 기반 컨피덴셜 VM은 올해 미리보기로 제공될 예정이다. 한편, 블랙웰(Blackwell) 플랫폼에 기반한 엔비디아의 최신 GPU는 2025년 초에 엔비디아 HGX B200과 엔비디아 GB200 NVL72 등 두 가지 버전으로 구글 클라우드에 출시될 예정이다. HGX B200은 가장 까다로운 AI, 데이터 분석 그리고 고성능 컴퓨팅 워크로드를 위해 설계됐으며, GB200 NVL72는 차세대, 대규모, 조 단위의 매개변수 모델 학습과 실시간 추론을 위해 설계됐다. 엔비디아 GB200 NVL72는 각각 2개의 엔비디아 블랙웰 GPU와 엔비디아 그레이스 CPU(Grace CPU)가 결합된 36개의 그레이스 블랙웰 슈퍼칩을 900GB/s의 칩투칩(chip-to-chip) 인터커넥트를 통해 연결한다. 이는 하나의 엔비디아 NV링크(NVLink) 도메인에서 최대 72개의 블랙웰 GPU와 130TB/s의 대역폭을 지원한다. 통신 병목 현상을 극복하고 단일 GPU처럼 작동해 이전 세대 대비 30배 빠른 실시간 LLM 추론과 4배 빠른 트레이닝을 제공한다. 엔비디아는 지난 3월 생성형 AI의 요구사항에 최적화된 엔터프라이즈 개발자용 AI 플랫폼인 엔비디아 DGX 클라우드를 H100 GPU 기반의 A3 VM에서 사용할 수 있다고 발표했다. GB200 NVL72가 탑재된 DGX 클라우드는 2025년 구글 클라우드에서도 제공될 예정이다.
작성일 : 2024-04-12
인텔, 기업용 AI를 위한 ‘가우디 3’ 및 AI 개방형 시스템 전략 발표
인텔은 연례 고객 및 파트너 콘퍼런스인 ‘인텔 비전 2024’에서 기업용 생성형 AI를 위한 성능, 개방성 및 선택권을 제공할 인텔 가우디 3(Intel Gaudi 3) 가속기를 공개했다. 그리고 이와 함께 생성형 AI 도입 가속화를 위한 새로운 개방형 스케일러블 시스템 스위트, 차세대 제품 및 전략적 협력도 발표했다.  인텔 가우디 3 AI 가속기는 공통 표준을 따르는 이더넷을 통해 최대 수만 개의 가속기를 연결해 AI 시스템을 구동한다. 인텔 가우디 3는 BF16에 대해 4배 더 많은 AI 컴퓨팅 및 기존 모델 대비 1.5배 커진 메모리 대역폭을 지원한다. 인텔은 “이 가속기는 생성형 AI를 대규모로 배포하려는 글로벌 기업에게 AI 학습 및 추론 분야에서 획기적인 도약을 지원할 수 있다”고 설명했다.   ▲ 인텔 팻 겔싱어 CEO   인텔은 가우디 3가 70억 개 및 130억 개의 매개변수가 있는 라마2(Llama2) 모델과 GPT-3 1750억개 매개변수 모델 전체에서 엔비디아 H100보다 평균 50% 더 빠른 학습 시간을 제공할 것으로 예상하고 있다. 또한 인텔 가우디 3 가속기 추론 처리량은 평균적으로 H100보다 50%, 전력 효율성의 경우 라마(Llama) 70억 개 및 700억 개 매개변수와 팔콘(Falcon) 1800억 개 매개변수 모델에서 평균 40% 더 우수할 것으로 예상한다. 인텔 가우디 3는 개방형 커뮤니티 기반 소프트웨어와 업계 표준 이더넷 네트워킹을 제공한다. 또한 기업은 싱글 노드에서 클러스터, 슈퍼 클러스터, 수천 개의 노드가 있는 메가 클러스터로 유연하게 확장할 수 있으며, 최대 규모의 추론, 미세 조정 및 학습을 지원한다. 인텔 가우디 3는 2024년 2분기에 델 테크놀로지스, HPE, 레노버, 슈퍼마이크로를 비롯한 OEM 시스템에 탑재될 예정이다. 또한 인텔은 하드웨어, 소프트웨어, 프레임워크, 툴 등을 포함한 개방형 스케일러블 AI 시스템에 대한 전략을 제시했다. 인텔의 이러한 접근법은 기업별 생성형 AI 요구 사항을 충족하는 솔루션을 제공하기 위한 것으로, 다양하고 개방적인 AI 생태계를 가능케 한다. 여기에는 장비 제조업체, 데이터베이스 공급자, 시스템 통합업체, 소프트웨어 및 서비스 공급자 등이 포함된다. 또한, 기업 고객이 이미 알고 신뢰하는 생태계 파트너 및 솔루션을 활용할 수 있는 부분도 장점으로 꼽힌다. 인텔은 다양한 업계의 기업 고객 및 파트너들과 새롭고 혁신적인 생성형 AI 응용 프로그램을 개발하기 위해 인텔 가우디를 활용해 협력하고 있다고 밝혔다. 예를 들어, 네이버는 클라우드에서부터 온디바이스까지 첨단 AI 서비스를 전세계에 배포하기 위해 강력한 LLM 모델을 개발하고 있는데, 대규모 트랜스포머 아키텍처 기반 모델의 컴퓨팅 작업을 뛰어난 와트 당 퍼포먼스로 실행하기 위해 인텔 가우디를 사용한다. 보쉬는 자사 기반 모델 개발을 포함한 스마트 제조의 가능성을 모색하고 있으며, 합성 데이터 세트 생성과 더불어 자동 광학 검사와 같은 견고하고 분산된 트레이닝 세트 제공한다. 이에 더해 구글 클라우드, 탈레스, 코히시티(Cohesity)가 클라우드 환경에서 기밀 컴퓨팅 역량을 활용할 수 있도록 인텔과의 협력을 발표했다.    인텔은 인텔 가우디 3 가속기 외에도 엔터프라이즈 AI의 모든 부문에 걸쳐 차세대 제품 및 서비스에 대한 업데이트를 발표했다. 새로운 인텔 제온 6 프로세서는 폐쇄적 데이터를 사용하여 비즈니스에 특화된 결과를 생성하는 RAG를 포함한 최신 생성형 AI 솔루션을 실행할 수 있다. 2024년 출시될 차세대 인텔 코어 울트라 클라이언트 프로세서 제품군(코드명 루나레이크)은 차세대 AI PC를 위해 플랫폼 기준 100 TOPS 이상, NPU에서 45TOPS 이상을 제공할 예정이다. 인텔은 울트라 이더넷 컨소시엄(UEC)을 통해 AI 패브릭을 위한 개방형 이더넷 네트워킹을 선도하며 다양한 AI 최적화 이더넷 솔루션을 선보이고 있다.  인텔의 팻 겔싱어(Pat Gelsinger) CEO는 “혁신은 전례 없는 속도로 발전하고 있으며, 반도체가 이 모든 것을 가능하게 한다. 또한 모든 기업이 빠르게 AI 기업으로 거듭나고 있다”면서, “인텔은 PC부터 데이터센터, 에지에 이르기까지 기업 전반의 모든 곳에 AI를 가능하게 하고 있다. 인텔의 최신 가우디, 제온 및 코어 Ultra 플랫폼은 변화하는 고객과 파트너의 요구를 충족하고 앞으로의 엄청난 기회를 활용할 수 있도록  유연한 솔루션 세트를 제공하고 있다”고 밝혔다.
작성일 : 2024-04-11
AMD, 임베디드 시스템의 AI 기반 가속 지원하는 2세대 버설 적응형 SoC 발표
AMD는 새로운 2세대 버설 AI 에지 시리즈(Versal AI Edge Series)와 버설 프라임 시리즈(Versal Prime Series) 적응형 SoC(System on Chip)를 출시해 버설 적응형 SoC 포트폴리오를 강화했다고 밝혔다. 2세대 버설 시리즈는 전처리에서 AI 추론 및 후처리에 이르기까지 단일 디바이스로 AI 기반 임베디드 시스템의 엔드 투 엔드 가속을 제공한다. 2세대 버설 시리즈 포트폴리오의 첫 제품군은 새로운 AI 엔진을 바탕으로 1세대 디바이스보다 최대 3배 더 높은 와트당 TOPS를 제공한다. 또한, 새로운 고성능 통합 Arm CPU를 통해 1세대 버설 AI 에지 및 프라임 시리즈 디바이스 대비 최대 10배에 달하는 스칼라 컴퓨팅을 제공한다. 지능형 단일 칩 솔루션인 2세대 버설 시리즈 디바이스는 다중 칩 기반 프로세싱 솔루션을 대체하여 시장 출시 시간을 단축하고, 더 작고 효율적인 임베디드 AI 시스템을 구현할 수 있다. 이를 통해 첨단 기능 안전 및 보안 기능과 함께 성능, 전력 및 면적을 조합해 자동차, 항공우주 및 방위, 산업, 비전, 의료, 방송 및 프로AV 시장용 에지 디바이스에 최적화된 고성능 제품 설계가 가능한 새로운 차원의 성능과 기능을 제공한다. 스바루는 자사의 차세대 ADAS(첨단 운전자 보조 시스템) 비전 시스템인 ‘아이사이트(EyeSight)’에 2세대 버설 AI 에지 시리즈를 탑재한다. 아이사이트 시스템은 스바루의 일부 자동차 모델에 탑재되어 ACC(어댑티브 크루즈 컨트롤), 차선 이탈 방지, 충돌 방지 제동 등 첨단 안전 기능을 지원한다. 스바루는 현재 아이사이트가 장착된 차량에 AMD 적응형 SoC 기술을 활용하고 있다.     2세대 버설 AI 에지 시리즈는 실제 시스템에서 요구되는 복잡한 프로세싱 요건을 충족하기 위해 총 3단계로 이뤄지는 AI 기반 임베디드 시스템의 모든 가속 성능을 지원하는 프로세서 조합을 갖추고 있다. 광범위한 센서를 연결하고, 높은 처리량의 저지연 데이터 프로세싱 파이프라인을 구현할 수 있는 유연성을 갖춘 FPGA 프로그래머블 로직으로 실시간 전처리를 지원하며, 차세대 AI 엔진 형태의 벡터 프로세서 어레이를 통해 효율적인 AI 추론을 지원한다. 또한, Arm CPU 코어를 통해 안전에 초점을 맞춘 애플리케이션의 복잡한 의사결정 및 제어에 필요한 후처리 성능을 제공한다. 2세대 AMD 버설 프라임 시리즈는 센서 프로세싱을 위한 프로그래머블 로직과 고성능 임베디드 Arm CPU를 결합하여 기존의 비 AI 기반 임베디드 시스템을 위한 엔드투엔드 가속을 제공한다. 이 디바이스들은 1세대에 비해 최대 10배 더 많은 스칼라 컴퓨팅을 제공하도록 설계되어 센서 프로세싱 및 복잡한 스칼라 워크로드를 효율적으로 처리한다. 최대 8K의 다중 채널 워크플로를 비롯해 높은 처리량이 요구되는 비디오 프로세싱을 위한 새로운 하드 IP를 갖춘 2세대 버설 프라임 디바이스는 초고화질(UHD) 비디오 스트리밍 및 녹화, 산업용 PC 및 항공 컴퓨터와 같은 애플리케이션에 적합하다. 2세대 버설 AI 에지 시리즈와 2세대 버설 프라임 시리즈 포트폴리오는 에지 센서에서 중앙집중식 컴퓨팅에 이르기까지 AI 기반 시스템을 위한 확장성을 제공한다. 이 시리즈는 고객들이 성능, 전력 및 면적 풋프린트를 선택하여 애플리케이션의 성능 및 안전성 목표를 효율적으로 달성할 수 있도록 AI 및 적응형 컴퓨팅의 규모에 따라 다양한 디바이스로 구성되어 있다. 한편, AMD 비바도 디자인 수트(Vivado Design Suite) 툴과 라이브러리는 임베디드 하드웨어 시스템 개발자의 생산성 향상 및 설계 주기의 간소화를 통해 컴파일 시간 단축, 개발 결과물의 품질 개선 등의 효과를 제공한다. 임베디드 소프트웨어 개발자를 위한 AMD 바이티스 통합 소프트웨어 플랫폼(Vitis Unified Software Platform)은 사용자가 선호하는 추상화 단계에서의 임베디드 소프트웨어, 시그널 프로세싱 및 AI 설계를 지원하며, 기존 FPGA 설계 경험 없이도 활용 가능한 장점이 있다. 설계자들은 2세대 AMD 버설 AI 에지 시리즈 및 2세대 버설 프라임 시리즈용 얼리 액세스 문서와 1세대 버설 평가 키트 및 설계 툴을 현재 이용할 수 있다. AMD는 2025년 상반기에 2세대 버설 시리즈의 실리콘 샘플을, 2025년 중반에는 평가 키트 및 SOM(System-on-Module) 샘플을, 2025년 말에는 양산 반도체를 공급할 예정이다. AMD의 적응형 및 임베디드 컴퓨팅 그룹 총괄 책임자인 살릴 라제(Salil Raje) 수석 부사장은 “AI 지원 임베디드 애플리케이션에 대한 수요가 폭발적으로 증가하면서 전력 및 공간이 제한적인 임베디드 시스템에서 가장 효율적으로 엔드투엔드 가속을 지원하는 단일 칩 솔루션에 대한 요구가 높아지고 있다”면서, “40년 이상 축적된 적응형 컴퓨팅 리더십을 바탕으로 구현된 최신 세대 버설 디바이스는 단일 아키텍처에 다중 컴퓨팅 엔진을 통합해, 로엔드에서 하이엔드에 이르기까지 뛰어난 컴퓨팅 효율과 성능, 확장성을 제공한다”고 밝혔다.
작성일 : 2024-04-11
인텔, 기업용 AI를 위한 가우디 3 및 AI 개방형 시스템 전략, 네이버와 협력 발표
인텔코리아가 4월 11일 여의도 FKI타워(전경련회관)에서 기자간담회를 열고, 미국 애리조나에서 4월 8일~9일(현지시간) 진행된 '인텔 비전 2024'에서 발표된 주요 내용들을 소개했다. 특히 올해 하반기에 새롭게 출시 예정인 기업용 AI를 위한 가우디 3에 대해 자세히 소개하는 시간을 마련했다. 한편 인텔은 네이버가 AI 서비스 개발을 위해 인텔의 가우디 2를 테스트베드로 사용하는데 협력하기로 했다고 전했다. ▲ 인텔 비전 2024을 소개한 국내 기자간담회 현장모습 먼저 인텔의 연례 고객 및 파트너 컨퍼런스인 인텔 비전 2024(Intel Vision 2024)에서 인텔은 기업용 생성형 AI(GenAI)를 위한 성능, 개방성 및 선택권을 제공할 인텔 가우디 3(Intel Gaudi 3) 가속기와 함께 생성형 AI 도입 가속화를 위한 새로운 개방형 스케일러블 시스템 스위트, 차세대 제품 및 전략적 협력을 발표했다.  인텔 CEO 팻 겔싱어(Pat Gelsinger)는 “혁신은 전례없는 속도로 발전하고 있으며, 반도체가 이 모든 것을 가능하게 한다. 또한 모든 기업이 빠르게 AI 기업으로 거듭나고 있다”라며 “인텔은 PC부터 데이터센터, 엣지에 이르기까지 기업 전반의 모든 곳에 AI를 가능하게 하고 있다. 인텔의 최신 가우디, 제온 및 코어 Ultra 플랫폼은 변화하는 고객과 파트너의 요구를 충족하고 앞으로의 엄청난 기회를 활용할 수 있도록  유연한 솔루션 세트를 제공하고 있다”고 밝혔다. ▲ 인텔 비전 2024에서 인텔의 새로운 비전을 소개한 인텔 팻 겔싱어(Pat Gelsinger) CEO  인텔은 기업이 생성형 AI를 파일럿 단계에서 업무에 적용하는 것으로 확장하고자 한다고 전했다. 이를 위해서는 복잡성, 단편화, 데이터 보안 및 규정 준수 요구 사항을 해결하면서 인텔 가우디 3(Intel Gaudi 3) AI 가속기와 같이 성능, 비용 및 전력 효율성이 뛰어난 프로세서를 기반으로 구축된 즉시 도입 가능한 솔루션이 필요하다고 소개했다. 인텔 가우디 3 AI 가속기는 공통 표준을 따르는 이더넷을 통해 최대 수만 개의 가속기를 연결해 AI 시스템을 구동한다. 인텔 가우디 3는 BF16에 대해 4배 더 많은 AI 컴퓨팅 및 기존 모델 대비 1.5배 커진 메모리 대역폭을 지원한다. 이 가속기는 생성형 AI를 대규모로 배포하려는 글로벌 기업에게 AI 학습 및 추론 분야에서 획기적인 도약을 지원할 수 있다. 엔비디아 H100과 비교하여 인텔 가우디 3는 70억개 및 130억개의 매개변수가 있는 라마2(Llama2) 모델과 GPT-3 1750억개 매개변수 모델 전체에서 평균3 50% 더 빠른 학습 시간을 제공할 것으로 예상한다. 또한 인텔 가우디 3 가속기 추론 처리량은 평균적으로 H100보다 50%1, 전력 효율성의 경우 라마(Llama) 70억개 및 700억개 매개변수와 팔콘(Falcon) 1800억개 매개변수 모델에서 평균 40% 더 우수할 것으로 예상한다. 인텔 가우디 3는 개방형 커뮤니티 기반 소프트웨어와 업계 표준 이더넷 네트워킹을 제공한다. 또한 기업은 싱글 노드에서 클러스터, 슈퍼 클러스터, 수천 개의 노드가 있는 메가 클러스터로 유연하게 확장할 수 있으며, 최대 규모의 추론, 미세 조정 및 학습을 지원한다. 인텔 가우디 3는 2024년 2분기에 델 테크놀로지스(Dell Technologies), HPE, 레노버(Lenovo), 슈퍼마이크로(Supermicro)를 비롯한 OEM 시스템에 탑재될 예정이다. 한편 인텔코리아 나승주 상무는 인텔 비전 2024에서 발표된 내용들을 간략히 정리해 소개하는 브리핑을 진행했다. 나승주 상무는 인텔은 기업용 AI 활성화를 위해 개방형 생태계의 힘을 적극적으로 활용할 계획이라며, 가우디 3 AI 가속기는 생성형 AI를 위한 선택권을 제공한다고 설명했다. 기업용 AI는 확장 가능한 개방형 시스템이 될 전망이라고 말했다. 또한 고객 및 파트너 모멘텀으로 네이버 등과 협력하고 있다. 또한 차세대 제품 및 서비스를 위해 가우디 3 등 제품 개발에 힘쓸 계획이라고 밝혔다. ▲ 인텔코리아 나승주 상무 이번 브리핑에 앞서 진행된 네이버와의 협력에 대해서 특별 게스트로 네이버클라우드 이동수 박사(하이퍼스케일 AI담당이사)가 온라인 참석해 협력 관계애 대한 설명과 함께 질의응답에 참여했다. 네이버클라우드 이동주 박사는 AI 반도체 평가와 분석하는 과정에서 인텔 가우디 3의 성능이 뛰어나다는 것을 알게 됐다며, AI 서비스를 지원하기 위해서는 AI 개발을 좀 더 손쉽게 하기 위해서는 소프트웨어 작업들을 많이 하고 있다고 밝혔다. 단기간에 그칠 것이 아니라 국내 스타트업들이 함께 AI 협력을 기대하고 있다고 소개했다. ▲ 네이버클라우드 이동수 박사(하이퍼스케일 AI담당이사) 
작성일 : 2024-04-11
알테어, 국내 제조 기업의 AI 기술 도입 위한 'AI 워크숍' 개최
알테어가 지난 4월 4일 서울 역삼동 포스코타워에서 ‘AI(인공지능) 워크숍’을 진행했다고 밝혔다. ‘AI for Engineers(엔지니어를 위한 AI)’를 주제를 내건 이번 워크숍은 AI 기술 도입 전략 및 산업 동향을 공유하는 자리로 마련됐다. 현장에는 주요 제조업체 실무진 및 오피니언 리더 300여 명이 참석했다. 알테어의 문성수 아시아태평양 수석부사장은 환영사에서 “제조업체가 AI 기술을 도입할 때에는 그들의 도메인 전문성을 바탕으로 AI 기술을 누구나 활용할 수 있는 환경을 마련해야 한다”면서, “알테어는 데이터 비전공자도 쉽게 활용할 수 있는 로코드/노코드 기반 데이터 분석 및 AI 시뮬레이션 소프트웨어를 제공하여 국내 업체들의 고민을 해소하고자 한다”고 전했다. 첫 번째 발표자로 나선 알테어의 수디르 파다키 글로벌 데이터 분석 디렉터는 “최근 제조업계는 전통적인 시뮬레이션 데이터 활용에서 데이터 기반의 AI 활용으로 전환하는 추세이다. 이를 위해 알테어는 자사 데이터 분석 소프트웨어 래피드마이너에 ‘CAE 커넥터’를 추가해, CAE 결과 파일을 바로 읽어들여 코딩 없이 다양한 변수에 따른 해석 결과를 얻을 수 있도록 했다”고 소개했다. 이어 “요즘 기업에서 생성형 AI 시스템 구축에 많은 관심을 보이고 있는데, 래피드마이너에 내장된 생성형 AI 기능을 활용하면 채팅창에서 데이터 분석 요구사항을 쉽게 요청할 수 있다. 한국어 자연어 처리도 지원해 한국 사용자에게도 편리할 것”이라고 말했다. 한국알테어의 이승훈 기술 총괄 본부장은 “해석 결과를 얻는 과정은 제품 개발 단계에서 상당한 시간을 차지한다. 하지만 AI 기술을 적용해 해석 결과를 학습하고 적용하니 3시간 이상 걸리던 작업도 단 3초 만에 해석 결과를 얻을 수 있게 되었다. AI 기술 도입은 제품 개발 단계를 대폭 단축시키며, 빠른 예측 결과를 통해 효율성을 극대화할 수 있다.”고 말했다.     알테어의 이번 워크숍에서는 산학연 영역의 여러 연사가 다양한 전문 분야와 관련된 AI 트렌드를 다뤘다. 황보현우 하나은행 자문위원이 ‘AI 시대의 경쟁 우위 전략’, 현대자동차 한용하 연구위원이 ‘자동차 CAE 부문에서의 AI 적용 사례 소개’, 계명대학교 김양석 교수는 ‘AI 시대의 셀프서비스 분석’을 주제로 최신 연구 결과와 산업 동향을 소개했다. 또한 ‘엔지니어링 분야에서의 AI 적용: 엔지니어들의 기회와 도전’ 를 주제로 진행한 패널 토론에는 LG전자,  현대자동차, 계명대학교에서 참가해 AI 기술 적용에 대한 의견과 경험을 공유하는 시간을 가졌다. 알테어의 라비 쿤주 최고제품및전략책임자(CPSO)는 “다양한 전문성을 갖추지 않고는 AI 기술을 효과적으로 도입하고 활용하는 것이 어렵다”며, “알테어는 시뮬레이션과 AI, HPC 기술과 자원을 통합한 ‘알테어원’ 플랫폼을 통해 기업들의 AI 기술 도입 부담을 줄이고 현실적으로 구현할 수 있도록 지원하겠다”고 전했다.
작성일 : 2024-04-05