• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "언어"에 대한 통합 검색 내용이 1,477개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
K-디자인과 인공지능 융합, ‘AI 디자인 확산 전략’ 발표
산업통상자원부(이하 산업부)는 7월 9일 오후 2시 LG사이언스파크에서 디자인 기업 및 전문가들이 참석한 가운데 AI 디자인 현장 간담회를 개최하고, ‘AI 디자인 확산 전략’을 발표했다. 이번 발표는 AI 시대에 맞춘 새로운 산업 정책의 일환으로, 디자인 산업에 AI를 빠르게 도입하여 산업 전반의 경쟁력을 높이기 위한 전략이다.   AI 디자인 확산 전략 개요 이번 전략은 4개월간 디자인 분과위 위원, 디자인 협단체, 디자인 및 AI 기업 등과의 의견 수렴과 논의를 통해 마련되었다. 전략은 ① 플래그쉽 프로젝트 추진, ② 핵심 경쟁력 확보, ③ 신시장 창출, ④ AI 디자인 제도 및 규범 설계 등 네 가지 축을 중심으로 진행된다. 이를 통해 디자인 기업의 AI 도입률을 50%로, AI 디자이너를 1만 명으로, AI 디자인 혁신기업을 500개로 늘리고, 전 산업의 디자인 활용률을 60%까지 끌어올리는 것이 목표다. 7대 분야 AI 디자인 플래그쉽 프로젝트 추진 우선, 디자인 분야 AI 활용률이 5.5%로 저조한 현실을 감안해 7대 분야 ‘AI 디자인 플래그쉽 프로젝트’를 추진한다. 2024년에는 트렌드 분석, 디자인 유사도 검색, 디자인 지식․연구 특화 경량언어모델(sLLM) 등 3대 AI 서비스 개발을 시작한다. 2025년에는 소비재 디자인, 최적 공학 부품 설계, 제조 공정 설계 자동화, 디지털 디자인 자동생성 등 AI 디자인 활용 효과가 큰 4대 분야를 중심으로 20개 AI 디자인 모델 개발을 지원할 예정이다. AI 디자인 핵심 경쟁력 확보 산업부는 AI 디자인 핵심 경쟁력 확보를 위해 기술, 기업, 데이터, 인재 등 4가지 분야에 집중 투자할 계획이다. 2024년 중 디자인컨셉, 디자인생성, 프로토타이핑, 디자인-생산 연동, 디자인 지식․보호 등 5대 분야에 필요한 AI 디자인 기술 로드맵을 발표하고, 2025년부터 본격적으로 R&D를 지원한다. 또한, 6대 권역별로 디자인 창작랩을 구축해 AI 기반 디자인 신상품 및 서비스 기획․개발을 지원하고, 디자인 기업의 AI 전환을 돕는 맞춤형 지원체계를 마련한다. K-디자인 빅데이터 허브 구축 디자인 진흥기관 및 해외 보유기관과 협력해 디자인 아카이브, 한국 전통 디자인, 색채․소재․마감(CMF), 휴먼데이터 등 4대 분야를 중심으로 K-디자인 빅데이터 허브를 구축한다. 인적자원개발협의체 중심으로 AI 디자인 교육 프로그램을 개발․보급하고, 디자인-AI 융합 전공 트랙을 5개 개설하며, 온라인 교육용 ‘디자인 그라운드’를 운영한다. AI 디자인 시장 활성화 제조, 넛지, 엔지니어링, 패키징 등 4대 산업 분야별로 생성형 AI를 활용해 시장 분석, 제품 디자인, 설계 자동화, 서비스 프로토타입 생성 등을 지원하는 협업 프로젝트 150여 개를 선정해 지원한다. 활용․공급기업 간 매칭을 위한 마켓플레이스를 구축하고, 생산기술연구원에 구축된 엔지니어링 빅데이터 플랫폼을 통해 제조기업에게 디자인․설계 소프트웨어, 고성능 컴퓨팅 파워, 설계․해석 데이터 분석 컨설팅 등을 종합적으로 지원한다. AI 디자인 제도 및 규범 설계 AI 디자인 확산의 걸림돌이 될 수 있는 디자인 저작권, 데이터 프라이버시, 윤리 문제 등을 논의하기 위해 금년 하반기에 민관합동 디자인 제도 개편 논의기구를 구성할 계획이다. 또한, 산업디자인법 등 관련 법령을 선제적으로 개정하여 AI 디자인 개념․범위, AI 디자인 혁신기업 지원 근거를 마련한다. 이와 함께 일본, 대만, 싱가포르, 말레이시아 등 세계 각국의 디자인 진흥기관과 AI 디자인 아시아 이니셔티브를 출범해 AI 디자인 정책 및 규범 관련 국제적 공조 방안을 강구한다. 한편, 안덕근 장관은 LG사이언스파크에 소재한 「Gen AI 스튜디오」에서 생성형 AI 최신 기술과 국내외 솔루션 산업 적용 사례를 체험하고, 산업계와 의견을 교환했다. 안 장관은 “AI 시대에 우리 디자인기업과 디자이너들이 누구보다 앞서 AI를 적극 도입하고 활용하여 세계 최고의 기업과 인재로 거듭나기를 기대한다”고 강조하며, “정부는 K-디자인이 AI를 활용하여 새롭게 도약할 수 있도록 오늘 발표한 전략을 차질없이 추진해 나가겠다”고 밝혔다. 이번 발표된 AI 디자인 확산 전략은 우리나라 디자인 산업의 경쟁력을 강화하고, AI 기술을 통해 산업 전반의 혁신을 이끄는 중요한 기틀이 될 것으로 기대된다.   이미지 출처 : 디자인진흥원    AI 디자인 확산 전략의 주요 내용은 첨부 파일에서 확인 가능하다.  
작성일 : 2024-07-26
인텔, 최신 LLM 라마 3.1 최적화 업데이트 지원
인텔은 메타(Meta)의 최신 LLM(대규모 언어 모델)인 라마 3.1(Llama 3.1)에 데이터센터, 에지 및 클라이언트 AI 제품 전반에 걸친 성능 데이터 및 최적화를 제공한다고 밝혔다. 인텔은 ‘AI 에브리웨어’ 전략을 위해 AI 소프트웨어 생태계에 지속적으로 투자하고 있으며, 새로운 모델이 인텔의 AI 하드웨어에 최적화되도록 보장하고 있다. 메타는 지난 4월 라마 3 출시에 이어, 7월에는 현재까지 가장 성능이 뛰어난 모델인 라마 3.1을 출시했다. 라마 3.1은 공개적으로 사용 가능한 가장 큰 파운데이션 모델인 라마 3.1 405B(4천 50억개 모델)를 포함해 다양한 규모와 기능에서 여러 새로운 업데이트 모델을 제공한다. 이 새로운 모델들은 파이토치(PyTorch) 및 인텔 파이토치 익스텐션(Intel Extension for PyTorch), 딥스피드(DeepSpeed), 허깅 페이스 옵티멈 라이브러리(Hugging Face* Optimum libraries), vLLM 등 개방형 생태계 소프트웨어를 통해 인텔 AI 제품에서 활성화 및 최적화된다. 또한 생태계 전반에서 최고의 혁신을 활용하는 개방형, 멀티 벤더, 강력하고 컴포저블한 생성형 AI 솔루션을 만들기 위한 LF AI 및 데이터 재단(LF AI & Data Foundation)의 새로운 오픈 플랫폼 프로젝트인 OPEA(Open Platform for Enterprise AI) 역시 이 모델들을 지원한다. 라마 3.1 다국어 LLM 컬렉션은 8B, 70B, 405B 크기(텍스트 인/텍스트 아웃)의 사전 학습 및 조정(인스트럭션 튜닝)된 생성 모델 컬렉션으로, 모든 모델은 8개 구술어에 걸쳐 긴 컨텍스트 길이(128k)를 지원한다. 라마 3.1 405B는 일반 지식, 조작성, 수학, 도구 사용 및 다국어 번역에 있어 최첨단 기능을 갖추고 있다. 이를 통해 커뮤니티는 합성 데이터 생성 및 모델 증류(model distillation)와 같은 새로운 기능을 활용할 수 있게 될 것이다. 한편, 인텔은 생성형 AI 및 대형 언어 모델(LLM)의 고성능 가속을 위한 가우디(Intel Gaudi) 가속기 및 일반 컴퓨팅의 유비쿼터스 백본 역할을 하는 인텔 제온(Intel Xeon) 프로세서, 클라이언트와 에지에서 높은 온디바이스 AI 추론 성능을 제공하는 인텔 코어 울트라(Intel Core Ultra) 프로세서 및 인텔 아크(Intel Arc) 그래픽이 탑재된 AI PC를 포함해 인텔 AI 제품 포트폴리오 상에서의 라마 3.1 모델 초기 성능 측정 결과를 소개했다.   ▲ 16대의 인텔 가우디 가속기 상에서의 라마 3.1 405B 추론 결과   ▲ 5세대 인텔 제온 스케일러블 프로세서 상에서의 라마 3.1 추론 지연 시간   ▲ 인텔 아크 GPU가 내장된 인텔 코어 울트라 7 165H 기반의 AI PC에서 라마 3.1 추론 다음 토큰 대기 시간
작성일 : 2024-07-26
엔비디아 AI 파운드리, 메타 라마 3.1 활용해 기업 맞춤형 AI 강화
엔비디아가 메타(Meta)의 오픈소스 AI 모델 컬렉션인 라마 3.1(Llama 3.1)을 통해 전 세계 기업의 생성형 AI를 강화하는 엔비디아 AI 파운드리(NVIDIA AI Foundry) 서비스와 엔비디아 NIM 추론 마이크로서비스를 발표했다. 이를 통해 기업과 국가는 엔비디아 AI 파운드리를 통해 라마 3.1과 엔비디아 소프트웨어, 컴퓨팅, 전문성을 활용해 도메인별 산업 사용 사례에 맞는 맞춤형 ‘슈퍼모델’을 만들 수 있다. 기업은 자체 데이터는 물론, 라마 3.1 405B와 엔비디아 네모트론(Nemotron) 리워드 모델에서 생성된 합성 데이터로 이러한 슈퍼모델을 훈련할 수 있다. 엔비디아 AI 파운드리는 높은 수준의 퍼블릭 클라우드와 공동 설계된 엔비디아 DGX 클라우드(DGX Cloud) AI 플랫폼으로 구동된다. 이를 통해 AI 수요 변화에 따라 쉽게 확장할 수 있는 방대한 컴퓨팅 리소스를 기업에게 제공한다. 새로운 서비스는 기업뿐만 아니라 독자적인 AI 전략을 개발 중인 국가들의 맞춤형 대규모 언어 모델(LLM) 구축을 지원한다. 이들은 고유한 비즈니스나 문화를 반영하는 생성형 AI 애플리케이션을 위해 도메인별 지식을 갖춘 맞춤형 LLM을 구축하고자 한다. 엔비디아는 프로덕션 AI용 라마 3.1 모델의 엔터프라이즈 배포를 강화하기 위해 라마 3.1 모델용 엔비디아 NIM 추론 마이크로서비스를 다운로드할 수 있도록 제공한다. NIM 마이크로서비스는 프로덕션 환경에서 라마 3.1 모델을 배포하는 빠른 방법이며, NIM 없이 추론을 실행하는 것보다 최대 2.5배 더 높은 처리량을 제공한다. 기업은 라마 3.1 NIM 마이크로서비스를 새로운 엔비디아 네모 리트리버(NeMo Retriever) NIM 마이크로서비스와 결합해 AI 코파일럿, 어시스턴트, 디지털 휴먼 아바타를 위한 최첨단 검색 파이프라인을 구축할 수 있다.     엔비디아 AI 파운드리는 맞춤형 슈퍼모델을 빠르게 구축할 수 있는 엔드투엔드 서비스를 제공한다. 이는 엔비디아 소프트웨어, 인프라, 전문성 등을 개방형 커뮤니티 모델, 기술, 엔비디아 AI 에코시스템의 지원에 결합한다. 기업은 엔비디아 AI 파운드리를 통해 라마 3.1 모델과 엔비디아 네모(NeMo) 플랫폼을 사용해 맞춤형 모델을 만들 수 있다. 여기에는 허깅 페이스 리워드 벤치(Hugging Face RewardBench)에서 1위를 차지한 엔비디아 네모트론-4 340B 리워드 모델이 포함된다. 맞춤형 모델이 생성되면, 기업은 선호하는 클라우드 플랫폼과 글로벌 서버 제조업체의 엔비디아 인증 시스템(Certified Systems)에서 원하는 MLOps와 AIOps 플랫폼을 사용할 수 있다. 이를 통해 프로덕션 환경에서 실행할 수 있는 엔비디아 NIM 추론 마이크로서비스를 생성한다. 엔비디아 AI 엔터프라이즈(AI Enterprise) 전문가와 글로벌 시스템 통합 파트너는 AI 파운드리 고객과 협력해 개발부터 배포에 이르는 전체 프로세스를 가속화한다. 도메인별 모델을 만들기 위해 추가 훈련 데이터가 필요한 기업은 맞춤형 라마 슈퍼모델을 만들 때 라마 3.1 405B와 네모트론-4 340B를 함께 사용해 합성 데이터를 생성하면 모델 정확도를 높일 수 있다. 자체 훈련 데이터를 보유한 고객은 도메인 적응형 사전 훈련(DAPT)을 위해 엔비디아 네모로 라마 3.1 모델을 맞춤화해 모델 정확도를 더욱 높일 수 있다. 또한, 엔비디아와 메타는 개발자가 생성형 AI 애플리케이션을 위한 소규모 맞춤형 라마 3.1 모델을 구축하는 데 사용할 수 있는 라마 3.1의 증류 레시피를 제공하기 위해 협력하고 있다. 이를 통해 기업은 AI 워크스테이션과 노트북 같은 광범위한 가속 인프라에서 라마 기반 AI 애플리케이션을 실행할 수 있다. 엔비디아의 젠슨 황(Jensen Huang) CEO는 “메타의 오픈소스 모델인 라마 3.1은 전 세계 기업에서 생성형 AI 채택하는 데 있어 중요한 순간이다. 라마 3.1은 모든 기업과 업계가 최첨단 생성형 AI 애플리케이션을 구축할 수 있는 문을 열었다. 엔비디아 AI 파운드리는 라마 3.1을 전체적으로 통합했으며, 기업이 맞춤형 라마 슈퍼모델을 구축하고 배포할 수 있도록 지원할 준비가 돼 있다”고 말했다. 메타의 마크 저커버그(Mark Zuckerberg) CEO는 “새로운 라마 3.1 모델은 오픈소스 AI에 있어 매우 중요한 단계이다. 기업들은 엔비디아 AI 파운드리를 통해 사람들이 원하는 최첨단 AI 서비스를 쉽게 만들고 맞춤화하며, 엔비디아 NIM을 통해 배포할 수 있다. 이러한 서비스를 사람들에게 제공할 수 있게 돼 기쁘다”고 말했다.
작성일 : 2024-07-26
모벤시스, 'AI 활용 AMR 통합 제어 플랫폼 개발' 국책 과제 수주
모벤시스가 AI를 활용해 자율주행로봇(AMR) 통합 제어 소프트웨어의 정확성과 호환성을 높이는 플랫폼 개발 국책 과제를 컨소시엄 형태로 수주했다고 밝혔다. 모벤시스와 자회사 스카일라(Skylla), 고려대학교로 구성된 컨소시엄은 산업통상자원부가 주관하는 국제공동기술개발 X&D 사업에 ‘생성형 AI를 활용한 자율주행로봇의 실시간 통합 제어 SW 플랫폼 개발’ 과제를 지원하여 최종 선정됐다. 미국 보스턴에 소재한 스카일라는 자율주행로봇의 최적 경로 주행, 충돌회피, AI에 관한 기술력을 갖고 있으며, 고려대 HRI 랩과 민트(Mint) 랩은 각각 인간과 로봇의 상호작용 및 다중 로봇관리 분야에서 전문 연구 역량을 갖추고 있다. 산자부는 컨소시엄에 2027년 6월까지 3년간 30억원을 지원한다. 자율주행로봇은 사람의 직접적인 조작 없이 로봇이 인지, 판단 및 제어하는 기술로 물류, 유통, 제조, 방산 등 다양한 산업에 활용 가치가 높은 것으로 평가받고 있다. 시장조사기관 Nextmsc에 따르면 글로벌 자율주행로봇 시장규모는 2020년 약 12억 달러에서 2026년 70억 달러 이상으로 연평균 34% 성장하고 있다. 모벤시스의 로봇 제어 기술은 다양한 시스템에 통합적으로 적용 가능하고, 로봇의 동작과 이동을 고속 실시간성 기반에서 정교하게 통제할 수 있다는 점을 핵심 경쟁력으로 내세운다. 컨소시엄은 국책 과제를 통해 실시간 센서 융합이 가능하고 자율주행, 바퀴 모터 및 6축 협동 로봇을 하나의 소프트웨어로 동시에 제어하는 올인원 제어 솔루션을 개발한다는 목표다. 특히, 생성형 AI 및 비전 AI 기술을 적용해 자율주행로봇이 공정 작업자와 대화하며 요구조건을 인식하고 작업자의 업무 수행 정도를 파악할 수 있도록 할 계획이다. 모벤시스는 이번 개발을 통해 AMR 내 자율주행, 6축 로봇 및 바퀴 각각의 이종 제어기를 하나의 소프트웨어 솔루션으로 통합하여 동작 성능 및 배터리와 전장 공간 효율을 극대화하고, LLM(대규모 언어 모델)을 활용하여 작업자와 협업이 가능하도록 하겠다고 밝혔다. 또한 단계적 제품화를 통해 빠르면 연내 고객 사이트 검증과 라이선스 판매를 목표로 추진 중이며, 향후 5년 내 글로벌 AMR 제어기 시장의 5% 점유율을 확보하여 연간 1000억 이상의 매출을 기대하고 있다. 특히, 좁은 통로 내 정확한 이동 및 동작이 요구되는 반도체 패키징 산업을 대상으로 AMR 시장을 넓혀갈 것이라고 밝혔다. 모벤시스의 양부호 회장은 “모벤시스는 그 동안 순수 소프트웨어 기반 모션 제어 플랫폼인 WMX를 다양한 국내외 기업과 산업에 적용한 성공사례를 높게 평가받았으며 AMR 통합 제어 기술 가능성과 시장성을 인정받아 이번 국책 사업에 선정됐다”면서, “스카일라 및 고려대 연구진과 함께 더욱 정교하고 스마트한 통합 제어 플랫폼을 개발해 우리나라가 글로벌 자율주행로봇 시장을 선도할 수 있도록 노력하겠다”고 말했다.
작성일 : 2024-07-22
워크데이-AWS, 기업 의사 결정 개선 위한 생성형 AI 솔루션 개발 확대
워크데이는 아마존웹서비스(AWS)와 파트너십을 확대한다고 밝혔다. 워크데이와 AWS는 이번 협력을 통해 생성형 인공지능(AI)의 새로운 기능을 구축하고, 고객 경험을 혁신하며, 공동 시장 진출 계획에 투자하여 고객의 클라우드 전환을 가속화함으로써 고객이 생산성을 높이고, 인재를 성장시키며, 비즈니스 프로세스를 간소화할 수 있도록 지원할 예정이다. 워크데이는 플랫폼의 핵심에 내장된 AI와 아마존 베드록(Amazon Bedrock), 아마존 세이지메이커 점프스타트(Amazon SageMaker JumpStart)와 같은 AWS 기술을 활용하여 고객의 인력 및 재무 자산 관리를 지원하는 생성형 AI 기능을 개발할 수 있다. 워크데이는 AWS의 생성형 AI 기능을 통해 고객이 몇 분만에 직무 설명을 작성하고, 보다 정확한 매출 보고를 위해 계약을 분석하고 수정하며, 개인화된 인재 하이라이트를 생성하도록 지원한다. 또한 워크데이는 ‘AWS 생성형 AI 혁신 센터’와 협력하여 생성형 AI 역량의 신규 애플리케이션을 실험하고 새로운 사용 사례를 발굴하고 있다. 이에 따라 워크데이는 모델 가드레일과 책임감 있는 AI 정책을 구현하고 프로덕션을 위한 생성형 AI 사용 사례를 평가해 거대 언어 모델(LLM)의 성능을 향상하고자 아마존 세이지메이커(Amazon SageMaker)의 활용을 강화하고 있다. 워크데이는 워크데이 개발자와 고객이 AWS 기술을 활용해 맞춤형 애플리케이션을 구축할 수 있도록 네이티브 통합을 확대하고 있다. 고객들은 이제 워크데이 익스텐드(Workday Extend)에서 AWS 람다(AWS Lambda), 아마존 이벤트브릿지(Amazon EventBridge), 아마존 컴프리헨드(Amazon Comprehend), 아마존 S3(Amazon S3), 아마존 텍스트랙트(Amazon Textract), 아마존 트랜슬레이트(Amazon Translate) 등 AWS 기술과 함께 워크데이 데이터를 사용하여 HR 및 재무 프로세스를 위한 맞춤형 앱을 보다 안전하게 대규모로 구축할 수 있다. 이러한 보다 심층적인 통합은 고객이 개발자 경험을 개선하고, 운영 비용을 절감할 수 있는 맞춤형 앱을 구축하며, 예상치 못한 수요 급증과 리소스 중단에 대응할 수 있도록 설계되었다. 한편, 워크데이와 AWS는 이번 파트너십 확대의 일환으로 공동 영업 및 시장 진출 계획에 투자할 예정이다. 이러한 계획은 워크데이 신규 고객 확보를 가속화하고, AWS 마켓플레이스에서 워크데이의 가용성에 대한 인식을 향상시키고, AWS에서 워크데이를 실행하는 고객이 사전 구성된 워크데이 솔루션을 출시할 수 있도록 도움을 준다. AWS에서 워크데이를 실행하는 워크데이 고객은 다운타임이 거의 없는 유지보수 기간을 확보할 수 있으며, 지역별 데이터 보존 법규 및 규제 요건을 준수할 수 있다. 워크데이의 쉐인 루크(Shane Luke) AI 및 머신러닝 기술총괄 부사장은 “이번 파트너십 확대를 통해 워크데이 AI와 AWS의 역량을 결합하여 고객에게 AI 기능을 더 빠르고 효율적으로 제공할 수 있게 되었다”면서, “워크데이 AI를 통해 우리는 워크데이 애플리케이션에서 엔터프라이즈 데이터를 활용하여 고객에게 가치를 제공하는데 주력하고 있다. AWS를 활용하면 다양한 모델 관리 및 운영을 위해 제공되는 AWS 툴과 서비스를 통해 해당 목표에 더 직접적으로 집중할 수 있다”고 전했다. AWS의 캐서린 렌츠(Kathrin Renz) 산업부문 부사장은 “2008년부터 AWS와 워크데이는 모든 산업 분야에서 수천 명의 고객이 클라우드 도입을 가속화하고, 재무 및 인사에 관한 더 빠르고 지능적인 의사결정을 내릴 수 있도록 협력해 왔다”며, “고객이 가장 선호하는 클라우드 서비스 제공기업인 AWS를 통해 워크데이는 전 세계 기업이 대응력과 데이터 중심성을 높일 수 있는 새로운 방법을 신속하게 개발할 수 있게 되었다. AWS는 공동 고객 업무 흐름 및 새로운 혁신 전반에 걸친 파트너십을 강화하고, 전 세계 기업이 더욱 빠르고 확실하게 발전할 수 있도록 지원하는 생성형 AI 기능을 개발할 수 있기를 기대한다”고 밝혔다.
작성일 : 2024-07-18
한국마이크로소프트, 코파일럿+ PC 서피스 신제품 2종 사전 예약 진행
한국마이크로소프트가 8월 6일 공식 출시되는 ‘서피스 프로 11번째 에디션(Surface Pro 11th Edition)’ 및 ‘서피스 랩탑 7번째 에디션(Surface Laptop 7thEdition)’ 사전 예약 판매를 시작한다고 밝혔다. 사전 예약은 쿠팡, 네이버 서피스 브랜드 스토어, 하이마트(온라인 및 잠실/월드타워점 외 일부 오프라인 매장), 현대백화점(더현대 서울/판교), 지마켓 마이크로소프트 온라인 스토어에서 진행된다. 지난 5월, 마이크로소프트는 AI 기술로 설계된 코파일럿+ PC(Copilot+ PC)라는 새로운 윈도우 PC 카테고리를 공개하면서 칩셋부터 운영 체제, 애플리케이션 레이어, 클라우드까지 PC의 모든 요소를 AI 중심으로 완전히 재구성한 윈도우 플랫폼을 선보였다. 이번 신제품 2종은 서피스 제품군의 첫 번째 코파일럿+ PC로, 높은 성능과 배터리 효율성을 제공하는 퀄컴의 스냅드래곤 X 엘리트(Snapdragon X Elite) 및 스냅드래곤 X 플러스(Snapdragon X Plus) 프로세서가 탑재됐다. 이 프로세서의 NPU(Neural Processing Unit)는 45 TOPS(초당 45조 회 연산)를 처리할 수 있으며, 소형언어모델(SLMs)을 비롯한 여러 최신 AI 모델을 통해 사용자는 디바이스에서 직접 실행되는 새로운 AI 경험을 할 수 있다.   ▲ 서피스 프로 11th 에디션   서피스 프로 11th 에디션 (Surface Pro 11th Edition)은 휴대성이 높은 투인원(2-in-1) 제품으로, 태블릿 또는 데스크톱 모드로 쉽게 전환할 수 있어 언제 어디서든 AI 기능을 최대한 활용할 수 있도록 설계됐다. 특히 이전 모델 대비 90% 더 빠른 성능을 통해 생산성, 창의성, 커뮤니케이션 등에 최적화된 하이브리드 AI 사용 환경을 제공한다. 먼저 내장 카메라가 대폭 개선됐다. 초광각 쿼드 HD(Quad HD) 전면 카메라는 윈도우 스튜디오 이펙트(Windows Studio Effects)의 다양한 AI 기능을 지원해 더욱 선명하고 자연스러운 영상 통화 환경을 지원한다. 후면 카메라는 10MP 울트라 HD가 탑재돼 4K 화질로 영상 촬영이 가능하며, 별도의 장비 없이 내장된 프로그램을 통해 손쉽게 영상 편집을 할 수 있다.  서피스 슬림 펜(Surface Slim Pen) 기능도 향상됐다. 햅틱 엔진과 제로 포스 잉킹(Zero Force inking) 기능을 갖춰 자연스러운 필기 경험을 제공하며, 초정밀 음영 처리와 4096개의 압력 감지 포인트로 더욱 정교한 필기가 가능하다. 서피스 프로 플렉스 키보드(Surface Pro Flex Keyboard)에는 저소음 햅틱 터치패드가 탑재되었으며, 펜 보관 및 충전 기능도 지원한다. 서피스 프로는 최대 14시간 동안 영상 시청이 가능한 강력한 배터리가 탑재됐으며, 와이파이 7을 통해 안정적인 인터넷 환경을 지원한다. 13인치 OLED 또는 LCD HDR 디스플레이 모델과 네 가지 색상으로 출시되며, 스냅드래곤 X 플러스(10 코어), LCD 디스플레이, 플래티넘 색상, 와이파이, 16GB RAM, 256GB SSD를 탑재한 기본 모델의 가격은 154만 9000원부터 시작한다.   ▲ 서피스 랩탑 7th 에디션   서피스 랩탑 7th 에디션(Surface Laptop 7th Edition)은 최신 AI 기술과 강력한 하드웨어가 탑재됐으며, 역대 가장 슬림하고 세련된 디자인을 제공한다. 특히 이전 모델 대비 86% 더 빠른 성능을 지원해 멀티태스킹, 고사양 작업, 엔터테인먼트 등 다양한 AI 사용 환경에서 높은 성능을 발휘한다. 먼저 더 몰입감 있는 시각적 경험을 선사한다. 픽셀센스(PixelSense) 터치스크린 디스플레이는 모든 시리즈 중 가장 얇은 베젤로 더 넓은 시야를 제공한다. 또한, 120Hz 주사율로 부드러운 화면 전환을 제공하며, HDR 기술로 더 선명한 밝기와 명암을 구현한다. 돌비 비전 IQ(Dolby Vision IQ)는 자동으로 최적의 화질을 제공하고, 적응형 컬러 기술은 주변 환경에 맞춰 색상을 조정한다. 내장 카메라와 사운드도 개선됐다. AI 기반 풀 HD 서피스 스튜디오 카메라는 윈도우 스튜디오 이펙트의 자동 프레이밍, 인물 사진 흐림 효과, 크리에이티브 필터, 음성 집중 등 다양한 효과를 지원한다. 또한, 프리미엄 옴니소닉 스피커(Omnisonic speakers)와 돌비 애트모스 스튜디오 마이크(Dolby Atmos studio microphone)는 더욱 풍부하고 깨끗한 사운드를 구현한다. 서피스 랩탑은 13.8인치와 15인치 두 가지 화면 크기로 출시된다. 13.8인치는 네 가지 색상(플래티넘, 블랙, 사파이어, 듄)으로, 15인치는 플래티넘과 블랙 두 가지 색상으로 제공된다. 15인치는 최대 22시간, 13.8인치는 최대 20시간 동안 영상을 시청할 수 있다. 와이파이 7을 지원하며, 13.8인치 스냅드래곤 X 플러스(10코어), 플래티넘 색상, 16GB RAM, 256GB SSD를 탑재한 기본 모델의 가격은 154만 9000원부터 시작한다.
작성일 : 2024-07-16
엔비디아, H200 GPU로 AI 개발 강화 위한 일본 ABCI 3.0 슈퍼컴퓨터 지원
엔비디아는 일본 산업기술총합연구소(AIST)의 ABCI 3.0 슈퍼컴퓨터에 수천 개의 엔비디아 H200 텐서 코어(Tensor Core) GPU가 통합된다고 밝혔다. 또한, 휴렛팩커드 엔터프라이즈(HPE)의 크레이(Cray) XD 시스템은 엔비디아 퀀텀-2 인피니밴드(Quantum-2 InfiniBand) 네트워킹을 채택해 높은 성능과 확장성을 제공할 예정이다. ABCI 3.0은 AI 연구 개발을 발전시키기 위해 설계된 일본의 대규모 개방형 AI 컴퓨팅 인프라의 최신 버전이다. AIST와 그 사업 자회사인 AIST 솔루션스, 시스템 통합업체인 HPE가 구축 및 운영하며, 도쿄 인근 카시와에 위치한 일본 AIST 운영 시설에 설치될 예정이다.   ABCI 3.0 프로젝트는 경제 안전 기금을 통해 컴퓨팅 자원을 강화하기 위한 일본 경제산업성의 지원에 따른 것으로, METI의 10억 달러 규모 이니셔티브의 일환이다. 엔비디아는 “2023년 젠슨 황(Jensen Huang) CEO가 기시다 후미오 일본 총리를 비롯한 정재계 인사를 만나 AI의 미래를 논의한 이후 꾸준히 연구와 교육 분야에서 METI와 긴밀히 협력하고 있다”고 소개했다. 젠슨 황 CEO는 특히 생성형 AI, 로보틱스, 양자 컴퓨팅 분야의 연구 협력, AI 스타트업 투자, AI에 대한 제품 지원, 훈련, 교육을 제공하기로 약속했다.     초고밀도 데이터 센터와 에너지 효율적인 설계를 갖춘 ABCI는 AI와 빅데이터 애플리케이션 개발을 위한 강력한 인프라를 제공한다. 이 시스템은 올해 말까지 가동돼 최첨단 AI 연구와 개발 자원을 제공할 계획이다. 이 시설은 6 AI 엑사플롭(exaflops)의 컴퓨팅 용량과 410 배정밀도 페타플롭(petaflops)의 용량을 제공하며, 각 노드는 퀀텀-2 인피니밴드 플랫폼을 통해 200GB/s의 양분(bisectional) 대역폭으로 연결된다. 엔비디아 기술은 이 이니셔티브의 중심에서 수백 개의 노드에 각각 8개의 NV링크(NVLink) 연결 H200 GPU를 장착해 높은 컴퓨팅 성능과 효율성을 제공한다. 엔비디아 H200은 초당 4.8테라바이트(TB/s)의 속도로 140기가바이트(GB) 이상의 HBM3e 메모리를 제공하는 GPU이다. H200의 더 크고 빠른 메모리는 생성형 AI와 대규모 언어 모델(LLM)을 가속화하는 동시에 더 나은 에너지 효율과 낮은 총소유비용으로 HPC 워크로드를 위한 과학 컴퓨팅을 발전시킨다. 엔비디아 H200 GPU는 LLM 토큰 생성과 같은 AI 워크로드에 대해 ABCI의 이전 세대 아키텍처보다 에너지 효율이 15배 더 높다. 네트워킹 장치가 데이터에 대한 연산을 수행해 CPU의 작업을 분산(offloading)시키는 인-네트워크 컴퓨팅(In-Network Computing)과 고급 엔비디아 퀀텀-2 인피니밴드의 통합은 집약적인 AI 워크로드와 방대한 데이터 세트를 처리하는 데 필수적인 고효율, 고속, 저지연 통신을 지원한다. AIST의 다나카 요시오(Yoshio Tanaka) 이사는 “2018년 8월 우리는 세계 최초의 대규모 개방형 AI 컴퓨팅 인프라인 ABCI를 출범했다. 지난 몇 년간 ABCI를 관리해 온 경험을 바탕으로 이제 ABCI 3.0으로 업그레이드하게 됐다. 엔비디아와 HPE와의 협력을 통해 ABCI 3.0이 일본 생성형 AI 연구 개발 역량을 더욱 발전시킬 컴퓨팅 인프라로 발전하는 것이 목표”라고 말했다. AIST 솔루션스의 오가와 히로타카(Hirotaka Ogawa) 생산 겸 ABCI 운영 책임자는 “생성형 AI가 글로벌 변화를 촉진할 준비를 하고 있는 지금, 일본 내에서 연구 개발 역량을 빠르게 배양하는 것이 매우 중요하다. 엔비디아와 HPE의 협력을 통한 ABCI의 대대적인 업그레이드는 일본 산업과 학계에서 ABCI의 리더십을 강화해 일본이 AI 개발 분야에서 글로벌 경쟁력을 갖추는 미래 혁신의 기반이 될 것으로 확신한다”고 말했다.
작성일 : 2024-07-15
AMD, ‘사일로 AI’ 인수로 엔터프라이즈 AI 솔루션의 글로벌 확장 추진
AMD가 유럽의 민간 AI 연구소인 ‘사일로 AI(Silo AI)’를 약 6억 6500만 달러(약 9197억 원)에 인수하는 본 계약을 체결했다고 발표했다. AMD는 “이번 계약은 개방형 표준을 기반으로 엔드 투 엔드 AI 솔루션을 제공하고자 하는 AMD의 기업 전략에 있어 중요한 의미를 갖는 단계로, 광범위한 고객을 위한 AI 솔루션 구축 및 신속한 구현을 한층 강화할 것”이라고 설명했다.  사일로 AI는 핀란드 헬싱키에 본사를 두고 있으며 유럽과 북미에서 사업을 운영하고 있다. 사일로 AI는 고객이 AI를 제품과 서비스, 운영에 빠르고 쉽게 통합할 수 있도록 지원하는 엔드 투 엔드 AI 기반 솔루션을 전문으로 하며, 세계적인 수준의 AI 과학자 및 엔지니어로 구성된 기업이다. 또한, 사일로젠(SiloGen) 모델 플랫폼과 AMD 플랫폼에서 포로(Poro), 바이킹(Viking)과 같은 최신 오픈 소스 다국어 LLM(대규모 언어 모델)을 생성할 수 있다. AMD의 사일로 AI 인수는 2024년 하반기에 완료될 예정이다. 한편, AMD는 2023년 인수한 밉솔로지(Mipsology)와 노드.ai(Nod.ai)를 포함해, 지난 12개월 동안 자사의 AI 전략 지원을 위한 일련의 기업 인수 및 투자를 통해 개방형 표준을 표방하는 엔드 투 엔드 AI 솔루션을 제공하려는 노력을 기울였다고 소개했다.
작성일 : 2024-07-11
[PLM/DX 베스트 프랙티스 컨퍼런스 2024] 발표자료 다운로드 안내
[PLM/DX 베스트 프랙티스 컨퍼런스 2024] 발표자료 다운로드 안내입니다. 올해 20회째를 맞은 ‘PLM/DX 베스트 프랙티스 컨퍼런스 2024(구 PLM 베스트 프랙티스 컨퍼런스’)’가 지난 6월 13일~14일까지 온라인으로 진행됐습니다. ‘DX를 위한 디지털 트윈, AI와 PLM’을 주제로 한 이번 PLM 컨퍼런스에서는 제조산업 전반의 혁신과 재도약을 위해 디지털 트윈과 AI 등 첨단 기술의 활용 방안을 모색하고, 디지털 전환(DX) 시대에 PLM의 새로운 가치를 발견할 수 있는 기회로 마련됐습니다. 이번 행사에 참여해 주신 모든 분들께 감사드립니다. [PLM/DX 컨퍼런스 2024 관련 기사]  한국산업지능화협회 PLM기술위원회 위원장인 KAIST 서효원 교수는 인사말에서 “과거에는 설계/제조 정보의 생성, 관리, 활용 등이 구조적이고 전형적인 방법에 의존해 왔다. 한편, 최근 생성형 AI 특히 GPT의 출현으로 인해 PLM의 역할이 재조명되고 있다”고 짚었다. GPT의 기반인 생성형 초거대 언어 모델(LLM) 등을 통하여 유연적이고 비정형적인 방법이 가능해지고, 자연어 기반의 대화형 인터페이스가 가능해져 설계/제조의 생산성을 높일 수 있다는 설명이다. 또한, 서효원 교수는 “LLM을 기반으로 설계/제조 현장의 핵심 이슈인 데이터의 연결, 하이퍼링크 통합 등의 자동화가 가능해지며, 이를 통해 과거 PLM 적용에 있어서 문제로 여겨졌던 부분을 해결할 수 있다는 기대가 커지고 있다”고 전했다. [포커스] PLM/DX 베스트 프랙티스 컨퍼런스 2024, 제조산업의 디지털 전환 전략과 사례 소개 (1) [포커스] PLM/DX 베스트 프랙티스 컨퍼런스 2024, 제조산업의 디지털 전환 전략과 사례 소개 (2) [아젠다] PLM/DX 베스트 프랙티스 컨퍼런스 2024 발표자료는 정보 제공에 동의한 자료만 제공됩니다. 아래 아젠다에 PDF 마크가 표시되어 있는 발표자료가 공개된 내용입니다.  [PLM/DX 베스트 프랙티스 컨퍼런스 2024] 유료결제완료 발표자료 요청 이번 컨퍼런스에 참여하지 않았던 분들은 유료 결제 후에 발표자료를 다운로드 받으시기 바랍니다. 다만 홈페이지 다운로드 용량 제한으로 인하여 전체 자료를 다운로드 할 수 있게 하는데 제약이 있어 첨부한 파일에는' PLM/DX 컨퍼런스 2024' 가이드 파일만 올려 두었습니다. 결제완료 후 메일(plm@cadgraphics.co.kr)로 연락주시면 대용량 추가 자료를 별도로 보내드립니다. 홈페이지에서 직접 결제하는데 문제가 있다면 당사로 연락주시기 바랍니다.   메일 제목 :  [PLM/DX 컨퍼런스 2024] 유료결제완료 발표자료 요청 내용 : 결제시 회원명 / 전화 / 이메일 메일 보낼 곳 : plm@cadgraphics.co.kr 문의 : PLM컨퍼런스사무국 (02-333-6900) [PLM/DX 베스트 프랙티스 컨퍼런스 2024]  아젠다 1일차 [개회사] 한국산업지능화협회 PLM 기술위원회 서효원 위원장(카이스트 교수)  [기조연설] Automotive Industry의 새로운 지평선에서 / HL만도 배홍용 CTO 개발 · 양산 Lifecycle 품질 관리의 발전 방향 / LG CNS SINGLEX 정현길 위원 LS 일렉트릭 디지털 스레드 적용 사례 및 PTC AI 혁신 전략 / PTC코리아 이봉기 상무  프로세스 산업에서의 Digital Twin 적용 사례 / 아비바코리아 강창훈 상무 PLM/DX/디지털 트윈 사례 / TYM (티와이엠) 김대용 CDO AI 및 Cloud 기술을 활용한 Teamcenter의 미래 PLM: 디지털 쓰레드의 역할 / 지멘스 디지털 인더스트리 소프트웨어 한석주 본부장 [기조연설] 모빌리티 혁명, UAM 현황과 미래 / 한국항공우주연구원 황창전 UAM연구부장 2일차 [격려사] 한국CDE학회 유병현 회장(한국과학기술연구원) [기조연설] AI를 품은 제조업의 서비스 혁신 / SK경영경제연구소 김지현 부사장 [기조연설] 다양한 산업에서 적용되는 Vision AI의 현재와 미래 / 씨이랩 이문규 책임리더  기업과 부서에서 3D 데이터 활용을 통한 3D 데이터 공유 및 디지털화 실현 / 아이지피넷 윤정두 차장 MULTI-CAD 환경에서의 협업방안 / 다쏘시스템코리아 에노비아 브랜드 세일즈 부문 정유선 대표 사례를 통해 알아보는 데이터 플랫폼 구축을 통한 비용 절감 및 비즈니스 성장 실현 방안 / 스노우플레이크 박경호 영업대표 디지털 트윈을 위한 지능형 경량화/최적화 모델 생성 방안 / 팀솔루션 서경진 상무 생성형 AI 동향과 제조엔지니어링 적용 방법 / 연세대학교 송경우 교수
작성일 : 2024-07-11
다쏘시스템-미스트랄 AI, 신뢰할 수 있는 AI 기반의 산업용 솔루션 위한 파트너십 발표
  다쏘시스템과 프랑스의 인공지능 기업인 미스트랄 AI(Mistral AI)가 신뢰할 수 있는 환경에서 최첨단 AI의 역량을 산업 분야에 제공하기 위한 파트너십을 발표했다. 다쏘시스템은 자사가 내세우는 ‘생성 경제(Generative Economy)’의 시대에서 “산업은 제품에서 경험과 지속 가능성으로 전환하고, 가상 세계를 활용하여 실제 세계를 확장하고 개선해야 한다”면서, 미스트랄 AI의 대규모 언어 모델(LLM)을 비롯한 AI 기술의 발전이 이 여정을 가속화할 기회가 될 것으로 보고 있다. 버추얼 트윈 경험은 과학적 모델링, 시뮬레이션 및 AI를 결합하여 미래의 인력을 지원하는 솔루션을 제공한다. 이들은 산업 지식과 노하우를 드러내며, 지적 재산을 보호하면서 신뢰성을 요구하는 산업의 요구에 부응한다. 다쏘시스템은 미스트랄 AI의 LLM, 특히 엔터프라이즈급의 ‘미스트랄 라지(Mistral Large)’ 모델이 자사의 요구 사항을 충족하는 정확성, 응답성 및 지속가능성 성능 사이에서 균형점을 제공할 것으로 보고 있다. 다쏘시스템과 미스트랄 AI는 파트너십을 통해 다쏘시스템의 엔터프라이즈 클라우드 서비스인 아웃스케일(OUTSCALE)에 ‘LLMaaS(Large Language Models as a Service)’를 추가할 계획이다. 이 신규 아웃스케일 서비스는 아웃스케일의 인프라를 활용하며, 미스트랄 AI의 상업용 LLM을 보안 및 컴플라이언스 기준인 SecNumCloud와 함께 제공된다. 또한, 양사는 몇 초 안에 방대한 산업 지식과 노하우를 탐색하고, 다쏘시스템의 35만 여 산업 고객을 위한 대규모 데이터 자산을 강화하는 등 LLM이 지원하는 생성형 경험을 제공할 계획이다.  미스트랄 AI의 아서 멘쉬(Arthur Mensch) CEO는 “다쏘시스템과의 파트너십을 통해 모든 사람을 위한 고성능, 효율성, 보안 및 개인 정보 보호라는 공동의 목표를 재확인하게 됐다”면서, “다쏘시스템의 인프라와 산업 솔루션을 활용하여 최첨단 생성형 AI의 사용을 촉진하는 공동 미션을 진전시킬 것”이라고 전했다. 다쏘시스템의 플로렌스 휴-오비니(Florence Hu-Aubigny) R&D 부문 수석 부사장은 “우리는 AI 기반의 버추얼 트윈으로 전 세계 산업을 재창조하는 여정을 계속하고 있다. 미스트랄 AI와의 파트너십을 통해, 우리는 신뢰할 수 있는 생성 경험을 제공하여 과학적 모델링, 시뮬레이션 및 AI, LLM을 포함한 독특한 조합을 아웃스케일 환경에서 제공할 수 있게 되었다. 이 파트너십은 AI 기반 산업용 솔루션을 위한 강력한 기술 생태계를 구축하려는 우리의 의지를 보여준다”고 말했다.
작성일 : 2024-07-09