• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "툴킷"에 대한 통합 검색 내용이 233개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
인텔, 개발자·하드웨어 벤더를 위한 AI PC 가속화 프로그램 확대
인텔은 ‘AI PC 가속화 프로그램(AI PC Acceleration Program)’의 일환으로 ▲ AI PC 개발자 프로그램(AI PC Developer Program) 신설과 ▲IHV(독립 하드웨어 벤더)로 프로그램 지원 대상 확대를 골자로 하는 새로운 AI 이니셔티브 2개를 발표했다. 인텔은 2025년까지 1억 대 이상의 인텔 기반 AI PC에서 소프트웨어 및 하드웨어 생태계가 AI 기능을 최적화할 수 있도록 하겠다는 목표를 세웠다. AI PC 개발자 프로그램은 소프트웨어 개발자와 ISV(독립 소프트웨어 벤더)를 위해 설계된 프로그램으로 원활한 개발자 경험을 제공하고 개발자가 규모에 맞춰 새로운 AI 기술을 쉽게 채택할 수 있도록 지원한다. 인텔 코어 울트라(Intel Core Ultra) 프로세서를 탑재한 개발자 키트와 각종 도구, 워크플로 및 AI 배포 프레임워크를 제공한다.     업데이트된 개발자 리소스 페이지에서는 개발자가 AI PC 및 PC용 툴킷, 관련 자료 및 교육 프로그램을 모두 제공받을 수 있다. 이러한 리소스로 개발자가 인텔 코어 울트라 프로세서 기술을 활용하여 AI 및 머신러닝(ML) 애플리케이션 성능을 최적화하고 신규 사용 사례를 신속하게 개발할 수 있다. 그리고, 개발자들은 인텔 AI PC 가속화 프로그램에 가입해 PC 업계에서 AI 성능을 극대화하기 위해 노력하는 인텔의 글로벌 파트너 네트워크에 대해 더 자세히 확인할 수 있다. 또한 AI PC 가속 프로그램에 독립 하드웨어 공급업체(IHV)를 추가하면서 IHV가 AI PC용 하드웨어를 준비, 최적화 및 구현할 수 있는 기회를 제공한다. 파트너사는 인텔 오픈 랩스(Open Labs)에 접속해 하드웨어 솔루션 및 플랫폼의 개발 단계 초기에 기술 및 공동 엔지니어링 지원을 받을 수 있다. 또한 이 프로그램을 통해 인텔은 IHV 파트너가 기술을 테스트하고 최적화하여 출시할 때까지 최대한 효율적으로 실행할 수 있도록 레퍼런스 하드웨어를 제공한다. 인텔은 이 프로그램을 통해 개발자들이 최신 인텔 프로세서에서 소프트웨어의 호환성과 전반적인 최종 사용자 경험을 높이고, AI PC 하드웨어에 맞춰 소프트웨어 성능을 최적화하며, 새로운 시장에 진입하고 산업 전반에서 성공할 수 있는 기회를 얻을 수 있을 것으로 전망했다. 인텔의 카를라 로드리게즈(Carla Rodriguez) 클라이언트 소프트웨어 생태계 지원 부문 총괄은 “인텔은 생태계와 협업함으로써 AI PC 가속화 프로그램의 큰 진전을 이루었다”라며, “AI PC 개발자 프로그램 추가로 대규모 ISV 외에도 범위를 확대하여 중소규모 및 개인 개발자도 지원하게 되었다. 인텔의 목표는 새로운 AI 지원 개발자 키트를 포함해 광범위한 개발 도구를 지원해 원활한 개발 경험을 제공하는 것”이라고 밝혔다.
작성일 : 2024-03-27
엔비디아, “RTX AI PC와 워크스테이션 통해 전용 AI 기능과 고성능 제공”
엔비디아가 RTX AI PC와 워크스테이션 사용자를 위한 하드웨어, 소프트웨어, 도구, 가속화 등을 계속해서 선보일 예정이라고 밝혔다. 엔비디아는 2018년 RTX 기술과 AI용으로 제작된 소비자 GPU인 지포스 RTX(GeForce RTX)를 출시하면서 AI 컴퓨팅으로의 전환을 가속화했다. 이후 RTX PC와 워크스테이션상의 AI는 1억 명 이상의 사용자와 500개 이상의 AI 애플리케이션을 갖춘 생태계로 성장했다. 생성형 AI는 PC에서 클라우드에 이르기까지 새로운 차원의 기능을 선보이고 있다. 또한 엔비디아는 축적된 AI 경험과 전문성으로 모든 사용자가 다양한 AI 기능을 처리하는 데 필요한 성능을 갖출 수 있도록 지원한다는 계획이다. AI 시스템은 데이터 내부의 경험이나 패턴을 학습한 다음 새로운 입력이나 데이터가 공급되면 스스로 결론을 조정할 수 있다는 장점을 가지고 있다. AI 시스템은 이러한 자가 학습을 통해 이미지 인식, 음성 인식, 언어 번역, 의료 진단, 자동차 내비게이션, 이미지와 영상 품질 향상 등 수백 가지의 다양한 작업을 수행할 수 있다. AI 진화의 다음 단계는 생성형 AI(generative AI)라고 하는 콘텐츠 생성이다. 이를 통해 사용자는 텍스트, 이미지, 사운드, 애니메이션, 3D 모델 또는 기타 유형의 데이터를 포함한 다양한 입력을 기반으로 새로운 콘텐츠를 빠르게 제작하고 반복할 수 있다. 그런 다음 동일하거나 새로운 형식의 콘텐츠를 생성한다.     AI PC는 AI를 더 빠르게 실행할 수 있도록 설계된 전용 하드웨어가 장착된 컴퓨터이다. 점점 더 많은 유형의 AI 애플리케이션이 클라우드가 아닌 디바이스에서 특정 AI 작업을 수행할 수 있는 PC를 필요로 하게 될 것이다. AI PC에서 실행하면 인터넷 연결 없이도 항상 컴퓨팅을 사용할 수 있고 시스템의 짧은 지연 시간으로 응답성도 높아진다. 아울러 사용자가 AI 활용을 위해 민감한 자료를 온라인 데이터베이스에 업로드할 필요가 없어 개인정보 보호가 강화된다는 이점도 있다. 3D 이미지가 로드될 때까지 가만히 앉아 기다리는 대신 AI 디노이저를 통해 이미지가 즉각적으로 업데이트되는 것을 볼 수 있다. RTX GPU에서는 이러한 전문 AI 가속기를 ‘텐서 코어(Tensor Core)’라고 한다. 텐서 코어는 업무와 게임 플레이에 사용되는 까다로운 애플리케이션에서 AI의 성능을 가속화한다. 현 세대의 지포스 RTX GPU는 대략 200 AI TOPS(초당 조 단위 연산)부터 1300 TOPS 이상까지 다양한 성능 옵션을 제공하며, 노트북과 데스크톱에 걸쳐 다양한 옵션을 지원한다. GPU가 없는 현 세대의 AI PC 성능은 10~45TOPS이다. 전문가들은 엔비디아 RTX 6000 에이다 제너레이션(RTX 6000 Ada Generation) GPU를 통해 더욱 높은 AI 성능을 얻을 수 있다. 엔비디아는 고성능의 RTX GPU와 함께 AI 업스케일링부터 개선된 화상 회의, 지능적이고 개인화된 챗봇에 이르기까지 모든 유형의 사용자에게 도움이 되는 도구를 제공한다고 소개했다. RTX 비디오는 AI를 사용해 스트리밍 영상을 업스케일링하고 HDR(하이 다이내믹 레인지)로 표시한다. SDR(표준 다이내믹 레인지)의 저해상도 영상을 최대 4K 고해상도 HDR로 생생하게 재현한다. RTX 사용자는 크롬 또는 엣지 브라우저에서 스트리밍되는 거의 모든 영상에서 한 번의 클릭으로 이 기능을 이용할 수 있다. RTX 사용자를 위한 무료 앱인 엔비디아 브로드캐스트(Broadcast)는 간단한 사용자 인터페이스(UI)를 통해 화상 회의, 라이브 스트리밍 개선 등 다양한 AI 기능을 제공한다. 노이즈와 에코 제거 기능으로 키보드 소리, 진공 청소기 소리, 아이들의 큰 목소리 등 원치 않는 배경 소리를 제거하고, 가상 배경을 사용해 더 나은 엣지 감지로 배경을 대체하거나 흐리게 처리할 수 있다. 챗 위드 RTX(Chat With RTX)는 사용하기 쉽고 무료로 다운로드가 가능한 로컬 맞춤형 AI 챗봇 데모이다. 사용자는 파일을 하나의 폴더에 끌어다 놓고 챗 위드 RTX에서 해당 위치를 가리키기만 하면 PC의 로컬 파일을 지원되는 대규모 언어 모델(LLM)에 쉽게 연결할 수 있다. 이를 활용하면 쿼리를 통해 상황에 맞는 답변을 빠르게 얻을 수 있다.  AI는 크리에이터들의 지루한 작업을 줄이거나 자동화해 순수 창작을 위한 시간을 제공하며 창의적인 잠재력을 실현하도록 돕는다. 이러한 기능은 엔비디아 RTX 또는 지포스 RTX GPU가 탑재된 PC에서 빠르게 혹은 단독으로 실행된다. 어도비 프리미어 프로의 AI 기반 음성 향상 도구는 불필요한 노이즈를 제거하고 대화 품질을 개선한다. 어도비 프리미어 프로(Adobe Premiere Pro)의 음성 향상 도구는 RTX로 가속화된다. 이는 AI를 사용해 불필요한 노이즈를 제거하고 대화 클립의 품질을 개선해 전문적으로 녹음된 것 같은 사운드를 구현한다. 또 다른 프리미어 기능으로는 자동 리프레임이 있다. 자동 리프레임은 GPU 가속화를 통해 영상에서 가장 관련성 높은 요소를 식별하거나 추적해 다양한 화면 비율에 맞게 영상 콘텐츠를 지능적으로 재구성한다. 영상 편집자의 시간을 절약해 주는 또 하나의 AI 기능으로 다빈치 리졸브(DaVinci Resolve)의 매직 마스크(Magic Mask)가 있다. 편집자가 한 장면에서 피사체의 색조와 밝기를 조정하거나 원치 않는 부분을 제거해야 하는 작업에서 매직 마스크를 활용하면 피사체 위에 선을 긋기만 해도 AI가 잠시 동안 처리한 후 선택 영역을 표시한다.  한편, AI는 확장 가능한 환경, 하드웨어와 소프트웨어 최적화, 새로운 API를 통해 개발자가 소프트웨어 애플리케이션을 구축하는 방식을 개선하고 있다. 엔비디아 AI 워크벤치(AI Workbench)는 개발자가 PC급 성능과 메모리 설치 공간을 사용해 사전 훈련된 생성형 AI 모델과 LLM을 빠르게 생성, 테스트, 맞춤화할 수 있도록 지원한다. 이는 RTX PC에서 로컬로 실행하는 것부터 거의 모든 데이터센터, 퍼블릭 클라우드 또는 엔비디아 DGX 클라우드(DGX Cloud)까지 확장할 수 있는 간편한 통합 툴킷이다. 개발자는 PC에서 사용할 AI 모델을 구축한 후 엔비디아 텐서RT를 사용해 모델을 최적화할 수 있다. 텐서RT는 RTX GPU에서 텐서 코어를 최대한 활용할 수 있도록 도와주는 소프트웨어이다. 윈도우용 텐서RT-LLM을 통해 텍스트 기반 애플리케이션에서 텐서RT 가속화를 사용할 수 있다. 이 오픈 소스 라이브러리는 LLM 성능을 향상시키고 구글 젬마 ,메타(Meta) 라마2(Llama 2), 미스트랄(Mistral), 마이크로소프트(Microsoft) Phi-2 등 인기 모델에 대해 사전 최적화된 체크포인트를 포함한다. 또한 개발자는 오픈AI(OpenAI) 채팅 API용 텐서RT-LLM 래퍼에도 액세스할 수 있다. 컨티뉴(continue.dev)는 LLM을 활용하는 비주얼 스튜디오 코드(VS Code)와 제트 브레인(JetBrains)용 오픈 소스 자동 조종 장치이다. 컨티뉴는 단 한 줄의 코드 변경만으로 RTX PC에서 로컬로 텐서RT-LLM을 사용해 로컬에서 빠르게 LLM 추론할 수 있는 도구이다.
작성일 : 2024-03-08
딥러닝 수치해석 데이터의 병렬처리를 지원하는 파이썬 넘바 라이브러리
BIM 칼럼니스트 강태욱의 이슈 & 토크   이번 호에서는 GPU CUDA(쿠다) 병렬처리를 지원하는 넘바(Numba) 라이브러리를 간략히 소개한다. CUDA는 현재 딥러닝 기술의 기반처럼 사용되며, 사실상 산업 표준이다. 딥러닝은 모든 연산이 텐서 행렬 계산이므로, 엔비디아 GPU에 내장된 수많은 계산 유닛(실수 계산에 특화된 CPU)들을 사용한다. CUDA의 강력한 수치해석 데이터 병렬처리 기능은 딥러닝뿐 아니라 디지털 트윈의 핵심인 시뮬레이션, 모델 해석 등에 필수적인 수치계산 엔진으로 사용된다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | http://www.facebook.com/groups/digestpodcast   CUDA는 내장된 수많은 계산 유닛에 입력 데이터를 할당하고, 행렬연산을 하여 출력된 데이터를 CPU 메모리가 접근할 수 있도록 데이터 고속 전송/교환하는 역할을 한다. 그러므로, 딥러닝 모델 학습 성능은 GPU CUDA 성능에 직접적 영향을 받는다. 이벙 호에서는 파이썬(Python)에서 CUDA를 이용해 수치해석 등 계산 성능을 극대화할 수 있는 방법과 간단한 예제를 살펴본다.   그림 1. CUDA 아키텍처(출처 : Multi-Process Service : GPU Deployment and Management Documentation)   GPU CUDA 소개 CUDA는 게임 화면에 렌더링되는 3차원 이미지를 2차원 픽셀에 매핑하기 위한 수많은 행렬을 실시간 처리할 수 있도록 개발되어 왔다. 이런 이유로, 행렬 고속 연산이 필요한 딥러닝 학습에 적극 사용된 것이다.   그림 2. CUDA 기반 실시간 텐서 행렬 연산 결과   CUDA는 오랫동안 개발자의 요구사항을 반영해 발전되어, 개발 플랫폼으로서 탄탄한 생태계를 구축했다.   그림 3. 엔비디아 개발자 사이트   그림 4. CUDA 기반 레이트레이싱 렌더링 결과(출처 : Ray Tracey's blog : GPU path tracing tutorial 3 : GPU)   사실, 많은 스타트업이 이런 기능을 지원하는 딥러닝용 AI 칩을 FPGA 기법 등을 이용해 개발, 홍보하고 있으나, 이런 개발자 지원도구와 플랫폼 생태계 없다면 산업계에서는 의미가 없다고 볼 수 있다.   넘바 소개 넘바는 파이썬 기반 CUDA GPU 프로그래밍을 지원한다. 넘바는 컴파일 기술을 지원하여 CPU와 GPU 모드에서 코딩되는 데이터 구조, 함수 호출을 추상화한다. 넘바는 엔비디아의 CUDA 함수와 설정을 래핑한 고수준의 함수 API를 제공한다. 이를 통해 개발자가 CUDA의 세부 설정에 신경쓸 필요 없이, 데이터 병렬 처리 개발에만 집중할 수 있다.   개발 환경 넘바의 개발 환경은 다음과 같다. NVIDIA Compute Capability 5.0 이상 CUDA 지원 GPU 장착 PC(2023년 12월 시점) NVIDIA CUDA 11.2 이상 NVIDIA TX1, TX2, 자비에, 젯슨 나노 GTX 9, 10, 16 시리즈. RTX 20, 30, 40 시리즈. H100 시리즈 CONDA 환경의 경우, 다음과 같이 터미널을 이용해 CUDA 툴킷을 자동 설치할 수 있다. conda install cudatoolkit 넘바는 cuda python을 이용해 엔비디아 GPU CUDA와 바인딩한다. conda install nvidia::cuda-python 설치 방법은 다음과 같다. conda install numba   ■ 상세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2024-02-02
멀티피직스 해석, samadii/dem
멀티피직스 해석, samadii/dem   주요 CAE 소프트웨어 소개   ■ 개발 : 메타리버테크놀러지, www.metariver.kr  ■ 자료 제공 : 메타리버테크놀러지, 070-7523-1685, www.metariver.kr 메타리버테크놀러지에서는 Discrete Element Method를 사용한 고체입자해석 제품인 samadii(사마디)/dem, 고진공유동 및 증착해석 제품인 samadii/sciv 를 2011년 출시한 이후 기계, 전자, 화공, 디스플레이, 반도체, 건설 등 다양한 산업 분야에 입자 기반의 멀티피직스 솔루션을 제공해 오고 있다.  1. 적용 분야 ■ 건설, 농업,광업분야의 토양해석 등 고체입자의 거동해석 ■ 철광 제철프로세스 해석 ■ 집진설비, 필터링 등 유동장과 입자의 복합거동해석 ■ 화공, 제약공정에서의 혼합,분리, 반응해석 2. 주요 특징  ■ 대량(수십만 ~ 수백만개 이상)의 고체입자를 수반하는 시스템의 거동해석 ■ 고체입자간 다양한 접촉모델을 기반으로 각 입자의 6자유도 거동을 고려한 상호작용을 계산 ■ 운동학(Kinematics)을 기반으로 운동하는 기구 구조물 파트의 운동을 계산, 처리 ■ Conveying body를 사용하여 벨트나 반복적으로 부탁된 버킷 등 입자이송 메커니즘을 간편히 구현 가능 ■ 기구 구조물의 동력학적 특성을 계산하기 위해서, 범용 다물체동력학 해석솔루션과의 연계해석 인터페이스 지원 ■ 자성입자, 입자간의 습윤 및 점성효과를 비롯한 입자간의 반응관계 적용가능 ■ 외부 범용 프로그램에서 계산한 유동장 또는 전자기장 해석결과를 import하여 연계해석 가능 ■ 거동중 기구 구조물과 입자들에 작용하는 접촉력 및 누적충격량, 개별 입자들의 시간에 따른 경로, 입자의 벡터필드 등 다양한 후처리 기능 제공 3. 주요 기능 ■ Pre/Post Processor : 전후처리기 ■ DEM Kernel : 입자의 6자유도를 고려한 거동해석 핵심 솔버 ■ MBM (Multi-body motion) Kernel : 기구구조물의 운동을 표현하기 위한 Kinematic kernel ■ Conveying body toolkit : 벨트 또는 체인 등에 반복 장착된 버킷등을 구현하기 위한 툴킷 ■ Multi-physics particle toolkit : 전자기입자 적용, 외부 프로그램에서 계산된 유동장 또는 전자기장 결과를 import하여 연계해석하기 위한 툴킷 ■ VPS(Virtual Particle system) toolkit : 가상입자시스템, 매우 작은 입자와 매우 큰 입자의 혼합 거동시 발생하는 초 거대문제를 해석하기 위한 가상입자 처리 모듈 ■ Matlab/Simulink co-simulation interface (SAMADII/cube)     좀더 자세한 내용은 'CAE가이드 V1'에서 확인할 수 있습니다. 상세 기사 보러 가기 
작성일 : 2023-12-31
마이크로소프트, 교육기관 위한 코파일럿 확장해 미래 AI 교육 환경 구축
마이크로소프트가 교육기관을 위한 마이크로소프트 코파일럿(Microsoft Copilot) 확장 소식을 발표하면서, 미래 AI 교육 환경 구축에 나선다고 밝혔다. 마이크로소프트는 다양한 교육 기관과 협력해 학생들이 AI 중심의 미래를 준비하도록 돕고 있다. 이러한 노력은 마이크로소프트의 AI 원칙과 책임 있는 AI 표준에 따라 이뤄지며, 개인정보 보호에 대한 수십 년간의 머신러닝 연구를 기반으로 한다. 또한 고객을 위한 저작권 약속(Customer Copyright Commitment)을 통해 저작권 침해에 대해 걱정 없이 결과물을 사용할 수 있도록 지원한다. 마이크로소프트는 업무용 AI 기반 채팅 서비스인 빙챗 엔터프라이즈(Bing Chat Enterprise)를 코파일럿으로 리브랜딩했는데, 이번에 코파일럿의 상용 데이터 보호 자격이 18세 이상 학생과 모든 교직원으로 확대된다. 이에 해당하는 사용자 및 조직은 데이터를 보호할 수 있으며, 채팅 내용은 저장되지 않고 대규모 언어 모델 학습 사용에서도 배제된다. 사용자는 코파일럿을 통해 추가 비용 없이 GPT-4 및 달리 3 모델 등에 액세스할 수 있다. 변경 사항은 2024년 초부터 학교 계정으로 로그인 시 적용된다.      IT 관리자 권한도 강화된다. 초·중·고·대학 등으로 학교를 분류할 수 있으며, 코파일럿 서비스 플랜을 활용할 수 있다. 연령별 그룹 분류 권한도 갖게 되며, 자체 사용 약관을 만들어 코파일럿 사용자 액세스를 관리하고 제어할 수도 있다. 관리자는 마이크로소프트 런(Microsoft Learn) 및 채택 리소스(adoption resources)에서 코파일럿 관리 방법에 대해 더 많은 정보를 확인할 수 있다. 또한, 사용자당 월 30달러에 제공되는 엔터프라이즈용 마이크로소프트 365 코파일럿 사용 옵션이 교직원까지 확대한다. 마이크로소프트는 이를 통해 기존 비즈니스 고객뿐만 아니라 교수진과 연구원, IT 전문가와 관리자까지 새로운 업무 방식을 구현할 수 있을 것으로 기대하고 있다. 이는 마이크로소프트365 A3 및 A5 버전을 사용하는 교직원을 대상으로 2024년 1월부터 적용된다.  마이크로소프트는 AI 리터러시(AI literacy) 구축을 위한 교육 자료와 기회를 지속 개발할 계획이다. 이야기와 교육 정보를 결합해 흥미롭고 효과적인 학습 경험을 제공하는 새로운 AI 클래스룸 툴킷(AI Classroom Toolkit)을 출시해, 교육자가 생성형 AI를 안전하게 사용하는 방법을 지도할 수 있도록 지원하겠다는 것이다.  최근에는 다양한 연령층이 책임 있는AI를 보다 쉽게 이해할 수 있는 교육 프로그램 마인크래프트 아워 오브 코드(Minecraft Hour of Code: Generation AI)도 출시했고, 코파일럿 기능을 배우고 실습할 수 있는 마이크로소프트 런 모듈(Microsoft Learn module)도 선보였다.  한편, 마이크로소프트는 코파일럿에 고급 기능을 추가하는 등 새로운 시나리오를 지속 업데이트하고 있으며, 곧 출시될 신규 기능을 통해 학생들이 학습에 더 효율적으로 활용할 수 있을 것으로 기대하고 있다. 새롭게 추가되는 기능은 ▲GPT-4 터보(GPT-4 Turbo) ▲새로운 달리 3 모델(New DALL-E 3 model) ▲멀티모달과 서치 그라운딩(Multi-Modal with Search Grounding) ▲코드 인터프리터(Code Interpreter) 등이 있다.
작성일 : 2023-12-28
마이크로소프트, 새로운 'AI 스킬 이니셔티브'로 AI 기술 격차 해소 나서
마이크로소프트가 지난 6월 새로운 AI 스킬 이니셔티브(AI Skills Initiative)를 발표한 이후, 한국을 포함해 글로벌 AI 기술 격차 해소에 속도를 내고 있다고 밝혔다.    오늘날 AI 기술은 전 세계 근로자의 역량을 높일 수 있는 가장 중요한 능력으로 꼽히고 있다. 실제로 세계경제포럼(World Economic Forum)은 AI 기술 활용 능력이 분석적, 창의적 사고에 이어 세 번째로 기업 교육 전략의 우선순위를 차지한다고 발표한 바 있다. 마이크로소프트의 업무동향지표(Work Trend Index) 2023에 따르면, 전체 응답자의 70%가 업무량을 줄이기 위해 가능한 많은 업무를 AI에게 위임할 것이라고 답했으며, 직원들에게 새로운 AI 스킬이 필요하다고 응답한 리더 그룹은 82%에 달했다. 한국을 포함한 전 세계 31개국 31,000명이 설문에 참여했다. 마이크로소프트는 직무 역량 강화 프로그램(Skills for Jobs program)을 통해 전 세계 사람들이 디지털 경제에서 가장 수요가 높은 직업을 찾을 수 있도록 지원해 왔다. 해당 프로그램 중 하나인 새로운 AI 스킬 이니셔티브는 링크드인(LinkedIn)과 함께 개발한 생성 AI(Generative AI) 무료 교육 과정과 전문가 인증서 과정을 포함하며, data.org와 협력해 조직이 새로운 생성 AI 교육 방법을 개발할 수 있도록 지원한다.  먼저 마이크로소프트는 온라인 AI 학습 콘텐츠 최초로 생성 AI 무료 교육 및 인증서 과정을 출시했다. 교육 과정에는 AI 입문 개념과 책임 있는 AI 프레임워크가 포함되며, 평가를 통과한 수강자는 커리어 에센셜(Career Essentials) 인증서를 받을 수 있다. 해당 교육 과정은 올해 6월부터 링크드인 러닝(LinkedIn Learning)을 통해 오픈됐으며, 오는 2025년까지 무료 수강이 가능하다. 이와 함께 교사, 트레이너 등 AI 교육자를 위한 툴킷(Toolkit)도 출시했다. 여기에는 마이크로소프트 에듀케이션에서 개발한 교육자용 AI 과정과 실제 AI 사용법에 대한 콘텐츠가 포함되며, 마이크로소프트 런 AI 스킬 챌린지(Microsoft Learn AI Skills Challenge)를 통해 마이크로소프트 제품 및 서비스를 활용한 필수 AI 기술도 배울 수 있다. 한편 디지털 소외 계층을 위한 재정적 지원과 AI 기술 교육 혜택도 제공한다. 이를 위해 마이크로소프트는 data.org,  AI 포 굿 랩(AI for Good Lab), 깃허브(GitHub)와 함께 비영리 단체, 사회적 기업, 학계, 연구 기관 등 생성 AI 기술 향상이 필요한 단체를 대상으로 생성 AI 스킬 챌린지(Generative AI Skills Challenge)를 진행했다. 93개 나라에서 600여개의 단체가 지원했으며, 지난달 5개 단체가 수상자로 발표됐다. 수상자는 재정 지원과 마이크로소프트 AI 전문가의 기술 지침 및 데이터 교육을 받게 된다. 한국에서도 AI 스킬 이니셔티브가 활발히 전개되고 있다. 한국마이크로소프트는 한국폴리텍대학과 AI 교육 환경 구축을 위한 업무협약을 체결, 교직원 및 학생 AI 인재 양성을 지원한다. 이를 통해 교원 연수 과정에 AI 역량 강화 프로그램을 포함하고, 전국 40개 폴리텍 캠퍼스 대학생 1,000여명에게 전공 과목에 맞는 AI 기술을 배울 수 있도록 돕는다. 이와 함께 부산 캠퍼스 및 특성화고 학생 대상 AI 교육도 실시한다. 나아가 비영리 단체와 사회적 기업에게 AI 교육을 지원, 이들이 목표와 비전을 수행하는 데 폭넓은 기회와 도움을 제공한다. 마이크로소프트는 한국자선단체협의회가 140여개 비영리 단체 800명 임직원에게 AI 리더십 교육과 직원 대상 AI 스킬 프로그램을 제공할 수 있도록 돕는다.  또한 비영리 사단법인 루트임팩트(Root Impact)와 함께 비영리 및 사회적 기업의 △임원진 AI 교육 △직원 AI 역량 강화 두 가지 프로그램을 진행, 100여개 조직에서 근무하는 1,000명 이상의 AI 역량을 강화할 계획이다. 이외에도 비영리 소셜벤처 점프(JUMP)를 지원, 대학생 및 직장인 1,000명과 지역 청소년 4,000여명에게 AI 교육 기회를 제공한다. 이를 위해 교육봉사 멘토 온보딩 과정에 AI 교육 프로그램을 포함, 100여개 아동청소년 돌봄 기관 4,000여명의 청소년의 AI 스킬 역량 향상을 돕는다. 한국마이크로소프트 조원우 대표는 “AI 기술에는 무한한 잠재력이 내재돼 있다”며, “AI 기술의 혜택을 받아 풍요로운 삶을 누리기 위해서는 이를 더 효과적이고 윤리적으로 사용할 수 있는 숙련된 스킬이 필요하다”고 강조했다. 이어 “한국마이크로소프트는 AI 기술 교육에서 소외되기 쉬운 이들이 보다 나은 미래를 꿈꿀 수 있도록 지원하는 다양한 프로그램을 확대해 나갈 것”이라고 전했다. 
작성일 : 2023-12-14
Arm, 업계 리더와 협력해 미래 AI 기반 구축 추진
Arm은 AI(인공지능) 혁신을 촉진하고 AI 기반 경험을 현실화하기 위해 다양한 새로운 전략적 파트너십에 참여하고 있다고 소개했다. AI의 확산은 하드웨어와 소프트웨어 혁신 간의 지속적인 조율에 달려 있다. 이러한 결합은 에지에서 워크로드를 실행하는 작은 센서부터 대형 언어 모델(LLM) 학습을 위해 복잡한 워크로드를 처리하는 가장 큰 서버에 이르기까지 모든 기술의 접점에서 AI 기능을 향상시킨다. 에코시스템이 AI의 진정한 잠재력을 실현하기 위해 움직임에 따라 보안, 지속 가능성, 데이터 한계 등이 모두 어려운 과제가 될 것으로 보인다. 이에 따라 Arm은 에지에서 더 많은 추론을 포함하여 대규모로 AI를 구현할 수 있도록 업계 전반의 협업을 지속적으로 모색하는 것이 중요하다고 보고 있다.  Arm은 이미 개발이 진행되고 있는 자체 기술 플랫폼 외에도 AMD, 인텔, 메타, 마이크로소프트, 엔비디아, 퀄컴 테크놀로지 등 선도적인 기술 기업과 협력하여 보다 반응이 빠르고 안전한 사용자 경험을 위한 고급 AI 기능을 구현하는 데 중점을 둔 다양한 이니셔티브를 진행하고 있다. 이러한 파트너십은 컴퓨팅의 모든 영역에서 차세대 AI 경험을 제공하기 위해 1500만 명 이상의 Arm 개발자들에게 필요한 기본 프레임워크, 기술 및 사양을 제공하게 된다. Arm은 수년 동안 에지에서 AI를 제공하는 데 주력해 왔다. Arm에 따르면, 스마트폰 분야에서 서드파티 AI 애플리케이션의 70%가 Arm CPU에서 실행되고 있다. 그러나 지속 가능한 방식으로 AI를 제공하고 데이터를 효율적으로 이동하는 방법을 모색함에 따라 업계는 에지에서 AI 및 머신러닝(ML) 모델을 실행하도록 발전해야 한다. 한편, 개발자는 점점 더 제한된 컴퓨팅 리소스로 작업하고 있기 때문에 이는 어려운 과제다. Arm은 엔비디아와 협력하여 Ethos-U NPU용 로코드 오픈소스 AI 툴킷인 TAO를 적용하고 있으며, 이는 프로세서에 배포할 목적으로 성능에 최적화된 비전 AI 모델을 생성할 수 있도록 지원한다. 엔비디아 TAO는 대표적인 무료 오픈소스 AI 및 ML 프레임워크인 텐서플로(TensorFlow)와 파이토치(PyTorch)를 기반으로 구축에 사용하기 쉬운 인터페이스를 제공한다. 개발자에게 이는 모델을 쉽고 원활하게 개발 및 배포하는 동시에 더 복잡한 AI 워크로드를 에지 디바이스로 가져와 향상된 AI 기반 경험을 제공할 수 있음을 의미한다. AI의 지속적인 성장에 있어 중요한 측면은 에지에서의 뉴럴 네트워크 배포를 발전시키는 것이다. Arm과 메타는 ExecuTorch를 통해 에지에 있는 Arm 기반 모바일 및 임베디드 플랫폼에 파이토치를 제공하기 위해 노력하고 있다. 개발자는 ExecuTorch를 사용하여 모바일 및 에지 디바이스 전반에서 고급 AI 및 ML 워크로드에 필요한 최첨단 뉴럴 네트워크를 훨씬 더 쉽게 배포할 수 있다. 앞으로 Arm과 메타의 협력을 통해 파이토치 및 ExecuTorch를 활용하여 AI와 ML 모델을 쉽게 개발하고 배포할 수 있다. 메타와의 협력은 Arm이 이미 AI 및 ML 가속기를 위한 공통 프레임워크를 제공하고 딥 뉴럴 네트워크에서 사용되는 광범위한 워크로드를 지원하는 Tensor Operator Set Architecture(TOSA)에 투자한 상당한 성과를 기반으로 한다. TOSA는 Arm 아키텍처에 구축된 다양한 프로세서와 수십억 개의 디바이스를 위한 AI 및 ML의 초석이 될 것이다. 한편 Arm은 상대적으로 저렴한 비용으로 AI를 확장할 수 있도록, AI 워크로드에 초점을 맞춘 다양한 새로운 소형 데이터 유형을 지원하기 위해 노력해왔다. Arm, 인텔, 엔비디아는 2022년 공동 협력을 통해 새로운 8비트 부동소수점 사양인 ‘FP8’을 발표했다. 이후 해당 사양은 탄력을 받으며 AMD, Arm, 구글, 인텔, 메타, 엔비디아로 참여 기업 그룹이 확대되었으며, 함께 공식 OCP 8비트 부동소수점 사양(OFP8)을 개발했다. Arm은 최신 A-프로파일 아키텍처 업데이트에서 이 표준에 부합하는 OFP8을 추가하여 업계 전반의 뉴럴 네트워크에 OFP8이 빠르게 채택될 수 있도록 지원했다. OFP8은 소프트웨어 에코시스템에서 뉴럴 네트워크 모델을 쉽게 공유할 수 있도록 하는 8비트 데이터 형식으로, 수십억 개의 디바이스에서 AI 컴퓨팅 기능을 지속적으로 발전시킬 수 있도록 지원한다. 개방형 표준은 AI 에코시스템에서 혁신, 일관성 및 상호 운용성을 촉진하는 데 매우 중요하다. 이러한 표준에 대한 업계의 협력을 지속적으로 지원하기 위해 Arm은 최근 AMD, Arm, 인텔, 메타, 마이크로소프트, 엔비디아 및 퀄컴 테크놀로지가 포함된 Microscaling Formats(MX) 얼라이언스에 가입했다. MX 얼라이언스는 최근 수년간의 설계 공간 탐색 및 연구를 기반으로 마이크로스케일링으로 알려진 새로운 기술 사양을 공동 개발했으며, 이는 AI 애플리케이션의 소형 비트(8비트 및 8비트 미만) 훈련 및 추론을 위한 세분화된 확장 방식이다. 이 사양은 이러한 소형 비트 데이터 형식을 표준화하여 업계 전반의 단편화를 제거하고 확장 가능한 AI를 구현한다. MX 얼라이언스는 협업의 정신으로 하이퍼스케일 데이터 센터 운영자 및 기타 컴퓨팅 인프라 업계 관계자들로 구성된 오픈 컴퓨트 프로젝트를 통해 라이선스 없는 개방형 MX 사양을 공개하여 업계의 광범위한 채택을 장려했다. 이는 에코시스템 전반에서 확장 가능한 AI 솔루션에 대한 공평한 액세스를 제공해야 할 필요성을 인식한 결과다.
작성일 : 2023-11-16
리커다인 2024 : 솔버 성능과 접촉 해석 속도 향상된 다물체 동역학 해석 소프트웨어
개발 및 공급 : 펑션베이 주요 특징 : 지속적인 솔버 개발을 통해 Static 솔버의 수렴성 향상, 접촉 해석 속도 향상, FFlex Static 신규 출시, Linked Assembly 툴킷 신규 출시, 지오메트리의 관계에 따른 메시 자동 업데이트, 부력 및 Gap Force 추가, 유연체 간 열전달 계산, Pre-Stress가 적용된 셸 요소 생성, DriveTrain 개선 등 사용 환경(OS) : 윈도우 10/11(64비트)     2023년 11월 출시된 리커다인(RecurDyn) 2024는 지난 리커다인 2023에서 2년여의 지속적인 연구 개발을 통해 N-R Static 솔버 성능과 접촉 해석 속도가 향상되었다. 이번 리커다인 2024에서도 지속적인 솔버의 연구 개발을 통해 Static 솔버의 수렴성이 개선되었으며, 접촉 성능 또한 향상되었다. 이러한 솔버 성능 개선을 통해 유연체를 포함한 MFBD(Multi Flexible Body Dynamics) 모델의 정적 해석을 수행하는 기능인 FFlex Static이 새롭게 추가되었다. 또한, 새로운 힘 요소인 부력과 Gap Force가 추가되었으며, 유연체 간 열전달을 계산할 수 있는 Thermal Contact도 새롭게 추가되었다. 그리고 일반 CAD 지오메트리를 이용하여 체인, 무한궤도, 고무트랙, 벨트, 케이블 체인과 같은 어셈블리를 손쉽게 모델링하고 해석할 수 있는 Linked Assembly 툴킷이 새롭게 추가되었다.   솔버 기능 강화 Static 솔버 개선 및 FFlex Static 리커다인 솔버는 매 버전마다 개선을 거듭하고 있다. N-R Static 솔버의 경우 최근 3년여의 연구 개발을 통해 성능이 대폭 향상되었다. 안정적이고 정확하게 정적 평형상태를 계산할 수 있으며, 강체와 RFlex 보디(Modal method)는 물론 FFlex 보디(Nodal method)가 포함된 비선형 MFBD 모델의 정적 해석 수렴성도 대폭 강화되었다.     특히, FFlex 보디가 포함된 모델의 정적 해석을 수행할 수 있는 FFlex Static이 새롭게 추가되어 유연체에 대한 구조 해석을 통해 정적 상태의 변형 및 응력 확인이 가능하며, FFlex 보디의 Self-Contact는 물론 다른 보디 간의 접촉까지 고려한 MFBD 모델의 정적 해석을 지원한다. 또한, 유연체의 변형된 형상이 필요한 경우, 정적 해석과 Extract 기능을 활용하면 손쉽게 변형된 형상을 만들 수 있다.     이를 통해, 자동차, 굴착기와 같은 모델의 초기 평형 상태를 사전에 계산함으로써, 해석 속도와 정확도를 개선하고 동적 조건을 고려하기 전 정적 해석을 이용한 사전 튜닝을 통해 전체적인 해석 시간을 절감할 수 있다. 또한, 관성의 효과가 작은 모델의 경우 준정적 해석(quasi-static analysis)을 이용하여 모델의 거동을 빠르게 확인할 수 있으며, 시스템의 가동 범위(range of motion)나 보디 간의 간섭을 정적 해석으로 예측할 수 있다.     접촉 해석의 다중 프로세서 처리 확대 다중 프로세서 처리(SMP) 지원과 알고리즘 개선을 통해 대폭 향상된 성능을 보여준 기존 Geo Surface Contact 요소에 이어, 이번 리커다인 2024에서는 Geo Sphere/Cylinder/Curve(3D, 2D)/Circle(2D) Contact 요소까지 다중 프로세스 처리를 확대 지원하게 되었다. 리커다인 2024에서 별도의 모델 수정 없이 향상된 접촉 성능이 적용된다.   ▲ SMP를 통한 접촉 해석 성능 향상   또한, 커브(curve)의 3차원 접촉 모델링에 최적화된 Geo Curve 3D와 Geo Sphere to Curve 3D가 새롭게 추가되어 빔(beam) 케이블이나 베어링과 같이 커브 혹은 서클(circle) 형상을 가지는 기계 부품의 3차원을 고려한 접촉해석을 더욱 빠르고 정확하게 수행할 수 있다.   ▲ 빔 케이블의 접촉 모델   MFBD 기능 강화 Thermal Contact 유연체의 열전도에 의한 열응력을 MFBD 해석에 실시간으로 적용할 수 있는 FFlex Thermal 기능에 Thermal Contact가 새롭게 추가되었다. Thermal Contact는 전도에 의한 두 유연체 사이의 열전달을 계산하는 기능이다. 이 기능을 통해 서로 다른 부품 간 열전도, 열팽창 및 열응력을 고려할 수 있다. 예를 들어 모터와 같이 회전자에 열에너지가 발생하고 고정자로 전달되는 경우를 Thermal Contact 기능을 이용하여 모델링하고 결과를 확인할 수 있다.   ▲ Thermal Contact를 활용한 열전도 모델   지오메트리 연결 관계를 통한 메시 자동 업데이트 리커다인 2024에서는 메셔(Mesher)에 Surface Mesh 기능을 추가하고 기능을 강화하여 기존 지오메트리 연결관계에 따른 형상 자동 업데이트 기능을 메시에도 확장 적용하였다. Surface Mesh를 통해 생성한 셸 요소를 기반으로 솔리드(solid) 요소를 생성하면 커브 형상 등의 기반이 되는 지오메트리 수정을 통해 솔리드 요소까지 자동으로 업데이트할 수 있다.     셸 요소의 Pre-Stress 리커다인 2024에서는 손쉽게 Pre-Stress가 적용된 셸 요소를 생성할 수 있게 되어 복잡한 형상의 메시에도 Pre-Stress를 적용할 수 있게 되었다. 이 기능을 통해 모델링 시간도 크게 줄일 수 있다.   ▲ Pre-Stress가 적용된 웹 핸들링 모델   Professional(MBD) 기능 강화 Buoyancy Force(부력) 부력을 계산할 수 있는 Buoyancy Force가 새롭게 추가되었다. 수면 및 유속 방향의 기준 좌표와 부력 대상이 될 보디를 선택하여 부력을 적용할 수 있으며, 강체와 유연체에 모두 적용할 수 있다. 또한, 부력 계산을 위한 다양한 유체 속성 정보를 설정할 수 있으며, 시간에 따라 유속 크기가 변화하는 것도 표현할 수 있다.   ▲ 부력을 적용한 해상 크레인 모델   CFD 연성 해석을 수행하지 않고도 부력을 적용할 수 있기 때문에, 복잡한 유동은 고려할 필요 없이 부력만 적용하면 되는 모델을 빠르게 시뮬레이션할 수 있다.   Gap Force 보디와 보디 사이에 사용자가 지정한 간격을 유지하도록 두 보디 양쪽에 힘을 가하는 Gap Force 요소가 새롭게 개발되었다. 각 보디의 위치 및 자세가 변경되어 사용자가 지정한 간격보다 커지거나 작아지면 지정된 간격을 유지하도록 Action Body에 힘이 가해진다. Gap Force를 이용하여 공력이나 자력에 의해 부품이 떠 있는 모델을 만들어 시뮬레이션할 수 있다. 예를 들어, 에어 베어링이나 마그네틱 베어링으로 부품 간의 접촉을 방지한 리니어 가이드 등을 모델링할 수 있다.   ▲ Gap Force를 이용한 리니어 가이드 모델   툴킷 기능 강화 Linked Assembly 리커다인 2024에서 새롭게 추가된 Linked Assembly는 일반 CAD 지오메트리를 이용하여 체인(Chain), 무한궤도(Caterpillar), 고무트랙(Rubber Track), 벨트(Belt), 케이블 체인(Cable Chain) 같은 어셈블리를 생성할 수 있는 모델링 자동화 및 해석 툴킷이다. 어셈블리를 생성할 때 Contact, Force와 같은 연결 관계도 자동화 기반으로 쉽게 생성할 수 있다. 이를 통해 다양한 형상 또는 더욱 정밀한 형상으로 어셈블리 시스템을 만들고 동역학 해석을 할 수 있다.     또한, Assembly Body의 특정 부분이나 Passing Body, Guide를 손쉽게 유연체로 변환하고 MFBD 해석도 수행할 수 있다.     DriveTrain 개선 DriveTrain에 내장된 KISSsoft가 최신 버전으로 업그레이드되어 향상된 KISSsoft 기능을 활용할 수 있다. 또한 선기어를 제외한 유성기어를 모델링할 수 있도록 개선되었으며, KISSsoft의 Z70(베벨 기어)과 Z80(웜 기어)의 CAD 형상을 생성할 수 있다.   ▲ 선기어를 제외한 유성기어 모델   그리고 랙&피니언(rack&pinion)에 대한 Involute Contact를 지원한다. 이를 통해 보다 빠른 접촉 해석이 가능하게 되었으며, 필요한 기어쌍의 접촉만을 계산함으로써 효율적인 해석을 수행하는 것도 가능해졌다.   ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2023-11-02
펑션베이, 유저 콘퍼런스에서 리커다인과 파티클웍스의 신기능 및 활용 사례 소개
펑션베이는 지난 10월 19일 그래비티 서울 판교 호텔에서 ‘2023 리커다인 유저 콘퍼런스’를 개최했다. 이 행사에서 펑션베이는 유저 편의성 및 솔버 성능이 향상된 동역학 해석 소프트웨어 리커다인(RecurDyn)의 최신 버전과 활용사례, 입자법 CFD 소프트웨어인 파티클웍스(Particleworks)를 활용한 열해석 사례 등을 소개했다. 또한 유연 다물체 동역학 기술을 기반으로 한 새로운 정적 해석 솔버를 통해 제조 분야의 생산성과 가치를 높여 나갈 것이라고 밝혔다. 리커다인 2024에서는 솔버의 성능 강화를 포함하여, 다양한 사용자 편의 기능, MFBD(Multi Flexible Body Dynamics) 관련 기능 등에서 많은 개선이 이루어졌으며, 트랙이나 벨트, 체인 등을 모델링하고 시뮬레이션하는데 유용한 새로운 툴킷인 링크드 어셈블리(Linked Assembly)도 함께 출시되었다. 또한 RecurDyn 2024에서는 솔버의 접촉 해석 기능이 강화되어, 구체나 실린더 형상의 접촉 계산 속도가 빨라졌다. 그리고 3차원 접촉이 가능한 커브의 접촉 모델이 개발되어, 케이블이나 베어링과 같은 모델에서 유용하게 활용될 수 있게 되었다. 이번에 출시된 파티클웍스(Particleworks) 8.0에서는 서로 다른 크기의 입자를 동시에 해석함으로써, 보다 효율적인 해석이 가능하게 되었다. 그리고 MPFI(Moving Particle Fully Implicit)라는 새로운 기법을 도입하여 낮은 레이놀즈수, 높은 압력 조건에서 상대적으로 큰 time step을 이용할 수 있게 되었다. 이 외에도 표면 장력을 보다 정확하게 계산하기 위한 성능 개선, 눈이나 흙의 해석을 위한 빙햄 모델 지원, 공력 해석 기능의 추가 등 다양한 신기능과 개선 사항이 포함되었다.     펑션베이의 윤준식 박사는 이번 콘퍼런스에서 그동안 꾸준히 발전해 온 리커다인 솔버의 역사와 향후 연구 과제에 대해서 소개했다. 그리고 "지난 20여 년간 고객과의 소통과 피드백이 솔버의 개발과 유지 보수에 많은 밑바탕이 되어왔으며, 앞으로도 고객이 만족할 수 있는 성능의 솔버를 제공하는 것을 최우선시하겠다"고 밝혔다. 이어서 펑션베이 기술사업팀의 이정한 박사는 동역학 해석의 영역을 넘어 유연 다물체 동역학(MFBD)의 정적 해석을 지원할 수 있는 리커다인의 정적 해석 솔버, ‘FFlex Static’를 소개하고, 이를 통해 얻을 수 있는 장점과 다양한 활용 방안에 대해 소개했다. 이정한 박사는 “동역학 솔버도 물론 중요하지만, MFBD 시스템의 정적 해석을 계산할 수 있는 FFlex Static을 통해 업무의 효율성을 크게 증대시킬 수 있다”고 소개했다. 이외 함께, 이번 콘퍼런스에서는 다양한 고객 활용 사례도 소개됐다. 전북대학교의 임재혁 교수는 ‘Real-time & Physics-informed Multi-Body Dynamics Simulation and Animation’이라는 주제로 기조 발표를 진행했다. 이 발표에서는 게임, 영화 등에서 활용되는 CAE 기술 및 제조업에서 활용하는 CAE 와의 차이점에 대해서 이야기했다. 또한 Real-time data-driven FMBD simulation과 Physics-informed AI 기술 등 최신 CAE 동향에 대해서도 소개했다. 그리고 HL 만도, 충남대학교, 현대모비스, 세종중앙연구소, HD한국조선해양, LG전자, 현대자동차, 세일공업, POSCO 등 다양한 분야의 고객사가 리커다인을 활용한 사례를 소개했다. 펑션베이 영업팀의 신동협 팀장은 “펑션베이는 세계에서 유일하게 다물체 동역학 해석에 전념하는 CAE 기업으로서 보다 많은 책임감을 느끼고 있다. 국산 소프트웨어로서 CAE 기반 기술의 자주성을 지키면서도 고객들에게 보다 나은 솔루션과 서비스를 제공할 수 있도록 최선을 다하겠다”고 전했다.
작성일 : 2023-10-26
인텔, 업계 최초 AI PC 가속화 프로그램 출시
  인텔은 지난 10월 9월 인텔 이노베이션 2023(Intel Innovation 2023) 행사에서 공유한 AI PC 사용 사례를 기반으로 AI PC 가속화 프로그램을 공개했다.  본 프로그램은 PC 업계 전반에서 AI 개발 속도를 높이기 위해 설계된 혁신 이니셔티브다. 본 프로그램의 목표는 독립 하드웨어 벤더(IHV) 및 독립 소프트웨어 벤더(ISV)를 AI 툴체인, 공동 엔지니어링, 하드웨어, 설계 자원, 기술 전문성 및 공동 마케팅 기회 등 인텔이 보유한 자원과 연결하는 것이다. 생태계 파트너들은 이러한 자원을 바탕으로 인텔 코어 울트라 프로세서 기술 및 해당 하드웨어를 최대한 활용해 AI 및 머신 러닝(ML) 애플리케이션 성능을 극대화할 수 있다. 또한, 새로운 사용 사례 개발을 가속화하고 AI PC 생태계에서 발전하는 솔루션과 PC 산업 전반을 연결할 수 있도록 지원한다. 자세한 내용은 AI PC 가속화 프로그램 홈페이지에서 확인할 수 있다. AI PC 시대 AI PC의 등장으로 AI 및 머신러닝 알고리즘으로 강화된 소프트웨어 이용 가능성이 증가하는 등 PC 산업은 변곡점을 맞고 있다. 이러한 응용 프로그램은 예술을 창조하고, 음악을 만들고, 지식을 합치고, 더욱 스마트하게 일할 수 있도록 지원한다. 인텔은 CPU, GPU및 NPU를 위한 강력한 아키텍처를 활용해 AI 소프트웨어의 전력 효율과 성능을 최적화하는 데 앞장서고 있다. 인텔 클라이언트 컴퓨팅 그룹 총괄 미셸 존스턴 홀트하우스(Michelle Johnston Holthaus) 수석부사장은 “인텔은 소프트웨어 리더십이 AI PC 경험의 핵심으로 꼽고 있으며, 개방형 생태계 접근 방식을 통해 업계를 선도할 수 있는 독보적인 위치에 있다”며 “AI 개발의 오랜 역사와 ISV 엔지니어링 협력으로 축적된 네트워크를 갖춘 인텔은 PC에서 새로운 사용 사례와 경험을 촉진하는 연결성과 혁신을 적극적으로 주도할 것”이라고 말했다. PC 경험 개선 AI PC 가속화 프로그램은 ISV 요구사항에 따른 소프트웨어 최적화 및 튜닝, 핵심 개발 도구 및 오픈비노(OpenVINO)와 같은 소프트웨어 개발자 키트, 시장 출시 기회를 얻을 수 있는 인텔의 엔지니어링 인재 벤치에 액세스를 제공할 예정이다. 인텔은 딥렌더(DeepRender), 리와인드 AI(Rewind AI), 매직스(MAGIX), 버퍼존(BufferZone), 블랙매직(BlackMagic), 비디오컴(VideoCom), 사이버링크(CyberLink), 스카이럼(Skylum), 어도비(Adobe), 엑스플릿(XSplit), 오다시티(Audacity), 원더쉐어필모라(Wondershare Filmora), 웹엑스(Webex), 줌(Zoom), 토파즈(Topaz) 등 100개 이상의 ISV 파트너와 300개 이상의 AI 가속 기능에 대해 협력하고 있다. 인텔은 오디오 효과, 콘텐츠 제작, 게임, 보안, 스트리밍, 영상 협업 등 다양한 분야에서 PC경험을 향상시킬 수 있도록 지원한다. AI PC 가속 프로그램의 초기 파트너 오다시티의 마틴 키어리(Martin Keary) 제품 총괄은 “오다시티는 인텔과 협력해 강력하고 개방적인 무료 AI도구를 AI PC 사용자에게 제공할 수 있어 기쁘다. 이러한 이니셔티브가 뮤지션, 팟캐스터, 오디오 애호가들을 위한 새로운 창작 환경을 조성할 것으로 기대한다. 이러한 새로운 환경은 지난 20년동안 사랑받아온 기존 오디오 도구를 계승할 만한 가치가 충분하다고 생각된다”며, “해당 프로젝트가 오다시티와 함께 하는 수많은 성공적인 AI 이니셔티브 중 첫 번째가 되길 기대한다. 오다시티는 오랜 기간 연구진이 그들의 연구를 선보일 수 있는 통로가 되는 동시에 호기심 가득 찬 사용자들에게 다양하고 새로운 AI도구를 제공할 수 있기를 희망했다”고 말했다. 블랙매직 디자인 다빈치 소프트웨어의 로히트 굽타(Rohit Gupta) 디렉터는 “첨단 미디어 엔진과 AI기술이 적용된 최신 인텔 코어 울트라 프로세서에 다빈치 리졸브(DaVinci Resolves)를 활용하게 되어 매우 기쁘다”며, “강력한 파트너십과 크리에이터 커뮤니티에 대한 인텔의 변함없는 지원을 통해 최신 인텔 코어 울트라 프로세서에 소프트웨어를 최적화하고 사용자 경험을 향상시킬 수 있기를 기대한다”고 말했다. 버퍼존 CTO 란 두빈(Ran Dubin) 박사는 “온보드 NPU가 탑재된 인텔 PC에서 직접 딥 러닝을 실행할 수 있는 기능은 세이프 브라우징 솔루션의 판도를 바꿀 것이다”며 “클라우드 AI 비용과 개인 정보 보호에 대한 우려를 줄이는 동시에 모든 공격의 주요 진입점이 되는 계정 피싱 사기로부터 사용자들을 더욱 효과적으로 보호할 수 있다”고 말했다. 시스코 AI 엔지니어링 및 협력 담당 크리스 로웬(Chris Rowen) 부사장은, “웹엑스는 사용자를 위한 협업 경험을 향상시키기 위해 지속적으로 노력하고 있으며, AI는 이에 매우 중요하다”며, “인텔과 협력해 인텔 프로세서에 통합된 새로운 NPU와 인텔 오픈비노 툴킷을 활용해 웹엑스 미팅 중 전력 효율성과 플랫폼 응답을 개선할 수 있는 미디어 AI 기능을 구현할 수 있어 기쁘다”고 말했다. 사이버링크 회장 겸 CEO 자우 황(Jau Huang) 박사는 “사이버링크는 인텔의 NPU와 같은 신경 처리 장치가 사용자에게 완전히 새로운 AI 경험을 선사하는 데 핵심이 될 것이라고 본다”며, “인텔과 긴밀히 협력해 NPU를 지원하고 있으며 내장 AI 추론 가속화를 통해 얻을 수 있는 이점을 기대하고 있다”고 말했다. 딥렌더 공동 설립자 및 CEO 크리 베젠브룩(Chri Besenbruch) 은 “인텔 코어 울트라는 딥렌더가 AI PC사용자에게 5배 더 뛰어난 AI 전용 영상을 압축할 수 있도록 해5배 더 빠른 가정용 인터넷과 동등한 수준의 탁월한 영상 품질을 제공한다”며, “뛰어난 NPU 성능으로 딥렌더는 사용자 기기에 초고속의 에너지 효율적인 AI 영상 압축을 실현하게 됐다”고 말했다. 포르테미디어 영업, 사업개발 및 생태계 부문 윌리엄 라우(William Lau) 디렉터는 “포르테미디어는 오디오처리의 최전방에 있으며 인텔과 오랜 협력을 통해 플랫폼 잠배력의 장점을 통해 고객들에게 최상의 경험을 전달할수 있었다. NPU로 인텔이 전력 효율적인 AI처리의 기준을 높인만큼 그 잇점을 가능한 최대한 활용할 수 있기를 기대하고 있다.”고 말했다. 매직스 CTO하겐 히르체(Hagen Hirche)는 “매직스는 하루 종일 사용할 수 있는 배터리 수명을 갖춘 영상 편집용 모바일 기기에 대한 수요가 크다는 사실을 인지하고 있다”며, ”최신 노트북은 인텔 하이브리드 아키텍처 프로세서를 통해 많은 발전을 이루었다. 특히 매직스 앱은 까다로운 미디어 처리 워크로드를 위해 많은 GPU자원을 활용한다. 매직스는 향후 출시될 인텔 코어 울트라 프로세서에 NPU가 통합돼 더욱 에너지 효율적인 이기종 컴퓨팅 환경으로의 논리적 단계라고 평가하고 있다. CPU와 GPU를 통해 AI 워크로드 최적화 뿐만 아니라, NPU기능을 활용하고 인텔 엔지니어링 팀과 협력해 영상 편집 워크플로우를 더욱 전력효율적으로 개선하는 방법을 적극 모색하고 있다. 향후 2년간 AI PC가 크리에이터에게 필수적인 도구가 될 것으로 보인다”고 말했다. 리와인드 공동 창립자 겸 CEO 댄 시로커(Dan Siroker)는 “리와인드의 비전은 바로 인류에게 슈퍼파워를 제공하는 것이다. 이를 위해, 우리가 보고, 말하고, 들은 모든 것을 기반으로 한 맞춤형 인공지능을 제공한다”며, “리와인드는 인텔의 시장 리더십과 긴밀한 기술 협력을 통해 윈도우 PC에 리와인드를 적용할 수 있게 되어 기쁘다. 우리는 새로운 인텔 코어 울트라 프로세서의 풍부한 인공지능 역량을 활용할 수 있을 것이다. 더불어, AI PC 가속화 프로그램에 참여함으로써, 인텔이 AI 가속화가 PC 경험의 중요한 부분임을 함께 공유한다는 점을 기쁘게 생각한다”고 말했다. 스카이럼 제품 및 엔지니어링 부문 드미트로 미칼축(Dmytro Mykhalchuk) 부사장은 “스카이럼은 AI 지원 사진 편집 전문 기업이며, 수상 경력을 가진 소프트웨어 루미나 네오(Luminar Neo)를 주력 제품으로 선보이고 있다. 사진의 해상도가 증가하고, 더욱 많은 도구들이 머신러닝 처리를 향하고 있는 등 이 분야의 작업이 끊임없이 더 많은 리소스를 필요로 하는 것은 잘 알려져 있다”며, “인텔이 CPU 및 GPU에서 AI 역량을 강화하기 위한 노력 뿐 아니라 인텔이 새롭게 출시할 모든 프로세서에 NPU를 추가하기로 한 결정은 스카이럼이 크리에이터에게 더욱 향상된 경험을 제공할 수 있도록 한다. 이는 루미나 네오의 업무 처리 속도에 긍정적인 영향을 미치며, 사용자 장치의 전반적인 부담을 줄이는데 도움이 된다”고 말했다.   토파즈 랩스 수라즈 라구라만(Suraj Raghuraman) AI 엔진 총괄은 “토파즈 랩스는 혁신적인 AI 기술을 활용한 사진 및 영상 향상 도구를 통해 전문가들이 멋진 창작물을 만들 수 있도록 지원한다”며, “인텔의 새로운 코어 울트라 프로세서 제품을 통해 우리는 복잡한 딥 러닝 모델을 실행하면서 우수한 머신러닝 성능을 누릴 수 있게 됐다. 인텔과의 협력을 통해 최첨단 사진 및 영상 소프트웨어를 지속 개발하고, AI PC를 모두에게 제공하는데 도움을 줄 것”이라고 말했다. 비디오컴 가레스 레이놀즈(Gareth Reynolds) 제품 총괄은 “인텔의 새로운 메테오 레이크 플랫폼이 매우 기대된다”며, “향상된 CPU 및 GPU 기능은 우리 애플리케이션의 품질과 응답성을 향상하는데 도움을 주며, 동시에 AI 작업을 내장된 NPU로 완전히 오프로드 할 수 있도록 지원한다. 더불어, 비디오 처리를 위한 NPU 통합을 위해 인텔과 협력했으며, NPU에서 오프라인으로 실행할 수 있는 여러 다른 AI 기능을 작업할 계획이다. 이는 매우 큰 발전이며, 새로운 기능을 고객에 제공할 것을 기대하고 있다”고 말했다. 원더쉐어 필모라 시어러 왕(Shearer Wang) 제품 마케팅 디렉터는 “필모라는 새로운 인텔 프로세서 기반의 놀라운 AI 기능을 1억명 이상의 사용자들에게 제공할 수 있게 되어 기쁘다”며, “인텔 코어 울트라 프로세서의 CPU, GPU 및 혁신적인 NPU를 통해 완전한 AI 능력을 활용하여 사용자가 창의적인 잠재력을 향상하고 매력적인 영상을 손쉽게 제작할 수 있도록 지원한다. 인텔과의 협력 관계를 지속적으로 유지하고, 모든 크리에이터에게 AI 기술을 제공할 수 있기를 기대한다”고 말했다. 엑스플릿 CEO 안드레아 후예(Andreas Hoye)는 “배경 분할 및 기타 AI 워크로드를 NPU로 오프로드 할 수 있는 능력은 비즈니스 하드웨어에서 높은 영상 품질을 달성하는데 중요한 만큼, 우리는 인텔 NPU 기능을 VCam에 통합하기 위해 지속적으로 인텔과 협력할 것이다”며, “더 큰 AI 모델을 인텔 NPU에서 구동하는데 활용함으로써 라이브 영상 내 배경 제거 불확실성을 30% 낮출 수 있으며, 동시에 CPU 및 GPU에 가해지는 전반적인 부하를 크게 감소할 수 있다. 우리는 크리에이터를 위한 강력한 새 하드웨어를 갖춘 AI PC에 대한 인텔의 비전을 공유하며, AI PC 가속 프로그램과 같은 노력을 통해 이 기술이 주류 기술로 거듭날 수 있기를 고대한다”고 말했다. 줌 하드웨어 파트너십 총괄 에릭 유(Eric C. Yu) “지난 몇 년 간 영상 회의 상황에서의 AI 기술 사용이 크게 증가했으며, 줌은 인텔이 사진 및 오디오 AI 작업을 오프로드 할 수 있는 저전력 AI 가속기를 제공하고 있다는 점에 매우 기쁘다”며, “인텔이 로드맵 전반에 걸쳐 NPU를 도입함에 따라, 메테오 레이크 플랫폼에서 향상된 전력 효율성을 바탕으로 줌을 사용하는 사용자들이 더 많은 혜택과 경험을 얻게 될 것”이라고 말했다. AI PC 가속화 프로그램은 인텔 파트너 얼라이언스의 AI 가속화 이니셔티브의 확장판으로, 1,000개 이상의 ISV 파트너가 엣지부터 클라우드까지 AI 솔루션을 구축, 최적화 및 배포할 수 있도록 프로그래밍에 접근할 수 있도록 지원한다.  
작성일 : 2023-10-22