• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "오픈소스"에 대한 통합 검색 내용이 675개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
엔비디아, 기업용 생성형 AI 구축 돕는 ‘NIM 에이전트 블루프린트’ 공개
엔비디아가 기업용 생성형 AI 구축을 가속화하는 엔비디아 NIM 에이전트 블루프린트(NVIDIA NIM Agent Blueprints)를 공개했다. 최근 고급 오픈소스 기반 모델의 가용성과 AI 워크플로의 효율성 및 자율성을 개선하는 에이전트 AI의 발전이 이어지고 있다. 다양한 산업 분야의 기업들은 구글 젬마(Google Gemma), 라마 3.1(Llama 3.1) 405B, 마이크로소프트 파이(Microsoft Phi), 믹스트랄(Mixtral), 네모트론(Nemotron)과 같은 모델을 사용해 비즈니스 성장을 지원하고 생산성을 향상시키는 자체 AI 애플리케이션을 개발할 수 있다. 비즈니스 혁신을 가속하기 위해 기업은 디지털 휴먼 고객 서비스 챗봇, 검색 증강 생성(RAG), 신약 개발과 같은 표준 생성형 AI 워크플로에 대한 청사진을 필요로 한다. 엔비디아는 NIM 마이크로서비스를 통해 이러한 모델을 효율적이고 엔터프라이즈에서 사용할 수 있도록 지원하고 있으나, 엔터프라이즈 생성형 AI 애플리케이션 구축은 복잡하고 여러 단계를 거쳐야 하는 프로세스이다. 이번에 발표한 엔비디아 NIM 에이전트 블루프린트에는 엔터프라이즈 개발자가 비즈니스 목표에 부합하는 맞춤 생성형 AI 애플리케이션을 구축하고 배포하는 데에 필요한 기능을 제공한다.     NIM 에이전트 블루프린트는 특정 사용 사례에 맞게 조정된 레퍼런스 AI 워크플로다. 여기에는 엔비디아 NIM과 파트너 마이크로서비스로 구축된 샘플 애플리케이션, 레퍼런스 코드, 사용자 정의 문서, 배포를 위한 헬름차트(Helm chart)가 포함된다. 개발자는 NIM 에이전트 블루프린트를 통해 각 사용 사례에 대한 엔비디아의 고급 AI 도구와 엔드 투 엔드 개발 환경을 바탕으로 자체 애플리케이션을 손쉽게 제작할 수 있다. 블루프린트는 수정과 개선이 가능하도록 설계됐다. 또한, 개발자는 복잡한 작업을 수행할 수 있는 정보 검색과 에이전트 기반 워크플로를 모두 활용할 수 있다. 아울러 NIM 에이전트 블루프린트는 개발자가 AI 수명 주기 전반에 걸쳐 애플리케이션을 개선하는 데 도움을 준다. 사용자가 AI 애플리케이션과 상호작용을 하면 새로운 데이터가 생성된다. 이 데이터는 지속적인 학습 주기를 통해 모델을 개선하고 향상시키는 데 사용되며, 이로써 데이터 기반 생성형 AI 플라이휠(flywheel)을 만들 수 있다. NIM 에이전트 블루프린트는 기업이 모델과 데이터를 연결하는 애플리케이션을 통해 자체적인 생성형 AI 플라이휠을 구축할 수 있도록 지원한다. 엔비디아 네모(NeMo)는 이 프로세스를 용이하게 하고, 엔비디아 AI 파운드리(AI Foundry)는 플라이휠을 실행하기 위한 생산 환경 역할을 한다. 엔비디아는 사용 가능한 첫 번째 NIM 에이전트 블루프린트로 ▲고객 서비스를 위한 디지털 휴먼 ▲신약 개발 가속화를 위한 생성형 가상 스크리닝 ▲엔터프라이즈 RAG를 위한 멀티모달 PDF 데이터 추출 등을 소개했다. 이외에 고객 서비스, 콘텐츠 생성, 소프트웨어 엔지니어링, 소매 쇼핑 자문 서비스, R&D 등을 위한 생성형 AI 애플리케이션을 제작하기 위한 더 많은 NIM 에이전트 블루프린트가 개발 중이다. 엔비디아는 매달 새로운 NIM 에이전트 블루프린트를 선보일 계획이다. 생성형 AI는 이제 개발자와 데이터 과학자 간의 협업을 촉진하고 있다. 개발자는 NIM 에이전트 블루프린트를 기반으로 애플리케이션을 구축하고, 데이터 과학자는 데이터 플라이휠을 구현해 맞춤형 NIM 마이크로서비스를 지속적으로 개선한다. NIM이 개선되면 관련 애플리케이션도 개선돼 지속적인 성능 향상과 데이터 생성의 순환이 이루어진다. 엔비디아는 “NIM 에이전트 블루프린트와 엔비디아 파트너의 지원을 통해 기업은 생성형 AI를 애플리케이션에 원활하게 통합해 산업 전반의 효율성과 혁신을 주도할 수 있다”고 전했다. 한편, 엔비디아는 글로벌 시스템 통합업체 및 서비스 제공 파트너인 액센츄어(Accenture), 딜로이트(Deloitte), 소프트서브(SoftServe), 퀀티파이(Quantiphi), 월드 와이드 테크놀로지(World Wide Technology) 등 파트너 에코시스템이 전 세계 기업에 NIM 에이전트 블루프린트를 제공하고 있다고 전했다. NIM 에이전트 블루프린트는 고객 상호작용 데이터를 사용해 엔비디아 파트너 에코시스템에서 제공하는 툴을 통해 최적화될 수 있다. 모델 미세 조정, 관리, 모니터링을 위한 데이터이쿠(Dataiku)와 데이터로봇(DataRobot), 워크플로 구축을 위한 딥셋(Deepset), 라마 인덱스(LlamaIndex), 랭체인(Langchain), 생성형 AI 애플리케이션 평가를 위한 웨이트 앤 바이어스(Weights and Biases. W&B), 추가적인 보안을 위한 크라우드스트라이크(CrowdStrike), 데이터독(Datadog), 피들러 AI(Fiddler AI), 뉴렐릭(New Relic), 트렌드 마이크로(Trend Micro) 등이 있다. 뉴타닉스(Nutanix), 레드햇(Red Hat), 브로드컴(Broadcom)을 비롯한 인프라 플랫폼 제공업체는 자사의 엔터프라이즈 솔루션에서 NIM 에이전트 블루프린트를 지원할 예정이다. 고객은 시스코, 델 테크놀로지스, 휴렛팩커드 엔터프라이즈(HPE), 레노버와 같은 제조업체의 엔비디아 인증 시스템에서 NIM 에이전트 블루프린트를 구축하고 배포할 수 있다. 또한, 아마존 웹 서비스(AWS), 구글 클라우드, 마이크로소프트 애저, 오라클 클라우드 인프라스트릭처(OCI)의 엔비디아 가속 클라우드 인스턴스에서도 이용 가능하다. NIM 에이전트 블루프린트는 기업이 생성형 AI 애플리케이션에서 데이터를 활용할 수 있도록 코히시티(Cohesity), 데이터스택스(Datastax), 드롭박스(Dropbox), 넷앱(NetApp), 바스트 데이터(VAST Data)와 같은 엔비디아 파트너의 데이터, 스토리지 플랫폼과 통합할 수 있다.
작성일 : 2024-08-28
Abaqus/CAE용 가상 프로세스 체인 애드온 시뮤체인
시뮤텐스 소프트웨어를 활용한 복합소재 해석 (5)   아바쿠스(Abaqus)용 추가 기능인 시뮤체인(SimuChain)은 가상 프로세스 체인을 생성하고 구조 시뮬레이션에서 제조 효과를 고려할 수 있도록 해준다. 준정적 하중 조건에서 비선형 재료 모델링을 포함한 불연속 섬유(SMC, LFT, GMT) 및 연속 섬유 강화 복합재에 대한 구조 해석을 지원한다.   ■ 자료 제공 : 씨투이에스코리아, www.c2eskorea.com   시뮤체인의 Abaqus/CAE 애드온을 사용하면 몰드플로우, 시뮤드레이프(SimuDrape), 시뮤필(SimuFill) 등의 공정 시뮬레이션에서 내보낸 데이터의 전처리는 물론 불연속 섬유에 대한 균질화 및 클러스터된 재료 카드와 연속 섬유 강화 복합재를 위한 복합재 레이업 생성이 가능하다. 아바쿠스 파이썬 API를 통해 시뮤체인 백엔드를 호출할 수 있어 자신만의 스크립트 및 모델 자동화를 구현할 수 있다. 메시오 백포트(Meshio Backport)를 통한 데이터 평가와 MpCCI MapLib을 통한 이산화된 데이터 매핑이 포함된다.   시뮤체인의 주요 기능 매핑     시뮤체인은 MpCCI MapLib을 사용하여 메시 간 스칼라, 벡터 및 텐서를 매핑함으로써 복합재 성형 시뮬레이션을 통해 예측된 국부적인 섬유 배향과 같은 제조 효과를 구조 시뮬레이션에 전달될 수 있다.   균질화     압축 및 사출 성형 시뮬레이션을 통해 유동으로 인한 국지적 섬유 배향을 예측할 수 있다. 시뮤체인은 국지적 섬유 방향을 구조 시뮬레이션(FEA) 메시에 매핑 후 효과적인 재료 특성을 균질화 및 클러스터화한다. 이를 위해서는 섬유, 매트릭스 및 복합재의 특성에 대한 정의가 필요하다. 이를 통해 유동으로 인한 불연속 섬유 소재에 대한 열적 및 기계적 특성의 국부 이방성을 고려할 수 있다.    비선형 소재 모델링     복합재 구조물의 가상 설계에는 점탄성, 가소성, 파손 등을 포함한 비선형 소재 모델링이 필요한 경우가 많다. 따라서 필요한 소재 특성화를 포함하여 준정적 하중 조건에서 비선형 소재 모델링을 지원한다.    복합재 레이어     복합재 포밍(forming)은 국부적인 섬유 배향의 변화를 유도함으로 포밍 시뮬레이션인 시뮤드레이프를 통해 레이어별로 적층된 라미네이트의 섬유 방향을 예측할 수 있다. 시뮤체인을 사용하면 국부적 섬유 방향을 구조 시뮬레이션(FEA)의 메시와 복합재 레이업으로 매핑하고, 국부적 이방성을 고려하여 복합재 라미네이트의 기계적 동작을 효율적으로 모델링할 수 있다.   데이터 처리     시뮤체인을 사용하면 사출 성형 CAE 해석 툴(몰드플로우)에서 내보낸 데이터를 중립 파일 형식인 VTK로 변환할 수 있으며, 오픈소스 소프트웨어인 파라뷰(Paraview)에서 시각화하고 파이썬 패키지 메시오(Meshio)를 통해 처리할 수 있다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2024-08-05
AI 전문가 에이전트 개발을 위한 LLM 기반 구조화된 JSON 데이터 RAG 및 생성하기
BIM 칼럼니스트 강태욱의 이슈 & 토크   이번 호에서는 최근 챗GPT(ChatGPT)와 같은 AI 전문가 서비스 개발을 위한 LLM(Large Language Model, 대규모 언어 모델) 기술 중 하나인 LLM 기반 구조화된 형식의 데이터 생성하는 방법을 간략히 소개한다.    ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | http://www.facebook.com/groups/digestpodcast   LLM을 다양한 시스템과 연동해 사용하려면, LLM의 출력이 기계가 이해 가능한 JSON, SQL, Code 형태여야 한다. 이번 호에서는 JSON 입출력이 가능하도록 RAG(Retrieval-Augmented Generation, 검색 증강 생성)를 처리하는 방법을 개발한다.  이를 잘 이용하면, 건설, 건축 분야의 PDF 파일 등을 학습하고, 필요한 정보를 기계 처리 가능한 형식으로 출력해 계산 가능한 표, 수식 등의 형식으로 정보를 생성할 수 있다.   그림 1. LLM 기반 텍스트 입력 및 구조화된 JSON 형식 생성 절차 개념도   이번 호에서는 오픈AI(OpenAI) 챗GPT와 같이 API를 사용하려면 구독해야 하는 상용 모델 대신 라마, 미스트랄과 같은 오픈소스 모델을 사용한다. LLM 모델을 컴퓨터에 다운로드받고 구동하기 위해 올라마(Ollama)를 이용하고, LLM 프롬프트와 RAG 처리를 위해 랭체인(LangChain)을 사용한다.   개발 환경 준비 다음과 같이 개발 환경을 설치한다. 그리고 올라마(https://ollama.com) 도구를 설치하도록 한다.   pip install llama-cpp-python pip install 'crewai[tools]' pip install langchain   Text to JSON  라마 모델을 로딩하고 JSON 문법으로 출력하도록 GBNF(GGML BNF) 문법 정의를 이용해 JSON 출력을 생성한다. 다음 코드를 실행한다.   from llama_cpp.llama import Llama, LlamaGrammar import httpx grammar_text = httpx.get("https://raw.githubusercontent.com/ggerganov/llama.cpp/master/grammars/json_arr.gbnf").text grammar = LlamaGrammar.from_string(grammar_text) llm = Llama("llama-2-13b.Q8_0.gguf") response = llm(     "JSON list of name strings of attractions in SF:",     grammar=grammar, max_tokens=-1 ) import json print(json.dumps(json.loads(response['choices'][0]['text']), indent=4))   출력 결과는 다음과 같이 샌프란시스코에 있는 놀이 시설을 보여준다.    [     {         "address": {             "country": "US",             "locality": "San Francisco",             "postal_code": 94103,             "region": "CA",             "route": "Museum Way",             "street_number": 151         },         "geocode": {             "latitude": 37.782569,             "longitude": -122.406605         },         "name": "SFMOMA",         "phone": "(415) 357-4000",         "website": "http://www.sfmoma.org/"     } ]   이와 같이 LLM 출력을 컴퓨터 처리하기 용이한 구조로 생성할 수 있다. 참고로, 여기서 사용한 JSON 문법은 <그림 2>와 같이 정형 규칙 언어로 정의된 것을 사용한 것이다.    그림 2. json.gbnf(https://github.com/ggerganov/llama.cpp/tree/master/grammars)     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2024-08-05
[포커스] 엔비디아, “PC 기반의 AI가 다양한 분야서 새로운 기회 만든다”
엔비디아가 PC 환경에서 인공지능(AI)을 활용하기 위한 자사의 기술과 활용사례를 소개했다. 엔비디아는 PC 기반의 AI가 클라우드의 대규모 AI로 대응하기 어려운 분야에서 시장을 창출할 수 있을 것으로 보고 있으며, PC 환경에서 생성형 AI의 개발과 활용을 지원하는 다양한 기술을 제공할 계획이다. ■ 정수진 편집장   PC 기반 AI의 성장세 이어질 것 지금까지의 AI 기술 발전에서는 클라우드 기반의 대규모 연산 기술이 큰 비중을 차지해 왔다. 대규모 AI 모델과 애플리케이션의 경우에 클라우드에서 구동하는 것이 유리하지만, 모든 것을 클라우드에서 실행할 수는 없다. 인터넷에 연결되지 않은 상황에서는 클라우드에 액세스할 수 없다. 게임이나 비디오 스트리밍의 경우에는 때로 속도보다 지연 시간이 더 중요할 수도 있다. 대용량의 원본 이미지 파일이나 비디오 파일을 업로드/다운로드하는 데에는 긴 시간이 걸리기 때문에 클라우드에 모든 것을 업로드하기가 어렵고, 보안이 중요한 정보를 클라우드에 저장하고 싶지 않을 수도 있다. 클라우드는 서버 비용을 지불해야 하기 때문에, PC에서 작업을 수행하는 것이 비용 효율적일 수도 있다. 엔비디아의 제프리 옌(Jeffrey Yen) APAC 테크니컬 마케팅 시니어 디렉터는 “PC에서 AI의 수요 증가에 따라 AI 연산을 처리할 수 있는 더 가벼운 프로세서인 NPU(신경망 처리 유닛)가 시장 기회를 창출하고 있는 것도 주목할 만하다”고 전했다. NPU는 항상 켜져 있어야 하고 전력을 적게 소비해야 하는 가벼운 사용 사례에 적합하다. 반면 게임이나 콘텐츠 생성 등 더 많은 AI 사용 사례를 위해서는 NPU보다 성능이 높은 GPU를 활용할 수 있다. 옌 시니어 디렉터는 “GPU와 NPU를 탑재한 AI PC는 테크 역사에서 중요한 발전 중 하나로 모든 주요 애플리케이션에 통합되고 있으며, 미래에는 거의 모든 사용자에게 영향을 미칠 것”이라고 짚었다.   ▲ NPU, PC GPU, 데이터 센터 GPU 기반 AI의 차이점   PC AI 앱 개발의 과제 해결 지원 옌 시니어 디렉터는 많은 주목을 받고 있는 생성형 AI(generative AI)가 윈도우 PC 애플리케이션 개발자에게 기회와 함께 과제를 안겨주고 있다고 짚었다. 개발자는 고품질의 다양한 오픈소스 생성형 AI 모델을 활용해 새로운 것을 창조할 수 있지만, 윈도우 애플리케이션은 특정 애플리케이션에 맞는 구체적이고 타기팅된 응답이 필요하다는 것이다. 이 때문에 개발자는 오픈소스 모델을 그대로 사용하기보다는 필요에 맞게 조정하고 최적화하는 작업을 해야 한다. 또 PC 하드웨어에서 실행할 수 있도록 모델을 최적화하는 것도 필요하다. 이를 위해 엔비디아는 ‘RTX AI 툴킷(RTX AI Toolkit)’을 제공해 개발자가 AI를 애플리케이션에 쉽게 통합할 수 있도록 지원한다. RTX AI 툴킷은 AI 모델의 커스텀화, 최적화, 배포 등의 프로세스를 단순화한다. RTX AI 툴킷을 사용해 최적화된 모델은 더 빠르고 RTX 50 시리즈 GPU가 탑재된 랩톱 PC에서도 실행할 수 있는 수준이 된다는 것이 옌 시니어 디렉터의 설명이다. 또한, 엔비디아 AI 추론 관리자(NVIDIA AI Inference Manager : AIM)는 추론 관리와 관련된 두 가지의 주요 작업을 수행한다. 첫 번째는 AI 모델이 포함된 모든 파일과 데이터를 PC에 올리는 것이고, 두 번째는 추론이 어디서 이루어지는지 결정하는 데에 도움을 주는 것이다. 이를 위해 AIM은 다양한 백엔드 및 하드웨어를 위한 통합 인터페이스 API를 제공한다.   ▲ PC 앱의 AI 통합을 지원하는 엔비디아의 RTX AI 툴킷   다양한 PC AI 기술 활용사례 소개 엔비디아는 RTX 및 텐서 코어(Tensor Core)의 도입과 함께 AI 기술의 개발을 꾸준히 진행해 왔다. 2018년에는 게이밍을 위한 DLSS(딥러닝 슈퍼 샘플링) 기술을 발표했고, 2019년에는 크리에이터를 위한 ‘엔비디아 스튜디오 SDK’를 선보였다. 이후에도 방송 및 영상 콘텐츠, 화상회의, 비디오 스트리밍 등 다양한 분야에 AI 기술을 적용하고 있다.  옌 시니어 디렉터는 게임 및 영상 분야를 중심으로 엔비디아의 AI 기술 활용 사례를 소개했다. 엔비디아는 최근 AI 추론을 위한 마이크로서비스인 NIM을 적용한 디지털 휴먼을 발표했는데, NIM은 PC와 클라우드에서 최적화되었으며, AI 툴킷을 사용하여 조정되었다. 프로젝트 G-어시스트(Project G-Assist)는 게이머가 게임을 배우는 데에 필요한 시간과 노력을 줄여주는 AI 도우미이다. 게임 내 상황 맥락을 실시간으로 파악해 플레이에 유용한 가이드를 제공하고, 시스템의 튜닝과 성능 최적화를 지원한다. 스테이블 디퓨전(Stable Diffusion) 모델 기반의 이미지 생성 프로그램인 콤피UI(ComfyUI)에 RTX 가속을 지원해, RTX 랩톱에서 더욱 빠르게 이미지를 생성할 수 있게 됐다. 메이저 영상 애플리케이션인 VLC와 다빈치 리졸브(Davinci Resolve)에 RTX 비디오(RTX Video)가 적용돼 AI 기반으로 HDR 영상 재생 및 편집이 향상됐다. 한편, 옌 시니어 디렉터는 지포스 RTX 그래픽카드를 더 작은 사이즈의 PC에 탑재할 수 있는 스몰 폼 팩터(SFF) 이니셔티브를 도입했다고 전했다. 이를 통해 엔비디아는 SFF에 맞춰진 RTX 그래픽카드의 크기와 형태에 관한 정보를 제공하고, 사용자가 PC를 조립할 때 호환성을 쉽게 확인할 수 있도록 한다. 옌 시니어 디렉터는 “앞으로 AI는 보이지 않는 곳에서 사람이 인식하지 못한 채 더 편하게 쓸 수 있는 방향으로 발전할 것”이라면서, 게임과 영상 외에도 다양한 분야에서 RTX AI를 활용할 수 있다고 밝혔다. NIM이 레고 블록처럼 애플리케이션과 결합해 더 쉽게 AI를 사용하도록 돕고, 실시간 데이터 처리에서 NPU보다 높은 성능의 GPU를 활용해 품질을 높일 수 있다는 것이다. 옌 시니어 디렉터는 “텍스트 생성, 코딩, 화상회의 등에서 빠른 처리 속도는 더 많은 시도를 가능하게 함으로써, 더 나은 최종 결과물을 얻을 수 있게 한다”고 짚었다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-08-02
[포커스] 오라클, 오픈소스 DB에서 생성형 AI의 활용 위한 서비스 발표
오라클은 트랜잭션 및 레이크하우스 규모 분석을 위한 오픈소스 기반의 MySQL 데이터베이스 처리 서비스인 히트웨이브(HeatWave)를 제공하고 있다. 여기에 생성형 AI를 통합한 서비스가 히트웨이브 생성형 AI(HeatWave GenAI)이다. 히트웨이브 생성형 AI는 인-데이터베이스(in-database) 대규모 언어 모델(LLM), 자동화된 인-데이터베이스 벡터 저장소, 확장 벡터 처리 및 비정형 콘텐츠 기반의 맥락화된 자연어 대화 기능 등을 제공한다. ■ 정수진 편집장   오라클의 니푼 아가르왈(Nipun Agarwal) MySQL & 히트웨이브 개발 수석부사장은 “히트웨이브는 완전 관리형 데이터베이스 처리 서비스로서 멀티 클라우드 환경에서 제공된다. 초기에는 MySQL 기반의 OLTP(온라인 트랜잭션 처리) 서비스로 제공되었고, 이후 꾸준히 기능을 강화해 왔다. 이번에 생성형 AI 및 벡터 저장소 기능을 포함하게 되면서, 단일 서버 위에서 더욱 다양한 기능을 제공하게 되었다”고 설명했다. 히트웨이브 생성형 AI는 인-데이터베이스 자동 백터 저장소, 인-데이터베이스 LLM, 확장형 벡터 처리, 히트웨이브 챗(HeatWave Chat) 등 네 가지의 새로운 기능을 선보였다.   ▲ 오라클은 데이터베이스에서 생성형 AI를 활용하기 위한 서비스를 선보였다.   기업의 비정형 콘텐츠에 LLM의 강점을 결합 벡터 저장소는 비정형 콘텐츠에 LLM을 활용하도록 지원함으로써, 기업의 내부 콘텐츠에 LLM의 강점을 적용할 수 있게 돕는다. 히트웨이브에 인-데이터베이스 자동 벡터 저장소를 추가함으로써 비정형 데이터에 대한 시맨틱 검색을 지원하는 등 전통적인 데이터 처리와 다른 방식을 구현한다는 것이 오라클의 설명이다. 아가르왈 수석부사장은 “오브젝트 스토리지의 데이터를 생성형 AI가 히트웨이브 내부에서 처리함으로써 생성형 AI의 강점을 데이터베이스 내부로 가져올 수 있는 독보적인 아키텍처를 구현했다”면서, “데이터 처리 작업 과정을 히트웨이브 내에서 진행함으로써 스토리지의 비용을 줄이고, 확장성과 안정성을 높은 수준으로 구현할 수 있다”고 설명했다. 오라클 인-데이터베이스 벡터 저장소는 벡터 저장소의 생성 과정을 단순화하고 자동화함으로써, 벡터 저장소 생성의 퍼포먼스를 높이고 비용을 줄일 수 있도록 했다. 생성형 AI 앱의 개발은 먼저 벡터 스토어를 구성한 뒤 LLM을 활용해 이 벡터 스토어를 적용하는 과정으로 진행된다. 오라클은 이 두 단계를 합치고 단계별로 하나의 호출 커맨드만으로 처리할 수 있다면서, 앱이 생성형 AI를 활용하는 방식을 단순화할 수 있다고 설명했다. 또한 데이터가 데이터베이스 밖으로 나가지 않기 때문에 보안도 강화할 수 있다.   LLM 활용의 비용은 줄이고 속도는 높인다 히트웨이브 생성형 AI는 데이터베이스 내부에서 CPU를 사용해 LLM을 구동할 수 있도록 했다. LLM을 구축 및 활용하기 위해 GPU 서비스를 추가로 사용하지 않아도 된다는 것이다. 아가르왈 수석부사장은 인-데이터베이스 LLM의 이점으로 단순화, 저비용, 유연성, 보안/퍼포먼스 등을 꼽았다. 추가 클라우드 서비스나 GPU가 필요 없고, 동일한 서비스를 여러 클라우드에서 사용할 수 있으며, 데이터가 데이터베이스 밖으로 나가지 않기 때문이다. 아가르왈 부사장은 “물론 외부 LLM을 적용하는 것도 가능하다. 오라클 클라우드 인프라스트럭처(OCI)에서 제공하는 GPU 기반의 생성형 AI 서비스를 활용할 수 있지만, 전력 소비 등에서 CPU 기반 인-데이터베이스 LLM의 이점이 크다고 본다”고 전했다. 인-데이터베이스 LLM의 또 다른 이점은 히트웨이브를 사용할 수 있는 모든 클라우드 환경에서 LLM을 사용할 수 있으며, 히트웨이브의 오토ML과 연동해 LLM을 활용한 쿼리 정확도 및 성능의 향상이 가능하다는 점이다. 오라클은 오토ML이 인풋 데이터의 양을 줄여줘서 LLM 호출 비용을 줄일 수 있다는 설명도 덧붙였다. 또한, 히트웨이브 내에서 벡터 프로세싱 지원이 추가됐다. 히트웨이브 MySQL에서 신규 벡터 데이터타입을 지원해 MySQL의 쿼리를 효율적으로 사용할 수 있게 됐다. 아가르왈 수석부사장은 “인 메모리 프로세싱이 가능해지면서 여러 노드에서 확장이 용이해졌고, 낮은 비용으로 빠른 벡터 처리를 지원할 수 있게 됐다. 스노우플레이크, 데이터브릭스, 구글 빅쿼리 등과 쿼리 처리 성능을 비교한 자체 테스트에서는 15~30배 높은 속도를 보였다”고 전했다. 이번에 함께 선보인 히트웨이브 챗(HeatWave Chat)은 SQL 또는 자연어를 기반으로 히트웨이브와 시각적으로 상호작용하는 인터페이스를 제공한다. 이는 히트웨이브 생성형 AI에 기반한 여러 앱 중 하나로 서버 내 채팅 이력, 인용 내용, LLM 옵션 등을 저장하고, 히트웨이브 환경 내에서 자유롭게 챗을 사용할 수 있게 한다.   ▲ 오라클의 니푼 아가르왈 수석부사장은 히트웨이브 생성형 AI를 추기 비용 없이 사용할 수 있다고 소개했다.   자동화, 단순화, 안전성 등을 강점으로 내세워 오라클은 히트웨이브 생성형 AI가 인-데이터베이스에서 통합된 자동화 솔루션으로 높은 안전성과 앱 개발의 단순성을 제공한다고 설명했다. 이를 통해 앱 개발 비용을 줄이면서 보안도 강화할 수 있다는 것이다. 비용과 관련해 아가르왈 수석부사장은 “히트웨이브는 완전 관리형 서비스로 제공되며 라이선스 단위로 관리하지 않기 때문에, 히트웨이브 내에서 생성형 AI를 활용하기 위한 추가 비용이 없다”면서, “다른 업체는 머신러닝, OLTP, 생성형 AI 등을 별도의 서비스로 구성하고 있지만, 오라클은 모든 고객이 모든 데이터에 AI를 사용할 수 있도록 하기 위해 데이터 처리 플랫폼에 생성형 AI 기능을 내장했으며, 유료화나 가격 인상 계획 또한 없다”고 설명했다. 오라클은 보안 관점에서 인-데이터베이스 벡터 저장소가 유용하다는 점도 강조했다. 많은 LLM이 공개된 콘텐츠를 활용하지만, 기업 내부 콘텐츠에 LLM을 적용하고자 하는 요구도 있다. 오라클은 기업 데이터를 기반으로 LLM을 추가 생성할 필요가 없이, 벡터 저장소의 결과값을 LLM의 입력값으로 피딩하면 기업 데이터의 유출 없이 LLM을 사용할 수 있다는 점을 내세운다. 기업 데이터의 이력을 저장하지 않고 입력값으로만 사용하기 때문에 데이터 보호 수준이 높다는 것이다.  아가르왈 수석부사장은 “인-메모리 데이터베이스 안에서 모든 데이터를 스캔해 결과를 도출하기 때문에 정확한 벡터 처리 결과값을 얻을 수 있다. 여기에 RAG(검색 증강 생성)를 사용한다면 공개 데이터를 사용하는 것과 다르게 LLM의 문제로 꼽히는 환각현상을 줄일 수 있다”고 전했다. 한편, 한국어 지원에 대해서는 “현재 히트웨이브 생성형 AI는 메타의 라마 3(Llama 3)를 기반 LLM 모델로 사용하는데, 영어만큼 정확도가 높지는 않지만, 기술이 빠르게 발전하고 있어 수개월 내에 한국어의 정확도가 더욱 높아질 것으로 본다”고 밝혔다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-08-02
IBM, 왓슨x에서 라마 3.1 및 미스트랄 라지2 등 최신 LLM 모델 지원 발표
IBM은 최근 메타에서 발표한 ‘라마(Llama) 3.1’과 미스트랄 AI에서 발표한 ‘미스트랄 라지(Mistral Large) 2’ 등 최신 오픈소스 대규모 언어 모델(LLM)을 왓슨x.ai에서 제공한다고 발표했다. 이로써 왓슨x 사용 기업들은 IBM 그래니트(Granite), 라마 3.1, 미스트랄 라지 2 등의 오픈소스 AI 모델을 자사의 용도와 필요에 따라 자유롭게 선택하고 맞춤화해 사용할 수 있다.  이번에 발표된 라마 3.1은 각각 80억 개(8B), 700억 개(70B), 4050억 개(405B)의 매개변수를 가진 사전 학습된 오픈소스 생성형 AI 모델로 구성됐다. 특히 라마 3.1-405B 모델은 한 번에 처리할 수 있는 문맥의 길이가 토큰 8192개에서 12만 8000개로 늘어났으며, 이는 약 8만 5000 영어 단어에 해당한다. 오픈AI의 GPT-4o와 같은 모델들과 비교할 때 독해력, 코드 생성, 학부 수준의 지식 분야의 경쟁에서도 뒤지지 않는 성능을 보여준다는 것이 메타의 설명이다. 강력한 성능을 제공하는 405B 모델은 추론 및 텍스트 생성과 같은 일반적인 AI 활용 사례 외에도 AI의 사전 학습이나 미세 조정을 위한 합성 데이터 생성 및 더 작은 모델로 만드는 지식 증류와 같은 작업에도 사용할 수 있다. 1230억 개의 매개변수를 가진 미스트랄 라지 2는 코딩과 수학 부문에서 높은 성능을 발휘하고, 80가지가 넘는 코딩 언어를 지원하며, 오픈AI의 GPT-4o, 앤트로픽의 클로드 3 오푸스, 메타 라마 3.1 405B와 같은 최첨단 모델과 동등한 수준의 성능을 제공한다. 그리고, 향상된 추론 능력을 통해 환각이나 그럴듯하게 들리는 거짓 답변을 줄였다. 기업에서 AI 모델을 선택할 때는 고려해야 하는 다양한 요소가 존재하기 때문에 성능이 좋은 범용 모델을 선택하는 것이 정답이 아닐 수 있다. 예를 들어, 일반적으로 매개변수의 크기가 더 크고 유능한 모델은 사용하는 데 더 많은 비용이 들고, 모델 정확도가 증가하면 속도가 느려질 수 있다. 이에 비해 크기는 작지만 특정 환경에 미세 조정된 모델의 경우, 그 환경 내에서는 크기가 큰 모델 대비 속도가 더 빠르고 비용이 획기적으로 적게 들면서도 뛰어난 성능을 낼 수 있다. 따라서, 기업의 용도에 맞는 이상적인 모델을 선택하는 것이 필요하다.  라마 3.1이나 미스트랄 라지 2, IBM 그래니트와 같은 최신 오픈 소스 AI 모델을 제공하는 IBM 왓슨x는 고객이 용도와 목적, 가격과 성능의 최적의 균형을 가진 가장 적합한 AI 모델을 선택해 각 기업에 가장 잘 맞는 방식으로 구현해 보다 쉽게 사용할 수 있도록 지원한다. IBM 왓슨x는 사내 서버, 퍼블릭, 프라이빗, 하이브리드 클라우드 등 기업이 선호하는 인프라 환경에서 모델을 활용할 수 있는 유연성을 제공하는 한편, AI를 활용한 비즈니스 애플리케이션을 쉽게 개발하고, 모든 데이터 소스를 관리하고, 용도에 맞는 미세 조정, 기업에서 사용하는 애플리케이션과의 통합을 위한 직관적인 업무 프로세스를 구축하는 것이 하나의 플랫폼에서 가능하도록 지원한다. 한편, 미스트랄 라지 2 모델은 기업에서 상업적으로 사용하려면 미스트랄 AI에 ‘미스트랄 커머셜 라이선스’을 요청해야 하지만, IBM 왓슨x에서는 상업적 목적으로도 자유롭게 사용할 수 있다.
작성일 : 2024-08-01
CAD&Graphics 2024년 8월호 목차
  17 THEME. 미래를 설계하는 제조산업의 디지털 전환 기술과 사례 개발·양산 라이프사이클 품질 관리의 발전 방향 디지털 기반의 연결과 통합을 위한 미래의 PLM TYM의 디지털 혁신 전략과 PLM/DX 추진 사례 산업 분야의 디지털 전환을 위한 비전 AI의 현재와 미래 AI 시대에 대응하는 멀티 CAD 협업 방안 생성형 AI 동향과 제조 엔지니어링 적용 방법 3D 데이터 활용을 통한 3D 데이터 공유 및 디지털화 실현 3D CAD를 활용한 지능형 경량화/최적화 디지털 트윈 모델링 방안   INFOWORLD   People&Company 48 헥사곤 사이먼 화이트 로맥스 글로벌 제품 총괄 디렉터 시뮬레이션으로 동력계 개발을 더욱 쉽고 빠르게   Case Study 51 아울케미 랩스와 함께 살펴보는 공간 컴퓨팅의 미래 XR 콘텐츠 개발 과정에서 발견한 가능성과 교훈 54 운전 경험의 개인화를 추구하는 리비안 언리얼 엔진으로 새로운 디스플레이 UI에 모험 정신을 구현    New Products 56 대용량 파일을 효율적으로 처리하는 CAD/CAM/CAE 솔루션 ZW3D 2025 60 AI 지원 설계 환경 및 클라우드 협업 강화 NX 업데이트 63 생산성 높이고 비용 줄이는 치과용 3D 프린터 덴타젯 XL 84 이달의 신제품   Focus 64 엔비디아, “PC 기반의 AI가 다양한 분야서 새로운 기회 만든다” 66 한국생산제조학회 2024 춘계학술대회, 생산제조 분야의 최신 AI 기술 동향과 전망 소개 68 지식 공유와 성장이 있는 오토데스크 한국어 커뮤니티 제2회 커뮤니티 밋업 70 오라클, 오픈소스 DB에서 생성형 AI의 활용 위한 서비스 발표 72 젠하이저, 고품질 오디오와 AI 내세우며 회상회의 솔루션 시장 진출   On Air 74 캐드앤그래픽스 CNG TV 지식방송 지상중계 스케치업을 활용한 통합 공간 디자인 프로세스 75 캐드앤그래픽스 CNG TV 지식방송 지상중계 EDA와 MDA 통합 트렌드 및 전망   Column 76 책에서 얻은 것 No. 21 / 류용효 AI 사피엔스 80 디지털 지식전문가 조형식의 지식마당 / 조형식 인공지능과 디지털 지식 점퍼   Editorial 83 Think Different, 다르게 생각하라? 다른 것을 생각하라!   Culture 88 파리 노트르담 대성당 증강현실 특별전…손안에서 만나는 역사의 현장   86 New Books 90 News   Directory 139 국내 주요 CAD/CAM/CAE/PDM 소프트웨어 공급업체 디렉토리   CADPIA   AEC 95 새로워진 캐디안 2024 살펴보기 (8) / 최영석 캐디안 2024 SE의 디자인 센터 98 BIM 칼럼니스트 강태욱의 이슈 & 토크 / 강태욱 AI 전문가 에이전트 개발을 위한 LLM 기반 구조화된 JSON 데이터 RAG 및 생성하기 104 데스크톱/모바일/클라우드를 지원하는 아레스 캐드 2025 (4) / 천벼리 향상된 테이블 기능 109 복잡한 모델에서 인사이트를 얻고 설계 의사결정을 돕는 직스캐드 (5) / 이소연 서드파티 연계 활용 – 폼드론 및 SIC_ALU   Reverse Engineering 112 문화유산 분야의 이미지 데이터베이스와 활용 사례 (8) / 유우식 목판본 고서 데이터베이스   Manufacturing 119 산업 디지털 전환을 위한 버추얼 트윈 (3) / 김수훈 제조산업에서 AR 기술의 혁신적 도입 지원하는 디오타   Analysis 122 앤시스 워크벤치를 활용한 해석 성공사례 / 이상현 맥스웰 및 모터캐드의 신규 연성 해석 기능 127 시뮤텐스 소프트웨어를 활용한 복합소재 해석 (5) / 씨투이에스코리아 Abaqus/CAE용 가상 프로세스 체인 애드온 시뮤체인 130 성공적인 유동 해석을 위한 케이던스의 CFD 기술 (12) / 나인플러스IT 항공 음향 시뮬레이션을 위한 엔지니어 가이드   Mechanical 134 제품 개발 혁신을 가속화하는 크레오 파라메트릭 11.0 (3) / 박수민 개선된 부품 모델링       캐드앤그래픽스 당월호 책자 구입하기   캐드앤그래픽스 당월호 PDF 구입하기  
작성일 : 2024-07-30
엔비디아 AI 파운드리, 메타 라마 3.1 활용해 기업 맞춤형 AI 강화
엔비디아가 메타(Meta)의 오픈소스 AI 모델 컬렉션인 라마 3.1(Llama 3.1)을 통해 전 세계 기업의 생성형 AI를 강화하는 엔비디아 AI 파운드리(NVIDIA AI Foundry) 서비스와 엔비디아 NIM 추론 마이크로서비스를 발표했다. 이를 통해 기업과 국가는 엔비디아 AI 파운드리를 통해 라마 3.1과 엔비디아 소프트웨어, 컴퓨팅, 전문성을 활용해 도메인별 산업 사용 사례에 맞는 맞춤형 ‘슈퍼모델’을 만들 수 있다. 기업은 자체 데이터는 물론, 라마 3.1 405B와 엔비디아 네모트론(Nemotron) 리워드 모델에서 생성된 합성 데이터로 이러한 슈퍼모델을 훈련할 수 있다. 엔비디아 AI 파운드리는 높은 수준의 퍼블릭 클라우드와 공동 설계된 엔비디아 DGX 클라우드(DGX Cloud) AI 플랫폼으로 구동된다. 이를 통해 AI 수요 변화에 따라 쉽게 확장할 수 있는 방대한 컴퓨팅 리소스를 기업에게 제공한다. 새로운 서비스는 기업뿐만 아니라 독자적인 AI 전략을 개발 중인 국가들의 맞춤형 대규모 언어 모델(LLM) 구축을 지원한다. 이들은 고유한 비즈니스나 문화를 반영하는 생성형 AI 애플리케이션을 위해 도메인별 지식을 갖춘 맞춤형 LLM을 구축하고자 한다. 엔비디아는 프로덕션 AI용 라마 3.1 모델의 엔터프라이즈 배포를 강화하기 위해 라마 3.1 모델용 엔비디아 NIM 추론 마이크로서비스를 다운로드할 수 있도록 제공한다. NIM 마이크로서비스는 프로덕션 환경에서 라마 3.1 모델을 배포하는 빠른 방법이며, NIM 없이 추론을 실행하는 것보다 최대 2.5배 더 높은 처리량을 제공한다. 기업은 라마 3.1 NIM 마이크로서비스를 새로운 엔비디아 네모 리트리버(NeMo Retriever) NIM 마이크로서비스와 결합해 AI 코파일럿, 어시스턴트, 디지털 휴먼 아바타를 위한 최첨단 검색 파이프라인을 구축할 수 있다.     엔비디아 AI 파운드리는 맞춤형 슈퍼모델을 빠르게 구축할 수 있는 엔드투엔드 서비스를 제공한다. 이는 엔비디아 소프트웨어, 인프라, 전문성 등을 개방형 커뮤니티 모델, 기술, 엔비디아 AI 에코시스템의 지원에 결합한다. 기업은 엔비디아 AI 파운드리를 통해 라마 3.1 모델과 엔비디아 네모(NeMo) 플랫폼을 사용해 맞춤형 모델을 만들 수 있다. 여기에는 허깅 페이스 리워드 벤치(Hugging Face RewardBench)에서 1위를 차지한 엔비디아 네모트론-4 340B 리워드 모델이 포함된다. 맞춤형 모델이 생성되면, 기업은 선호하는 클라우드 플랫폼과 글로벌 서버 제조업체의 엔비디아 인증 시스템(Certified Systems)에서 원하는 MLOps와 AIOps 플랫폼을 사용할 수 있다. 이를 통해 프로덕션 환경에서 실행할 수 있는 엔비디아 NIM 추론 마이크로서비스를 생성한다. 엔비디아 AI 엔터프라이즈(AI Enterprise) 전문가와 글로벌 시스템 통합 파트너는 AI 파운드리 고객과 협력해 개발부터 배포에 이르는 전체 프로세스를 가속화한다. 도메인별 모델을 만들기 위해 추가 훈련 데이터가 필요한 기업은 맞춤형 라마 슈퍼모델을 만들 때 라마 3.1 405B와 네모트론-4 340B를 함께 사용해 합성 데이터를 생성하면 모델 정확도를 높일 수 있다. 자체 훈련 데이터를 보유한 고객은 도메인 적응형 사전 훈련(DAPT)을 위해 엔비디아 네모로 라마 3.1 모델을 맞춤화해 모델 정확도를 더욱 높일 수 있다. 또한, 엔비디아와 메타는 개발자가 생성형 AI 애플리케이션을 위한 소규모 맞춤형 라마 3.1 모델을 구축하는 데 사용할 수 있는 라마 3.1의 증류 레시피를 제공하기 위해 협력하고 있다. 이를 통해 기업은 AI 워크스테이션과 노트북 같은 광범위한 가속 인프라에서 라마 기반 AI 애플리케이션을 실행할 수 있다. 엔비디아의 젠슨 황(Jensen Huang) CEO는 “메타의 오픈소스 모델인 라마 3.1은 전 세계 기업에서 생성형 AI 채택하는 데 있어 중요한 순간이다. 라마 3.1은 모든 기업과 업계가 최첨단 생성형 AI 애플리케이션을 구축할 수 있는 문을 열었다. 엔비디아 AI 파운드리는 라마 3.1을 전체적으로 통합했으며, 기업이 맞춤형 라마 슈퍼모델을 구축하고 배포할 수 있도록 지원할 준비가 돼 있다”고 말했다. 메타의 마크 저커버그(Mark Zuckerberg) CEO는 “새로운 라마 3.1 모델은 오픈소스 AI에 있어 매우 중요한 단계이다. 기업들은 엔비디아 AI 파운드리를 통해 사람들이 원하는 최첨단 AI 서비스를 쉽게 만들고 맞춤화하며, 엔비디아 NIM을 통해 배포할 수 있다. 이러한 서비스를 사람들에게 제공할 수 있게 돼 기쁘다”고 말했다.
작성일 : 2024-07-26
IBM, 왓슨x에서 미스트랄 라지 AI 모델 지원
IBM은 기업이 고품질, 고성능의 다양한 파운데이션 모델을 폭넓게 이용하고, 자사의 필요에 따라 맞춤형으로 배포할 수 있도록 하기 위한 노력의 일환으로 왓슨x.ai(watsonx.ai)에서 미스트랄 라지(Mistral Large) 모델을 제공한다고 발표했다. 인공지능(AI) 개발자를 위한 IBM의 기업용 AI 스튜디오인 왓슨x.ai는 IBM의 그래니트(Granite) 모델 외에도 다양한 오픈소스 및 상용 모델 선택이 가능하며, 이를 용도에 따라 변형하거나 비즈니스 솔루션 및 애플리케이션과 통합해 사용할 수 있다. IBM은 이미 왓슨x.ai 내에서 기업 환경에 적용할 수 있는 소규모 모델인 Mixtral-8x7B를 제공하고 있다. 이 모델은 IBM이 최적화한 모델로, 주어진 시간 동안 처리할 수 있는 데이터의 양이 기존 모델보다 50% 증가했다. 이번에 새롭게 추가된 미스트랄 라지는 서비스형 소프트웨어(SaaS)로 먼저 제공된다. 이제 왓슨x 고객은 추론과 다국어 기능이 필요한 복잡한 전사적 작업을 처리하도록 최적화된 미스트랄 AI의 가장 강력한 모델을 활용할 수 있다. 검색증강생성(RAG) 전문화를 통해 더 장시간의 채팅 상호작용과 대용량 문서 처리가 가능하며, 사용자 정의 함수나 API와 같은 외부 도구에 연결할 수 있고, 뛰어난 코딩 성능으로 특정 용도에 맞는 애플리케이션을 쉽게 구축할 수 있다. 책임감 있는 AI 구축을 위해 안전장치로 사용할 수 있는 ‘가드레일(guardrail)’ 기능이 내장되어 있기도 하다.     아울러, 기업은 이제 왓슨x 플랫폼에서 미스트랄 라지를 통해 데이터 스토어, 프롬프트 랩, 모델 튜닝, 프로세스 모니터링 및 거버넌스 기능을 포함한 추가적인 엔터프라이즈 지원 제품을 활용할 수 있다. 왓슨x 고객은 특정 플랫폼에 종속되지 않고 온프레미스(사내 서버)나 퍼블릭 클라우드 제공업체 등 원하는 환경에서 왓슨x.ai 내 모델을 배포할 수 있다. 빠르게 변화하는 AI 분야에서 기업이 민첩하게 적응하고 인프라 및 개발에 대한 매몰 투자를 피하려면 유연성이 핵심이기 때문이다. IBM은 왓슨 플랫폼에 미스트랄 AI의 상용 모델을 제공함으로써 개방형 멀티 모델 전략을 더욱 확장하고 기업이 혁신, 변화, 확장할 수 있도록 지원한다는 계획이다. 또, 책임감 있게 기업 혁신에 기여하고자 하는 IBM의 의지를 바탕으로, IBM은 한도형 지적 재산권 보상 제도를 통해 미스트랄 라지에 대한 고객 보호를 제공한다고 밝혔다. 이는 IBM이 자사의 AI 모델인 IBM 그래니트 모델에 대한 고객 보증 제도를 적용한 이래 제3자 파운데이션 모델까지 확대한 첫 번째 사례이다.
작성일 : 2024-07-26
[포커스] 매스웍스, 디지털 제품 개발 위한 MBD 비전 제시
매스웍스코리아가 6월 11일 연례 기술 콘퍼런스인 ‘매트랩 엑스포 2024 코리아’를 진행했다. 이번 행사에서는 매트랩(MATLAB)과 시뮬링크(SIMULINK) 등 자사 솔루션을 활용한 제품 개발 향상 방안과 활용사례가 소개됐는데, 매스웍스는 디지털 엔지니어링과 MBD(모델 기반 설계)가 향후 제품 개발의 핵심이 될 것이라고 강조했다. ■ 정수진 편집장   디지털 엔지니어링의 중심, MBD 매트랩 엑스포는 매스웍스의 고객과 기술 전문가들이 인공지능, 전동화, 무선 및 신호처리 등 주요 기술 트렌드에 대한 모범 사례와 인사이트를 공유하는 종합 기술 콘퍼런스이다. 작년에는 온 . 오프라인 하이브리드 행사로 진행됐는데, 올해는 오프라인 행사로 진행하면서 규모를 키웠다는 것이 매스웍스코리아의 설명이다. 매스웍스의 아룬 멀퍼(Arun Mulpur) 인더스트리 디렉터는 이번 행사에서 ‘디지털 엔지니어링을 위한 MBD의 영향력과 방향’에 대해 소개하면서, “디지털 엔지니어링의 핵심은 모델 중심, 데이터 통합, 팀 문화의 변혁이며 이런 디지털 엔지니어링의 근간에는 MBD가 있다”고 짚었다.   ▲ 디지털 엔지니어링과 MBD의 가치를 설명한 매스웍스 아룬 멀퍼 디렉터   통합된 MBD 플랫폼으로 제품 개발의 복잡성 해결 매스웍스가 바라보는 MBD는 설계 데이터뿐 아니라 제품에 관련된 다양한 데이터를 디지털 모델로 활용하는 것이다. 폭넓은 데이터의 복잡성을 처리하기 위해 모델링과 시뮬레이션(M&S)을 활용하고, 물리 모델링/신호 처리/소프트웨어 등 다양한 영역을 통합 처리하는 것이 매스웍스가 바라보는 MBD의 역할이다. 멀퍼 디렉터는 “디지털 엔지니어링의 개념을 많은 기업에서 도입하고 있으며, 이를 실현하기 위한 수단으로 MBD에 주목하고 있다”고 설명했다.  개발해야 하는 제품 시스템이 복잡해지면서 다양한 엔지니어링 기술이 투입되는데, 여러 엔지니어링 분야 사이에는 요구되는 전문지식이 달라서 커뮤니케이션과 협업이 어려운 경우가 생긴다. MBD는 엔지니어링의 상위 단계에서 가상 플랫폼으로 시스템을 검증할 수 있도록 해서 이를 해결할 수 있다는 것이 매스웍스의 설명이다. 가상 환경에서 제품을 개발하는 것뿐 아니라 현실 데이터를 기반으로 가상 모델의 파라미터를 튜닝할 수 있다는 것도 매스웍스가 내세우는 MBD의 이점이다. 멀퍼 디렉터는 “복잡성은 예상하지 못한 문제의 원인이 되는 경우도 많다. 매스웍스는 수백만 개의 시뮬레이션을 클라우드에서 동시에 수행해서 복잡성을 처리할 수 있도록 한다. 또한, 다양한 툴과 환경을 사용할 수 있는 플랫폼을 제공해 매스웍스뿐 아니라 더 넓은 생태계를 활용할 수 있도록 돕는다”고 전했다.   디지털 엔지니어링 위한 자율화, 연결성, 전동화에 대응 자율화(autonomous), 연결성(connectivity), 전동화(electrification) 등 산업 애플리케이션 트렌드는 엔지니어의 개발 업무에도 영향을 주고 있다. 이런 상황에서 매스웍스는 시스템 엔지니어링의 성장, 소프트웨어 중심 개발의 확대, 인공지능(AI)의 활용 등이 엔지니어링 업무의 주요한 흐름이 될 것으로 보고 있다. 멀퍼 디렉터는 디지털 엔지니어링을 성공시키기 위해 매스웍스가 제공하는 기술 요소를 다음과 같이 소개했다. 모든 것의 자동화 : 자동화는 MBD의 근간이 되어 왔다. 이제는 연산 기술과 소프트웨어를 결합해 라이프사이클 전체의 관리를 자동화해야 한다. 복잡한 시스템으로의 확장 : 컴포넌트/서브시스템에서 나아가 복잡한 시스템 아키텍처를 설계하기 위해 소프트웨어 중심의 아키텍처(Soffware-Oriated Architecture : SOA)가 필요하다. 코드 생성 자동화 : 이는 MBD의 장점 중 하나이다. 이미 수천에서 수백만 라인의 코드를 자동으로 생성해 만든 제품이 일상에서 쓰이고 있다. 매스웍스는 인피니온 등 반도체 기업과 파트너십을 통해 이를 지원한다. 결함의 조기 방지 : MBD의 핵심 가치 중 하나는 포괄적으로 결함을 빠르게 검증 및 제거하는 것이다. 매스웍스는 디자인/테스트/코드/인증 등 여러 단계서 결함 검증 툴을 제공하며, 이를 통해 더욱 초기 단계에서 결함을 수정하기 위한 투자를 진행할 수 있다. 앱 표준 소프트웨어 워크플로 : 국내서는 현대자동차, 국방과학연구소 등에서 이를 활용하고 있다. 컨티넨탈은 매트랩으로 산출물 처리, 요구사항 관리, 코드 제작 등을 수행하면서 워크플로를 향상시켰다. 클라우드 기반 설계 및 시뮬레이션 : 매스웍스는 시뮬링크에서의 코드 생성부터 시높시스 환경에서의 검증까지 AWS 클라우드에서 구동할 수 있도록 지원한다. 인공지능을 활용한 설계 : 코드 자동 생성에 인공지능과 ROM(축소 차수 모델)을 사용하거나, 제품 설계 후 인공지능을 칩이나 클라우드에 배포할 수 있다. 매스웍스는 단일 생태계를 통해 파이썬 . 매트랩 . 오픈소스 코드 배포의 자동화까지 지원한다.   ▲ 매스웍스가 제시하는 AI와 MBD의 결합   한편, 매스웍스코리아의 이종민 대표이사는 “한국 지사인 매스웍스코리아는 자동차, 통신, 국방 등 산업을 핵심 시장으로 삼아 지난 20년간 꾸준히 성장하면서, 매년 비즈니스 목표를 달성하고 있다”면서, “매스웍스는 새로운 기능을 꾸준히 추가하면서 타깃 산업을 넓히고 있다. 특히 최근에는 시뮬링크와 인공지능을 결합해 AI 시뮬레이션을 구현하는 데에 초점을 맞추고 있다”고 소개했다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-07-03