• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "토큰"에 대한 통합 검색 내용이 94개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
엔비디아, 오라클 클라우드 인프라에 블랙웰 GPU 지원
엔비디아가 오라클에 엔비디아 블랙웰(NVIDIA Blackwell) GPU를 지원해 에이전틱 AI와 추론 모델의 혁신을 가속화하고 있다고 밝혔다. 오라클은 자사 데이터센터에 수랭식 엔비디아 GB200 NVL72 랙을 최초로 도입하고 최적화했다. 현재 수천 개의 엔비디아 블랙웰 GPU가 엔비디아 DGX 클라우드(DGX Cloud)와 오라클 클라우드 인프라스트럭처(Oracle Cloud Infrastructure : OCI)를 통해 고객이 사용할 수 있도록 배치되고 있다. 이는 차세대 추론 모델과 AI 에이전트 개발과 실행을 지원한다. 오라클이 도입한 GB200에는 고속 엔비디아 퀀텀-2 인피니밴드(Quantum-2 InfiniBand)와 엔비디아 스펙트럼-X 이더넷(Spectrum-X Ethernet) 네트워킹이 포함된다. 이를 통해 확장 가능하고 저지연 성능을 구현하며, 엔비디아와 OCI 소프트웨어와 데이터베이스 통합의 풀스택을 지원한다. OCI는 엔비디아 GB200 NVL72 시스템을 최초로 도입한 기업 중 하나이다. OCI는 세계 최대 규모의 블랙웰 클러스터를 구축하려는 계획을 갖고 있다. OCI 슈퍼클러스터(Supercluster)는 10만 개 이상의 엔비디아 블랙웰 GPU로 확장해 전 세계적으로 급증하는 추론 토큰과 가속 컴퓨팅 수요를 충족할 예정이다. 지난 몇 주 사이 오픈AI(OpenAI)를 비롯한 여러 기업에서 새로운 추론 모델을 출시하면서 AI 혁신은 빠른 속도로 계속되고 있다.     엔비디아는 “OCI의 사례는 엔비디아 그레이스(Grace) 블랙웰 시스템이 전 세계적으로 본격 가동되기 시작한 최신 사례이다. 이는 클라우드 데이터센터를 대규모 인텔리전스를 제조하는 AI 팩토리로 탈바꿈시키고 있다”고 설명했다. 이러한 새로운 AI 팩토리는 36개의 엔비디아 그레이스 CPU와 72개의 엔비디아 블랙웰 GPU를 결합한 랙 스케일 시스템인 엔비디아 GB200 NVL72 플랫폼을 활용한다. 이를 통해 고급 AI 추론 모델 기반의 에이전틱 AI를 위한 고성능과 에너지 효율을 제공한다. OCI는 모든 규모의 고객에게 블랙웰을 제공할 수 있는 유연한 배포 옵션을 지원한다. 여기에는 공공, 정부, 소버린 클라우드는 물론 OCI 전용 리전(Dedicated Region)과 OCI 알로이(Alloy)를 통한 고객 소유의 데이터센터까지 포함된다. 한편 새로운 GB200 NVL72 랙은 엔비디아 DGX 클라우드에서 사용할 수 있는 첫 번째 시스템이다. 엔비디아 DGX 클라우드는 OCI와 같은 주요 클라우드에서 AI 워크로드를 개발하고 배포하기 위해 소프트웨어, 서비스, 기술 지원을 제공하는 최적화된 플랫폼이다. 엔비디아는 추론 모델 훈련, 자율주행차 개발, 칩 설계와 제조 가속화, AI 도구 개발 등 다양한 프로젝트에 이 랙을 사용할 예정이다. GB200 NVL72 랙은 현재 DGX 클라우드와 OCI에서 사용할 수 있다.
작성일 : 2025-04-30
오픈소스 LLM 기반 블렌더 모델링 AI 에이전트 개발하기
BIM 칼럼니스트 강태욱의 이슈 & 토크   이번 호에서는 올라마(Ollama)와 오픈AI(OpenAI) GPT가 지원하는 오픈 소스 AI 모델을 블렌더(Blender)와 연결해 프롬프트 입력에 의한 자동 모델링 에이전트를 개발하는 방법을 설명한다. 이 연결을 통해 3D 모델링 작업 흐름을 간소화하고, 간단한 텍스트 프롬프트만으로 3D 장면을 생성하고 수정할 수 있다. 이번 호의 내용을 통해 이 프로세스를 직접 구현하는 방법을 이해하고, AI 에이전트 도구로서 LLM 모델의 역량을 평가할 수 있다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   그림 1. 프롬프트 : ‘Generate 100 cubes along the line of a circle with a radius of 30. The color and size of each cube are random.’   개념 : 텍스트 기반 3D 모델링 ‘텍스트 기반 3D 모델링’이란, 사용자가 입력한 텍스트를 AI 모델이 분석하여 블렌더에서 실행할 수 있는 코드를 생성하고 이를 통해 3D 그래픽을 구현하는 방식이다. 텍스트 토큰을 조건으로 설정하여 메시 모델을 생성하는 방법도 존재하며, 이는 스테이블 디퓨전(Stable Diffusion : SD) 계열의 기술을 활용하는 경우가 많다. 그러나 SD 기반 모델은 정확한 크기와 위치를 지정하는 데 근본적인 한계를 가진다. 이번 호에서는 정확한 치수를 가진 모델을 생성하는 것에 초점을 맞추고 있으므로, SD 기반 모델에 대한 자세한 설명은 생략한다. 텍스트를 3D 모델로 변환하는 에이전트 도구는 CAD 툴과의 상호작용 방식을 개선할 가능성이 있으며, 그래픽 모델링의 진입 장벽을 낮추고 신속한 프로토타이핑이 가능할 수 있다.   실행 가능한 코드 다운로드 이번 호의 내용과 관련된 실행 가능한 코드는 깃허브(GitHub)에서 다운로드할 수 있으니 참고한다. GitHub 링크 : https://github.com/mac999/blender-llm-addin   라이브러리 설치 블렌더와 올라마를 설치해야 한다.   1. 블렌더 다운로드 : blender.org   2. 윈도우에서 올라마 다운로드 : https://ollama.com/download   3. 오픈 소스 LLM 모델 설치(터미널에서 실행) ollama pull llama3.2 ollama pull gemma2 ollama pull codellama ollama pull qwen2.5-coder:3b ollama pull vanilj/Phi-4   4. 필요한 라이브러리 설치 pip install pandas numpy openai ollama   블렌더의 파이썬(Python) 환경에서 라이브러리를 설치하려면, 블렌더 설치 경로에 맞게 다음을 실행해야 한다. cd "C:/Program Files/Blender Foundation/Blender /python/bin" ./python.exe -m ensurepip ./python.exe -m pip install pandas numpy openai ollama   코드 설명 블렌더 UI 패널 생성 사용자가 블렌더에서 직접 모델을 선택하고 텍스트 프롬프트를 입력할 수 있도록 커스텀 UI를 생성한다. class OBJECT_PT_CustomPanel(bpy.types.Panel):  bl_label = "AI Model Selector"  bl_idname = "OBJECT_PT_custom_panel"  bl_space_type = 'VIEW_3D'  bl_region_type = 'UI'  bl_category = "Gen AI 3D Graphics Model"  def draw(self, context):   layout = self.layout   layout.label(text="Select Model:")   layout.prop(context.scene, "ai_model", text="")   layout.label(text="User Prompt:")   layout.prop(context.scene, "user_prompt", text="")   layout.operator("object.submit_prompt", text="Submit")     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-04-02
멘딕스 10.18 : 소프트웨어 개발 라이프사이클에 로코드와 AI 결합
개발 및 공급 : 멘딕스 주요 특징 : 생성형 AI 인스턴스 생성 및 AI 애플리케이션 개발을 돕는 생성형 AI 리소스 팩 도입, 디지털 혁신을 지원하는 새로운 통합 툴 제공, 스마트 개발을 위한 생성형 AI 기반 서비스 세트 업데이트 등     지멘스의 자회사인 멘딕스는 멘딕스 10.18(Mendix 10.18) 버전을 공식 출시한다고 밝혔다. 최신 릴리스는 보다 쉽게 소프트웨어 개발에 활용할 수 있는 새로운 기능과 성능 업그레이드 및 AI 기반 개선사항 등을 포함하고 있다. 멘딕스 10.18은 로코드(low-code)와 AI 성능을 결합하여 기업에 다음과 같은 기능을 제공한다. 소프트웨어 개발 라이프사이클(SDLC : Software Development Lifecycle) 전반에 걸쳐 AI 기반 지원 기능 제공 온보딩 및 소프트웨어 개발 경험을 간소화하여, 보다 빠르고 뛰어난 생산성 제공 생성형 AI(GenAI) 출력 및 환경에 대한 접근성, 가시성, 거버넌스 개선 플랫폼에 내장된 마이아(Maia : Mendix Artificial Intelligence Assistance)에 대한 추가 업데이트를 통해 보다 스마트한 개발 작업과 보다 용이한 스마트 앱의 빌드 및 배포 지원 이번 업데이트는 세 가지 주요 영역에 대한 새로운 기능과 개선사항이 추가되면서, 지속적으로 혁신 비전을 실현하고자 하는 멘딕스의 의지를 나타낸다.    아이디어를 영향력 있는 설루션으로 전환할 수 있도록 AI 혁신 역량 강화 멘딕스10.18에 새롭게 개선된 생성형 AI 기능이 도입되면서, 기업들은 스마트 앱을 위한 유연성과 속도, 거버넌스를 비롯해 더욱 다채로운 사용자 경험과 스마트 애플리케이션을 보다 용이하게 제공할 수 있게 되었다. 또한, 멘딕스는 10.18 버전에서 제한적으로 제공되는 멘딕스 클라우드 생성형 AI 리소스 팩(Mendix Cloud GenAI Resource Pack)을 도입하여, 생성형 AI 기술을 실험하거나 사용자를 위한 지능형 애플리케이션을 개발하고자 하는 기업들의 진입 장벽을 낮췄다. 이 번들에는 다음과 같은 두 가지 팩이 포함되어 있다. 멘딕스 클라우드 모델 리소스 팩 : 사용자가 플랫폼 내에서 생성형 AI 인스턴스를 신속하게 생성하고, 자체 하이퍼스케일러 환경을 설정하는데 따르는 조직적 차원의 장애물을 제거할 수 있도록 지원 멘딕스 클라우드 지식 기반 리소스 팩 : 사용자가 멘딕스 플랫폼 내에서 회사 자체 데이터에 기반한 생성형 AI 모델을 바탕으로 상황인식 기능을 개선하고, 보다 정확한 응답을 제공할 수 있도록 지원 생성형 AI 리소스 팩은 사용자가 소비한 토큰(token) 모니터링을 통해 개별 앱이나 포트폴리오 전반에 걸쳐 일일, 주간, 월간 또는 지정된 기간별로 사용량을 추적함으로써, 생성형 AI 소비 규모에 대한 가시성을 제공한다. 이외에도, 멘딕스 10.18은 멘딕스 플랫폼 내에서 데이터 과학 및 애플리케이션 개발 협업을 촉진하는 새로운 프롬프트 관리 기능을 플랫폼 내에 도입했다. 새롭게 추가된 프롬프트 관리 기능은 실험 프로세스를 간소화하고 가속화할 수 있도록 설계되었다. 사용자는 프롬프트를 손쉽게 전환하여 유효성을 테스트하고, 가장 정확하고 관련성이 높은 원하는 결과를 도출할 수 있다. 또한, 트랜잭션당 토큰 사용량을 추정할 수 있어 기업이 특정 적용 사례의 비즈니스 가치 창출 여부를 판단하는 데 도움을 준다.   지능형 AI 기반 개발 지원으로 성공 가속화 멘딕스 10.18에는 로코드에 익숙하지 않은 기업이 디지털 혁신을 보다 효과적으로 수행할 수 있도록 콤파스(Compass)라는 새로운 통합 툴을 도입했다. 이 툴은 디지털 프로세스의 다양한 측면을 가이드하고, 멘딕스의 엔터프라이즈급 로코드 개발 플랫폼에 대한 전문가 온보딩을 제공한다. 또한, 스마트 개발을 위해 구축된 생성형 AI 기반 서비스 세트인 마이아에 대한 추가 업데이트도 지원된다. 멘딕스 개발자를 위한 가이드, 지원, 생성 기능을 제공하는 마이아는 다음과 같은 확장 기능이 추가되었다.  자연어 프롬프트를 사용하여 새로운 도메인 모델을 정의하거나, 기존 도메인 모델을 확장할 수 있도록 도메인 모델 생성 지원 멘딕스를 처음 접하는 개발자를 위해 마이아 챗(Maia Chat)에서 탐색 가능한 학습 자료 제공 페이지에 위젯 추가 프로세스를 간소화하고 가속화하는 UI 추천기(UI Recommender) 제공 이외에도, 멘딕스 10.18 버전에 추가된 새로운 개발자 환경 개선사항은 다음과 같다. 언어 감지 및 응답 기능을 통해 사용자가 자신의 모국어로 마이아 챗과 소통할 수 있도록 다국어 지원 강화 기본적으로 영어로 구현된 멘딕스 통합개발환경(Mendix IDE)에 대한 독일어, 일본어, 한국어, 중국어 버전 제공 멘딕스 애플리케이션의 보안 검토 프로세스를 간소화할 수 있도록 설계된 새로운 보안 개요(Security Overview) 지원 재설계된 피드백 모듈(App Insights Feedback Module)을 통해 사용자 통찰력으로 개발 방향을 가이드할 수 있도록 지원. 맞춤형 UX 스타일링으로 피드백 경험을 브랜드와 일치하도록 조정 가능   엔터프라이즈 소프트웨어 개발 라이프사이클 전반에 걸쳐 AI 모범사례에 대한 제어 및 가시성 강화 멘딕스는 소프트웨어 개발 라이프사이클 전반에 걸쳐 거버넌스와 가시성을 개선할 수 있도록 지원하는데 주력하고 있다. 멘딕스 10.18은 생성형 AI를 보다 스마트하고 안전하며 비용 효율적으로 구축하는데 중점을 두었다. 고객들은 새로운 멘딕스 클라우드 생성형 AI 리소스 팩을 이용해 보다 손쉽게 생성형 AI를 구축할 수 있다. 사용자는 플랫폼 내에서 제공되는 지식 기반 및 통합 정보검색 기반 생성(RAG : Retrieval-Augmented Generation) 기능을 통해 자체 데이터 기반의 생성형 AI 모델을 손쉽게 구현할 수 있다. 또한, 10.18은 생성형 AI 애플리케이션을 보호하기 위한 콘텐츠 필터 기능도 도입했다. 맞춤형 필터는 문제가 되는 콘텐츠를 감지하여 일관되고, 안전하게, 책임감 있는 AI 환경을 대규모로 촉진할 수 있는 툴을 기업에게 제공함으로써, 유해한 콘텐츠를 최소화하고 편향, 혐오, 욕설 등과 같은 민감한 주제를 해결할 수 있도록 지원한다. 이러한 기능은 일부 기업이 규제 및 콘텐츠 관리 문제로 인해 생성형 AI 사용을 꺼리고 있다는 업계의 우려가 확산하는 가운데 도입된 것이다. 이외에도, 멘딕스는 배포 자동화 툴인 파이프라인(Pipelines)에 AI와 새로운 JIRA를 통합하여 멘딕스 모범 사례와 애플리케이션 모델을 비교함으로써 애플리케이션의 품질을 보장하고, 개발자의 생산성을 높일 수 있도록 지원한다. 데이터스케일HR(datascalehr)의 엔지니어링 담당 책임자인 루크 자와즈키(Luke Zawadzki)는 “멘딕스는 새로운 기능이나 동작을 신속하게 프로토타이핑할 수 있도록 지원한다. 이러한 기능을 통해 프로세스 초기에 실제로 동작 가능한 기능을 테스트하고 문제를 발견하거나, 이를 조기에 조정할 수 있다”고 말했다. 데이터스케일HR은 멘딕스와 함께 AI 기반 급여 플랫폼을 제공하는 비즈니스 서비스 조직이다. 멘딕스의 한스 드 비저(Hans de Visser) 최고제품책임자(CPO)는 “10.18 버전은 생성형 AI와 비즈니스 모범사례가 끊임없이 진화하는 중요한 시기에 출시되었다. 우리는 플랫폼 전반에 걸쳐 고객에게 유의미한 생성형 AI 서비스를 제공하는데 중점을 두고 있다”면서, “이번에 제공되는 모든 업데이트는 AI 기능에 대한 접근성을 민주화하고, 사용자들이 성공에 필요한 툴을 갖추는데 직접적인 영향을 미치게 될 것이다. 멘딕스는 지속적으로 서비스 포트폴리오를 발전시킴으로써 애플리케이션 레벨에서 플랫폼 레벨로 거버넌스를 강화할 것”이라고 밝혔다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-03-06
세일즈포스, AI 에이전트 플랫폼에 구글 제미나이 도입 
세일즈포스가 구글 클라우드와 전략적 파트너십을 확장한다고 발표했다. 세일즈포스는 구글의 AI 모델과 클라우드 인프라를 기반으로 기업이 비즈니스 환경에 최적화된 AI 모델을 자유롭게 선택하고, AI 에이전트를 안전하게 구축할 수 있도록 지원 역량을 지속 강화해 나갈 계획이다. 2024년 9월 구글과의 전략적 파트너십을 발표한 세일즈포스는 이번 파트너십 확장을 통해 자사의 AI 에이전트 플랫폼 ‘에이전트포스’에 구글의 최신 AI 모델인 ‘제미나이(Gemini)’를 도입한다. 또한, 에이전트포스, 데이터 클라우드, 커스터머 360 등 주요 AI 서비스를 구글 클라우드에서 운영할 수 있도록 지원하여, 기업이 특정 AI 모델에 종속되지 않고 비즈니스 목표에 맞는 최적의 AI 모델을 선택할 수 있는 환경을 마련했다. 제미나이의 도입으로 에이전트포스는 이미지, 오디오 및 비디오 데이터를 모두 처리할 수 있는 멀티모달 기능을 구현할 수 있으며, 제미나이의 200만 ‘토큰 컨텍스트 윈도우(Two-million-token Context Windows)’를 활용해 더욱 복잡한 잡업을 처리할 수 있게 된다. 또한, 구글의 ‘버텍스 AI(Vertex AI)’와의 연동으로 실시간 검색 및 분석 기능이 한층 강화되어 보다 신뢰할 수 있는 답변 제공이 가능해진다. 세일즈포스는 제미나이가 포함된 에이전트포스를 각 산업군별 현업 환경에서 다양한 방식으로 활용할 수 있다고 소개했다. 보험 업계에서는 사고 현장 사진과 음성 증언을 AI가 자동 분석해 보험금 청구의 타당성을 즉시 평가하고, 음성 합성 기술을 활용해 고객에게 결과를 전달할 수 있다. 공급망 관리(SCM) 분야에서는 AI가 커머스 클라우드의 배송 추적 데이터와 구글 검색의 실시간 기상 정보, 항구 혼잡도 등을 종합 분석해 잠재적인 위험을 사전에 파악할 수 있도록 지원한다.     세일즈포스는 이번 파트너십을 통해 AI 보안과 신뢰도 강화에도 주력할 계획이다. 세일즈포스의 고객은 이제 세일즈포스의 ‘통합 플랫폼(Unified Platform)’을 구글 클라우드의 AI 최적화 인프라에서 운영할 수 있으며, 세일즈포스의 ‘아인슈타인 트러스트 레이어(Einstein Trust Layer)’로부터 제공되는 ▲다이나믹 그라운딩 ▲제로 데이터 리텐션 ▲독성검사 등의 기능을 바탕으로 엔터프라이즈급 보안 환경을 경험할 수 있다. 또한 이후 세일즈포스의 제품이 구글 클라우드에 출시될 경우, 고객은 구글 클라우드 마켓플레이스에서 세일즈포스의 각종 설루션을 구매할 수 있다. 이번 파트너십 확대는 고객 서비스 부문에도 변화를 가져온다. 세일즈포스는 서비스 클라우드와 구글의 ‘고객 인게이지먼트 제품군(Customer Engagement Suite)’의 통합으로 AI 기반의 실시간 음성 번역, 상담원 간 지능형 업무 전환, 맞춤형 상담 가이드 등 고도화된 컨택센터 기능을 제공할 것이라고 밝혔다. 이를 통해 기업은 모든 고객접점 채널에서 일관된 AI 기반 상담 서비스를 제공할 수 있으며, 고객 문의의 특성에 따라 효율적인 상담원 연계가 가능해진다. 이외에도 세일즈포스는 AI 기반 지능형 생산성 플랫폼 슬랙(Slack)과 구글 워크스페이스의 통합을 기반으로 협업 환경을 한층 강화할 것이라고 밝혔다. 세일즈포스에 따르면 슬랙에서 구글 드라이브 파일을 검색 및 활용하는 기능과 지메일(Gmail)과 슬랙 간의 연동 등의 기능을 포함한다. 데이터 분석 환경 역시 한층 고도화될 예정이다. 세일즈포스는 데이터 클라우드와 구글의 빅쿼리(BigQuery), 코텍스 프레임워크(Cortex Framework) 간의 연결성을 강화하여, 기업이 조직 내 데이터 전반에 걸쳐 AI 에이전트를 안전하고 손쉽게 구축할 수 있게 될 것이라고 밝혔다. 이에 더해 세일즈포스의 지능형 데이터 분석 플랫폼, 태블로(Tableau)와 구글의 루커(Looker) 및 빅쿼리 간의 통합을 바탕으로 모든 플랫폼상의 비즈니스 데이터를 단일 플랫폼 내에서 분석 및 시각화할 수 있는 데이터 분석 환경을 제공할 것이라고 전했다. 세일즈포스의 스리니 탈라프라가다(Srini Tallapragada) 최고 엔지니어링 및 고객 성공 책임자는 “세일즈포스와 구글 클라우드는 고객이 최적의 AI 모델과 애플리케이션을 자유롭게 선택하고 활용할 수 있는 개방적이고 유연한 환경을 만들어 나가고 있다”면서, “세일즈포스는 엔터프라이즈급 AI 에이전트 플랫폼을 통해 기업의 신속한 AI 도입과 비즈니스 가치 창출을 지원하고 있으며, ‘디지털 레이버(Digital Labor)’ 플랫폼으로서 구글 클라우드와 함께 전 세계 기업의 AI 혁신 가속화를 견인할 것”이라고 밝혔다. 세일즈포스 코리아의 손부한 대표는 “구글 클라우드와의 이번 파트너십을 기점으로, 국내 기업들 또한 AI 기술을 보다 안전하고 유연한 환경에서 도입 및 활용할 수 있게 될 것으로 기대한다”면서, “이미 국내 시장에서도 대기업을 필두로 AI 에이전트 기반의 혁신을 가속화하고 있으며, 그 중심에서 세일즈포스는 신뢰할 수 있는 파트너로서 인간과 AI 에이전트가 함께 협업하는 새로운 미래를 만들어 나가기 위한 지원을 아끼지 않을 것”이라고 전했다.
작성일 : 2025-02-26
HPE, 엔비디아 블랙웰 기반 첫 번째 시스템 GB200 NVL72 공식 출하
HPE는 엔비디아 블랙웰(NVIDIA Blackwell) 기반 첫 번째 설루션인 엔비디아 GB200 NVL72의 출하를 발표했다. 이 랙 스케일 시스템은 서비스 제공기업(SP)과 대기업이 첨단 DLC 설루션을 통해 효율성과 성능을 최적화하며, 복잡한 대규모 인공지능(AI) 클러스터를 빠르게 구축할 수 있도록 설계되었다. HPE가 새롭게 출하한 엔비디아 GB200 NVL72는 생성형 AI, 과학적 발견 및 기타 컴퓨팅 집약적인 워크로드를 위한 다양한 고성능 컴퓨팅 및 슈퍼컴퓨팅 시스템 중 하나이다. HPE 기반 엔비디아 GB200 NVL72시스템은 고속 엔비디아 NV링크(NVIDIA NVLink)을 통해 상호 연결된 72개의 엔비디아 블랙웰 GPU 및 36개의 엔비디아 그레이스(NVIDIA Grace) CPU를 탑재했다. 최대 13.5 TB의 HBM3e 메모리 및 초당 576TB 대역폭을 지원하며, HPE의 DLC 기술을 적용했다. 엔비디아 GB200 NVL72는 하나의 메모리 공간에서 1조 개 이상의 파라미터로 구성된 초대규모 AI 모델을 처리할 수 있도록 설계된 그래픽 처리장치(GPU) 기술과 공유 메모리(shared-memory) 및 저지연 아키텍처를 갖추고 있다. 또한, 이는 엔비디아의 중앙처리장치(CPU), GPU, 컴퓨트 및 스위치 트레이, 네트워킹, 소프트웨어를 통합하여, 엔비디아 소프트웨어 애플리케이션과 함께 생성형 AI(GenAI) 모델 학습 및 추론과 같은 병렬화 가능한 워크로드를 처리할 수 있는 고성능을 제공한다. 전력 요구사항 및 데이터센터 집적도의 증가에 따라, HPE는 50년 간 쌓아온 수냉 전문 지식을 바탕으로 고객이 복잡한 수냉 환경에 대해 신속한 구축과 광범위한 인프라 지원 시스템을 제공할 수 있도록 지원하고 있다. 이러한 경험을 바탕으로 HPE는 세계에서 가장 에너지 효율적인 슈퍼컴퓨터를 선정하는 그린500(Green500) 리스트의 상위 15개 슈퍼컴퓨터 중 8대를 제공할 수 있었다. HPE는 또한 DLC 기술 분야에서 선도적인 기업으로 인정받으며, 세계에서 가장 빠른 슈퍼컴퓨터 상위 10개 중 7대를 구축한 바 있다. HPE의 트리시 댐크로거(Trish Damkroger) HPC 및 AI 인프라 설루션 부문 수석 부사장 겸 총괄은 “AI 서비스 제공기업과 대기업 모델 개발자는 확장성, 최상의 성능, 빠른 구축 속도를 제공해야 한다는 압박을 받고 있다”며, “DLC를 통해 세계 3대 최고속 시스템을 구축한 HPE는 업계 최고의 서비스 전문성으로 고객에게 토큰 당 학습 비용을 낮추고 동급 최고의 성능을 제공한다”고 전했다. 엔비디아의 밥 페트(Bob Pette) 엔터프라이즈 플랫폼 부문 부사장은 “엔지니어, 과학자, 연구원은 증가하는 전력과 컴퓨팅 요구사항을 따라잡기 위해 최첨단 수냉 기술이 필요하다”며, “HPE와 엔비디아 간의 지속적인 협업을 바탕으로, HPE의 첫 번째 엔비디아 GB200 NVL72 출하는 서비스 제공기업과 대기업이 대규모 AI 클러스터를 효율적으로 구축하고 배포하며 확장할 수 있도록 도울 것”이라고 소개했다. 한편, HPE는 전문가 현장 지원, 맞춤형 서비스 및 지속 가능성 서비스 등 역량을 바탕으로 대규모 맞춤형 AI 클러스터를 지원하며, 글로벌 규모에서 AI 설루션을 제공한다고 소개했다. HPC 및 AI 맞춤형 지원 서비스는 고객의 요구사항에 맞게 최적화되어 있다. 여러 수준의 서비스 수준 계약(SLA)을 제공하는 HPE는 전담 원격 엔지니어를 통한 적극적인 지원으로 사고 관리 기능을 강화하고, 신속한 설치와 빠른 가치 실현 시간을 지원한다. 
작성일 : 2025-02-20
엔비디아, NIM에서 딥시크-R1 지원 시작
엔비디아는 개발자가 활용할 수 있도록 딥시크-R1(DeepSeek-R1) 모델을 엔비디아 NIM 마이크로서비스 프리뷰로 제공한다고 밝혔다. 개발자들은 딥시크-R1 모델을 활용해 애플리케이션 프로그래밍 인터페이스(API)를 테스트하고 실험할 수 있으며, 이는 엔비디아 AI 엔터프라이즈(AI Enterprise) 소프트웨어 플랫폼의 일부인 NIM 마이크로서비스로 제공될 예정이다. 딥시크-R1은 최첨단 추론 기능을 갖춘 오픈 모델이다. 딥시크-R1과 같은 추론 모델은 직접적인 답변을 제공하는 대신 쿼리에 대해 여러 번의 추론 패스(inference passes)를 수행해 연쇄 사고, 합의, 검색 방법을 거쳐 최상의 답변을 생성한다. R1은 논리적 추론, 사고, 수학, 코딩, 언어 이해 등이 필요한 작업에 대해 높은 정확도와 추론 효율을 제공한다. 이러한 일련의 추론 패스를 수행해 최적의 답변에 도달하기 위해 추론을 사용하는 것을 테스트 타임 스케일링(test-time scaling)이라고 한다. 모델이 문제를 반복적으로 ‘사고’할 수 있게 되면 더 많은 출력 토큰과 더 긴 생성 주기가 생성되므로 모델 품질이 계속 확장된다. 딥시크-R1과 같은 추론 모델에서 실시간 추론과 고품질 응답을 모두 구현하려면 상당한 테스트 타임 컴퓨팅이 중요하므로 더 큰 규모의 추론 배포가 필요하다.     딥시크-R1 NIM 마이크로서비스는 단일 엔비디아 HGX H200 시스템에서 초당 최대 3872개의 토큰을 전송할 수 있다. 딥시크-R1 NIM 마이크로서비스는 업계 표준 API를 지원해 배포를 간소화한다. 기업은 가속 컴퓨팅 인프라에서 NIM 마이크로서비스를 실행해 보안과 데이터 프라이버시를 극대화할 수 있다. 또한, 기업은 엔비디아 네모(NeMo) 소프트웨어와 함께 엔비디아 AI 파운드리(AI Foundry)를 사용해 AI 에이전트를 위한 맞춤형 딥시크-R1 NIM 마이크로서비스를 생성할 수 있다. 딥시크-R1은 거대 전문가 조합 방식(Mixture-Of-Experts, MoE) 모델이다. 다른 인기 있는 오픈 소스 대규모 언어 모델(LLM)보다 10배 많은 6710억 개의 파라미터를 통합해 12만 8000개의 토큰이라는 인풋 컨텍스트 길이(input context length)를 지원한다. 또한 이 모델은 레이어당 많은 전문가를 활용한다. R1의 각 레이어에는 256명의 전문가가 있으며, 각 토큰은 평가를 위해 8명의 별도 전문가에게 병렬로 라우팅된다. R1에서 실시간 답변을 제공하려면 추론을 위해 모든 전문가에게 신속한 토큰을 라우팅하기 위해 높은 대역폭과 짧은 지연 시간의 통신으로 연결된 높은 컴퓨팅 성능을 갖춘 많은 GPU가 필요하다. 엔비디아 NIM 마이크로서비스에서 제공되는 소프트웨어 최적화와 결합해 NV링크(NVLink)와 NV링크 스위치(Switch)를 사용해 연결된 8개의 H200 GPU가 장착된 단일 서버는 초당 최대 3872개의 토큰으로 6710억 개의 파라미터로 구성된 전체 딥시크-R1 모델을 실행할 수 있다. 이러한 처리량은 모든 레이어에서 엔비디아 호퍼(Hopper) 아키텍처의 FP8 트랜스포머 엔진과 MoE 전문가 통신을 위한 900GB/s의 NV링크 대역폭을 사용함으로써 가능하다. 실시간 추론에는 GPU에서 모든 초당 부동 소수점 연산(FLOPS)의 성능을 끌어내는 것이 중요하다. 엔비디아는 “차세대 엔비디아 블랙웰(Blackwell) 아키텍처는 최대 20페타플롭의 피크 FP4 컴퓨팅 성능을 제공할 수 있는 5세대 텐서 코어(Tensor Core)와 추론에 특별히 최적화된 72-GPU NV링크 도메인을 통해 딥시크-R1과 같은 추론 모델의 테스트 시간 확장을 크게 향상시킬 것”이라고 전했다.
작성일 : 2025-02-05
전문 BIM 자료를 이해하는 대규모 언어 모델 파인튜닝하기
BIM 칼럼니스트 강태욱의 이슈 & 토크   이번 호에서는 전문적인 BIM 자료를 이해할 수 있는 대규모 언어 모델(LLM, Large Language Model)을 개발하는 방법을 알아본다. BIM 기반 LLM을 개발하는 방법은 여러 가지가 있으나, 여기에서는 그 중 하나인 RAG(Retrieval Augumented Generation, 증강 검색 생성) 시 LLM이 잘 추론할 수 있도록 모델을 파인튜닝(fine-turning)하는 기술을 사용해 본다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   LLM 모델 파인튜닝의 개념 파인튜닝이란 사전에 학습된 LLM을 특정 도메인이나 작업에 맞게 최적화하는 과정이다. 기본적으로 LLM은 일반적인 자연어 처리 작업을 수행하도록 설계되어 있지만, 전문적인 특정 지식 도메인(예 : 건설 분야의 BIM 데이터)이나 문제를 다룰 때는 환각 현상이 심해지므로 해당 도메인에 특화된 데이터로 모델을 재학습시켜야 한다. 이를 통해 모델이 특정 영역에서 더 정확하고 유용한 결과를 생성하도록 만든다. 파인튜닝 과정은 다음과 같은 단계로 이루어진다.  ① 사전 학습된 모델 선택 : 이미 대규모 데이터로 학습된 LLM을 선택한다. ② 도메인 특화 데이터 준비 : 대상 분야와 관련된 고품질 데이터를 수집하고, 이를 정제 및 전처리한다. ③ 모델 파라미터 조정 : LoRA(Low-Rank Adaptation)같은 기법을 사용하여 모델 파라미터를 특정 도메인에 맞게 업데이트한다.  ④ 훈련 및 검증 : 준비된 데이터로 모델을 학습시키고, 성능을 검증하며 최적화한다. 여기서, LoRA 기술은 LLM을 파인튜닝하는 데 사용되는 효율적인 기법이다. 이 방법은 모델 전체를 다시 학습시키는 대신, 모델의 일부 파라미터에만 저차원(lowrank) 업데이트를 적용하여 파인튜닝한다. 이를 통해 학습 비용과 메모리 사용량을 대폭 줄이면서도 높은 성능을 유지할 수 있다. 이 글에서 사용된 라마 3(Llama 3)는 메타가 개발한 LLM 제품이다. 모델은 15조 개의 토큰으로 구성된 광범위한 데이터 세트에서 훈련되었다.(라마 2의 경우 2T 토큰과 비교) 700억 개의 파라미터 모델과 더 작은 80억 개의 파라미터 모델의 두 가지 모델 크기가 출시되었다. 70B 모델은 MMLU 벤치마크에서 82점, HumanEval 벤치마크에서 81.7점을 기록하며 이미 인상적인 성능을 보여주었다. 라마 3 모델은 컨텍스트 길이를 최대 8192개 토큰(라마 2의 경우 4096개 토큰)까지 늘렸으며, RoPE를 통해 최대 32k까지 확장할 수 있다. 또한 이 모델은 128K 토큰 어휘가 있는 새로운 토크나이저를 사용하여 텍스트를 인코딩하는 데 필요한 토큰 수를 15% 줄인다.   개발 환경 준비 개발 환경은 엔비디아 지포스 RTX 3090 GPU(VRAM 8GB), 인텔 i9 CPU, 32GB RAM으로 구성되었다. 이러한 하드웨어 구성은 대규모 BIM 데이터를 처리하고 모델을 학습시키는 최소한의 환경이다. 이 글에서는 사전 학습모델은 허깅페이스(HF)에서 제공하는 Llama-3-8B 모델을 사용한다. 파인튜닝을 위해서는 다음과 같은 환경이 준비되어 있다고 가정한다.  파이토치 설치 : https://pytorch.org/get-started/locally  올라마(Ollama) 설치 : https://ollama.com 허깅페이스에서 제공하는 LLM 모델을 사용할 것이므로, 접속 토큰(access token)을 얻어야 한다. 다음 링크에서 가입하고 토큰을 생성(Create new token)한다. 이 토큰은 다음 소스코드의 해당 부분에 입력해야 동작한다.  허깅페이스 가입 및 토큰 획득 : https://huggingface.co/ settings/tokens   그림 1   명령 터미널에서 다음을 실행해 라이브러리를 설치한다.   pip install langchain pypdf fastembed chardet pandas pip install -U transformers pip install -U datasets pip install -U accelerate pip install -U peft pip install -U trl pip install -U bitsandbytes pip install -U wandb   개발된 BIM LLM 모델 성능이 향상되었는지를 검증할 수 있도록, 기초 모델이 인터넷에서 쉽게 수집 후 학습할 수 있는 BIM 자료를 제외한 데이터를 학습용으로 사용할 필요가 있다. 이런 이유로, 최근 릴리스되어 기존 상용 대규모 언어 모델이 학습하기 어려운 ISO/TS 19166에 대한 기술 논문 내용을 테스트하고, 학습 데이터 소스로 사용한다. 참고로, ISO/TS 19166은 BIM-GIS conceptual mapping 목적을 가진 국제표준으로 기술 사양(TS)을 담고 있다. 학습 데이터로 사용될 파일을 다음 링크에서 PDF 다운로드하여 저장한다.  BIM-GIS 매핑 표준 논문 PDF 파일 : https://www.mdpi. com/2220-9964/7/5/162   BIM 기반 LLM 모델 학습 데이터 준비와 파인튜닝 파라미터 설정 학습 데이터를 자동 생성하기 위해, 미리 다운로드한 PDF 파일을 PyPDF 및 라마 3를 이용해 질문-답변 데이터를 자동 생성한 후 JSON 파일로 저장한다. 이를 통해 수 백개 이상의 QA 데이터셋을 자동 생성할 수 있다. 이 중 품질이 낮은 데이터셋은 수작업으로 삭제, 제거한다.    그림 2. 자동화된 BIM 기반 LLM 학습 데이터 생성 절차     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-02-04
지멘스-소니, 산업용 메타버스 위한 혼합현실 엔지니어링 지원
지멘스 디지털 인더스트리 소프트웨어가 CES 2025에서 소니와 협력해 산업용 메타버스를 구현하는 차세대 몰입형 엔지니어링 로드맵을 제공한다고 발표했다. 이 로드맵은 지멘스의 제품 엔지니어링 소프트웨어인 NX와 소니의 헤드 마운트 디스플레이(HMD)를 결합한다. 소니의 XR HMD인 SRH-S1는 4K 해상도를 지원하는 고화질 1.3형 OLED 마이크로 디스플레이를 탑재하고 있으며, 3D 물체를 사실적으로 실시간 고화질 렌더링할 수 있다. 더불어 3D 물체와의 직관적인 상호작용과 정밀한 포인팅을 위해 최적화된 컨트롤러 한 쌍이 탑재된다. SRH-S1은 편안함과 안정성을 염두에 두고 설계돼 장시간 크리에이티브 작업에 최적화돼 있다. 지멘스의 몰입형 엔지니어링(immersive engineering) 툴 세트는 제품 엔지니어링과 제조 커뮤니티에 혼합현실(MR)의 강력한 기능을 제공해 고품질 혼합현실과 3D 중심 협업을 실현한다. 지멘스의 몰입형 엔지니어링 설루션에는 NX 이머시브 익스플로러(NX Immersive Explorer), NX 이머시브 디자이너(NX Immersive Designer), NX 이머시브 컬래버레이터(NX Immersive Collaborator) 등이 포함된다.     NX 이머시브 익스플로러는 설계자와 엔지니어가 비공식적인 설계 검토를 수행하고 NX 소프트웨어에서 파생된 3D CAD 데이터를 사용해 협업하는 데 사용하는 설루션으로, 헤드셋에 상관 없이 기능을 수행할 수 있는 설루션이다. NX 이머시브 디자이너는 초기부터 소니 HMD와 크리에이티브 컨트롤러의 기능을 활용할 수 있도록 설계됐다. 설계자와 엔지니어가 추가 준비나 소프트웨어 없이도 NX에서 자체적으로 그래픽이 풍부한 3D 제품 모델 중심 상호 작용, 조작, 협업을 수행할 수 있도록 지원한다. 설계자와 엔지니어는 객체 상호 작용과 정밀한 3D 지오메트리 조작을 위해 소니의 링(Ring)과 포인터(Pointer) 컨트롤러를 사용해 제품 프로토타입, NX 명령, 메뉴와 직접 상호 작용할 수 있다. NX 이머시브 디자이너는 증강현실(AR), 혼합현실 환경을 지원해 실제 세계에 가상 객체를 배치하고, 고품질 가상 설계 검토 공간에서 설계 세션을 진행하거나, 대규모 고해상도 가상 모니터를 통해 가상 설계 세션을 확장, 보완할 수 있다. 사용자는 더욱 효율적인 상호 작용을 위해 몰입형 환경에서 NX 보이스 커맨드 어시스턴트(NX Voice Command Assistant)를 활용함으로써, 간단하고 사용하기 쉬운 음성 키워드로 여러 단계의 메뉴와 클릭을 탐색할 수 있다. NX 이머시브 컬래버레이터는 NX 이머시브 익스플로러와 디자이너의 기능을 기반으로 구축해, 모든 규모의 기업이 여러 참가자와 함께 공동 작업과 원격 설계 검토를 모두 활용할 수 있도록 지원한다. 설계 협업과 검토 세션을 호스팅하기 위해 지멘스의 클라우드 기반의 NX X가 필요하며, 참가자는 로컬 VR 또는 데스크톱 뷰를 사용해 광범위한 협업 옵션에 참여할 수 있다. 가치 기반(value-based) 라이선싱 토큰은 세션 호스팅에만 사용되며, 참가자는 무료로 원격 참여가 가능하다. 모든 NX 고객은 최신 업데이트와 지멘스의 가치 기반 라이선스를 통해 NX 이머시브 디자이너를 사용할 수 있다. NX 이머시브 컬래버레이터는 2025년 1월 말 NX X 업데이트와 함께 가치 기반 라이선스를 통해 제공될 예정이다. NX 몰입형 엔지니어링 툴은 4K OLED 마이크로 디스플레이와 전용 컨트롤러를 포함한 소니의 HMD 제품에서만 작동하도록 개발됐다. NX 이머시브 디자이너와 컬래버레이터 모두 컨트롤러가 포함된 HMD를 필요로 하며, 2025년 2월부터 배송이 시작될 예정이다. 지멘스 디지털 인더스트리 소프트웨어의 밥 호브록(Bob Haubrock) 제품 엔지니어링 소프트웨어 부문 수석 부사장은 “우리는 소니와의 협업 프로젝트를 통해 산업용 메타버스의 강력한 기능을 지멘스의 주력 제품 엔지니어링 소프트웨어에서 직접 설계자, 엔지니어, 제조업체 커뮤니티에 제공하기 시작했다. 2024년 CES에서 HMD를 선보인 후, 양사의 협업 팀은 엔지니어링 분야에서의 혼합현실 사용 방식을 혁신하는 일련의 툴을 구축했다. 이로써 고품질 3D 모델을 기반으로 글로벌 협업을 지원할 뿐만 아니라, 나아가 안전한 관리 환경에서 중요한 3D CAD 데이터를 직접 공동 제작할 수 있도록 했다. 이제 우리는 이 차세대 기술을 고객에게 제공한다”고 말했다. 소니 XR 기술 개발 부문 인큐베이션 센터의 세이야 아마타츠(Seiya Amatatsu)는 “CES 2024에서 지멘스와의 협력을 발표한 이후 지멘스의 고객으로부터 기술에 대한 직접적인 피드백을 받을 기회가 있었다. 지멘스의 NX 사용자로서 많은 NX 사용자가 몰입형 엔지니어링의 잠재력에 대한 우리의 열정을 함께한다는 사실에 기뻤다”고 말했다.
작성일 : 2025-01-08
[무료다운로드] 생성형 AI 기반 BIM 전문가 시스템 개발해 보기
BIM 칼럼니스트 강태욱의 이슈 & 토크   이번 호에서는 지난 연재를 통해 설명한 생성형 AI 기술을 바탕으로 BIM(건설 정보 모델링) 전문가 시스템을 개발하는 방법을 간단히 알아보도록 한다.    ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   이 글에서는 LLM(대규모 언어 모델)과 RAG(검색 증강 생성) 기술을 적용하여 BIM IFC(Industry Foundation Classes) 데이터의 정보를 검색하고, 이를 바탕으로 BIM 지식 전문가 에이전트를 개발하는 방법을 소개한다. 이런 에이전트는 자연어 기반의 사용자 쿼리를 통해 필요한 정보를 신속하고 정확하게 제공하며, 건설 프로젝트의 전반적인 효율성을 높일 수 있다. 이 글에서 소개하는 방법은 RAG를 이용해 전문가 시스템을 개발하는 여러 가지 대안 중 하나임을 미리 밝힌다. IFC와 같은 포맷을 이용한 RAG와 LLM 사용 기법은 목적에 따라 구현 방법의 차이가 다양하다.    LLM RAG 기반 BIM 전문가 시스템 프로세스 현재 대중적인 목적으로 개발된 LLM 기술인 ChatGPT(오픈AI), Gemini(구글), Llama(메타), Phi(마이크로소프트)는 BIM의 일반적인 지식, 예를 들어 BIM 관련 웹사이트에서 공개된 일반적인 개념 설명, PDF에 포함된 텍스트를 학습한 모델을 제공하고 있다. 다만, 이들 LLM 도구는 BIM 모델링 정보를 담고 있는 IFC와 같은 특수한 데이터셋 파일은 인식하지 않는다. 현재는 PDF같은 일반적인 파일 형식만 검색 증강 생성을 지원하는 RAG 기술을 이용해, 도메인에 특화된 지식 생성을 지원한다. 이는 특정 도메인 지식을 훈련하기 위해 필요한 비용이 너무 과대하며, 도메인 지식을 모델 학습에 맞게 데이터베이스화하는 방법도 쉽지 않기 때문이다. 예를 들어, ChatGPT-4 모델을 훈련할 때 필요한 GPU 수는 엔비디아 A100×25,000개로 알려져 있으며, 학습에 100일이 걸렸다. A100 가격이 수천 만원 수준인 것을 감안하면, 사용된 GPU 비용만 천문학적인 금액이 소모된 것을 알 수 있다.  이런 이유로, LLM 모델을 전체 학습하지 않고 모델 중 작은 일부 가중치만 갱신하는 파인튜닝(fine-tuning), 범용 LLM는 운영체제처럼 사용하여 정보 생성에 필요한 내용을 미리 검색한 후 컨텍스트 프롬프트 정보로서 LLM에 입력해 정보를 생성하는 검색 증강 생성 기술인 RAG이 주목받고 있다. RAG는 <그림 1>과 같은 순서로 사용자 질문에 대한 답변을 생성한다.   그림 1. RAG 기반 BIM 전문가 시스템 작업 흐름(한국BIM학회, 2024)   RAG는 LLM에 입력하는 템플릿에 답변과 관련된 참고 콘텐츠를 프롬프트에 추가하여 원하는 답을 생성하는 기술이다. 이런 이유로, 답변에 포함된 콘텐츠를 처리하고, 검색하는 것이 매우 중요하다. LLM은 입력 프롬프트에 생성에 참고할 콘텐츠를 추가하지 못하면 환각 문제가 발생되는 단점이 있다. 각 RAG 단계는 검색이 가능하도록 데이터셋을 청크(chunk) 단위로 분할(split)하고, 데이터는 임베딩(embedding)을 통해 검색 연산이 가능한 벡터 형식으로 변환된다. 이 벡터는 저장 및 검색 기능을 가진 벡터 데이터베이스(vector database)에 저장된다. 사용자의 질문은 검색 알고리즘을 통해 벡터 데이터베이스에서 가장 근사한 정보를 포함하는 콘텐츠를 얻고, 프롬프트에 추가된 후 LLM에 입력된다. 그 결과 LLM은 원하는 답변을 출력한다. 이를 통해 학습하지 않은 전문 분야의 토큰을 인식하지 못하는 LLM이 원하는 결과를 생성할 수 있도록 한다.   BIM IFC 콘텐츠 데이터 구조 분석 앞서 살펴본 바와 같이 RAG 성능은 입력되는 데이터셋의 특징과 검색 알고리즘에 큰 영향을 받는다. 그러므로, 개방형 BIM 데이터 형식으로 사용되는 IFC의 특징을 분석하여 BIM RAG를 위한 데이터 처리 시 이를 고려한다. IFC 파일 구조는 STEP(ISO 10303), XML 스키마 형식을 준용한다. IFC는 객체지향 모델링과 그래프 모델 구조의 영향을 많이 받았다. 확장성을 고려해 BIM을 구성하고 있는 건축 객체의 부재들, 관계, 속성집합에 Instance ID 및 GUID(Globally 2025/1 Unique IDentifier)와 같은 해시값(hash)을 할당하고, 이들 간의 관계를 해시번호로 참조하여, 거대한 온톨로지 그래프 구조를 정의한다. <그림 2~3>은 이를 보여준다.   그림 2. IFC 객체 그래프 구조(Wall instance)   그림 3. IFC 그래프 구조 표현(강태욱, 2022)     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-01-06
[피플&컴퍼니] 지멘스 디지털 인더스트리 소프트웨어 존 폭스 부사장
솔리드 엣지 2025로 중소기업 제품 개발의 디지털화 도울 것   최근 지멘스가 선보인 솔리드 엣지 2025 버전은 중소기업을 주된 타깃으로, 제품 개발의 폭넓은 영역을 커버하는 기능 업데이트를 선보였다. 지멘스 디지털 인더스트리 소프트웨어의 존 폭스(John Fox) 메인스트림 엔지니어링 소프트웨어 마케팅 부사장은 클라우드와 인공지능을 포함해 혁신 기술을 기반으로 제품 개발 프로세스의 디지털화를 지원한다는 솔리드 엣지 전략을 소개했다. ■ 정수진 편집장     솔리드 엣지 2025의 주요한 개선사항에 대해 소개한다면 솔리드 엣지 2025는 엔지니어링 생산성을 향상시키는 새로운 기능을 담았다. 이번 릴리스에는 모델링 속도 향상, 판금 설계의 에칭과 벤딩 기능 개선, 모델 기반 정의(MBD) 생성 간소화 등을 위한 다양한 개선 사항이 포함된다. 또한 솔리드 엣지의 기능을 유연하고 안전한 서비스형 소프트웨어(SaaS) 환경에서 제공하는 솔리드 엣지 X(Solid Edge X)를 새롭게 출시했다. 자동 업데이트와 내장 클라우드 데이터 관리 기능을 갖춘 솔리드 엣지 X는 IT 복잡성과 비용을 줄이도록 설계됐으며, 그 밖에도 다양한 이점을 제공한다. 솔리드 엣지 2025는 고객이 새로운 토큰 기반 라이선싱 번들로 혁신 툴킷을 확장할 수 있도록 지원한다. 토큰 기반 라이선싱은 솔리드 엣지 애드온 제품과 생성형 설계, 시뮬레이션 등 고급 기능에 대한 즉각적인 온디맨드 엑세스를 제공한다. 이번 릴리스에는 기계와 배관 라이브러리, 카티아 번역기, 솔리드 엣지 P&ID 디자인, 솔리드 엣지 파이핑 디자인을 위한 새로운 토큰 기반 라이선싱이 포함되며, 앞으로 더 많은 라이선싱이 추가될 예정이다.   솔리드 엣지 2025의 개발 과정에서 중점을 둔 점은 무엇인지 지멘스는 기업의 디지털 전환을 지원하는 데 주력하고 있으며, 이는 지멘스 엑셀러레이터(Siemens Xcelerator) 포트폴리오의 제품을 통해 이뤄진다. 솔리드 엣지는 이 포트폴리오의 핵심 제품으로 중소기업이 사용하기에 적합하다. 솔리드 엣지에는 기계 설계, 전기 설계, 시뮬레이션, 제조, 기술 퍼블리싱, 데이터 관리 설루션이 포함된다. 이 설루션은 회사 내부는 물론 공급업체 및 고객과의 클라우드 기반 협업을 촉진한다. 솔리드 엣지 2025에는 각 영역에서의 개선 사항이 반영됐다. 이는 릴리스를 거듭하며 개선되는 포괄적인 설루션이다. 엑셀러레이터 포트폴리오의 일부로서 솔리드 엣지는 많은 기업, 특히 중소기업의 디지털 전환을 위한 ‘진입로’의 역할을 한다.   제품 개발 소프트웨어의 기능이 확장되는 흐름에서 생길 수 있는 통합과 복잡성의 이슈는 어떻게 해결할 수 있다고 보는지 솔리드 엣지는 CAD, 전기 설계, CAE, CAM, 데이터 관리, 협업 등의 영역에서 다양한 기능과 애드온을 제공한다. 지멘스는 제품 개발의 모든 영역에 걸쳐 강력한 기술 포트폴리오를 보유하고 있으며, 이를 솔리드 엣지에 통합된 방식으로 결합해 매 릴리스마다 새로운 개선 사항을 도입할 수 있다. 솔리드 엣지 2025 역시 예외가 아니다. 일례로 솔리드 엣지 2025에서는 지멘스의 CNC 머신 프로그래밍 제품인 솔리드 엣지 CAM Pro에 생산성을 높이고 부품 프로그래밍 워크플로를 간소화하는 새로운 기능이 추가됐다. 클라우드 커넥티드 툴 매니저(Cloud Connected Tool Manager)의 새로운 툴 어셈블리는 몇 초만에 툴 어셈블리를 생성하고 저장해 클라우드에서 즉시 사용할 수 있도록 한다. 이를 통해 사용자가 툴링 설정을 표준화하고 재사용할 수 있도록 지원한다. CAM 분야에서는 밀링할 면을 선택하면 즉시 툴패스가 자동 생성되는 직관적인 페이스 밀 지그재그 작업이 새롭게 추가됐다. 또한 새로운 ‘메이크 머시닝 셀렉션(Make Machining Selection)’ 툴에 대해 특별히 자부심을 가지고 있다. 이 툴은 AI를 통해 클릭 한 번으로 편집 가능한 작업 세트를 생성함으로써, 시간을 절약하고 완벽한 커스터마이징을 제공한다. 시뮬레이션 분야에서는 심센터 FLOEFD 포 솔리드 엣지(Simcenter FLOEFD for Solid Edge)에 통합과 복잡한 처리를 더욱 쉽게 해주는 강력한 새 기능이 추가됐다. 이제 사용자는 처음부터 다시 시작하지 않아도 플로섬 XT(Flotherm XT) 프로젝트를 심센터 FLOEFD로 바로 가져올 수 있다. 따라서 재료 속성과 열원을 수동으로 입력할 필요가 없어 시간을 절약할 수 있다. 지멘스는 수년간 솔리드 엣지의 배선과 하네스 설계를 지원해왔다. 이번 릴리스에서는 지멘스의 브라우저 기반 전기 설계 도구인 캐피탈 일렉트라 X(Capital Electra X)의 패널 설계 도구와 새로운 통합 기능을 추가했다. 이를 통해 설계자와 엔지니어는 모든 장치의 브라우저에서 전기 회로도를 빠르고 효율적으로 생성할 수 있다. 캐피탈 일렉트라 X와 솔리드 엣지는 x2 표준에 기반한 원활한 교환이 가능하며, 두 시스템 간 정확한 와이어 길이와 부품 데이터, 라우팅 세부 정보를 보장한다.   솔리드 엣지의 AI 활용에 관한 지멘스의 전략은 무엇이며, 이번 버전에서는 어떤 AI 기능이 들어있는지 솔리드 엣지를 경쟁 제품과 차별화하는 요소 중 하나는 동기식 기술(Synchronous Technology)의 지능형 모델링 기능이다. 이러한 기능은 다른 CAD 시스템의 모델에서도 설계 의도를 실시간으로 인식하고 유지한다. 동기식 기술은 수년 동안 솔리드 엣지의 주요 기능으로 사용됐고, 솔리드 엣지 2025를 통해 모든 사용자가 더욱 쉽게 액세스할 수 있게 됐다. 기존 솔리드 엣지 릴리스에서는 생성형 설계와 예측형 사용자 인터페이스 등 머신 러닝을 활용해 제품 설계를 개선하는 설계 도구가 추가됐다. 지난 버전인 솔리드 엣지 2024에서는 반복적인 작업을 제거해 워크플로를 간소화할 수 있는 AI 지원 기능이 추가됐다. 지멘스는 AI를 활용해 어셈블리 관계와 가공 작업을 예측하고 제안해 시간을 절약할 수 있다. 이번 솔리드 엣지 2025에서는 새로운 솔리드 엣지 X 제품의 일부로 더 많은 AI 기능을 도입할 예정이다.     솔리드 엣지 X의 경우, SaaS로 제공된다는 점 외에 솔리드 엣지 2025와 어떤 차이가 있는지 솔리드 엣지 X는 지멘스 고객들이 잘 알고 신뢰하는 솔리드 엣지의 기능을 안전한 SaaS 환경에서 제공한다. 솔리드 엣지 X는 클라우드에 저장돼 사용자가 다운로드할 수 있어 오프라인에서도 작업이 가능하다. 또한 로그인 기반 라이선싱을 통해 언제 어디서나 데이터에 액세스할 수 있다. AI 기반 생산성 지원으로 정보를 찾거나 작업을 완료하기 위한 인앱 지원을 제공해, 보다 개인화된 환경을 조성하는 것도 가능하다. 또한 솔리드 엣지 X에는 팀센터 X(Teamcenter X)로 구동되는 클라우드 기반 데이터 관리 기능이 내장돼 있다. 여기에는 수정 사항 관리, 사용처 보고서, 릴리스 워크플로 등 필수 CAD 데이터 관리 기능이 포함된다. 따라서 고객은 솔리드 엣지 X를 통해 고급 PLM 기능이 필요할 때 팀센터로 쉽게 확장할 수 있다. 솔리드 엣지 2025와 솔리드 엣지 X는 동시에 사용할 수 있으며, 두 버전 간에 제품 데이터를 쉽게 공유할 수 있다. 데이터를 저장하고 관리하기 위한 여러 옵션이 있기 때문에, 사용자는 유연하게 선택하는 것이 가능하다.   중소기업에서 AI나 클라우드 등의 기술을 효과적으로 활용하기 위해 솔리드 엣지가 제시할 수 있는 해결방안은 디지털은 중소기업을 포함한 모든 기업에게 공평한 경쟁의 장을 제공하고 있으며, 한때 경쟁 우위를 제공했던 대규모 방식은 이제는 부담 요소가 될 수 있다. 디지털의 대두는 사업을 혁신하고 경쟁 환경을 변화시킬 수 있는 잠재력을 내포한다. 중소기업은 대기업에 비해 뚜렷한 이점을 누리고 있다. 대기업보다 민첩하고 빠르게 움직일 수 있으며, 특히 솔리드 엣지 X와 같은 제품에서 더욱 저렴하고 사용하기 쉬워진 AI와 클라우드 등 새로운 디지털 기술을 수월하게 채택하고 활용할 수 있다. 솔리드 엣지의 목표는 폭넓은 지멘스 포트폴리오의 강력한 기술을 꾸준히 대중화해, 중소기업이 보다 쉽고 저렴하게 접근할 수 있도록 하는 것이다. 솔리드 엣지를 통해 중소기업은 제품 개발 프로세스의 더 많은 부분을 디지털화할 수 있다. 앞서 소개했듯이 기계 설계뿐만 아니라 전기 설계, 시뮬레이션, 제조 등 다양한 분야에서 디지털화가 가능하다. 제품의 디지털 트윈을 생성함으로써 모든 종류의 다운스트림 이점을 누릴 수 있다. 예를 들어 시뮬레이션을 통해 제품의 성능을 검증하고, 제조에 앞서 동적 기술 발간물과 사실적인 렌더링으로 제품의 고객 적합성을 확인해 시간과 비용을 절약하는 것이 가능하다. 결과적으로 훌륭한 아이디어를 경쟁사보다 저렴한 비용으로 더 빠르게 시장에 출시할 수 있다.   솔리드 엣지의 최근 비즈니스 성과 및 향후 시장 전략에 대해서 소개한다면 지멘스의 고객, 특히 소규모 스타트업의 성공을 강조하고 싶다. 지멘스는 산악 자전거부터 농업용 로봇, 나노 인공위성까지 다양한 제품을 만드는 스타트업과 협력해 왔다. 혁신적인 하드웨어 스타트업은 아이디어를 빠르게 시장에 출시하기 위해 최고의 도구와 기술을 활용해야 하지만, 전문가급 소프트웨어를 확보하기 위한 자원이 부족한 경우가 많다. 이 때문에 지멘스는 솔리드 엣지 포 스타트업(Solid Edge for Startups) 프로그램을 개발해 역량을 갖춘 신생 기업의 제품 설계나 엔지니어링 서비스 수행이 용이하도록 지원한다. 스타트업은 이 프로그램으로 온라인 교육 자료, 커뮤니티 지원과 함께 솔리드 엣지 프리미엄 버전을 무료로 이용할 수 있다.       ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-01-06