• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "GitHub"에 대한 통합 검색 내용이 100개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
인텔, 실시간 성능 강화한 ‘인텔 코어 시리즈 2 프로세서’ 출시로 에지 AI 포트폴리오 확대
인텔은 독일 뉘른베르크에서 열리는 ‘임베디드 월드 2026’에서 에지 애플리케이션용 산업용 플랫폼인 ‘인텔 코어 프로세서 시리즈 2’를 공개했다.  인텔 코어 시리즈 2 프로세서는 현대 산업 환경이 직면한 핵심 과제를 해결하도록 설계됐다. 산업 현장은 안전 필수 제어 시스템부터 실시간 데이터 처리까지 다양한 중요 워크로드를 동시에 처리해야 한다. 이때 정밀한 타이밍과 결정론적 성능을 유지하는 것이 중요하다. 기존 프로세서는 연산 성능과 실시간 신뢰성 중 하나를 선택해야 하는 경우가 많았다. 이 때문에 비용과 시스템 복잡도를 높이는 다중 프로세서 아키텍처가 요구됐다. 인텔 코어 시리즈 2 프로세서는 이러한 한계를 근본적으로 개선하기 위해 설계됐다. 인텔은 “이 제품은 AMD 라이젠 7 9700X 대비 최대 4.4배 낮은 최대 PCIe 지연 시간을 제공한다. 확정적 응답 시간은 최대 2.5배 향상됐다. 확정적 성능은 최대 3.8배, 멀티스레드 성능은 최대 1.5배 개선됐다. 이를 통해 산업 현장에서 요구되는 성능과 안정성을 동시에 충족한다”고 전했다.     이와 함께 인텔은 최신 헬스케어 및 생명과학용 에지 AI 제품군인 ‘헬스케어 및 생명과학 AI 스위트’의 프리뷰 버전을 발표했다. 이 제품군은 AI 기반 환자 모니터링 설루션을 위한 검증된 레퍼런스 파이프라인과 벤치마킹 도구를 제공한다. 현재 환자 수 증가와 의료 인력 부족 현상이 심화되고 있다. 이에 따라 환자 모니터링은 단일 디바이스를 넘어 지능형 연결 생태계로 빠르게 진화하고 있다. 보다 빠른 인사이트 도출과 안정적인 운영을 지원하는 AI 기반 설루션 수요도 확대되는 추세다. 이 스위트는 AI 기반 심전도(ECG) 부정맥 탐지 기능을 보여준다. 원격 광혈류측정이나 익명화된 3D 시각적 추적 등 멀티모달 워크로드도 인텔 프로세서에서 로컬로 실행된다. 이를 통해 OEM, ODM, ISV는 실제 사용 환경을 반영한 시나리오 기반으로 플랫폼을 평가할 수 있다. 인텔은 최근 출시된 코어 울트라 시리즈 3 프로세서와 P-코어를 탑재한 인텔 코어 시리즈 2 프로세서가 자사의 포괄적인 에지 포트폴리오를 입증한다고 전했다. 신규 헬스케어 및 생명과학 에지 AI 스위트는 확정적 실시간 제어부터 고도화된 AI 가속에 이르는 폭넓은 고객 요구를 충족한다. 인텔은 제조업과 헬스케어 등 전반적인 에지 애플리케이션에서 혁신을 가속화할 것으로 기대하고 있다. 인텔 코어 울트라 시리즈 3 및 P-코어를 탑재한 인텔 코어 시리즈 2 기반 에지 시스템은 현재 구매할 수 있다. 헬스케어 및 생명과학 에지 AI 스위트의 프리뷰 버전은 깃허브(GitHub)에서 제공된다. 정식 출시 시기는 2026년 2분기 중으로 예정되어 있다. 인텔의 댄 로드리게즈(Dan Rodriguez) 에지 컴퓨팅 그룹 총괄 부사장은 “에지 컴퓨팅은 인텔의 가장 빠르게 성장하는 사업 부문 중 하나로, 인텔은 해당 시장을 지속적으로 선도하고 있다”며, “인텔 코어 시리즈 2와 CES에서 공개한 인텔 코어 울트라 시리즈 3, 그리고 에지 AI 스위트 확장을 통해 획기적인 성능과 신뢰성, 통합된 AI 가속 기능을 갖춘 포괄적인 플랫폼을 지속적으로 제공함으로써 다양한 에지 고객 요구를 충족하고 있다”고 밝혔다.
작성일 : 2026-03-10
팔코DB와 LLM을 활용한 그래프 모델 BIM 기반 AI 에이전트 개발
BIM 칼럼니스트 강태욱의 이슈 & 토크   이번 호에서는 건설 인프라 분야에서 정보 교환 시 사용되는 BIM(건설 정보 모델링) 산업 표준인 IFC(Industry Foundation Classes) 기반 AI 에이전트 개발 과정을 설명한다. IFC 포맷의 BIM 데이터를 팔코DB(FalkorDB) 그래프 데이터베이스로 변환하고, 로컬 LLM인 Ollama(올라마)를 연동하여 자연어 질의가 가능한 AI 에이전트를 구축하는 전체 과정을 기술한다. 또한, 도커(Docker) 기반의 데이터베이스 서버 구성부터 파이썬(Python) 의존성 설치, 데이터 적재 및 애플리케이션 실행 방법을 단계별로 정리한다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   그림 1   개발 환경 및 전제 조건 이번 호에서 만들어 볼 시스템은 온프레미스 환경에서의 실행을 가정하며, 다음의 컴포넌트를 필요로 한다. 도커 : 그래프 데이터베이스(팔코DB) 실행을 위해 필요(설치 : https://www.docker.com/get-started) 파이썬 3.11+ : 데이터 변환 및 에이전트 로직 수행 올라마 : 로컬 LLM 추론 서버 하드웨어 : LLM 구동을 위한 적정 수준의 GPU 또는 메모리(RAM 16GB 이상 권장) 지면 한계 상 모든 개발 코드를 설명하기는 어려우므로, 주요 부분만 개발 방법을 설명할 것이다. 다음의 깃허브 링크를 참고해 다운로드한다. ■ https://GitHub.com/mac999/infra_ai_agent_tutorials/tree/main/08_AI_Agent/5_infra_graph_rag 다운로드한 폴더의 구조는 <그림 2>와 같을 것이다.   그림 2   이제 이 깃허브 프로젝트의 각 핵심 모듈을 설명하도록 하겠다.   데이터베이스 서버 구축(팔코DB) 팔코DB는 레디스(Redis) API 호환 고성능 그래프 데이터베이스다. 오픈소스이며 무료이다. 그래프 구조 데이터 저장 및 검색을 지원한다.   그림 3. Graph Database uses GraphBLAS under the hood for its sparse adjacency matrix graph representation(GraphRAG) (https://GitHub.com/FalkorDB/FalkorDB)   실행을 위해, 다음과 같이 명령창 터미널에서 도커 명령을 실행해 본다. 그러면 팔코DB 서버가 로컬에 다운로드된 후 자동 실행될 것이다. docker run -p 6379:6379 -p 3000:3000 -it --rm -v ./data:/ var/lib/falkordb/data falkordb/falkordb 상세 옵션은 다음과 같다. -p 6379:6379 : 팔코DB(레디스 프로토콜) 접속 포트 바인딩. 파이썬 클라이언트가 이 포트로 통신한다. -p 3000:3000 : (옵션) 팔코DB 시각화 도구 등을 위한 포트 바인딩 -it --rm : 대화형 모드로 실행하며, 컨테이너 종료 시 자동 삭제 -v ./data:/var/lib/falkordb/data : 호스트의 ./data 디렉터리를 컨테이너 내 데이터 저장소로 마운트하여 데이터 영속성(persistence)을 보장한다.   패키지 및 모델 설치 이제 IFC 파싱, 그래프 DB 연결, LLM 체인 구성을 위한 라이브러리를 pip로 터미널에서 설치한다. Plaintext falkordb langchain langchain-ollama langchain-core ifcopenshell python-dotenv streamlit 이제 자연어를 그래프 구조 데이터베이스를 검색할 때 사용하는 사이퍼 쿼리로 변환(Text-to-Cypher)하는 방법이 필요하다. 이 경우, 코드 생성 능력이 뛰어난 모델이 필요하다. 이번 호에서는 qwen2.5-coder:7b 모델을 사용한다. 올라마 설치(다운로드 : https://ollama.com/download/ windows) 후 다음의 명령어를 실행한다. ollama pull qwen2.5-coder:7b     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2026-02-04
마이크로소프트, 다양한 산업에서 의사결정 및 업무 효율 극대화한 AI 혁신 사례 공개
마이크로소프트가 전 세계 고객 및 파트너사의 AI 기반 비즈니스 혁신 사례를 공개하며, ‘프론티어 전환(Frontier Transformation)’을 제시했다. 마이크로소프트는 프론티어 전환을 중심으로 조직의 성장을 지원하고 있다. 이는 효율과 생산성에 집중했던 기존 AI 전환을 넘어, 지능의 보편화를 통해 전 세계 조직과 개인의 창의성을 극대화하고 비즈니스 모델 전반을 재구상하는 전략을 의미한다. 마이크로소프트는 프론티어 기업들이 지능과 신뢰를 기반으로 세 가지 핵심 특성을 공유한다고 소개했다. ▲코파일럿과 에이전트를 실무 도구에 배치해 인간의 열망을 실제 성과로 연결하는 업무 흐름 속 AI ▲모든 직무 구성원에게 혁신 권한을 부여해 창의성을 극대화하는 전방위적 혁신 ▲기술 계층 전반의 보안과 거버넌스를 통해 결과의 신뢰를 보장하는 가시성 확보 등이다. 이러한 세 가지 핵심 특성은 마이크로소프트의 새로운 지능 레이어를 통해 구현된다. 지능 레이어에는 ▲사람의 업무 방식을 이해하는 업무 IQ(Work IQ) ▲조직의 데이터를 기반으로 추론을 지원하는 패브릭 IQ(Fabric IQ) ▲안전하고 확장 가능한 에이전트 환경을 구축하는 파운드리 IQ(Foundry IQ)가 포함된다. 아울러 통합 제어 설루션인 에이전트 365(Agent 365)는 조직 내 모든 AI 자산을 관측하고 보안 및 거버넌스를 관리하는 컨트롤 플레인(control plane)으로서, 마이크로소프트 플랫폼뿐만 아니라 타사 플랫폼 기반의 에이전트까지 아우르는 통합된 가시성을 제공한다.     마이크로소프트가 소개한 기업 사례는 ▲모든 산업과 직무에서 인간의 열망을 실제 성과로 연결하고 ▲모든 구성원의 창의성 극대화 및 비즈니스 영향력 가속화를 실현하며 ▲전 계층에 걸친 보안 및 거버넌스로 비즈니스 신뢰를 구축한 것들이다. 글로벌 의류 기업인 리바이 스트라우스(리바이스)는 마이크로소프트 365 코파일럿과 파운드리를 전사 표준 플랫폼으로 채택해, 디자이너부터 물류 센터까지 전 직군을 연결하는 통합 AI 작업 환경을 구축했다. 이를 통해 기존 시스템 간의 데이터 단절을 해소하고 시장 수요 예측과 제품 출시 속도를 최적화했다. 어도비는 마이크로소프트 애저, 코파일럿 및 마이크로소프트 파운드리를 제품 생태계 전반에 도입해 핵심 비즈니스 프로세스를 재설계하고 있다. 특히 깃허브 코파일럿(GitHub Copilot)을 통한 개발 생산성 향상은 물론, 포토샵과 아크로뱃 등 주요 제품 워크플로에 에이전트 기술을 긴밀히 결합함으로써 작업 속도의 혁신적인 가속화를 구현하고 있다. 메르세데스-벤츠는 전사 50개 이상의 사업 영역에서 코파일럿 스튜디오를 활용해 자체 에이전트를 구축하고 워크플로를 자동화했다. 특히 30개 승용차 공장을 연결하는 데이터 플랫폼 MO360을 기반으로 ‘디지털 팩토리 챗(Digital Factory Chat)’ 멀티 에이전트 시스템을 구축했으며, 이를 통해 기존 며칠이 소요되던 문제 진단 시간을 몇 분 단위로 단축했다. 마이크로소프트는 최근 메르세데스-AMG 페트로나스 F1 팀과 파트너십을 발표하며, 레이싱 운영 전반의 혁신을 함께 추진하고 있다. 마이크로소프트는 애저 AI, 마이크로소프트 365, 깃허브 등 마이크로소프트의 통합 클라우드 및 엔터프라이즈 AI 스택을 활용해 데이터를 실시간 인텔리전스로 전환함으로써, 트랙 안팎에서 신속한 의사결정과 정교한 경기 전략 수립을 돕고 있다. 글로벌 색채 기업 팬톤은 마이크로소프트 파운드리와 애저 AI를 기반으로 ‘팬톤 팔레트 제너레이터’를 출시하고, 수십 년간 축적된 컬러 전문 지식을 AI 서비스로 전환했다. 이를 통해 수 주가 소요되던 컬러 연구 작업을 단 몇 초 만에 완료할 수 있는 환경을 구현했으며, 색채 과학 알고리즘 고도화 등 핵심 기술 역량 강화에 주력하고 있다. 마이크로소프트의 저드슨 알소프(Judson Althoff) 커머셜 비즈니스 부문 CEO는 “지능과 신뢰라는 토대 위에 구축된 ‘프론티어 전환’을 통해 고객과 파트너들은 비즈니스 성취의 개념을 새롭게 재정의하고 있다”며, “마이크로소프트는 개방적인 이기종 플랫폼을 통해 기업의 지능 자산과 조직 내 인간의 열망을 통합함으로써, 모든 조직이 AI 퍼스트 혁신을 확장하고 비전을 실현할 수 있도록 적극 지원할 것”이라고 강조했다.
작성일 : 2026-02-03
코딩 없는 LLM 기반 에이전트 개발 도구, 디파이
BIM 칼럼니스트 강태욱의 이슈 & 토크   디파이(Dify)는 대규모 언어 모델(LLM)을 활용한 에이전트 서비스를 전문적인 코딩 지식 없이 개발하고 효율적으로 운영할 수 있도록 지원하는 LLMOps(대규모 언어 모델 운영) 플랫폼 및 도구이다. 이 도구는 LLM과 같은 개발에 필요한 도구를 팔래트에서 가져와 캔버스에 배치하고, 이들의 작업 흐름을 연결함으로써 손쉽게 AI 에이전트 서비스를 개발할 수 있다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   그림 1. 디파이로 개발된 챗봇 에이전트 예시   디파이는 사용자가 아이디어를 실제 AI 서비스로 신속하게 전환할 수 있도록 설계된 통합 개발 환경을 제공한다. 가장 큰 특징은 복잡한 백엔드(backend) 인프라나 API 연동 과정을 추상화하여, 사용자가 시각적인 인터페이스를 통해 애플리케이션의 핵심 로직과 기능 구현에만 집중할 수 있도록 한 것이다.   기능 소개 디파이의 주요 기능은 다음과 같다. 시각적 프롬프트 오케스트레이션 : 사용자는 텍스트 입력, LLM 호출, 조건 분기, 외부 도구(API) 사용 등의 과정을 블록처럼 연결하여 정교한 워크플로를 설계할 수 있다. 이를 통해 단순한 질의응답을 넘어 복잡한 추론과 작업 수행이 가능한 AI 에이전트를 구축하는 것이 가능하다. RAG(검색 증강 생성) 엔진 : 자체 데이터(PDF, TXT, 마크다운 등)를 업로드하여 AI 모델이 해당 정보를 기반으로 답변하도록 만드는 RAG 기술을 손쉽게 구현할 수 있다. 디파이는 문서 자동 전처리, 벡터화, 청킹(chunking) 등 복잡한 과정을 내부적으로 처리하여 사용자의 부담을 최소화한다. 모델 호환성 및 관리 : 오픈AI(OpenAI)의 GPT 시리즈, 앤트로픽(Anthropic)의 클로드(Claude), 구글의 제미나이(Gemini) 등 20개 이상의 상용 및 오픈소스 LLM을 지원한다. 사용자는 여러 모델을 프로젝트에 등록해두고 특정 작업에 가장 적합한 모델을 선택하거나, A/B 테스트를 통해 성능을 비교 분석할 수 있다. 배포 및 운영 : 개발이 완료된 애플리케이션은 즉시 사용 가능한 웹 API 엔드포인트(endpoint)나 독립적인 웹 사이트 형태(웹앱)로 배포된다. 또한 사용자 피드백 수집, 모델 성능 모니터링, 프롬프트 개선 등 지속적인 운영 및 관리를 위한 대시보드를 제공하여 서비스 품질을 유지하고 발전시키는 데 도움을 준다. 더 자세한 정보는 디파이 공식 웹사이트(https://dify.ai)에서 확인할 수 있다.   개발 배경 디파이는 2023년 5월에 설립된 랭지니어스(LangGenius, Inc.)에 의해 개발되었으며, 생성형 AI 기술의 급격한 발전 속에서 LLM을 실제 비즈니스에 적용하려는 수요와 기술적 장벽 사이의 간극을 메우기 위해 탄생했다. 초기 LLM 애플리케이션 개발은 파이썬(Python) 라이브러리인 랭체인(LangChain)이나 라마인덱스(LlamaIndex) 등을 활용하는 개발자 중심의 영역이었다. 하지만 이는 프롬프트 엔지니어링, 벡터 데이터베이스 관리, API 연동 등 상당한 전문 지식을 요구했다. 랭지니어스 팀은 이러한 기술적 복잡성이 AI 기술의 대중화와 비즈니스 혁신을 저해하는 주요 요인이라고 판단했다. 이에 따라 기획자, 디자이너, 마케터 등 비개발 직군도 직접 AI 서비스를 만들고 테스트할 수 있는 직관적인 플랫폼을 목표로 디파이를 개발했다. 특히, 모든 소스코드를 공개하는 오픈소스 전략을 채택하여 개발자 커뮤니티의 참여를 유도하고, 데이터 보안에 민감한 기업이 자체 서버에 직접 설치(self-hosting)하여 사용할 수 있도록 유연성을 제공했다. 디파이의 소스코드는 깃허브 저장소(https://GitHub.com/langgenius/dify)에서 확인할 수 있다.   유사 도구 디파이와 유사한 기능을 제공하는 AI 개발 플랫폼은 다수 존재하며, 각각의 도구는 고유한 특징과 목표 시장을 가지고 있다. 플로와이즈AI(FlowiseAI) : 디파이와 마찬가지로 노드를 연결하여 LLM 기반 워크플로를 구축하는 오픈소스 플랫폼이다. UI/UX 측면에서 더 개발자 친화적인 경향이 있으며, LangChain.js를 기반으로 하여 자바스크립트(JavaScript) 생태계와의 통합이 용이하다는 장점이 있다.(https://flowiseai.com) 보이스플로(Voiceflow) : 주로 대화형 AI, 특히 음성 기반 챗봇 및 어시스턴트 제작에 특화된 로코드 플랫폼이다. 시각적인 대화 흐름 설계 도구가 강력하며, 프로토타이핑부터 실제 배포까지 전 과정을 지원하여 고객 서비스 자동화 분야에서 많이 사용된다.(https://www. voiceflow.com) 버블(Bubble) : 웹 애플리케이션 개발을 위한 대표적인 노코드 플랫폼이다. AI 기능이 내장된 것은 아니지만, 높은 유연성과 확장성을 바탕으로 디파이나 오픈AI에서 제공하는 API를 연동하여 복잡한 웹 서비스 내에 AI 기능을 통합하는 방식으로 활용될 수 있다.(https://bubble. io) n8n : 워크플로 자동화에 중점을 둔 오픈소스 도구이다. AI 기능보다는 수백 개의 다양한 서드파티 애플리케이션(예 : 구글 시트, 슬랙, 노션)을 연결하여 데이터 동기화 및 업무 자동화를 구현하는 데 강점을 보인다.(https://n8n.io)     ■ 기사의 상세 내용은 PDF로 제공됩니다.
작성일 : 2026-01-07
엔비디아, 차세대 로봇과 자율 머신에 탑재되는 새로운 피지컬 AI 모델 출시
엔비디아가 미국 라스베이거스에서 열린 CES 2026에서 피지컬 AI(physical AI)를 위한 새로운 오픈 모델, 프레임워크, AI 인프라를 발표하고, 글로벌 파트너들과 협력해 다양한 산업용 로봇을 공개했다고 밝혔다. 새롭게 공개된 엔비디아 기술은 로봇 개발 전반의 워크플로를 가속화해, 다양한 작업을 빠르게 학습할 수 있는 전문가형 범용(generalist-specialist) 로봇을 포함한 차세대 로보틱스의 확산을 촉진한다. 엔비디아는 LG전자를 비롯해 보스턴 다이내믹스, 캐터필러, 프랑카 로보틱스, 휴머노이드, 뉴라 로보틱스 등의 기업이 자사의 로보틱스 스택을 활용한 새로운 AI 기반 로봇을 공개한다고 전했다. 고비용, 단일 작업 중심의 프로그래밍이 까다로운 기계를 추론 가능한 ‘전문가형 범용’ 로봇으로 전환하려면, 파운데이션 모델 구축을 위한 대규모의 자본과 전문 지식이 필요하다. 엔비디아는 개발자가 자원 집약적인 사전 훈련을 생략하고, 차세대 AI 로봇과 자율형 머신 개발에 집중할 수 있도록 지원하는 오픈 모델을 구축하고 있다.  여기에는 ▲물리 기반 합성 데이터 생성과 시뮬레이션 환경에서의 로봇 정책 평가를 지원하는 맞춤형 오픈 월드 모델인 ‘엔비디아 코스모스 트랜스퍼 2.5(Cosmos Transfer 2.5)’와 ‘엔비디아 코스모스 프리딕트 2.5(Cosmos Predict 2.5)’ ▲지능형 머신이 인간처럼 현실 세계를 인식하고, 이해하며 행동할 수 있도록 지원하는 오픈 추론 비전 언어 모델(VLM)인 ‘엔비디아 코스모스 리즌 2(Cosmos Reason 2)’ ▲향상된 추론과 컨텍스트 이해를 지원하며, 전신 제어를 가능하게 하는 휴머노이드 로봇에 특화된 오픈 추론 VLA 모델인 ‘엔비디아 아이작 GR00T N1.6(Isaac GR00T N1.6)’ 등이 포함된다.     한편, 엔비디아는 복잡한 로봇 시뮬레이션 파이프라인을 단순화하고, 연구에서 실제 사용 사례로 전환을 가속하는 새로운 오픈소스 프레임워크를 깃허브(GitHub)에 공개했다. ‘엔비디아 아이작 랩-아레나(Isaac Lab-Arena)’는 대규모 로봇 정책 평가와 벤치마킹을 위한 협업 시스템을 제공하는 오픈소스 프레임워크로, 라이트휠(Lightwheel)과의 협업을 통해 평가와 작업 레이어를 설계했다. 아이작 랩-아레나는 리베로, 로보카사 등 업계 주요 벤치마크와 연동돼 테스트를 표준화하고, 물리적 하드웨어 배포 이전에 로봇 역량의 안정성과 신뢰성을 확보한다. 엔비디아 OSMO는 로보틱스 개발을 단일 제어 센터로 통합하는 클라우드 네이티브 오케스트레이션 프레임워크다. OSMO를 통해 개발자는 합성 데이터 생성, 모델 훈련, 소프트웨어 인 더 루프(software-in-the-loop) 테스트 등의 워크플로를 정의하고 실행할 수 있다. 이를 통해 워크스테이션부터 혼합 클라우드 인스턴스에 이르는 다양한 컴퓨팅 환경에서 개발 주기를 단축할 수 있다. OSMO는 현재 헥사곤 로보틱스과 같은 로봇 개발사에서 사용되고 있으며, 마이크로소프트 애저 로보틱스 액셀러레이터 툴체인에 통합됐다. 엔비디아 젯슨 토르(Jetson Thor)는 추론 기능을 갖춘 휴머노이드 로봇에 요구되는 대규모 컴퓨팅 성능을 충족한다. 이번 CES에서 휴머노이드 개발사들은 젯슨 토르가 통합된 최신 로봇을 선보인다. 뉴라 로보틱스는 포르쉐가 디자인한 Gen 3 휴머노이드와 함께 정교한 제어에 최적화된 소형 휴머노이드를 공개했다. 리치테크 로보틱스는 복잡한 산업 환경에서의 고난도 조작과 내비게이션을 지원하는 모바일 휴머노이드 덱스(Dex)를 선보였다. 애지봇은 산업과 소비자 시장을 위한 휴머노이드와 아이작 심(Isaac Sim)과 통합된 로봇 시뮬레이션 플랫폼 지니 심 3.0(Genie Sim 3.0)을 공개했다. LG전자는 다양한 실내 집안일을 수행하도록 설계된 신규 홈 로봇을 발표했다. 보스턴 다이내믹스, 휴머노이드, 리얼월드는 기존 휴머노이드에 젯슨 토르를 통합해 내비게이션과 조작 역량을 강화했다. 엔비디아 젯슨 T4000(Jetson T4000) 모듈은 엔비디아 젯슨 오린(Jetson Orin) 고객을 위한 비용 효율적이면서도 고성능 업그레이드 경로를 제공하며, 자율형 머신과 범용 로보틱스를 위해 엔비디아 블랙웰(Blackwell) 아키텍처를 도입했다. 이 모듈은 1000개 단위 구매 기준 1999달러에 제공되며, 이전 세대 대비 4배의 성능을 제공한다. 또한 1,200 FP4 TFLOPS의 연산 성능과 64GB 메모리를 70와트 내에서 구성 가능해 에너지 제약 환경의 자율 시스템에 적합하다. 1월 말 출시 예정인 엔비디아 IGX 토르(IGX Thor)는 엔터프라이즈 소프트웨어 지원과 기능 안전을 갖춘 고성능 AI 컴퓨팅을 제공해 로보틱스를 산업 에지로 확장한다. 아처는 IGX 토르를 활용해 항공 분야에 AI를 도입하고, 항공기 안전, 공역 통합, 자율 시스템 핵심 역량을 고도화하고 있다. 또한 캐터필러는 건설, 광산 현장의 장비와 작업 환경에 첨단 AI와 자율성을 도입하기 위해 엔비디아와의 협력을 확대하고 있다. 엔비디아의 젠슨 황 CEO는 “로보틱스 분야에도 ‘챗GPT(Chat GPT) 시대’가 도래했다. 현실 세계를 이해하고, 추론하며, 행동을 계획하는 피지컬 AI 모델의 도약은 완전히 새로운 애플리케이션을 가능하게 한다. 엔비디아의 젯슨 로보틱스 프로세서, 쿠다, 옴니버스, 오픈 피지컬 AI 모델로 구성된 풀스택은 글로벌 파트너 생태계가 AI 기반 로보틱스를 통해 산업을 혁신할 수 있도록 지원한다”고 말했다.
작성일 : 2026-01-06
엔비디아, 에이전틱 AI 개발 위한 ‘네모트론 3’ 오픈 모델 제품군 공개
엔비디아가 오픈 모델, 데이터, 라이브러리로 구성된 엔비디아 네모트론 3(NVIDIA Nemotron 3) 제품군을 발표했다. 산업 전반에서 투명하고 효율적이며 목적에 맞게 특화된 에이전틱 AI 개발을 지원하기 위한 네모트론 3 모델은 하이브리드 잠재 전문가 혼합 방식(mixture-of-experts : MoE) 아키텍처를 도입했다. 엔비디아는 “개발자가 대규모 환경에서 신뢰할 수 있는 멀티 에이전트 시스템을 구축하고 배포할 수 있도록 돕는다”고 소개했다. 기업들이 단일 모델 기반 챗봇에서 협업형 멀티 에이전트 AI 시스템으로 전환함에 따라, 개발자들은 통신 과부하, 맥락 이탈, 높은 추론 비용 등 점점 더 많은 과제에 직면하고 있다. 또한 복잡한 워크플로를 자동화할 모델을 신뢰하기 위해 투명성에 대한 요구도 커지고 있다. 네모트론 3는 이러한 과제를 해결하며, 고객이 전문화된 에이전틱 AI를 구축하는 데 필요한 성능과 개방성을 제공한다. 네모트론 3 MoE 모델 제품군은 세 가지 규모로 구성된다. ▲네모트론 3 나노(Nano)는 300억 개의 파라미터를 갖춘 소형 모델로, 한 번에 최대 30억 개의 파라미터를 활성화해 목적에 맞는 고효율 작업을 수행한다. ▲네모트론 3 슈퍼(Super)는 약 1000억 개의 파라미터와 토큰당 최대 100억 개의 활성 파라미터를 갖춘 고정확도 추론 모델로, 멀티 에이전트 애플리케이션에 적합하다. ▲네모트론 3 울트라(Ultra)는 약 5000억 개의 파라미터와 토큰당 최대 500억 개의 활성 파라미터를 갖춘 대규모 추론 엔진으로, 복잡한 AI 애플리케이션을 지원한다. 현재 제공 중인 네모트론 3 나노는 컴퓨팅 비용 효율이 가장 뛰어난 모델로, 낮은 추론 비용으로 소프트웨어 디버깅, 콘텐츠 요약, AI 어시스턴트 워크플로, 정보 검색과 같은 작업에 최적화돼 있다. 이 모델은 고유한 하이브리드 MoE 아키텍처를 활용해 효율성과 확장성 측면에서 향상된 성능을 제공한다. 네모트론 3 나노는 네모트론 2 나노 대비 최대 4배 높은 토큰 처리량을 달성하며, 추론 토큰 생성량을 최대 60%까지 줄여 추론 비용을 절감한다. 또한 100만 토큰 컨텍스트 윈도우를 지원해 더 많은 정보를 기억할 수 있으며, 장시간에 걸친 다단계 작업에서도 정보 간 연결성을 높여 정확도를 향상시킨다. 네모트론 3 슈퍼는 낮은 지연 시간으로 다수의 협업 에이전트가 복잡한 작업을 수행해야 하는 애플리케이션에 강점을 보인다. 네모트론 3 울트라는 심층 연구와 전략적 계획 수립이 요구되는 AI 워크플로를 위한 고급 추론 엔진 역할을 수행한다. 네모트론 3 슈퍼와 울트라는 엔비디아 블랙웰(Blackwell) 아키텍처 기반의 초고효율 4비트 NVFP4 훈련 포맷을 사용해 메모리 요구 사항을 줄이고 훈련 속도를 가속화한다. 이러한 효율성 덕분에 기존 인프라에서도 높은 정밀도 포맷 대비 정확도를 유지한 채 더 대규모 모델 훈련이 가능하다. 네모트론 3 모델 제품군을 통해 개발자는 특정 워크로드에 적합한 규모의 오픈 모델을 선택할 수 있다. 또한, 수십 개에서 수백 개의 에이전트로 확장하는 동시에 복잡한 워크플로에서 더 빠르고 정확한 장기 추론 성능의 이점을 누릴 수 있다.     네모트론 3 나노는 현재 허깅 페이스에서 제공되며, 베이스텐(Baseten), 딥인프라(DeepInfra), 파이어웍스(Fireworks), 프렌들리에이아이(FriendliAI), 오픈라우터(OpenRouter), 투게더 AI(Together AI) 등 추론 서비스 제공업체를 통해서도 이용할 수 있다. 네모트론 3 나노는 엔비디아 가속 인프라 전반에서 안전하고 확장 가능한 배포를 위해 엔비디아 NIM 마이크로서비스 형태로도 제공된다. 퍼블릭 클라우드 고객의 경우, 네모트론 3 나노는 아마존웹서비스(AWS)에서 아마존 베드록(Amazon Bedrock, 서버리스 방식)을 통해 제공될 예정이며, 구글 클라우드, 코어위브, 크루소, 마이크로소프트 파운드리, 네비우스, 엔스케일, 요타에서도 곧 지원될 예정이다. 네모트론 3 슈퍼와 네모트론 3 울트라는 2026년 상반기에 제공될 예정이다. 또한, 엔비디아는 전문화된 AI 에이전트를 구축하기 위한 훈련 데이터세트와 최첨단 강화학습 라이브러리 컬렉션을 공개했다. 총 3조 개의 토큰으로 구성된 새로운 네모트론 사전 훈련, 사후 훈련, 강화학습 데이터세트는 고도화된 추론과 코딩, 다단계 워크플로 사례를 풍부하게 제공해 높은 역량을 갖춘 도메인 특화 에이전트 구축을 지원한다. 개발 속도를 높이기 위해 엔비디아는 네모트론 모델의 훈련 환경과 사후 훈련 기반을 제공하는 오픈소스 라이브러리인 네모 짐(NeMo Gym)과 네모 RL을 함께 공개했다. 또한 모델의 안전성과 성능을 검증할 수 있도록 네모 이밸류에이터(Evaluator)도 선보였다. 모든 도구와 데이터세트는 현재 깃허브(GitHub)와 허깅 페이스(Hugging Face)를 통해 제공되고 있다. 네모트론 3는 LM 스튜디오(LM Studio), 라마.cpp(llama.cpp), SGLang, vLLM을 통해 지원된다. 이와 함께 프라임 인텔렉트(Prime Intellect)와 언슬로스(Unsloth)는 네모 짐의 즉시 사용 가능한 훈련 환경을 자사 워크플로에 직접 통합하고 있으며, 이를 통해 강력한 강화학습 훈련 환경에 보다 빠르고 손쉽게 접근할 수 있다. 엔비디아 네모트론은 엔비디아의 소버린 AI 전략을 지원한다. 유럽부터 대한민국에 이르는 다양한 조직들이 자체 데이터, 규제, 가치에 부합하는 AI 시스템을 구축할 수 있도록 개방적이고 투명하며 효율적인 모델 채택을 가능하게 한다. 네모트론 3의 초기 도입 기업으로는 액센츄어, 케이던스, 크라우드스트라이크, 커서, 딜로이트, EY, 오라클 클라우드 인프라스트럭처(OCI), 팔란티어, 퍼플렉시티, 서비스나우, 지멘스, 시놉시스, 줌 등이 있다. 이들은 제조, 사이버보안, 소프트웨어 개발, 미디어, 커뮤니케이션 등 다양한 산업 전반의 AI 워크플로를 구현하기 위해 네모트론 제품군의 모델을 통합하고 있다. 엔비디아의 젠슨 황(Jensen Huang) 창립자 겸 CEO는 “오픈 혁신은 AI 발전의 토대이다. 네모트론을 통해 우리는 첨단 AI를 개방형 플랫폼으로 전환해, 개발자들이 대규모 환경에서 에이전틱 시스템을 구축하는 데 필요한 투명성과 효율을 제공하고 있다”고 말했다. 서비스나우의 빌 맥더멋(Bill McDermott) 회장 겸 CEO는 “엔비디아와 서비스나우는 수년간 AI의 미래를 함께 만들어왔으며, 최고의 순간은 아직 오지 않았다. 오늘 우리는 모든 산업의 리더들이 에이전틱 AI 전략을 빠르게 추진할 수 있도록 지원하는 데 있어 중요한 진전을 이루고 있다. 서비스나우의 지능형 워크플로 자동화와 엔비디아 네모트론 3의 결합은 탁월한 효율, 속도, 정확성을 바탕으로 계속해서 업계 표준을 제시할 것”이라고 말했다.
작성일 : 2025-12-17
마이크로소프트, 2026년 7대 AI 트렌드 공개
마이크로소프트가 2026년 AI 혁신을 이끌 7대 트렌드를 공개하면서, AI가 도구를 넘어 인간의 파트너로서 실질적인 변화를 만드는 시대를 예고했다. 지난 몇 년간의 실험 단계를 지나, AI는 이제 우리가 일하고, 창작하고, 문제를 해결하는 방식을 바꾸고 인간과 협업하며 인간의 전문성을 확장하고 있다. 마이크로소프트는 2026년을 기점으로 AI가 단순한 도구를 넘어 인간의 역량을 확장하는 실질적인 파트너로 진화함으로써, 가시적인 변화를 이끌 것으로 전망했다. 이러한 변화는 다양한 산업 전반에서 현실화되고 있다. AI는 의료 분야에서 의료 격차 해소에 기여하고 있으며, 소프트웨어 개발 분야에서는 작업의 맥락까지 이해한다. 양자 컴퓨팅 분야에서는 AI와 슈퍼컴퓨터, 양자를 결합한 하이브리드 접근이 기존에 해결 불가능했던 문제에 대한 돌파구를 예고하고 있다. AI 에이전트의 고도화에 따라 보안과 인프라의 중요성도 더욱 커지고 있다. 조직들은 디지털 동료의 등장에 따른 새로운 위협에 대응하는 한편, 스마트하고 효율적인 AI 인프라 구축에도 속도를 내고 있다.     첫 번째, AI는 인간의 능력을 단순히 보조하는 수준을 넘어 보다 강력한 협력자로 자리 잡을 전망이다. AI는 질문에 답하고 문제를 추론하던 단계를 지나, 사람과 함께 일하며 성과를 확대하는 방향으로 진화하고 있다. 이는 개인과 소규모 팀이 기존보다 훨씬 큰 규모의 프로젝트를 신속하게 추진할 수 있는 환경을 만드는 변화다. 특히 AI 에이전트는 데이터 분석, 콘텐츠 생성, 개인화 작업 등을 담당하며 디지털 동료의 역할을 수행하게 된다. 예를 들어, 소수 인원으로 구성된 팀도 AI의 지원을 통해 며칠 만에 글로벌 캠페인을 기획·실행할 수 있는 업무 환경이 가능해진다. 이러한 변화는 인간이 전략이나 창의성이 필요한 핵심 역할에 집중할 수 있도록 돕고, 조직의 생산성 향상으로 이어질 것으로 기대된다. 두 번째, AI 에이전트의 확산과 함께 보안이 핵심 과제로 떠오르고 있다. 2026년에는 AI 에이전트가 조직 내에서 디지털 팀원처럼 기능하며, 일상 업무와 의사결정을 돕는 데 관여할 것으로 예상된다. 이에 따라, 보안에서부터 각 에이전트의 신뢰성을 확보하는 것이 그 어느 때보다 중요해지고 있다. 각 에이전트에는 명확한 신원을 부여하고, 접근 권한을 제한하며, 에이전트가 생성한 데이터를 관리하고, 에이전트를 외부 위협으로부터 보호하는 체계적인 보안 설계가 요구된다. 보안은 더 이상 마지막에 추가하는 옵션이 아니라, 처음부터 환경 전반에서 상시적, 자율적, 내장형으로 작동할 것으로 예고된다. 또한, 공격자들이 AI를 악용하는 방식이 정교해짐에 따라, 조직은 보안 에이전트를 통해 위협을 조기에 탐지하고 신속히 대응하는 보안 체계를 구축하고 있다. 세 번째, AI가 의료 격차 해소의 열쇠로 부상하고 있다. 세계보건기구(WHO)는 2030년까지 약 1100만 명의 의료 인력이 부족해질 것으로 전망하며, 이로 인해 전 세계 45억 명이 필수 의료 서비스를 받지 못할 수 있다고 경고했다. 2025년 마이크로소프트 AI의 진단 오케스트레이터(MAI-DxO)는 숙련된 의사의 평균 진단 정확도(20%)를 웃도는 85.5%의 정확도로 복잡한 의료 사례를 해결하는 성과를 냈다. 또한 코파일럿(Copilot)과 빙(Bing)은 매일 5000만 건 이상의 건강 관련 문의를 처리하고 있다. 네 번째, AI가 과학 연구 과정에 점점 더 중요한 역할을 맡고 있다. AI는 이미 기후 모델링, 분자동역학, 신소재 설계 등의 분야에서 혁신을 앞당기고 있으며, 2026년에는 물리·화학·생물학 연구에서 논문 요약이나 보고서 작성을 넘어, 실제 발견 과정에 적극 참여할 것으로 전망된다. 이러한 변화는 마치 개발자가 AI와 함께 코드를 작성하는 ‘페어 프로그래밍(pair programming)’이나, 일상 업무를 자동화하는 앱을 사용하는 흐름과 맞닿아 있다. 마이크로소프트는 과학 분야에서도 이 같은 협업 방식이 점차 확산될 것으로 내다보고 있다. 다섯 번째, AI 인프라가 단순한 확장을 넘어 더 스마트하고 효율적인 방향으로 재편되고 있다.  2026년에는 분산된 컴퓨팅 자원을 보다 조밀하게 배치하고 유연하게 운용하는 차세대 연결형 인프라, 이른바 AI 슈퍼팩토리(superfactories)가 등장할 전망이다. 마크 러시노비치(Mark Russinovich) 마이크로소프트 애저(Microsoft Azure) 최고기술책임자 (CTO)는 이러한 변화를 “AI 워크로드를 위한 항공 교통 관제 시스템”에 비유했다. 컴퓨팅 자원을 실시간으로 조정하고 분산시켜, 작업이 지연될 경우 즉시 다른 작업이 그 자원을 활용해 낭비 없이 운영되는 구조라는 설명이다. 여섯 번째, AI가 단순한 코드 해석을 넘어 코드 간 관계와 과거 이력까지 이해하는 수준으로 진화하고 있다. ‘리포지토리 인텔리전스(Repository Intelligence)’라 불리는 이 기술은 코드의 변경 내역과 이유 등 코드 리포지토리의 패턴을 분석해 더 스마트한 제안과 빠른 오류 탐지, 수정 자동화를 돕는다. 2025년은 소프트웨어 개발 활동이 사상 최고치를 기록한 해였다. 깃허브(GitHub)에 따르면, 매달 평균 4320만 건의 풀 리퀘스트(Pull Request)가 병합돼 전년 대비 23% 증가했으며, 코드 변경 내역을 저장한 커밋 수도 10억 건으로 25% 늘었다. 이는 AI가 코드 작성부터 검토, 유지보수 전 과정에 중심적으로 관여하며, 소프트웨어 개발 방식이 빠르게 변화하고 있음을 보여준다. 일곱 번째, 양자 컴퓨팅이 기존 컴퓨팅의 한계를 넘어서는 실용화가 수십 년이 아닌 수년 앞으로 다가오고 있다. 특히 AI와 슈퍼컴퓨터, 양자를 결합한 ‘하이브리드 컴퓨팅’이 부상하면서, 각 기술의 강점을 통합한 새로운 연산 방식이 주목받고 있다. AI는 데이터에서 패턴을 찾고, 슈퍼컴퓨터는 대규모 시뮬레이션을 처리하며, 양자는 분자와 물질 모델링 계산 정확도를 획기적으로 높이는 역할을 수행한다. 여기에 오류를 감지하고 보정할 수 있는 ‘논리 큐비트(logical qubits)’ 기술의 발전이 더해지며, 양자 시스템의 안정성도 향상되고 있다. 마이크로소프트의 양자 칩 마요라나 1(Majorana 1)은 위상 큐비트(topological qubits)를 기반으로 설계돼 큐비트의 불안정성을 줄이고, 오류를 자동으로 감지·수정할 수 있는 구조를 갖췄다. 이를 통해 하나의 칩에 수백만 개 큐비트를 집적할 수 있는 확장성도 확보했다.
작성일 : 2025-12-16
코드로 강력한 수학 그래픽 애니메이션을 만드는 매님
BIM 칼럼니스트 강태욱의 이슈 & 토크   이번 호에서는 복잡한 수학적 개념을 명료하고 아름다운 애니메이션으로 시각화하기 위해 설계된 파이썬(Python) 라이브러리인 Manim(Mathematical Animation Engine, 매님)에 대해 살펴본다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   그림 1   매님은 코드를 통해 프로그래밍 방식으로 정밀한 2D 애니메이션을 생성하는 데 사용되는 오픈소스 프레임워크이다. 사용자는 파이썬 클래스와 메서드를 활용하여 도형, 텍스트, 그래프, 공식 등 다양한 시각적 요소를 정의하고, 이들의 생성, 변형, 소멸 등 다채로운 움직임을 제어할 수 있다. 단순한 키프레임(Keyframe) 기반의 애니메이션 도구와 달리, 매님은 모든 시각적 요소를 객체(object)로 다룬다. 따라서 좌표, 크기, 색상, 투명도 등 객체의 모든 속성을 수치적으로 정밀하게 제어하는 것이 가능하다. 이러한 특징 덕분에 미적분, 선형대수, 물리학 공식 등 추상적인 개념을 직관적으로 이해할 수 있도록 설명하는 영상 콘텐츠 제작에서 강력한 성능을 보인다. 더 자세한 정보는 매님 웹사이트에서 확인할 수 있다.  https://www.manim.community   매님의 개발 배경 매님은 저명한 수학 유튜버인 그랜트 샌더슨(Grant Sanderson)이 자신의 유튜브 채널 ‘3Blue1Brown’의 콘텐츠를 제작하기 위해 직접 개발한 도구에서 시작되었다. 그는 복잡한 수학 이론을 설명하는 데 기존의 시각 자료나 애니메이션 소프트웨어로는 한계가 있다고 느꼈다. 특히, 수학적 개념의 본질적인 아름다움과 논리적 흐름을 정확하게 표현하기 위해서는 프로그래밍을 통한 완전한 제어권이 필수라고 생각했다. 이러한 필요에 의해 2015년부터 매님을 개인 프로젝트로 개발하기 시작했으며, 그의 영상이 큰 인기를 얻으면서 매님 역시 전 세계의 교육자, 개발자, 아티스트들로부터 주목받게 되었다. 이후, 그의 독창적인 버전을 기반으로 개발자 커뮤니티가 주도하는 보다 범용적이고 사용하기 쉬운 ‘매님 커뮤니티 에디션(Manim Community Edition)’이 파생되어 활발하게 발전하고 있다. 매님의 소스코드는 커뮤니티 깃허브 저장소에서 확인할 수 있다.  https://GitHub.com/ManimCommunity/manim   유사 도구 매님과 비슷하게 코드를 통해 시각적 결과물을 생성하는 라이브러리는 여러 가지가 있으며, 각각 다른 목적과 특징을 가지고 있다.  프로세싱(Processing) : 시각 예술, 데이터 시각화, 인터랙티브 아트 분야에서 널리 사용되는 오픈소스 프로그래밍 언어 및 환경이다. 자바(Java)를 기반으로 하며, 초보자가 쉽게 그래픽 프로그래밍에 입문할 수 있도록 설계되었다. 애니메이션 기능도 지원하지만, 매님만큼 수학적 표현에 특화되어 있지는 않다.(https://processing.org)  D3.js : 웹 브라우저에서 동적인 데이터 기반 문서를 만들기 위한 자바스크립트(JavaScript) 라이브러리이다. SVG, HTML, CSS를 활용하여 데이터 시각화, 특히 인터랙티브 차트와 그래프를 제작하는 데 강력한 기능을 제공한다. 웹 기반이라는 점에서 매님과 차이가 있다.(https://d3js.org)  파이게임(Pygame) : 파이썬으로 2D 게임을 개발하기 위해 설계된 라이브러리이다. 실시간 사용자 입력 처리와 게임 루프 관리에 중점을 두고 있어, 정해진 스크립트에 따라 렌더링되는 매님과는 작동 방식과 목적이 다르다.(https://www.pygame.org) 매님은 MIT 라이선스를 따르는 완전한 오픈소스 소프트웨어이다. 이는 개인, 교육 기관, 상업적 목적을 포함한 어떠한 용도로든 무료로 사용할 수 있음을 의미한다. 별도의 가입 절차나 유료 플랜 없이 누구나 자유롭게 다운로드하여 설치하고, 소스코드를 수정하거나 재배포하는 것이 가능하다. 모든 기능은 커뮤니티의 자발적인 기여를 통해 개발되고 유지보수된다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-11-04
[케이스 스터디] 인더스트리 4.0을 위한 로봇 예측 유지보수의 발전
디지털 트윈과 AI가 시뮬레이션과 현실의 간극을 메우다   제조 시설은 지속적인 문제에 직면해 있다. 정비 일정은 일반적으로 실제 마모와 관계없이 3개월마다 부품을 점검하고 6개월마다 구성 요소를 교체하는 등 엄격한 일정을 따른다. 그 결과 불필요한 점검과 교체로 인한 비효율적인 시간 낭비가 발생하고, 반대로 정비 일정 전에 부품이 고장 나는 일도 생긴다. 센트랄수펠렉-파리 사클레대학교(CentraleSupélec–Université Paris-Saclay)의 지궈 젠(Zhiguo Zeng) 교수와 그의 연구팀은 디지털 트윈 기술과 딥러닝을 결합한 혁신적인 접근 방식을 통해 이 문제를 해결하고 있다. 그들의 목표는 모든 중요 부품에 센서를 배치할 필요 없이 시스템 수준의 모니터링 데이터만으로 로봇 시스템의 구성요소 수준의 고장을 감지하는 것이다. 젠 교수는 “유지보수는 공장에서 매우 큰 문제”라면서, “기계에 유지보수가 필요한 시기를 미리 안다면 주문이 적은 시기에 수리 일정을 잡을 수 있어 생산성 손실을 최소화할 수 있다”고 말했다. 그는 신뢰성 공학과 수명 예측 분야에서 풍부한 경험을 갖고 있지만, 디지털 트윈 기술은 그의 이전 연구와는 결이 다른 새로운 영역이었다. 센트랄수펠렉의 안 바로스(Anne Barros) 교수와 페드로 로드리게스-아예르베(Pedro Rodriguez-Ayerbe) 교수가 주도하는 학제 간 프로젝트인 ‘미래의 산업(Industry of the future)’에 참여하면서, 그는 디지털 트윈이 어떻게 강력한 시뮬레이션 도구를 물리적 시스템에 실시간으로 직접 연결할 수 있는지 깨달았다. 젠 교수는 “디지털 트윈은 결함 진단에 매우 유용하다. 이를 실제 기계의 데이터에 연결하여 그 데이터로 모델을 개선할 수 있다”고 설명했다.  제조업, 자동차, 항공우주 및 기타 분야로 활용 영역이 확대되면서, 디지털 트윈은 인더스트리 4.0에서 유망한 기술 중 하나로 자리잡고 있다. 물리적 객체나 시스템의 가상 복제본인 디지털 트윈(digital twin)을 생성함으로써, 조직은 운영 현황과 유지보수 필요성을 명확하게 파악할 수 있다. 또한 디지털 트윈은 예측 유지 관리 시스템 개발의 어려운 측면 중 하나인 고장 데이터의 부족에 대한 해결책을 제시한다. 젠 교수는 “현실에서는 고장이 자주 발생하는 걸 보기는 어렵다. 그래서 이제는 시뮬레이션을 통해 고장 데이터를 만들어낸다”고 설명했다.   가상과 물리의 가교 역할 디지털 트윈 프로젝트는 물리적 시스템과 가상 시스템 간의 다양한 수준의 통합을 통해 구현 옵션을 제공한다. 젠 교수의 연구팀은 세 가지 서로 다른 수준의 디지털 표현으로 작업했다. 기본 수준에서 디지털 모델은 기존 시뮬레이션처럼 작동하며, 물리적 시스템과 데이터를 교환하지 않는 정적 모델로 오프라인에서 실행된다. 그다음 단계는 디지털 섀도로, 가상 모델이 물리적 시스템의 데이터를 받아 그 행동을 미러링하지만 제어하지는 않는다. 가장 발전된 구현은 데이터와 정보의 양방향 흐름을 갖춘 진정한 디지털 트윈이다. 여기서 모델은 관찰을 바탕으로 스스로 업데이트하고 물리적 시스템을 제어하는 실시간 결정을 내린다. 연구팀은 테스트용으로 ArmPi FPV 교육용 로봇을 선택했다. 이 로봇은 5개의 관절과 하나의 엔드이펙터로 구성되며, 6개의 서보 모터로 제어된다. 결함 진단의 기초가 될 만큼 정확한 디지털 트윈을 만드는 것은 어려운 일이었다. 또한 기존 모니터링 접근 방식의 한계를 해결해야 했다. 젠 교수는 “대부분의 산업 사례에서 베어링을 진단하려면 베어링 수준의 센서가 필요하며, 이는 쉽지 않은 일이다. 내부에 베어링이 있는 큰 기계를 상상해보면 센서를 설치하기 위해서는 기계를 분해해야 하는데 때로는 공간이 충분하지 않을 때도 있다”고 말했다.   그림 1. ArmPi FPV 교육용 로봇(출처 : 센트랄수펠렉)   그들의 접근 방식은 시스템 수준 데이터(로봇 엔드 이펙터의 이동 궤적)를 사용하여 구성 요소 수준의 오류(개별 모터 문제)를 진단하는 것이었다. 또한 디지털 트윈을 사용하여 관찰할 수 있는 것과 감지해야 할 것 사이의 격차를 해소하고자 했다. 연구팀은 시뮬링크(Simulink)와 심스케이프 멀티바디(Simscape Multibody)를 사용하여 디지털 트윈을 구축했으며, 구성요소와 시스템 수준 동작을 모두 나타내는 계층적 모델을 만들었다. 젠 교수는 “모든 것은 시뮬레이션 모델을 설계하는 것으로 시작한다. 동적 시스템과 그 제어기를 모델링하고 싶다면 시뮬링크는 매우 강력하다”고 말했다. 연구팀은 시뮬링크를 사용해 모터 제어기를 PID 제어기로 모델링하면서 실험적으로 조정한 게인 값을 활용했다. 또한, 시뮬링크의 시각화 기능을 적극적으로 활용해 시뮬레이션 데이터와 실제 로봇의 센서 데이터를 연동할 수 있는 인터페이스를 구축하고, 실시간 모니터링 환경을 구성하였다. ROS 툴박스(ROS Toolbox)는 로봇 하드웨어와의 연결에서 유용한 역할을 했다. 젠 교수는 “로봇 운영 체제(Robot Operating System : ROS)를 사용하려면 일반적으로 ROS와 파이썬(Python) 환경을 별도로 구성하고 모든 연결을 직접 처리해야 한다”면서, “ROS 툴박스를 사용하면 이런 설정이 자동으로 관리되기 때문에 많은 노력을 아낄 수 있다”고 설명했다. 연구팀은 AI 모델 학습을 위한 데이터 준비 과정에서는 두 가지 접근 방식을 시도하였다. 먼저, 로봇에 입력되는 모터 명령과 그에 따른 그리퍼(gripper)의 움직임 패턴과 같은 원시 계측값을 기반으로 데이터를 수집하였다. 이후에는 디지털 트윈을 활용한 방식을 도입하였다. 시뮬레이션을 통해 로봇이 명령에 따라 어떻게 움직여야 하는지를 예측하고, 이 결과를 실제 움직임과 비교함으로써 예상과 실제 간의 차이를 도출하였다. 이러한 차이는 미세한 고장을 감지하는 데 유용한 지표로 작용하였다.   그림 2. 심스케이프 멀티바디의 로봇 팔에 대한 시뮬링크 모델(출처 : 센트랄수펠렉)   연구팀은 딥 러닝 툴박스(Deep Learning Toolbox)를 사용하여 장단기 메모리(Long Short-Term Memory : LSTM) 신경망을 훈련하여 특정 실패를 나타내는 패턴을 식별했다. 모델 아키텍처에는 각각 100개의 숨겨진 단위가 있는 두 개의 LSTM 계층, 그 사이의 드롭아웃 계층 및 완전히 연결된 분류 계층이 포함된다. 연구팀은 매트랩 앱 디자이너(MATLAB App Designer)를 사용하여 각 모터의 위치, 전압 및 온도를 포함한 실시간 데이터를 수집하는 그래픽 사용자 인터페이스를 설계했다. 이 인터페이스를 통해 로봇의 상태를 모니터링하고 오류 진단 모델의 예측을 검증할 수 있었다. 이러한 통합 도구들이 원활하게 함께 작동하면서, 연구팀은 소프트웨어 호환성 문제와 씨름하기보다는 효율적으로 기술적 과제 해결에 집중할 수 있었다.   현실 격차에 도전하다 연구팀은 실제 로봇에서 훈련된 모델을 테스트했을 때 연구원들이 ‘현실 격차’라고 부르는 시뮬레이션과 현실 세계 간의 불일치에 직면했다. 결함 진단 모델은 시뮬레이션에서 98%의 정확도를 달성하여 모터 고장의 위치와 유형을 모두 정확하게 식별했지만, 실제 로봇에서 테스트했을 때 성능은 약 60%로 떨어졌다. 젠 교수는 “시뮬레이션이 현실과 일치하지 않는 이유를 분석하고 있다”고 말하며, “실제 세계를 시뮬레이션 상에서 표현할 때 고려하지 못한 요소들이 있다”고 설명했다. 젠 교수와 그의 연구팀은 통신 신뢰성 문제, 시뮬레이션에서 고려되지 않은 모터 노이즈, 제어 명령과 모니터링 활동 간의 동기화 문제 등 성능 격차에 기여하는 여러 요인을 확인했다.   그림 3. 정상 상태 오류에서 로봇 팔의 애니메이션 및 관련 혼동 매트릭스(출처 : 센트랄수펠렉)   이러한 과제는 디지털 트윈 애플리케이션의 광범위한 문제를 반영한다. 현실은 가장 정교한 시뮬레이션보다 더 복잡하다. 연구팀은 낙담하기보다는 실제 노이즈 패턴을 시뮬레이션 하는 모듈을 디지털 트윈에 추가하고 전이 학습에 도메인 적응 기술을 적용하는 등 이러한 격차를 해소하기 위한 방법을 개발했다. 젠 교수는 “디지털 트윈 모델을 개발할 때 보정 테스트를 하긴 하지만, 이 역시 통제된 환경에서 이루어진다”고 말했다. 이어서 “하지만 산업 현장에 모델을 실제로 적용하면 훨씬 더 많은 노이즈가 포함된 데이터를 접하게 된다. 이처럼 현실의 노이즈를 알고리즘 관점에서 어떻게 보정할 것인가는 매우 도전적인 연구 주제”라고 설명했다. 이러한 수정을 통해 연구팀은 실제 세계 정확도를 약 85%까지 개선했다. 이는 실용적 구현을 향한 중요한 진전이다.   소규모 실험실에서 스마트 공장으로 연구팀의 작업은 단일 로봇을 넘어서 확장되고 있다. 이들은 다수의 로봇이 협업하며 생산 라인을 구성하는 소규모 스마트 공장 환경을 구축하고 있으며, 이를 통해 고장 진단 알고리즘을 보다 실제에 가까운 조건에서 실험하고자 한다. 젠 교수는 “우리는 미니 스마트 공장을 구축하려고 한다”면서, “생산 설비와 유사한 환경을 만들어 로봇에 알고리즘을 적용해, 실제 생산 스케줄링에 통합될 수 있는지를 실험하고 있다”고 설명했다. 이러한 접근 방식은 교육적 효과도 크다. 센트랄수펠렉의 공학과 학생들은 수업과 프로젝트를 통해 디지털 트윈, 로보틱스, 머신러닝 기술을 실습 기반으로 학습하고 있다. 젠 교수는 “학생들이 처음부터 가상 공간에서 모델을 직접 설계하고 이를 점차 실제 로봇과 연결해가는 과정을 보면, 그들이 이 과정을 진심으로 즐기고 있다는 걸 알 수 있다”고 전했다. 이 연구는 제조업뿐 아니라 물류, 스마트 창고 등 다양한 산업 분야로의 확장이 가능하다. 예를 들어 스마트 창고에서는 로봇이 정해진 경로를 따라 이동하지만, 장애물이 나타나면 이를 인식하고 경로를 유동적으로 조정해야 한다.   그림 4. 여러 로봇이 소규모 스마트 공장 환경의 생산 라인에서 협력하여 작동한다.(출처 : 센트랄수펠렉)   젠 교수는 “스마트 창고에서 로봇은 사전 정의된 규칙을 따르지만, 패키지가 떨어지고 경로가 막히는 등 경로를 리디렉션하고 다시 프로그래밍해야 하는 경우가 있을 수 있다. 이런 경우 로봇을 조정하기 위해 각 로봇의 실시간 위치를 알아야 하기 때문에 디지털 트윈 시스템이 필요하다”고 설명했다. 연구팀은 구성요소가 고장 날 때 로봇의 움직임을 조정하는 것과 같은 내결함성 제어를 포함한 추가 응용 프로그램을 모색하고 있다. 또한 연구자들은 에너지 소비만 고려하는 것이 아니라, 궤적 최적화 모델에서 각 모터의 성능 저하 수준과 잔여 유효 수명도 고려하는 건전성 인식 제어를 개발하고 있다. 그들의 코드, 모델, 데이터 세트를 깃허브 저장소(GitHub repository)를 통해 자유롭게 공개하고 있으며, 다른 연구자들이 이를 바탕으로 연구를 확장해 나가기를 기대하고 있다. 목표는 개선의 출처가 어디든 간에, 보다 나은 고장 진단 시스템을 구축하는 것이다. 젠 교수는 “누군가 우리보다 더 나은 결과를 만들어낸다면 정말 기쁠 것”이라고 전했다. 중국 제조업 현장에서 일하던 부모님의 영향을 받아 공학자의 길을 걷게 된 젠 교수에게 이번 연구는 단순한 학문적 탐구를 넘어선 개인적인 사명이기도 하다. 젠 교수는 “어릴 때 제조업에서 일하는 것이 얼마나 힘든 일인지 직접 보며 자랐다”면서, “내가 그렸던 비전은 그런 육체 노동을 로봇이 대체하게 해 사람들이 보다 나은 삶을 살 수 있도록 하는 것이었다”고 전했다.   ■ 이웅재 매스웍스코리아의 이사로 응용 엔지니어팀을 이끌고 있으며, 인공지능·테크니컬 컴퓨팅과 신호처리·통신 분야를 중심으로 고객의 기술적 성공을 지원하는 데 주력하고 있다. LG이노텍과 LIG넥스원에서 연구개발을 수행하며 신호처리와 통신 분야의 전문성을 쌓아왔다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-10-20
[무료강좌] 요구사항 기반 바이브 코딩의 사용 방법
BIM 칼럼니스트 강태욱의 이슈 & 토크   이번 호에서는 더욱 현실적인 앱 개발을 위해, 요구사항을 먼저 상세히 정의한 후 이를 바탕으로 바이브 코딩(vibe coding)을 하는 방법을 살펴본다. 소프트웨어 공학에서 요구사항 문서를 PRD(Product Requirement Document)라고 한다. PRD 작성은 제미나이 프로(Gemini Pro), 바이브 코딩 도구는 깃허브 코파일럿(GitHub Copilot), 이때 사용되는 대규모언어 모델(LLM)은 클로드 소넷(Claude Sonet)을 사용하도록 한다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   그림 1   바이브 코딩 준비하기 바이브 코딩을 하는 방법은 다음과 같이 다양하다. 챗GPT(ChatGPT)에 코딩 요청을 해서 생성된 파이썬(Python) 같은 코드를 복사&붙여넣기해 프로그램을 완성해 나가는 방법 제미나이 CLI(Gemini CLI), 클로드 코드 CLI(Claude Code CLI), 코덱스 CLI(Codex CLI) 도구를 사용해 프로젝트 파일 및 소스코드를 생성하는 방법 VS 코드(Visual Studio Code)같은 개발 IDE와 연동되는 깃허브 코파일럿, 커서(Cursor), 윈드서프(Windsurf)와 같은 도구를 사용해 바이브 코딩하는 방법 버블(Bubble.io)이나 캔바(Canva)와 같은 바이브 코딩 웹 서비스에서 직접 요구사항을 입력하여 제공 클라우드에 앱을 생성・빌드・실행하는 방법   깃허브 코파일럿 바이브 도구 설치 및 기능 깃허브 코파일럿은 오픈AI(OpenAI)와 협력하여 개발된 AI 페어 프로그래머(AI Pair Programmer)이다. 그 기반은 오픈AI의 코덱스(Codex) 모델에서 발전한 최신 대규모 언어 모델(LLM)이며, 수십억 줄의 공개 소스 코드를 학습하여 코드 생성 및 이해 능력을 갖추었다. 개발자가 코드를 작성할 때 실시간으로 문맥을 분석하여 다음에 올 코드를 추천하거나, 특정 기능에 대한 전체 코드 블록을 생성해 준다. 이는 단순한 자동 완성을 넘어, 개발자가 문제 해결이라는 본질에 더욱 집중하도록 돕는 지능형 코딩 보조 도구이다. 이번 호에서는 로컬 PC에서 프로젝트 소스 파일을 생성하고 직접 수정할 수 있도록 VS 코드에서 바이브 코딩할 수 있는 방법을 취한다. 이를 위해 다음 환경을 미리 준비한다. Gemini Pro(https://gemini.google.com/app?hl=ko) 가입 ■ 파이썬(https://www.python.org/downloads/), node.js(https://nodejs.org/ko/download) 설치 ■ GitHub(https://GitHub.com/features/copilot) 가입 ■ GitHub Copilot(https://GitHub.com/features/copilot) 서비스 가입 ■ VS Code(https://code.visualstudio.com/) 설치 및 코딩 언어 관련 확장(Extension) 애드인 설치(https://code.visualstudio. com/docs/configure/extensions/extension-marketplace)   그림 2. 깃허브 코파일럿 가입 모습   주요 기능 깃허브 코파일럿은 생산성 향상을 위한 다양한 기능을 통합적으로 제공한다.   인라인 코드 제안(Code Suggestions) 깃허브 코파일럿의 가장 핵심적인 기능으로, 사용자가 편집기에서 코드를 입력하는 동시에 다음 코드를 회색 텍스트(ghost text) 형태로 제안하는 것이다. 문맥 기반 제안 : 현재 파일의 내용, 열려 있는 다른 탭의 코드, 프로젝트 구조 등을 종합적으로 분석하여 현재 작성 중인 코드의 의도에 가장 적합한 제안을 생성한다. 다양한 제안 범위 : 변수명이나 단일 라인 완성부터 시작해 알고리즘, 클래스, 유닛 테스트 케이스, 설정 파일 등 복잡하고 긴 코드 블록 전체를 생성할 수 있다. 주석을 코드로 변환 : ‘# Read file and parse JSON’과 같이 자연어 주석을 작성하면, 코파일럿이 해당 작업을 수행하는 실제 코드를 생성해준다. 이는 복잡한 라이브러리나 프레임워크 사용법을 숙지하지 않아도 빠르게 기능을 구현하는 것을 가능하게 한다.   코파일럿 챗(Copilot Chat) IDE 환경을 벗어나지 않고 코파일럿과 대화하며 개발 관련 문제를 해결할 수 있는 강력한 채팅 인터페이스이다. 코드 분석 및 설명 : explain 명령어를 사용해 선택한 코드 블록의 작동 방식, 복잡한 정규 표현식의 의미, 특정 알고리즘의 목적 등에 대한 상세한 설명을 한국어로 받을 수 있다. 디버깅 지원 : 코드의 버그를 찾거나, 발생한 오류 메시지를 붙여넣고 해결책을 질문하는 데 활용된다. 잠재적인 오류를 수정하는 fix 명령어도 지원한다. 테스트 생성 : tests 명령어를 통해 특정 함수나 로직에 대한 단위 테스트 코드를 자동으로 생성하여 코드의 안정성을 높이는 데 기여한다. 코드 리뷰 : 작성된 코드를 분석하여 잠재적인 문제점, 성능 개선 방안, 가독성을 높이기 위한 리팩토링 아이디어 등을 제안받을 수 있다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-10-01