• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "GIS"에 대한 통합 검색 내용이 1,266개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
팔코DB와 LLM을 활용한 그래프 모델 BIM 기반 AI 에이전트 개발
BIM 칼럼니스트 강태욱의 이슈 & 토크   이번 호에서는 건설 인프라 분야에서 정보 교환 시 사용되는 BIM(건설 정보 모델링) 산업 표준인 IFC(Industry Foundation Classes) 기반 AI 에이전트 개발 과정을 설명한다. IFC 포맷의 BIM 데이터를 팔코DB(FalkorDB) 그래프 데이터베이스로 변환하고, 로컬 LLM인 Ollama(올라마)를 연동하여 자연어 질의가 가능한 AI 에이전트를 구축하는 전체 과정을 기술한다. 또한, 도커(Docker) 기반의 데이터베이스 서버 구성부터 파이썬(Python) 의존성 설치, 데이터 적재 및 애플리케이션 실행 방법을 단계별로 정리한다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   그림 1   개발 환경 및 전제 조건 이번 호에서 만들어 볼 시스템은 온프레미스 환경에서의 실행을 가정하며, 다음의 컴포넌트를 필요로 한다. 도커 : 그래프 데이터베이스(팔코DB) 실행을 위해 필요(설치 : https://www.docker.com/get-started) 파이썬 3.11+ : 데이터 변환 및 에이전트 로직 수행 올라마 : 로컬 LLM 추론 서버 하드웨어 : LLM 구동을 위한 적정 수준의 GPU 또는 메모리(RAM 16GB 이상 권장) 지면 한계 상 모든 개발 코드를 설명하기는 어려우므로, 주요 부분만 개발 방법을 설명할 것이다. 다음의 깃허브 링크를 참고해 다운로드한다. ■ https://github.com/mac999/infra_ai_agent_tutorials/tree/main/08_AI_Agent/5_infra_graph_rag 다운로드한 폴더의 구조는 <그림 2>와 같을 것이다.   그림 2   이제 이 깃허브 프로젝트의 각 핵심 모듈을 설명하도록 하겠다.   데이터베이스 서버 구축(팔코DB) 팔코DB는 레디스(Redis) API 호환 고성능 그래프 데이터베이스다. 오픈소스이며 무료이다. 그래프 구조 데이터 저장 및 검색을 지원한다.   그림 3. Graph Database uses GraphBLAS under the hood for its sparse adjacency matrix graph representation(GraphRAG) (https://github.com/FalkorDB/FalkorDB)   실행을 위해, 다음과 같이 명령창 터미널에서 도커 명령을 실행해 본다. 그러면 팔코DB 서버가 로컬에 다운로드된 후 자동 실행될 것이다. docker run -p 6379:6379 -p 3000:3000 -it --rm -v ./data:/ var/lib/falkordb/data falkordb/falkordb 상세 옵션은 다음과 같다. -p 6379:6379 : 팔코DB(레디스 프로토콜) 접속 포트 바인딩. 파이썬 클라이언트가 이 포트로 통신한다. -p 3000:3000 : (옵션) 팔코DB 시각화 도구 등을 위한 포트 바인딩 -it --rm : 대화형 모드로 실행하며, 컨테이너 종료 시 자동 삭제 -v ./data:/var/lib/falkordb/data : 호스트의 ./data 디렉터리를 컨테이너 내 데이터 저장소로 마운트하여 데이터 영속성(persistence)을 보장한다.   패키지 및 모델 설치 이제 IFC 파싱, 그래프 DB 연결, LLM 체인 구성을 위한 라이브러리를 pip로 터미널에서 설치한다. Plaintext falkordb langchain langchain-ollama langchain-core ifcopenshell python-dotenv streamlit 이제 자연어를 그래프 구조 데이터베이스를 검색할 때 사용하는 사이퍼 쿼리로 변환(Text-to-Cypher)하는 방법이 필요하다. 이 경우, 코드 생성 능력이 뛰어난 모델이 필요하다. 이번 호에서는 qwen2.5-coder:7b 모델을 사용한다. 올라마 설치(다운로드 : https://ollama.com/download/ windows) 후 다음의 명령어를 실행한다. ollama pull qwen2.5-coder:7b     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2026-02-04
세일즈포스, AI 자산 통합 관리 위한 차세대 ‘뮬소프트 에이전트 패브릭’ 발표
세일즈포스가 기업 내 산재된 AI 에이전트와 도구를 통합 관리할 수 있는 차세대 ‘뮬소프트 에이전트 패브릭(MuleSoft Agent Fabric)’을 공개했다. 이번 업데이트는 멀티 클라우드 환경의 AI 에이전트를 자동으로 탐색하고 통합 식별하는 기능을 탑재했다. 세일즈포스는 이를 통해 복잡해지는 기업 AI 운영 환경에 새로운 표준을 제시할 수 있을 것으로 기대하고 있다. 최근 기업 전반에서 AI 에이전트 도입이 빠르게 확산되면서, 부서와 클라우드 환경에 따라 서로 상이한 에이전트가 개별적으로 운영되고 중앙의 통제 없이 무분별하게 생성되는 ‘에이전트 스프롤(Agent Sprawl)’ 현상이 심화되고 있다. 글로벌 시장조사기관 IDC는 전 세계에서 실제 운영 중인 AI 에이전트 수가 2025년 대비 40배 급증하여 2029년까지 10억 개를 넘어설 것으로 전망하며, 통합 관리 역량이 AI 시대 기업 경쟁력을 좌우하는 핵심 요소로 급부상하고 있다고 분석했다. 이러한 흐름에 대응해 세일즈포스는 ‘뮬소프트 에이전트 패브릭’의 관리 범위를 확장하고, 멀티 클라우드 환경 전반에 분산된 AI 에이전트의 통합 관리를 위한 역량을 강화했다. 특히 AWS 및 구글 클라우드 등 글로벌 파트너사와의 기술 협력을 바탕으로, 기업이 분산된 AI 에이전트를 일관된 기준으로 관리하고 즉각적인 가시성을 확보할 수 있도록 지원한다.     뮬소프트 에이전트 패브릭은 클라우드와 사내 시스템 전반에 분산된 AI 에이전트와 도구를 연결해 관리하는 기반 플랫폼이다. 이를 통해 기업은 다양한 환경에서 운영되는 AI 에이전트를 하나의 체계로 통합하고, 보안과 거버넌스를 확보한 환경에서 AI 활용 범위를 확장할 수 있다. 새롭게 강화된 뮬소프트 에이전트 패브릭은 세일즈포스의 AI 에이전트 플랫폼인 ‘에이전트포스’를 비롯해 아마존 베드록(Amazon Bedrock), 구글 클라우드 버텍스 AI(Vertex AI), 마이크로소프트 코파일럿 스튜디오(Copilot Studio) 등 주요 AI 플랫폼 전반에서 활동 중인 에이전트를 자동으로 탐색한다. 또한 사내에서 자체 개발한 에이전트나 MCP 서버를 손쉽게 등록할 수 있는 유연한 기능을 제공하여, 기업 내 모든 AI 자산을 단일 관리 체계 내에서 통합 운영할 수 있도록 설계됐다. 특히 새롭게 선보인 ‘에이전트 스캐너(Agent Scanner)’ 기능은 각 플랫폼에 배포된 AI 에이전트를 별도의 수작업 없이 자동으로 식별 및 등록할 수 있도록 지원한다. 이를 통해 기업은 에이전트의 주요 역할과 사용 중인 AI 모델, 접근 가능한 데이터 범위를 명확히 파악할 수 있다. 또한 수집된 메타데이터를 구글 클라우드의 표준 ‘에이전트 간(A2A) 프로토콜’ 사양으로 정규화 및 매핑하여, 서로 다른 플랫폼 간의 상호 운용성을 보장하고 보안 점검과 운영 관리에 필요한 정보를 보다 효율적으로 확보할 수 있도록 돕는다. 이렇게 탐색 된 에이전트와 AI 도구 정보는 뮬소프트 ‘에이전트 레지스트리(Agent ReGIStry)’를 중심으로 통합 관리된다. 레지스트리는 기업 내 모든 AI 에이전트와 모델 컨텍스트 프로토콜(MCP) 서버, AI 도구를 하나의 목록으로 정리해 제공하며, 변경 사항을 실시간으로 반영해 최신 운영 현황을 유지할 수 있다. 이 외에도 뮬소프트 ‘에이전트 비주얼라이저(Agent Visualizer)’ 기능은 기업 전반의 AI 에이전트 운영 현황을 직관적으로 보여준다. 플랫폼별, 역할별, 기능별로 에이전트를 검색 및 비교할 수 있어, 유사한 기능의 에이전트가 중복 운영되고 있는지 확인하거나 보다 효율적인 통합 운영 방안을 검토하는 데 유용하게 활용될 수 있다. 이에 따라 기업은 AI 투자 현황을 보다 명확히 파악하고, 실제 비즈니스 성과 도출을 위한 활동에 자원을 집중할 수 있다. 세일즈포스 코리아의 박세진 대표는 “성공적인 AX(AI 전환)를 위해서는 단순히 고성능 AI 모델을 도입하는 것을 넘어, 파편화된 AI 자산들을 얼마나 유기적으로 연결하고 제어할 수 있느냐가 관건”이라면서, “뮬소프트 에이전트 패브릭은 멀티 클라우드 환경에 흩어진 에이전트들을 하나의 생태계로 통합하는 ‘AI 관제탑’ 역할을 수행하며, 국내 기업들이 기술적 복잡성이라는 한계를 넘어 비즈니스 혁신 본연에 집중할 수 있도록 돕는 핵심 역할을 수행하게 될 것”이라고 전했다.
작성일 : 2026-01-29
오라클, “국내 스타트업 4개사에 클라우드 인프라 제공해 AI 기반 서비스 혁신 지원”
한국오라클이 뉴로플로우, 스포잇, 윤회, 코넥시오에이치 등 국내 4개 스타트업에 오라클 클라우드 인프라스트럭처(OCI)를 제공했다고 밝혔다. 4개사는 OCI를 활용해 AI 기반 기술 역량을 한층 더 강화하고, 오라클의 글로벌 인프라를 기반으로 해외 시장 진출을 위한 토대를 마련했다. 오라클은 OCI가 다양한 규모의 AI 학습 및 추론 프로젝트를 지원하면서, “생성형 AI 구축을 위한 주요 인프라로 부상하고 있다”고 전했다. RAG 기반 지능형 업무지원 플랫폼 ‘뉴로보드’를 운영하는 뉴로플로우는 교육기관과 산업체 등으로 고객사를 확대하면서 데이터 처리량이 급증하고 더 높은 수준의 추론 성능이 필요했다. 특히 RAG 기반 검색과 LLM을 결합해 신뢰할 수 있는 출처 기반의 정확한 응답을 제공하는 AI 설루션 특성상, 확장성과 안정성을 갖춘 클라우드 기반 AI/ML 플랫폼이 필수였다. 뉴로플로우는 OCI를 도입해 이러한 과제를 해결했으며, OCI의 고가용성 인프라로 장애 없는 안정적인 서비스 운영이 가능해졌다. 실제 사용량 기반 오토스케일링을 통해 챗봇 응답 품질 향상과 함께 인프라 비용도 절감할 수 있었다. 스포잇은 데이터 기반 전력 분석 및 자동 클립 생성 등 스포츠 AI 영상 서비스를 제공한다.  고객 수요가 빠르게 증가함에 따라, 서비스 확장을 위한 대규모 연산 자원 확보와 AI 실험 비용 절감 및 MLOps 기반 개발 효율화가 주요 과제로 떠올랐다. 이에 회사는 대규모 추론 연산을 효율적으로 지원하는 OCI 베어메탈 인스턴스(OCI Bare Metal Instances)를 도입했다. 이후 OCI의 저지연 네트워크와 높은 처리 성능을 활용하여 모델 학습 시간을 단축하고, 영상 처리 속도를 개선했으며 MLOps 환경도 성공적으로 구축했다. 그 결과 AI 기반 콘텐츠 생산성은 최대 6배, 분석 효율은 약 70% 개선했다. AI 기반 순환패션 플랫폼 케어아이디(CARE ID)를 운영하는 윤회는 글로벌 진출을 앞두고 플랫폼의 응답성, 확장성, 가용성을 전반적으로 강화할 필요성이 있었다. 이에 회사는 OCI로 전환하면서 OCI 컨테이너 레지스트리(OCIR : OCI Container ReGIStry)와 OCI 쿠버네티스 엔진(OKE : OCI Kubernetes Engine)을 도입해 안정적이고 효율적인 AI 인프라를 구축했다. 그 결과, 서비스 운영 안정성을 혁신하는 동시에 기존 클라우드 대비 60%의 운영 비용을 절감할 수 있었다. 핀테크 서비스 기업 코넥시오에이치는 이커머스 데이터베이스와 AI를 활용해 소상공인의 사업 성과를 시각화하고, 이를 기반으로 금융 접근성을 높이는 서비스를 제공하고 있다. 회사는 클라우드 기반의 LLM 서비스 고도화 및 대규모 전자상거래 데이터 분석을 통해 맞춤형 인사이트를 제공하고자 했다. 이를 위해 확장성과 비용 효율성을 갖춘 고성능 플랫폼을 필요로 했다. 이에 회사는 OCI 베어메탈 인스턴스와 오라클 자율운영 AI 데이터베이스(Oracle Autonomous AI Database)를 도입했다. 그 결과, 인프라 운영 비용을 약 40% 절감하는 동시에, 서비스 전반을 안정적으로 확장할 수 있는 기반을 마련할 수 있었다. 이들 네 개 회사는 중소벤처기업부, 창업진흥원(KISED) 및 서울과학기술대학교와 공동으로 진행한 글로벌 기업 협업 프로그램 ‘미라클’에 선정된 스타트업으로, 정부와 글로벌 기업의 지원을 바탕으로 기술력을 고도화하고 해외 시장 진출의 기회를 확보하는 데에 성공했다. 창업진흥원의 유종필 원장은 “이번 미라클 프로그램을 통한 오라클과의 협력으로 국내 유망 스타트업들이 세계적 기술 경쟁력을 확보하고, 글로벌 투자 및 사업 기회를 넓힐 수 있게 되어 기쁘게 생각한다”면서, “창업진흥원은 앞으로도 역량 있는 창업기업들이 글로벌 기술 선도 기업과 협력해 글로벌 혁신을 이끌고 해외시장에 진출할 수 있도록 지원을 아끼지 않을 것”이라고 말했다. 한국오라클의 김성하 사장은 “빅데이터와 AI 기반 시장 환경이 빠르게 변화하는 가운데, 이번 미라클 프로그램에 참여한 스타트업들이 OCI를 활용해 가시적인 성과를 낸 것은 오라클이 국내 기업의 기술 경쟁력 강화에 핵심적인 역할을 하고 있음을 보여준다”면서, “앞으로도 고성능 클라우드 인프라와 차별화된 기술력을 바탕으로, 유망 AI 스타트업과 함께 혁신 생태계를 확장해 나갈 것”이라고 말했다.
작성일 : 2026-01-21
[업체탐방] 씨에스리, 현장 중심 AI·RPA 데이터 분석 솔루션 ‘빅재미’로 산업 디지털 전환 혁신 주도
데이터 기반 의사결정과 자동화 혁신, 씨에스리    데이터 기반 의사결정과 업무 자동화가 산업 경쟁력의 핵심으로 부상하는 시대, 씨에스리가 ‘현장에서 바로 쓸 수 있는’ AI·RPA 융합 데이터 분석 솔루션 ‘빅재미(BigZami)’를 앞세워 시장을 공략하고 있다. 설립 이후 축적한 데이터 아키텍처와 분석 컨설팅 노하우를 토대로, 코딩 없이도 데이터 수집부터 분석·시각화·보고까지 원스톱으로 처리할 수 있는 빅재미를 선보이며, 제조·물류·공공 등 다양한 산업 현장의 디지털 전환과 의사결정 속도를 높이는 해법을 제시할 계획이다.     가치 기반의 산업 디지털전환 솔루션 제공기업, 씨에스리 2013년 설립된 씨에스리는 “가치 있는 IT, 가치를 만들어내는 IT”를 모토로, IT 기술을 통해 고객에게 실질적인 가치를 제공하는 디지털 전환(DX) 전문 기업이다. 설립 초기에는 데이터 아키텍처(DA, TA, SWA, Cloud Architect), 데이터 모델링, DB 튜닝 등 전통적인 데이터베이스 기술 컨설팅을 중심으로 성장했으며, 이후 빅데이터·AI 기반 기획·분석·교육·ISP까지 서비스 영역을 확대했다. 씨에스리는 공공기관과 대기업은 물론, 중소·중견기업의 디지털 전환 및 자동화 수요에도 대응하며, 산업 전반에서 데이터 활용성과 업무 효율성을 높이는 실질적인 기술 파트너로 자리매김하고 있다. 코딩 없이 원스톱 데이터 분석 가능한 ‘빅재미(BigZami)’ 씨에스리는 대표 솔루션 ‘빅재미’를 선보인다. 빅재미는 데이터 수집·전처리·분석·시각화·보고까지 한 번에 처리할 수 있는 데이터 분석 RPA 솔루션으로, 복잡한 프로그래밍이나 언어 없이도 직관적인 UI 환경에서 누구나 손쉽게 데이터를 다룰 수 있다. R, SQL, Q-GIS 등 별도의 프로그램 설치 없이 원스톱 분석이 가능하며, 반복 업무를 줄이고 데이터 기반 의사결정의 속도와 정확성을 높인다. 여기에 탑재된 AI Agent 기능을 통해 비전문가도 데이터를 분석·해석할 수 있으며, 맞춤형 최적 알고리즘 추천, 실시간 대시보드 모니터링, AI 기반 이상 감지 기능까지 제공한다. 또한 70여 종 이상의 전처리 기능과 다양한 분석 알고리즘을 통해 분석 생산성과 재사용성을 강화한다. 전체 분석 과정의 80%를 차지하는 전처리 작업을 간편하게 처리할 수 있으며, 분석 알고리즘 시뮬레이션 기능으로 업무 생산성을 높이고 분석 과정의 투명성과 신뢰도를 확보한다. 자주 사용하는 분석 모델은 템플릿으로 제작·공유·배포하여 표준화된 업무 자동화와 조직 내 데이터 활용 표준화를 실현한다.   현장 적용성을 높이는 AI·RPA 융합 경쟁력 최근 산업AI 시장은 ‘기술의 복잡성’보다 ‘현장 적용성’이 중요해지고 있다. 변화 속도가 빠른 산업 환경에서는 데이터 기반 의사결정을 빠르게 실행할 수 있는 실용적 솔루션이 각광받고 있다. 씨에스리는 오랜 데이터 아키텍처 및 분석 컨설팅 경험을 바탕으로, 단순 AI 적용이 아닌 비즈니스 가치를 실현하는 방향으로 솔루션을 설계해 왔다. 특히 AI와 RPA 기술을 융합한 빅재미를 통해, 누구나 쉽게 데이터를 활용하고 직접 인사이트를 도출할 수 있는 환경을 제공한다.   향후 목표 – ‘한국형 팔란티어’로 성장 씨에스리는 최근 데이터와 AI(인공지능) 서비스로 매우 핫한 기업인 팔란티어와 같은 회사가 되는 것이 목표이다. 이를 위해 글로벌 데이터·AI 솔루션 기업을 벤치마킹해, 국내 기업과 공공 분야의 다양한 문제를 해결하는 핵심 솔루션 제공자로 성장할 계획이다. 이와 함께 메타 기반 설계·구축·관리 역량을 토대로, 데이터에 담긴 문제를 정의하고 빅데이터·AI 기술로 해결책을 제시하는 역할을 강화할 계획이다.   씨에스리 이춘식 대표    
작성일 : 2026-01-17
코딩 없는 LLM 기반 에이전트 개발 도구, 디파이
BIM 칼럼니스트 강태욱의 이슈 & 토크   디파이(Dify)는 대규모 언어 모델(LLM)을 활용한 에이전트 서비스를 전문적인 코딩 지식 없이 개발하고 효율적으로 운영할 수 있도록 지원하는 LLMOps(대규모 언어 모델 운영) 플랫폼 및 도구이다. 이 도구는 LLM과 같은 개발에 필요한 도구를 팔래트에서 가져와 캔버스에 배치하고, 이들의 작업 흐름을 연결함으로써 손쉽게 AI 에이전트 서비스를 개발할 수 있다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   그림 1. 디파이로 개발된 챗봇 에이전트 예시   디파이는 사용자가 아이디어를 실제 AI 서비스로 신속하게 전환할 수 있도록 설계된 통합 개발 환경을 제공한다. 가장 큰 특징은 복잡한 백엔드(backend) 인프라나 API 연동 과정을 추상화하여, 사용자가 시각적인 인터페이스를 통해 애플리케이션의 핵심 로직과 기능 구현에만 집중할 수 있도록 한 것이다.   기능 소개 디파이의 주요 기능은 다음과 같다. 시각적 프롬프트 오케스트레이션 : 사용자는 텍스트 입력, LLM 호출, 조건 분기, 외부 도구(API) 사용 등의 과정을 블록처럼 연결하여 정교한 워크플로를 설계할 수 있다. 이를 통해 단순한 질의응답을 넘어 복잡한 추론과 작업 수행이 가능한 AI 에이전트를 구축하는 것이 가능하다. RAG(검색 증강 생성) 엔진 : 자체 데이터(PDF, TXT, 마크다운 등)를 업로드하여 AI 모델이 해당 정보를 기반으로 답변하도록 만드는 RAG 기술을 손쉽게 구현할 수 있다. 디파이는 문서 자동 전처리, 벡터화, 청킹(chunking) 등 복잡한 과정을 내부적으로 처리하여 사용자의 부담을 최소화한다. 모델 호환성 및 관리 : 오픈AI(OpenAI)의 GPT 시리즈, 앤트로픽(Anthropic)의 클로드(Claude), 구글의 제미나이(Gemini) 등 20개 이상의 상용 및 오픈소스 LLM을 지원한다. 사용자는 여러 모델을 프로젝트에 등록해두고 특정 작업에 가장 적합한 모델을 선택하거나, A/B 테스트를 통해 성능을 비교 분석할 수 있다. 배포 및 운영 : 개발이 완료된 애플리케이션은 즉시 사용 가능한 웹 API 엔드포인트(endpoint)나 독립적인 웹 사이트 형태(웹앱)로 배포된다. 또한 사용자 피드백 수집, 모델 성능 모니터링, 프롬프트 개선 등 지속적인 운영 및 관리를 위한 대시보드를 제공하여 서비스 품질을 유지하고 발전시키는 데 도움을 준다. 더 자세한 정보는 디파이 공식 웹사이트(https://dify.ai)에서 확인할 수 있다.   개발 배경 디파이는 2023년 5월에 설립된 랭지니어스(LangGenius, Inc.)에 의해 개발되었으며, 생성형 AI 기술의 급격한 발전 속에서 LLM을 실제 비즈니스에 적용하려는 수요와 기술적 장벽 사이의 간극을 메우기 위해 탄생했다. 초기 LLM 애플리케이션 개발은 파이썬(Python) 라이브러리인 랭체인(LangChain)이나 라마인덱스(LlamaIndex) 등을 활용하는 개발자 중심의 영역이었다. 하지만 이는 프롬프트 엔지니어링, 벡터 데이터베이스 관리, API 연동 등 상당한 전문 지식을 요구했다. 랭지니어스 팀은 이러한 기술적 복잡성이 AI 기술의 대중화와 비즈니스 혁신을 저해하는 주요 요인이라고 판단했다. 이에 따라 기획자, 디자이너, 마케터 등 비개발 직군도 직접 AI 서비스를 만들고 테스트할 수 있는 직관적인 플랫폼을 목표로 디파이를 개발했다. 특히, 모든 소스코드를 공개하는 오픈소스 전략을 채택하여 개발자 커뮤니티의 참여를 유도하고, 데이터 보안에 민감한 기업이 자체 서버에 직접 설치(self-hosting)하여 사용할 수 있도록 유연성을 제공했다. 디파이의 소스코드는 깃허브 저장소(https://github.com/langgenius/dify)에서 확인할 수 있다.   유사 도구 디파이와 유사한 기능을 제공하는 AI 개발 플랫폼은 다수 존재하며, 각각의 도구는 고유한 특징과 목표 시장을 가지고 있다. 플로와이즈AI(FlowiseAI) : 디파이와 마찬가지로 노드를 연결하여 LLM 기반 워크플로를 구축하는 오픈소스 플랫폼이다. UI/UX 측면에서 더 개발자 친화적인 경향이 있으며, LangChain.js를 기반으로 하여 자바스크립트(JavaScript) 생태계와의 통합이 용이하다는 장점이 있다.(https://flowiseai.com) 보이스플로(Voiceflow) : 주로 대화형 AI, 특히 음성 기반 챗봇 및 어시스턴트 제작에 특화된 로코드 플랫폼이다. 시각적인 대화 흐름 설계 도구가 강력하며, 프로토타이핑부터 실제 배포까지 전 과정을 지원하여 고객 서비스 자동화 분야에서 많이 사용된다.(https://www. voiceflow.com) 버블(Bubble) : 웹 애플리케이션 개발을 위한 대표적인 노코드 플랫폼이다. AI 기능이 내장된 것은 아니지만, 높은 유연성과 확장성을 바탕으로 디파이나 오픈AI에서 제공하는 API를 연동하여 복잡한 웹 서비스 내에 AI 기능을 통합하는 방식으로 활용될 수 있다.(https://bubble. io) n8n : 워크플로 자동화에 중점을 둔 오픈소스 도구이다. AI 기능보다는 수백 개의 다양한 서드파티 애플리케이션(예 : 구글 시트, 슬랙, 노션)을 연결하여 데이터 동기화 및 업무 자동화를 구현하는 데 강점을 보인다.(https://n8n.io)     ■ 기사의 상세 내용은 PDF로 제공됩니다.
작성일 : 2026-01-07
[케이스 스터디] 인프라 프로젝트에 실시간 시각화 기술 활용한 에이프리
대규모 데이터를 효과적으로 시각화해 커뮤니케이션 개선   에이프리(AFRY)는 유럽의 엔지니어링, 디자인 및 자문 서비스 기업으로, 인프라, 에너지, 제조, 모빌리티 등 다양한 분야에서 대규모 프로젝트를 기획 및 운영하고 있다. 이러한 프로젝트는 기술 난이도가 높은 실제 건설에 필요한 설계와 시공뿐만 아니라 단계별 프로젝트 관리, 도급업체 조율, 규제 이행 절차까지 포함한다. 각 분야의 여러 이해관계자의 요구사항이 복잡하게 얽혀 있는 경우가 많다. 이런 상황에서 실시간 시각화는 핵심 역할을 하게 된다. ■ 자료 제공 : 에픽게임즈   ▲ 이미지 제공 : AFRY, Oskar Wallin   에이프리의 오스카 월린(Oskar Wallin) 리얼타임 시각화 아티스트는 “이해관계자 간 소통이 늘 가장 큰 도전 과제 중 하나”라고 설명한다. 복잡성이 높은 대규모 인프라 프로젝트일수록 효과적인 커뮤니케이션 수단이 절실하다. 실시간 환경에 프로젝트의 CG 복제본을 가져오면 디자인 의도와 개발 진행 상황을 이해관계자에게 정확하게 전달할 수 있어, 건설의 핵심 요소를 이해시키고 일정 지연을 방지할 수 있다.     사례 : 할름스타드 항만 프로젝트 스웨덴 할름스타드 항만에서 진행된 인프라 확장 프로젝트는 이러한 실시간 기술의 가치를 입증하는 대표 사례다. 이 지역에는 새로운 철도 노선, 도로, 통신 인프라가 들어설 계획이었고, 이는 시민들이 즐겨 찾는 공원과 녹지 공간에 직접적으로 영향을 미칠 수 있는 변화였다. 이에 에이프리는 제안된 설계를 애니메이션 영상으로 시각화해, 지역 주민들과 이해관계자들이 인프라 확장으로 인해 주변 환경에 미칠 잠재적 영향을 직접 확인하고 시가 이를 어떻게 완화할 계획인지 파악할 수 있도록 했다. 이 완화 조치에는 공원을 보호하기 위한 녹색 소음 및 시각 차단벽 설치뿐 아니라, 기후 변화에 대비해 방파제를 높여 항만 전체를 보호하는 계획 등이 포함되었다. 에이프리는 언리얼 엔진과 자체 개발한 커스텀 툴을 활용해 세 곳의 엔지니어링 회사가 제공한 디자인을 포함한 다양한 프로젝트 데이터를 하나의 일관된 시각화 자료로 통합했다. 이를 통해 제안된 녹색 차단벽의 효과를 실시간으로 평가하고 필요에 따라 조정하며, 프로젝트가 보호 구역에 미치는 영향을 최소화하기 위한 최적의 방안을 결정하는 데 필요한 자료를 제공할 수 있었다. 월린은 “언리얼 엔진을 사용하기 시작하면서 이러한 대규모 인프라 프로젝트의 영향을 받는 지역 주민들은 정보를 보다 원활하게 이해하게 되었고, 우려도 크게 줄었다. 그 결과 민원이 줄고, 프로젝트가 더 빠르고 원활하게 진행되고 있다”고 말했다.   ▲ 이미지 제공 : AFRY, Oskar Wallin   방대한 데이터 세트를 처리할 수 있는 엔진 스웨덴의 철도망은 증가하는 교통 수요를 충족하기 위해 꾸준히 확장되고 있다. 새로운 철도는 스웨덴의 아름다운 해안선을 따라 작은 마을을 지나 스웨덴 북부의 주요 도시 중 하나와 연결될 예정이다. 이 확장 사업은 신설되는 철도의 주변 환경과 지역 주민에게 영향을 미치기 때문에, 대중에게 철도 건설 계획을 알리고 가장 직접적인 영향을 받는 이들의 의견을 수렴하는 것이 중요하다. 월린은 “매우 복잡하고 정말 긴 노선”이라며, “우리의 목표는 철도 노선 주변의 실제 환경을 그대로 재현하는 것”이라고 밝혔다. 이를 위해서는 지형 요소, 도로 등을 포함한 가상의 지형을 구축해야 한다. 월린은 “지오메트리의 규모가 정말 방대하다 보니, 이런 데이터를 한 번에 처리할 수 있는 소프트웨어는 드물다. 그렇기에 언리얼 엔진이 가장 적합한 선택이었다”고 말했다. 에이프리는 수년간 토지 측량 정보와 같은 공개 데이터를 언리얼 엔진의 월드 제작 시스템에 처리된 마스크와 절차적 식생과 결합해, 정밀한 대규모 시각화로 변환하는 워크플로를 개발해 왔다. 이러한 시각화는 주요 인프라 프로젝트가 경관과 지역 사회에 미칠 변화를 보여준다.   ▲ 이미지 제공 : AFRY, Oskar Wallin   언리얼 엔진은 비디오 게임의 방대한 오픈 월드 환경을 처리하도록 설계되었기 때문에, 인프라 시각화에 필요한 대규모 데이터 세트를 처리하는 데 적합한 설루션이다. 월드 파티션, 레벨 스트리밍, 나나이트 가상화 지오메트리와 같은 핵심 기능을 통해 BIM, GIS, LiDAR 데이터와 같은 방대한 공간 데이터 세트를 효율적으로 불러오고, 렌더링하며, 상호작용할 수 있도록 지원한다. 이를 통해, 도시 전체나 지역 단위를 시스템 리소스를 과도하게 사용하지 않고도 매끄럽게 시각화할 수 있고, 물리적으로 정확한 환경을 제공함으로써, 이해관계자들은 설계의 구현 가능성을 평가할 수 있게 된다. 월린의 팀은 엔지니어와 토지 측량 부서의 데이터를 한곳에 통합해, 모든 관계자가 복잡하지 않은 동일한 시각적 결과를 확인할 수 있도록 한다. 그는 “언리얼 엔진 덕분에 더 신속하게 소통할 수 있고, 이전보다 훨씬 빠르게 반복 작업을 수행하며 더 많은 데이터를 처리할 수 있다”고 설명했다. 에이프리가 언리얼 엔진으로 제작한 영상은 대중에게 공개되고 설명회에서도 상영된다. 이를 통해 지역 주민부터 이해관계자, 엔지니어에 이르기까지 모두가 명확하고 쉽게 이해할 수 있는 정보에 접할 수 있다. 이처럼 정보를 개방함으로써, 모든 참여자가 의미 있는 논의에 참여하고, 프로젝트의 성공을 좌우할 충분한 정보를 바탕으로 더 나은 의사결정을 내릴 수 있게 된다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2026-01-06
헥사곤의 제조기업 차세대 설비자산관리솔루션, HxGN EAM
주요 디지털 트윈 소프트웨어   헥사곤의 제조기업 차세대 설비자산관리솔루션, HxGN EAM 개발 : Hexagon, www.hexagon.com 자료 제공 : 헥사곤 에셋 라이프사이클 인텔리전스 사업부, https://hexagon.com/ko/company/divisions/asset-lifecycle-intelligence   30년 이상의 경험과 지속적인 혁신을 바탕으로 구축된 HxGN EAM(Enterprise Asset Management) 은 중요한 설비 자산 성능 문제를 해결하는 데 필요한 모든 기능을 제공한다. HxGN EAM은 현재와 미래의 제조 플랜트 효율성을 높일 수 있는 업계 최고의 전략적 설비 자산 관리 솔루션이다. 1. HxGN EAM 제공 가치 HxGN EAM은 기업의 다양한 요구사항을 지원하도록 설계되었다. 또한 아마존 웹 서비스(AWS) 클라우드 플랫폼을 기반으로 한다. 즉, 매우 안정적인 가동 시간이 확보되고 탄력적으로 수요 처리가 가능하다. 필요할 때마다 추가 컴퓨팅 성능이 제공되기 때문이다. 또한 클라우드 기반 플랫폼의 기본 제공 확장성이 있기 때문에 솔루션은 조직이 성장함에 따라 함께 확장될 수 있다. HxGN EAM은 쉽게 확장 가능하고 고도로 구성 가능하지만 즉시 사용할 수 있는 산업별 에디션으로 대부분의 사용자 요구를 즉시 충족시킬 수 있다. 이 솔루션은 설비 자산 구조 및 작업 지시에서 모바일 및 GIS 기능에 이르기까지 필요한 모든 정보를 적시에 제공한다. HxGN EAM을 사용하면 설비 자산 수명을 연장하고 안전성을 높이며 수익성을 개선하는 더 나은 전략적인 결정을 내릴 수 있다. 2. HxGN EAM 특장점 • 유연한 클라우드 배포  • 단일 디지털 트윈 솔루션 아키텍처의 통합 설비 자산 수명 주기 분석을 바탕으로 신뢰성, 높은 가동 시간 및 운영 효율성 증대 • 설비 투자 계획과 결합된 예측, 예방, 조건 기반 및 위험 기반 유지 보수 역량으로, 최적 비용으로 효율적인 유지 보수 전략 수행이 가능 • 지속 가능성, 복구 능력 및 안전을 강화하는 고성능 디지털 플랫폼 3. HxGN EAM 도입 효과 HxGN EAM을 통해 고객사는 다음의 성과를 달성했다. ■ 초과 유지보수, 인건비 및 계약자 비용 최대 50% 감소 ■ 생산 중단 시간 20% 감소 ■ 보증 비용 회수율 50% 증가 ■ 재고 수준 30% 감소 ■ 재고 유지 비용 20% 감소 ■ 재료비 10% 절감 ■ 구매 프로세스 비용 50% 절감 ■ 업무 생산성 20% 향상     상세 내용은 <디지털 트윈 가이드>에서 확인할 수 있습니다. 상세 내용 보러가기
작성일 : 2025-12-20
팔란티어 온톨로지 플랫폼 아키텍처 기술 해부 및구현 방법
BIM 칼럼니스트 강태욱의 이슈 & 토크   이번 호에서는 세계적으로 주목받고 있는 팔란티어(Palantir)의 온톨로지 플랫폼 아키텍처를 소프트웨어 공학 관점에서 분석하고, 오픈소스 기술을 활용한 구현 방법을 정리한다. 팔란티어의 핵심은 기존 시스템을 대체하는 것이 아니라, 통합하고 확장하는 개방성에 있다. 이번 호에서는 국방이나 제조 분야에서 팔란티어가 어떻게 검증된 오픈소스 기술 기반 위에 독자적인 온톨로지(ontology)라는 의미론적 추상화 계층을 구축했는지, 그리고 그 구조를 파헤쳐 본다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   팔란티어 아키텍처 팔란티어 아키텍처의 근간에는 ‘대체가 아닌 통합’이라는 철학이 있다. 이는 기업이 이미 막대한 투자를 한 데이터레이크, ERP, CRM과 같은 기존 IT 환경을 교체하는 대신, 이들을 하나로 묶고 그 가치를 증대시키는 플랫폼 역할을 하는 것이다. 이러한 철학은 아키텍처의 명확한 관심사 분리로 이어진다. 배포, 오케스트레이션, 데이터 처리와 같은 하위 계층은 의도적으로 쿠버네티스(Kubernetes), 스파크(Spark), 플링크(Flink) 등 보편적인 오픈소스 표준 위에 구축된다. 이를 통해 고객의 기존 기술 스택 및 엔지니어링 역량과 마찰 없이 통합된다. 반면, 온톨로지, AI 플랫폼(AIP)과 같은 상위 계층에는 팔란티어의 독자적인 지적 재산이 집중된다. 이 구조는 고객이 새로운 데이터베이스나 컴퓨팅 엔진이 아닌, 기존 자산과 상호 작용하는 새로운 패러다임을 구매하게 만들어 비즈니스 가치를 제안한다. 플랫폼의 안정성과 확장성은 두 가지 핵심 기술, 즉 자율 배포 시스템인 아폴로(Apollo)와 쿠버네티스 기반의 컨테이너 오케스트레이션 기판인 루빅스(Rubix)에 의해 뒷받침된다. 이 기반 위에서 데이터 통합 및 분석 플랫폼인 파운드리(Foundry), 국방 및 정보 분석에 특화된 고담(Gotham), 그리고 AI 모델을 온톨로지와 연결하는 AIP(Artificial Intelligence Platform)가 운영된다.   그림 1. 팔란티어 아키텍처 구조 개념도   그림 2. 국방 분야 서비스인 팔란티어 고담 플랫폼   그림 3. 서비스의 지속적인 자율 통합/배포(CI/CD)를 위한 팔란티어 아폴로   데이터 처리 워크플로 팔란티어의 워크플로는 이기종의 파편화된 데이터 소스를 연결하고, 이를 구조화된 지식으로 변환하여 온톨로지 모델로 변환한다.   데이터 수집 및 파싱 PDF, 문서, 이미지와 같은 비정형 데이터는 먼저 ‘미디어 셋(media sets)’이라는 파일 모음으로 수집된다. 데이터를 파싱하는 과정은 블랙박스가 아니다. 개발자는 파이썬(Python)이나 자바(Java) 변환과 저수준 파일 시스템 API를 사용하여 직접 파이프라인을 구축한다. 이는 결정론적이고, 테스트 가능하며, 버전 관리가 가능한 파이프라인을 통해 신뢰성과 거버넌스를 확보하는 엔지니어링 중심의 접근 방식이다. 더 나아가 AIP는 AI 기반 파싱 기능을 제공한다. 이는 사전 훈련되거나 맞춤화된 AI 모델(예 : NLP 모델)을 파이프라인 내에 통합하여 개체명 인식, 요약과 같은 정교한 작업을 수행하는 방식이다. 이 구조는 엔지니어가 견고한 데이터 파이프라인을 구축하고, AI 엔지니어가 그 안에 두뇌 역할을 하는 모델을 배포하는 효율적인 이중 계층 시스템을 만든다.   기반 처리 기술 이러한 데이터 변환 및 통합 로직은 독점 엔진에 종속되지 않는다. 모든 데이터는 아파치 파케이(Apache Parquet), 아브로(Avro)와 같은 표준 형식으로 저장되며, 대규모 배치 처리를 위한 아파치 스파크, 실시간 스트림 처리를 위한 아파치 플링크와 같은 오픈소스 런타임을 사용한다.   온톨로지 메타모델 온톨로지는 팔란티어의 핵심 차별화 요소로, 기업의 모든 데이터, 모델, 프로세스를 현실 세계의 대응물(공장, 고객, 제품 등)과 연결하는 의미론적, 동역학적 계층이다. 이는 기업의 ‘디지털 트윈(digital twin)’ 역할을 한다. 온톨로지의 개념은 객체 지향 프로그래밍(OOP)과 매우 유사하다. 객체(object)는 클래스(class)에 해당한다. 온톨로지의 ‘항공기’ 객체 유형은 OOP의 Aircraft 클래스와 같다. 속성(property)은 속성(attribute)에 해당한다. ‘항공기’ 객체의 ‘꼬리 번호’ 속성은 Aircraft 클래스의 tailNumber 속성과 같다. 연결(link)은 객체 간의 관계(association)에 해당한다. ‘조종사’가 ‘항공기’에 탑승한다는 연결은 Pilot 객체와 Aircraft 객체 간의 관계를 정의한다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-12-02