• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 " LLM"에 대한 통합 검색 내용이 331개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
팔코DB와 LLM을 활용한 그래프 모델 BIM 기반 AI 에이전트 개발
BIM 칼럼니스트 강태욱의 이슈 & 토크   이번 호에서는 건설 인프라 분야에서 정보 교환 시 사용되는 BIM(건설 정보 모델링) 산업 표준인 IFC(Industry Foundation Classes) 기반 AI 에이전트 개발 과정을 설명한다. IFC 포맷의 BIM 데이터를 팔코DB(FalkorDB) 그래프 데이터베이스로 변환하고, 로컬 LLM인 Ollama(올라마)를 연동하여 자연어 질의가 가능한 AI 에이전트를 구축하는 전체 과정을 기술한다. 또한, 도커(Docker) 기반의 데이터베이스 서버 구성부터 파이썬(Python) 의존성 설치, 데이터 적재 및 애플리케이션 실행 방법을 단계별로 정리한다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   그림 1   개발 환경 및 전제 조건 이번 호에서 만들어 볼 시스템은 온프레미스 환경에서의 실행을 가정하며, 다음의 컴포넌트를 필요로 한다. 도커 : 그래프 데이터베이스(팔코DB) 실행을 위해 필요(설치 : https://www.docker.com/get-started) 파이썬 3.11+ : 데이터 변환 및 에이전트 로직 수행 올라마 : 로컬 LLM 추론 서버 하드웨어 : LLM 구동을 위한 적정 수준의 GPU 또는 메모리(RAM 16GB 이상 권장) 지면 한계 상 모든 개발 코드를 설명하기는 어려우므로, 주요 부분만 개발 방법을 설명할 것이다. 다음의 깃허브 링크를 참고해 다운로드한다. ■ https://github.com/mac999/infra_ai_agent_tutorials/tree/main/08_AI_Agent/5_infra_graph_rag 다운로드한 폴더의 구조는 <그림 2>와 같을 것이다.   그림 2   이제 이 깃허브 프로젝트의 각 핵심 모듈을 설명하도록 하겠다.   데이터베이스 서버 구축(팔코DB) 팔코DB는 레디스(Redis) API 호환 고성능 그래프 데이터베이스다. 오픈소스이며 무료이다. 그래프 구조 데이터 저장 및 검색을 지원한다.   그림 3. Graph Database uses GraphBLAS under the hood for its sparse adjacency matrix graph representation(GraphRAG) (https://github.com/FalkorDB/FalkorDB)   실행을 위해, 다음과 같이 명령창 터미널에서 도커 명령을 실행해 본다. 그러면 팔코DB 서버가 로컬에 다운로드된 후 자동 실행될 것이다. docker run -p 6379:6379 -p 3000:3000 -it --rm -v ./data:/ var/lib/falkordb/data falkordb/falkordb 상세 옵션은 다음과 같다. -p 6379:6379 : 팔코DB(레디스 프로토콜) 접속 포트 바인딩. 파이썬 클라이언트가 이 포트로 통신한다. -p 3000:3000 : (옵션) 팔코DB 시각화 도구 등을 위한 포트 바인딩 -it --rm : 대화형 모드로 실행하며, 컨테이너 종료 시 자동 삭제 -v ./data:/var/lib/falkordb/data : 호스트의 ./data 디렉터리를 컨테이너 내 데이터 저장소로 마운트하여 데이터 영속성(persistence)을 보장한다.   패키지 및 모델 설치 이제 IFC 파싱, 그래프 DB 연결, LLM 체인 구성을 위한 라이브러리를 pip로 터미널에서 설치한다. Plaintext falkordb langchain langchain-ollama langchain-core ifcopenshell python-dotenv streamlit 이제 자연어를 그래프 구조 데이터베이스를 검색할 때 사용하는 사이퍼 쿼리로 변환(Text-to-Cypher)하는 방법이 필요하다. 이 경우, 코드 생성 능력이 뛰어난 모델이 필요하다. 이번 호에서는 qwen2.5-coder:7b 모델을 사용한다. 올라마 설치(다운로드 : https://ollama.com/download/ windows) 후 다음의 명령어를 실행한다. ollama pull qwen2.5-coder:7b     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2026-02-04
HP Z북 울트라 G1a 리뷰 : AI 엔지니어가 살펴본 모바일 워크스테이션의 새로운 기준
HP Z북 울트라 G1a는 고성능 AI 작업과 3D 제작을 동시에 염두에 둔 14인치 모바일 워크스테이션이다. 이 글에서는 필자가 실제로 자주 사용하는 AI 리서처와 3D 제작 작업 시나리오를 바탕으로, 기존에 사용해 온 게이밍 노트북과 비교하면서 HP Z북 울트라 G1a의 장단점을 조명해보고자 한다.   HP Z북 울트라 G1a(ZBook Ultra G1a)는 프로세서 성능과 메모리 용량에 명확하게 집중한 구성을 취함으로써, 기존의 노트북 선택 방법과는 다른 노선을 제시한다. 일반적으로 노트북을 선택할 때 대부분의 사용자는 성능, 휴대성, 가격, 배터리 지속 시간, 확장성 등 여러 요소를 종합적으로 고려한다. 그러나 특정 작업 환경에서는 이러한 균형 중심의 접근이 오히려 비효율로 작용하기도 한다. 대용량 데이터 전처리, 로컬 AI 추론, 3D 콘텐츠 제작과 같이 CPU와 메모리 자원 의존도가 높은 워크로드에서는, 그래픽 성능이나 휴대성보다 연산 자원과 메모리 용량이 작업 효율을 결정짓는 핵심 요소가 되기 때문이다. HP Z북 울트라 G1a는 바로 이러한 관점에서 색다른 접근법을 채택한 기기라고 볼 수 있다. AMD의 라이젠 AI 맥스+ 프로 395(Ryzen AI Max+ PRO 395) 프로세서를 탑재해 128GB에 달하는 대용량 메모리를 제공하는 반면, 그래픽 카드는 외장 GPU가 아닌 내장 그래픽으로 구성된 14인치 노트북이다. 이처럼 극명하게 갈린 사양 구성은 과연 AI 개발과 3D 콘텐츠 제작이라는 두 가지 작업을 모두 감당할 수 있는 선택지일까?   제품 개요 워크스테이션은 일반적으로 크고 무거운 데스크톱 형태로, ‘들고 다니는 기기’와는 거리가 멀다는 인식이 강하다. 그러나 HP Z북 울트라 G1a는 이러한 고정관념을 벗어나, 14인치 폼팩터 안에 워크스테이션급 성능을 담아냈다. 앞서 언급했듯 이 제품은 AMD 라이젠 AI 맥스+ 프로 395 프로세서와 라데온 8060S(Radeon 8060S) 그래픽을 기반으로 설계되었으며, 최대 128GB LPDDR5x 메모리와 대용량 NVMe SSD를 탑재했다. 정량적인 하드웨어 스펙상 무게는 약 1.57~1.59kg으로, 여타 게이밍 노트북과 비교해도 크게 무겁지 않은 수준이다. 실제로 가방에 넣어 휴대했을 때도 다른 노트북에 비해 체감 무게가 과하게 느껴지지는 않았다. 기기 양쪽에는 USB-C 타입 포트 2개(충전 포트 포함)를 비롯해 HDMI, USB-A 타입 단자, 3.5mm 이어폰 단자가 배치되어 있어, 워크스테이션으로서 요구되는 기본적인 확장성도 충분히 갖추고 있다.   디자인 본격적인 사용기에 앞서 디자인을 살펴보자. 보기 좋은 떡이 먹기도 좋다는 말도 있듯이, 매일 사용하는 기기는 사용자의 마음에 들 정도로는 아름다워야 한다. HP Z북 울트라 G1a의 디자인은 간결하고 군더더기 없었다. 특히, 전반적인 제품의 마감 품질이 높다는 것이 느껴졌다. 처음 노트북이 닫힌 상태에서 보았을 때는 매끄럽고 둥근 디자인의 겉모습이 단정하다는 느낌이 들고, 화면을 열어 전원을 켰을 때에는 베젤이 얇고 깔끔하여 프로페셔널하다는 인상을 준다. 디자인에서 가장 좋았던 점은 키보드이다. 처음에는 짙은 회색의 평범한 플라스틱 소재로 느껴졌지만, 사용하다 보니 키보드의 키감이 좋을 뿐만 아니라 이물질이 잘 묻지 않는 코팅으로 되어 있어 사용 시 편리했다. 외부 작업 중 노트북을 열었을 때, 손때 묻은 키보드를 다른 사람에게 드러내는 것이 걱정인 사람이라면 이 노트북의 키보드 마감이 더욱 마음에 들 것이라 생각한다. 또한 카메라에는 오픈·클로즈 방식의 물리적 커버가 적용되어, 노트북 내장 웹캠을 사용하지 않을 때는 완전히 가릴 수 있다. 사소해 보일 수 있지만, 사용자를 고려한 세심한 설계라는 점에서 인상 깊은 부분이었다.   그림 1. 노트북 전면. 디자인이 깔끔하고 단정하여 외부 미팅에도 무난하게 사용할 수 있었다.   AI 및 데이터 전처리 워크로드 이제 AI 엔지니어의 관점에서 이 제품을 살펴보자. AI 제품 개발 과정에서 절실하게 체감하는 주요 요소 중 하나는 CPU 메모리의 여유이다. 모델 학습은 클라우드 GPU나 서버 자원을 활용하는 경우가 많아졌지만, 탐색적 데이터 분석, 실험을 위한 데이터 전처리는 대부분 로컬 환경에서 수행해야 하기 때문이다. 따라서 CPU 성능과 GPU 성능 둘 중 하나를 선택해야 한다면, 많은 사람들의 예상과 달리 GPU보다는 CPU를 선택하는 것이 합리적이다. CPU 메모리가 여유가 있다면 데이터셋을 실험 가능한 요건에 맞춰 수정 및 조정하는 것이 조금 더 편리해질 뿐만 아니라, 데이터셋 전처리와 동시에 다른 작업이 가능하기 때문이다. HP Z북 울트라 G1a의 128GB 메모리와 라이젠 AI 맥스+ 프로 395의 조합은 대용량 데이터 전처리와 모델 로딩 과정에서 매우 안정적인 모습을 보였다. 텍스트·이미지 데이터 전처리 작업에서 메모리 부족 현상은 거의 발생하지 않았으며, 기존에 사용하던 게이밍 노트북(32GB RAM, RTX 4060 기준) 대비 체감상 약 절반 수준의 시간으로 작업을 마칠 수 있었다. 이는 대규모 로컬 데이터셋을 다루는 리서처에게 매우 중요한 요소다. AI 허브나 대학·연구기관에서 제공하는 공공 데이터셋의 경우 단일 데이터셋만으로도 수백 GB를 훌쩍 넘기는 경우가 많고, 이를 포맷에 맞게 전처리하는 데 상당한 시간이 소요되기 때문이다. HP Z북 울트라 G1a는 메모리의 양이 크기 때문에, 작업 중간 중간에 메모리 부족으로 인해 컴퓨터가 멈추거나 작업 수행 완료를 위해 컴퓨터를 손 놓고 기다리는 일 없이 여유롭게 전처리를 수행할 수 있었다. 몇 가지 사례를 들어보면, 첫째 <그림 2>와 같이 데이터의 압축 해제, 복사와 같은 간단한 작업에서 매우 빠른 처리 속도를 보여주었다. 데이터 전처리 성능을 실험하기 위해 활용한 ‘음식 분류’ 데이터셋의 경우, 각 클래스마다 1천 개의 고화질 사진이 저장되어 있어 전체 용량이 1TB에 육박하는 매우 큰 데이터셋이다. 그러나 HP Z북 울트라 G1a에서는 30GB 용량의 데이터를 압축 해제하는 데 8분밖에 소요되지 않았고, 일관적으로 140MB/s 전후의 속도를 유지하였다. 이는 HP Z북 울트라 G1a의 메모리 대역폭 확대, 멀티채널 구성 안정성 증가가 큰 영향을 미쳤기 때문으로 생각할 수 있다. 일반적인 환경에서는 압축 해제 단계에서 CPU 처리 속도가 병목으로 작용하여, 저장장치가 충분한 성능을 갖추고 있음에도 불구하고 연속적인 읽기·쓰기 작업이 지연되는 현상이 발생하기도 한다.   그림 2. 대용량 데이터의 전처리에도 빠른 속도를 유지하였고, 프로그램 운용에 여유가 있었다.   반면, HP Z북 울트라 G1a에서는 향상된 프로세서 구조와 메모리 서브시스템을 통해 병목이 제거되었으며, 그 결과 압축 해제와 동시에 디스크 I/O가 지속적으로 최대 대역폭에 가깝게 활용될 수 있었다. 이로 인해 사용자 관점에서는 압축 해제뿐 아니라 파일 복사 속도까지 향상된 것처럼 느껴져 직접적으로 작업 효율 향상이 체감되었다. 기존의 게이밍 노트북이 동일한 작업을 수행하는데 평균 60MB/s의 속도로 약 12분 정도가 소요된 것을 고려하면, 이 작업이 전체 데이터셋에 적용될 때 얼마만큼의 작업 시간을 아낄 수 있을 지 기대해 볼 만하다. 둘째, 파이썬 코드를 활용한 데이터 전처리에서도 높은 성능 개선을 보여주었다. CSV 파일을 활용하여 3D 복셀 데이터를 만드는 작업을 수행하는 코드를 기준으로 실험해보았다. 이는 앞에서와 동일하게 CPU·메모리에 집중된 작업을 할 때의 효율을 검사하기 위한 실험으로, 동일한 SVC 파일을 대상으로 데이터의 시각화를 수행하였을 때를 비교한 것이다. 결과적으로, HP Z북 울트라 G1a는 평균적으로 75FPS(초당 프레임)를 유지하였고, 시각화된 데이터를 360도 회전시켜 확인하는 데에 큰 문제가 없었다. 반면, 기준이 된 다른 기기는 평균 42FPS를 유지하고, 시각화된 데이터를 360도로 회전시켜 확인하는 데 약간의 로딩이 필요했다. 특히, 시각화 결과물을 회전하는 과정에서 약간의 버벅임과 끊김이 발생하여 데이터를 세부적으로 확인할 때 약간의 어려움이 따랐다. 기준 기기 또한 일반적인 사무용 노트북을 기준으로 보았을 때보다는 훨씬 빠르고 원활한 데이터 전처리 성능을 보여주었으나, HP Z북 울트라 G1a는 전처리뿐 아니라 시각화 데이터 인터랙션에서도 안정적으로 동작함으로써 실시간에 가까운 시각화 환경을 제공했다는 점에서 차별화된 사용 경험을 제공하였다.   그림 3. 3D 복셀화에 소요된 시간과 프레임률을 tqdm으로 측정한 결과. 동일한 작업을 수행하는 데 HP Z북 울트라는 75FPS, 기준 기기(HX370 CPU, 32RAM)는 42FPS의 성능을 보여주었다.   로컬 AI 추론 로컬 AI 추론 작업에서도 HP Z북 울트라 G1a는 충분히 인상적인 성능을 보여주었다. 로컬 AI 세팅에는 올라마(Ollama)를 사용하였다. 올라마는 다양한 오픈소스 LLM을 간편히 사용할 수 있게 하는 프로그램으로 윈도우, 맥, 리눅스 등 다양한 환경을 지원하며 CLI 및 GUI 환경을 모두 지원하여 확장성이 좋다. 또한, 로컬에서 REST API 형태로 모델을 노출할 수 있어 파이썬(Python), 노드.js(Node.js), 자바(JAVA(Spring)), 랭체인(LangChain) 등과 연동이 용이하며, 프로토타입 서비스 제작 및 온디바이스 AI, 사내 전용 LLM 구축을 위해 다양하게 쓰인다. 필자는 윈도우에서 GUI 기반의 올라마 클라이언트를 설치하여 로컬 AI 추론을 수행하였으며, 엔비디아 그래픽 카드 드라이버(CUDA 포함)를 설치하지 않고 올라마를 구동하였다. 이 지점에서 HP Z북 울트라 G1a의 프로세서의 특장점이 드러난다. 바로 SoC(System on a Chip) 설계를 통해 프로세서 자체에서 CPU·GPU·NPU를 통합하여 활용한다는 것이다. 따라서 이 워크스테이션을 사용하는 사람은 일반적으로 말하는 CPU-Only와 같이 GPU 드라이버를 따로 설치하지 않더라도, AI 추론 및 훈련을 수행할 때 GPU·NPU를 사용하는 것과 같은 효과를 체감할 수 있다.   그림 4. 올라마의 공식 홈페이지. 윈도우, 맥, 리눅스 등 다양한 OS를 지원하며 오픈소스로 활용 가능한 LLM 모델의 가중치를 제공하여 로컬 추론을 가능하게 하는 프로그램이다.   올라마를 활용해 중·대형 언어 모델(gpt-oss:120B)과 소형 언어 모델(qwen3:8B)을 각각 다운로드한 뒤, 동일한 조건에서 추론 시간을 비교해 보았다. 결과는 예상 이상이었다. 중·대형 언어 모델의 추론에는 (약간의 쿨링 소음이 발생하였지만) 약 10초가 소요되었고, 소형 언어 모델 역시 약 13초 내외로 추론을 마쳤다. 비교 대상으로 사용한 다른 노트북에서는 중·대형 모델이 추론 도중 오류를 일으켰고, 소형 모델조차 358초가 걸렸던 점을 감안하면 상당한 차이다. ‘메모리 용량 차이가 얼마나 크겠어’라고 생각한 필자의 판단을 무색하게 만들 정도로, 128GB 메모리와 라이젠 AI 맥스+ 프로 395의 조합은 로컬 AI 추론 환경에서 분명한 강점으로 작용했다. 이러한 특성은 AI 개발자에게만 국한된 장점은 아니다. 성능이 검증된 오픈소스 언어 모델을 노트북에 직접 탑재해 휴대할 수 있다는 것은, 인터넷 연결이 원활하지 않은 환경에서도 개인화된 AI 비서를 여러 개 운용하며 작업을 이어갈 수 있음을 의미한다. 로컬 환경에서의 AI 활용 가능성을 실질적인 수준으로 끌어올렸다는 점에서, HP Z북 울트라 G1a의 방향성과 장점이 명확히 드러나는 지점이었다.   그림 5. qwen3:8b로 로컬 추론을 수행한 결과   그림 6. gpt-oss:120b로 로컬 추론을 수행한 결과   3D 작업 워크플로 다음은 3D 작업 워크플로로 넘어가 보자. 필자가 주로 사용하는 캐릭터 크리에이터(Character Creator), 지브러시(Zbrush) 등을 통하여 내장 그래픽만을 가지고 있음에도 ‘충분히 작업이 가능한가?’라는 요소를 살펴보고, 다음으로는 고화질을 요구하는 3D 게임을 실행시켜 성능을 테스트해 보았다. 먼저, 리얼루션(Reallusion)의 캐릭터 크리에이터 5 소프트웨어를 설치하여 작업 가능 여부를 확인해 보았다. 이 소프트웨어는 사실적 묘사를 담은 메타 휴먼을 만들기 위한 소프트웨어이다. 얼굴, 체형, 옷 및 장신구 같은 다양한 요소를 조합하는 자유도가 높고, 피부 결이나 머리카락 같은 요소까지 섬세하게 구현해야 하기 때문에 일반적인 게이밍 노트북에서도 원활한 작업이 어려운 소프트웨어 중 하나이다. 실제로, 필자가 보유한 게이밍 노트북 기기에서는 동일한 작업을 수행하며 컴퓨터가 다운되는 경우가 종종 있었고, 새로운 스킨으로 교체하거나 요소를 변형할 때 1 ~ 5분 정도의 로딩 타임을 요구했다.   그림 7. 캐릭터 크리에이터로 작업하는 모습   그러나, HP Z북 울트라 G1a에서는 로딩 시간이 1 ~ 3분 이하로 줄어드는 모습을 보여주었을 뿐만 아니라, 컴퓨터가 다운되는 경우도 발생하지 않아 상당히 쾌적하게 작업을 진행할 수 있었다. 물론 다루는 데이터의 크기 자체가 큰 만큼 약간의 로딩 시간은 피해갈 수 없었으나, 대부분 1분 이내의 로딩으로 작업이 완료되어 작업 완료를 기다리는 시간이 줄어들었다. 다음으로는 지브러시를 통해 추가 검증을 진행하였다. 지브러시의 경우 매끄러운 표면을 위해 의도적으로 폴리곤을 많이 나누면서 메모리 부하가 발생하는 경우가 많은데, <그림 8>과 같이 복잡한 인간형 모델링, 특히 상업적으로 판매 가능한 정도의 모델링을 테스트하였음에도 데이터의 로드 및 조형에 시간이 소요되지 않고 바로 진행할 수 있는 정도의 원활함을 보여주었다.   그림 8. 매끄러운 곡선으로 폴리곤의 수가 많아지더라도 원활히 처리하는 모습을 볼 수 있다.   마지막으로, 3D 게임을 통해 성능을 확인하였다. 대상이 된 게임은 ‘호그와트 레거시’로, 언리얼 엔진으로 만들어졌으며 비교적 실사화 스타일의 그래픽, 다양한 파티클 사용으로 고난도의 그래픽 컨트롤을 요구하는 게임이다. 게임에서는 플레이를 진행하며 기기의 사양을 자동으로 측정하여 적절한 그래픽 옵션을 정해주는데, 이 기기는 자동으로 중간 단계의 그래픽 옵션으로 세팅되는 것을 확인하였다.   그림 9. 기기 옵션을 자동으로 분석하여 적절한 수준의 그래픽 구현. 이 기기는 중간 옵션을 배정받았다.   물론 기존의 작업에 비해 3D 게임을 진행할 때는 기기의 쿨링팬 소음이 두드러지게 들리는 편이었다. 앞서 수행한 작업에서는 쿨링이 필요하지 않거나, 쿨링이 필요하더라도 비교적 짧고 조용하게 한 번의 ‘쏴아아’하는 소리가 들렸다면, 3D 게임을 실행 중일 때는 지속적인 쿨링 소음이 발생하였기 때문이다. 그러나, 여기에서도 HP Z북 울트라 G1a의 탁월한 점을 발견할 수 있었다. 그것은 바로 ‘소음이 발생하는 만큼 쿨링이 잘 되고 있다’는 점이다. 랩톱을 주로 사용하는 사용자는 공감하겠지만, 일부 랩톱의 경우 쿨링 소음이 큰데도 불구하고 쿨링이 제대로 되지 않아 기기 아래쪽의 키보드 부분이 상당히 뜨거워지는 경우가 잦다. 그러나 이 기기는 소음이 크더라도 쿨링이 확실히 진행되고 있었고, 피부에 장시간 접촉시킬 수 있을 정도의 발열만 있었다. 아울러, 게임 내의 실사화 그래픽은 모두 끊기는 부분 없이 자연스럽게 재생되었고, 게임 진행에 이상이 없이 원활히 진행되었다.   그림 10. 그림 내 실사화 시나리오 중 그래픽 재현성이 좋은 부분의 캡처. 왼쪽의 바다 물결 표현, 전면의 포그 표현 등이 끊기지 않고 자연스럽게 재생되었다.   맺음말 HP Z북 울트라 G1a는 AI 리서처와 3D 제작 작업을 병행하는 사용자에게 모바일 워크스테이션으로서 분명한 가치를 지닌 기기다. 이 제품의 구성은 모든 요소를 고르게 끌어올리기보다는, 프로세서와 메모리 성능에 명확하게 힘을 준 제품이다. 이에 사용 목적이 분명한 사용자에게 강점으로 작용한다. AI 전처리, 로컬 추론, 3D 제작 작업과 같이 CPU·메모리 의존도가 높은 워크로드에서는 이러한 설계 방향이 체감 성능으로 직결되기 때문이다. 그런 의미에서 HP Z북 울트라 G1a는 특히 다음과 같은 사용자에게 추천하고 싶다. 첫째, 대용량 데이터 전처리가 일상적인 AI 엔지니어, 둘째, 3D 콘텐츠 제작 과정에서 초안과 검증 단계의 결과물을 빠르게 만들어야 하는 사용자, 셋째, 이 모든 작업을 데스크톱이나 서버에 의존하지 않고 모바일 환경에서도 이어가야 하는 사용자다. HP Z북 울트라 G1a를 사용하는 사용자라면, 적어도 서버급 연산을 요구하는 극단적인 작업을 제외하고는 대부분의 실무 환경에서 성능으로 인한 제약을 체감할 일은 드물 것이다. 견적 상담 문의하기 >> https://www.hp.com/kr-ko/shop/hp-workstation-amd-app   ■ 박정은 AI 융합 분야 연구자이자 엔지니어로, 컴퓨터 비전, 게임 엔진, 머신러닝, 딥러닝 기반 실무를 수행하며 대용량 AI 데이터 전처리와 AI 실험 파이프라인을 설계·운용해왔다. 필적, 운동학, 감정 인식 중심의 AI 프로덕트 R&D를 수행하며, 모바일 워크스테이션 환경에서 CPU·GPU 자원을 밀도 있게 활용하는 실험 구조를 활용하였다. 산업 연계 교육 현장에서 연구와 실무를 연결하는 엔지니어이자 교육자로 활동하고 있다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2026-02-04
가트너 “디지털 주권 위해 소버린 AI 전환률 증가 전망”
가트너는 2027년까지 전 세계 국가의 35%가 독립적인 맥락 데이터를 사용하는 ‘소버린 AI(sovereign AI)’로 전환될 것으로 전망했다. 이는 현재 약 5% 수준인 AI 플랫폼 전환률보다 7배 높은 수치다. 소버린 AI란 국가 또는 조직이 자국의 법·규제와 지리적 경계 내에서 AI의 개발, 배포, 운영 방식을 독립적으로 통제할 수 있는 역량을 의미한다. 규제 강화, 지정학적 긴장, 클라우드 현지화 요구, 국가 AI 전략, 기업 리스크, 국가 안보 이슈 등이 맞물리며 정부와 기업 모두 소버린 AI에 대한 투자를 빠르게 확대하고 있다. 특히 AI 기술 경쟁에서 뒤처질 수 있다는 위기감은 AI 스택 전반의 자립을 목표로 한 혁신과 투자를 더욱 가속화하고 있다. 지역 특화 AI 모델은 더 높은 맥락적 가치를 제공하며, 특히 비영어권 환경에서 교육, 법·규제 준수, 공공 서비스와 같은 분야에서는 글로벌 모델보다 지역 기반 대형 언어 모델(LLM)이 더 우수한 성과를 보이는 것으로 나타났다. 이와 함께 서구 중심 기술 생태계에 대한 의존을 줄이려는 움직임이 확대되면서, 소버린 AI 전략은 국가 간 협력 감소와 중복 투자 확대라는 구조적 변화를 초래할 가능성이 커지고 있다. 이에 따라 가트너는 소버린 AI 스택을 구축하는 국가들은 2029년까지 최소 GDP의 1%를 AI 인프라에 투자해야 할 것으로 전망했다. 가트너는 이에 따른 CIO 레벨의 대응 전략으로 ▲지역, 벤더 간 LLM 전환을 가능케하는 오케스트레이션 계층을 활용해 자유로운 워크플로 설계 ▲국가별 법, 규제, 문화, 언어 요건을 충족하는 AI 거버넌스와 데이터 거주성, 모델 튜닝 체계 보장 ▲시장 내 클라우드 벤더, LLM 벤더, 소버린 AI 스택 선도 기업과 협력 관계를 구축하고 검증된 파트너 확보 ▲AI 관련 법, 규제와 데이터 주권 정책, 신규 표준을 확인하고 AI 모델 배포, 데이터 처리 전략에 선제 반영 등을 제시했다. 가트너의 가우라브 굽타(Gaurav Gupta) VP 애널리시스트는 “디지털 주권을 중시하는 국가들은 폐쇄적인 미국 중심 AI 모델의 대안을 모색하고 있다. 이에 따라 컴퓨팅 파워, 데이터센터, 클라우드 인프라, AI 모델까지 포함하는 자국 중심의 소버린 AI 스택에 대한 투자를 확대하고 있다”고 설명했다. 그는 이어 “AI 플랫폼 선택 기준 역시 변화하고 있다. 의사결정자들은 가장 방대한 학습 데이터를 보유한 글로벌 모델보다, 자국의 법·규제·문화·사용자 기대에 부합하는 AI 플랫폼을 우선적으로 고려하고 있다”고 말했다. 또한 굽타 애널리시트는 “데이터센터와 AI 팩토리 인프라는 소버린 AI의 핵심 기반이다. 향후 이 영역에 대한 투자가 본격화되면, AI 스택을 통제하는 일부 기업들이 두 자릿수 성장과 함께 수조 달러 규모의 기업가치를 달성할 가능성이 있다”고 내다봤다.
작성일 : 2026-02-02
[인터뷰] 워트인텔리전스 윤정호 대표, 특허 데이터로 산업 전략 설계
워트인텔리전스, ‘특허 버티컬 AI’로 미래 기술 방향 제시 특허는 단순한 권리보호 수단을 넘어, 기업의 미래 기술 방향 성과 전략이 집약된 고급 기술 데이터다. 그러나 방대한 비정형 특허 데이터를 이해하고 전략적으로 활용하는 일은 쉽지 않다. 2015년 설립된 워트인텔리전스(Wert Intelligence)는 이러한 문제를 해결하기 위해 설립되어 국내 최초이자 유일한 ‘특허 버티컬 AI’ 전문 기업으로 자리매김했다.   워트인텔리전스 윤정호 대표    ‘특허 버티컬 AI’ 기업, 워트인텔리전스 워트인텔리전스는 AI 기반 특허 검색•분석 기술을 통해 방대한 특허 데이터를 R&D·전략기획·투자·신사업 부서에서 즉시 활용 가능한 인사이트로 전환하는 솔루션을 제공한다. 현대자동차, 두산, 쿠팡, 카카오, 김앤장법률사무소, CJ 등 3,000여 개 기업이 활용하고 있으며, 최근에는 LG AI연구원과 함께 특허 특화 AI 모델을 공동 개발해 기술 데이터 해석의 정확성과 활용 범위를 확장하고 있다.   AI 기반 특허 검색•분석 서비스 ‘keywert’ 이번 산업AI EXPO 2025에서 워트인텔리전스는 대표 서비스 ‘key wer t(키워트)’를 중점적으로 선보인다. keywert는 전 세계 3억 건 이상의 특허 데이터를 기반으로 학습된 특허 특화 LLM(Large Language Model)을 활용해, 누구나 자연어로 특허를 검색하고 해석할 수 있는 AI 특허 분석 플랫폼이다. 기존 검색식 기반의 특허서비스와 달리, “애플의 노이즈캔슬링 기술 찾아줘”와 같은 자연어 질의나 뉴스 기사·키워드 입력만으로도 해당 기술의 핵심 내용을 도출할 수 있다. 또한 AI로 특허 데이터를 다각도로 분석해 신규 시장 기회를 발굴하는 IP 빅데이터 분석, 기술군을 자동 분류 하고 매트릭스 형태로 시각화하는 시각화 분석 서비스도 제공한다. R&D 기획, 기술 투자 타당성 분석, 해외 시장 진출 전략 수립 등 다양한 산업 응용 분야에서 활용이 가능하며, 이미 AI 기반 IP 전략 수립의 새로운 표준 도구로 자리잡고 있다.   기술 전략 중심의 특허 활용 시대 글로벌 시장은 이미 특허 데이터를 ‘법률 중심’이 아닌 ‘기술 전략 중심’ 자산으로 전환해 활용하는 흐름에 진입했다. AI 기술의 발전은 방대한 기술 데이터를 자동으로 읽고 정리해, 기업의 전략 수립 속도와 정확도를 비약적으로 향상시키고 있다. 워트인텔리전스는 특허 데이터에 특화된 독자 LLM을 자체 개발, 발명의 구성 요소·기술 맥락·산업 흐름까지 이해·분석 가능한 수준으로 고도화했다. 이는 단순 문서 요약 수준을 넘어선 차별점으로, 한국형 산업 AI 모델로서 글로벌 시장에서도 확장성과 파급력을 입증할 잠재력을 갖추고 있다.   향후 계획 – 특허 데이터를 전략 자산으로 워트인텔리전스는 AI 기반 특허 해석 기술을 더욱 고도화해, 특허 데이터를 단순 분석이 아닌 전략 도출의 핵심 자산으로 만드는 것을 목표로 한다. 이를 위해 기술 전략자동화, 기업 맞춤형 리포트 제공 등 고부가가치 비즈니스를 강화하고, IP 데이터를 비즈니스 인텔리전스로 완전 전환할 계획이다. 글로벌 시장에서도 특허 데이터를 기술 데이터로 활용하는 트렌드가 확산되는 가운데, 워트인텔리전스는 해당 분야에서 세계 최고 수준의 버티컬 AI 역량을 갖춘 기업으로 자리잡고자 한다.   데이터 해석과 실행 가능성, 산업AI 성장의 핵심 워트인텔리전스는 산업AI의 성장이 데이터의 전략적 해석력과 실행 가능성에 달려 있다고 본다. 복잡한 데이터를 더 많이 모으는 것보다, 그 속에서 핵심을 읽어내어 전략으로 연결하는 것이 중요하다. “기술을 어떻게 해석하고, 그 해석을 어떻게 전략으로 바꿀 것인가”를 끊임없이 고민해온 워트인텔리전스는 앞으로도 특허 데이터를 넘어 비즈니스 전략을 이끄는 기술 파트너로 성장해 나갈 예정이다.
작성일 : 2026-02-01
레노버, 신규 AI 추론 서버 출시하며 실시간 엔터프라이즈 AI 혁신 가속화
레노버가 AI 추론 워크로드를 위해 설계된 엔터프라이즈 서버, 설루션 및 서비스를 새롭게 선보이며 ‘레노버 하이브리드 AI 어드밴티지’ 포트폴리오를 확장했다. 레노버는 차세대 AI 시대를 준비하며 추론 기술의 혁신을 통해 리테일 현장의 고객 거래부터 중환자실의 신속 진단 및 치료 계획 수립 등 고도화된 헬스케어 분야에 이르기까지, 실제 현장에서 AI 구현을 가로막는 다양한 장벽을 해소해 나가고 있다고 전했다. AI 추론은 대형 언어 모델(LLM)을 학습시키는 단계에서 벗어나, 학습이 완료된 모델을 활용해 새로운 데이터를 분석하고 실제 환경에서 즉각적인 의사 결정을 내리는 방향으로의 중대한 전환점을 통과하고 있다. 학습에서 실행으로의 이동은 AI에 투입된 막대한 자본을 가시적인 비즈니스 성과와 경쟁 우위로 전환한다. 레노버의 새로운 AI 추론 포트폴리오는 클라우드, 데이터센터, 에지 전반에 분산된 데이터를 통합·연결해, 최적의 성과를 낼 수 있는 환경에서 AI 워크로드를 구동함으로써 투자 대비 효과를 높인다. 글로벌 리서치 기업 퓨처럼(Futurum)은 글로벌 AI 추론 인프라 시장이 2024년 50억 달러에서 2030년 488억 달러로 성장해, 향후 6년간 연평균 성장률(CAGR) 46.3%를 기록할 것으로 전망했다. 레노버는 새로운 AI 추론 서버를 통해 다양한 규모의 비즈니스 워크로드를 지원한다. 레노버의 추론 최적화 포트폴리오는 최신 GPU, 메모리, 네트워킹 기술을 기반으로 설계됐다. 레노버 씽크시스템(ThinkSystem) SR675i는 대규모 확장성을 바탕으로 어디서든 전체 LLM을 구동할 수 있도록 설계된 고성능 AI 추론 서버이다. 제조, 중증 헬스케어, 금융 서비스 환경에서의 대규모 워크로드 처리와 가속 시뮬레이션을 지원한다.   레노버 씽크시스템 SR650i는 고밀도 GPU 컴퓨팅을 기반으로 한 가속 AI 추론 성능을 제공하는 서버로, 기존 데이터센터 환경에서 손쉬운 구축·확장이 가능하다. 레노버 씽크엣지(ThinkEdge) SE455i는 소형 폼팩터로 설계돼 리테일, 통신, 산업 환경에 최적화된 에지 서버로, 데이터가 생성되는 위치에서 초저지연 AI 추론을 구현하며, -5°C부터 55°C까지의 폭넓은 온도 범위에서도 작동하는 안정성을 제공한다.   레노버 넵튠(Neptune)의 선도적인 수랭 및 공랭 냉각 기술은 높은 수준의 AI 워크로드 성능을 요구하는 기업이 직면한 에너지 효율 과제를 해결하고, 레노버 트루스케일(TruScale)의 종량제 모델과 결합해 민첩성과 보안, 예산을 모두 유지하면서 최적의 성능과 효율을 달성하도록 지원한다. 레노버의 엔터프라이즈 AI 하드웨어는 대규모 AI 설루션의 구축과 운영을 지원하는 검증된 모듈형 프레임워크인 레노버 하이브리드 AI 팩토리(Lenovo Hybrid AI Factory)의 핵심 기반이다. 인프라와 소프트웨어, 서비스를 통합하는 레노버 하이브리드 AI 어드밴티지에서, 하이브리드 AI 팩토리는 기업이 AI 도입을 통해 실질적인 성과를 도출할 수 있도록 돕는다. 레노버 하이브리드 AI 플랫폼은 새로운 레노버 AI 추론 서버를 중심으로 스토리지, 네트워킹, 소프트웨어, 오케스트레이션을 통합한 단일 시스템을 제공해 인프라, 데이터, 관리 영역을 유기적으로 연결한다. 이를 통해 시장 출시 속도를 가속화하고 배포 리스크를 줄이는 동시에, 기업의 투자 대비 최적화된 가치를 제공한다. 새롭게 선보이는 플랫폼은 레노버의 폭넓은 AI 생태계를 기반으로, 엔터프라이즈 환경에서 요구되는 고도화된 AI 추론 과제들을 지원한다. 레노버 씽크애자일(ThinkAgile) HX 및 뉴타닉스(Nutanix) AI 기반의 레노버 하이브리드 AI 추론은 중앙 집중형 공유 추론 역량을 통해 가상화 환경에서 GPU 활용률을 극대화하고, 성능과 확장성을 향상시키는 동시에 비용 효율을 제공한다. 레드햇(Red Hat) AI 기반 레노버 하이브리드 AI 추론은 강력한 AI 환경을 위한 확장형 엔터프라이즈 플랫폼으로, 유연성, 강화된 보안, 높은 성능을 바탕으로 복잡한 워크로드와 향후 성장을 지원하며, 에이전틱 AI를 위한 견고한 기반을 원하는 기업에 적합하다. 캐노니컬 우분투 프로(Canonical Ubuntu Pro) 기반 레노버 하이브리드 AI 추론은 비용 효율적이고 간소화된 구성으로 AI 도입을 쉽게 시작할 수 있도록 지원하는 설루션으로, 신속한 배포와 실험에 적합하며 레노버 씽크시스템 SR650i의 확장성을 활용해 사용 편의성과 에이전틱 AI 접근성을 위한 필수 보안 기능을 제공한다.   AI 기술이 진화함에 따라 레노버 하이브리드 AI 팩토리 서비스(Lenovo Hybrid AI Factory Services)는 비즈니스 및 산업별 추론 워크로드에 최적화된 고성능 추론 환경을 구축·운영할 수 있도록 새로운 자문, 구축, 관리형 서비스 역량을 제공해 기업의 유연한 대응을 지원한다. ▲초기 단계부터 서버 성능을 최적화해 장기적인 안정성, 효율성, 확장성을 확보하고 빠른 투자 성과 실현을 지원하고 ▲레노버 프리미어 서포트(Premier Support)를 통해 데이터센터 운영의 안정적인 상시 지원이 가능하다. ▲추론 및 AI 운영 변화에 맞춰 손쉽게 규모를 확장할 수 있는 레노버 트루스케일 서비스형 인프라스트럭처(Lenovo TruScale Infrastructure-as-a-Service) 기반의 유연한 금융 옵션도 제공한다. 새롭게 선보인 레노버 하이브리드 AI 팩토리 추론 서비스는 도입 전 과정에서의 복잡성을 낮춰 기업의 AI 도입을 가속화하고 가치를 극대화하도록 설계됐다. 이 AI 서비스는 엔터프라이즈 제품 라이프사이클 전반을 지원하겠다는 레노버의 약속을 실현하며, 기업이 안정성과 확장성을 바탕으로 미션 크리티컬 AI 운영을 관리하고 혁신을 추진하도록 돕는다. 레노버 수석부사장 겸 레노버 인프라스트럭처 솔루션 그룹(ISG) 사장인 애슐리 고라크푸르왈라(Ashley Gorakhpurwalla)는 “오늘날 기업은 데이터가 생성되는 즉시 인사이트로 전환할 수 있는 AI를 필요로 한다”면서, “레노버의 새로운 추론 최적화 인프라는 대규모 데이터를 즉각 실행 가능한 인텔리전스로 전환하여 보다 정교한 의사결정, 강화된 보안, 빠른 혁신을 가능하게 하는 실시간 경쟁 우위를 제공한다”고 말했다.
작성일 : 2026-01-26
HP Z AI 워크스테이션 데모 장비 및 컨설팅 무상 지원 기업 모집
  17분기 연속 한국 시장 점유율 1위 (출처 : IDC 2021 Q3 – 2025 Q3) HP Z AI 워크스테이션 데모 장비 및 컨설팅 무상 지원 기업 모집 귀사의 소프트웨어/솔루션이 고성능 AI PC에 탑재되어 더 큰 가치를 창출할 수 있도록, HP 코리아는 중소·중견 기업을 대상으로 HP Z AI 워크스테이션 Z6 G5 A & ZBook Ultra G1a 데모 장비 및 컨설팅을 무상 지원하는 프로그램을 운영하고 있습니다. 장비나 고가 GPU구매 부담에 비즈니스 성장의 제약을 느끼시나요? 인재 유출 걱정까지 더해져 고민이시라면 본 프로그램 참여로 솔루션을 찾아보세요.   01 프로그램 개요   - AI 워크스테이션 데모 장비 무상 지원 (연구개발 단계부터 가능) - 비즈니스 요구에 맞춘 하드웨어 컨설팅 및 최적화 지원 - 사업 기회 발굴 및 협업 추진 - 마케팅 지원     02 모집 대상 및 기간 대 상 자사가 개발한 소프트웨어/솔루션을 고성능 하드웨어 PC에 탑재하여 비즈니스를 하는 기업   기 간 2025.12.01 ~ 2026.01.31   발 표 2026.03.03 / 유선 및 이메일을 통한 개별 안내       * 일정은 진행 상황에 따라 변동될 수 있습니다. * 대면심사에 해당되지 못하는 업체의 경우, 개별 통보 예정입니다. * 테스트 장비 지원 기간은 최대 2개월입니다. * 동일 업체의 중복 참여는 허용되지 않습니다.     03 데모 지원 제품   HP Z6 G5 A + 모니터 최대 96코어 기반 초고부하 AI·3D 작업 최적화 최대 3개의 하이엔드 GPU로 고급 3D·AI 작업 처리 3D 렌더링, 캐드, AI 모델링에 최적화 된 성능 HP Series 7 Pro 27" 4K 모니터   HP ZBook Ultra G1a + 모니터 + 도킹   고가의 GPU 없이도 최대 VRAM 96GB 작업 가능 대용량 LLM 실험도 엔지니어 책상 위에서 가능 3D 모델링과 렌더링 동시 처리 가능 HP Series 7 Pro 27” 4K 모니터 + 도킹     데모 지원 신청하기
작성일 : 2026-01-22
오라클, “국내 스타트업 4개사에 클라우드 인프라 제공해 AI 기반 서비스 혁신 지원”
한국오라클이 뉴로플로우, 스포잇, 윤회, 코넥시오에이치 등 국내 4개 스타트업에 오라클 클라우드 인프라스트럭처(OCI)를 제공했다고 밝혔다. 4개사는 OCI를 활용해 AI 기반 기술 역량을 한층 더 강화하고, 오라클의 글로벌 인프라를 기반으로 해외 시장 진출을 위한 토대를 마련했다. 오라클은 OCI가 다양한 규모의 AI 학습 및 추론 프로젝트를 지원하면서, “생성형 AI 구축을 위한 주요 인프라로 부상하고 있다”고 전했다. RAG 기반 지능형 업무지원 플랫폼 ‘뉴로보드’를 운영하는 뉴로플로우는 교육기관과 산업체 등으로 고객사를 확대하면서 데이터 처리량이 급증하고 더 높은 수준의 추론 성능이 필요했다. 특히 RAG 기반 검색과 LLM을 결합해 신뢰할 수 있는 출처 기반의 정확한 응답을 제공하는 AI 설루션 특성상, 확장성과 안정성을 갖춘 클라우드 기반 AI/ML 플랫폼이 필수였다. 뉴로플로우는 OCI를 도입해 이러한 과제를 해결했으며, OCI의 고가용성 인프라로 장애 없는 안정적인 서비스 운영이 가능해졌다. 실제 사용량 기반 오토스케일링을 통해 챗봇 응답 품질 향상과 함께 인프라 비용도 절감할 수 있었다. 스포잇은 데이터 기반 전력 분석 및 자동 클립 생성 등 스포츠 AI 영상 서비스를 제공한다.  고객 수요가 빠르게 증가함에 따라, 서비스 확장을 위한 대규모 연산 자원 확보와 AI 실험 비용 절감 및 MLOps 기반 개발 효율화가 주요 과제로 떠올랐다. 이에 회사는 대규모 추론 연산을 효율적으로 지원하는 OCI 베어메탈 인스턴스(OCI Bare Metal Instances)를 도입했다. 이후 OCI의 저지연 네트워크와 높은 처리 성능을 활용하여 모델 학습 시간을 단축하고, 영상 처리 속도를 개선했으며 MLOps 환경도 성공적으로 구축했다. 그 결과 AI 기반 콘텐츠 생산성은 최대 6배, 분석 효율은 약 70% 개선했다. AI 기반 순환패션 플랫폼 케어아이디(CARE ID)를 운영하는 윤회는 글로벌 진출을 앞두고 플랫폼의 응답성, 확장성, 가용성을 전반적으로 강화할 필요성이 있었다. 이에 회사는 OCI로 전환하면서 OCI 컨테이너 레지스트리(OCIR : OCI Container Registry)와 OCI 쿠버네티스 엔진(OKE : OCI Kubernetes Engine)을 도입해 안정적이고 효율적인 AI 인프라를 구축했다. 그 결과, 서비스 운영 안정성을 혁신하는 동시에 기존 클라우드 대비 60%의 운영 비용을 절감할 수 있었다. 핀테크 서비스 기업 코넥시오에이치는 이커머스 데이터베이스와 AI를 활용해 소상공인의 사업 성과를 시각화하고, 이를 기반으로 금융 접근성을 높이는 서비스를 제공하고 있다. 회사는 클라우드 기반의 LLM 서비스 고도화 및 대규모 전자상거래 데이터 분석을 통해 맞춤형 인사이트를 제공하고자 했다. 이를 위해 확장성과 비용 효율성을 갖춘 고성능 플랫폼을 필요로 했다. 이에 회사는 OCI 베어메탈 인스턴스와 오라클 자율운영 AI 데이터베이스(Oracle Autonomous AI Database)를 도입했다. 그 결과, 인프라 운영 비용을 약 40% 절감하는 동시에, 서비스 전반을 안정적으로 확장할 수 있는 기반을 마련할 수 있었다. 이들 네 개 회사는 중소벤처기업부, 창업진흥원(KISED) 및 서울과학기술대학교와 공동으로 진행한 글로벌 기업 협업 프로그램 ‘미라클’에 선정된 스타트업으로, 정부와 글로벌 기업의 지원을 바탕으로 기술력을 고도화하고 해외 시장 진출의 기회를 확보하는 데에 성공했다. 창업진흥원의 유종필 원장은 “이번 미라클 프로그램을 통한 오라클과의 협력으로 국내 유망 스타트업들이 세계적 기술 경쟁력을 확보하고, 글로벌 투자 및 사업 기회를 넓힐 수 있게 되어 기쁘게 생각한다”면서, “창업진흥원은 앞으로도 역량 있는 창업기업들이 글로벌 기술 선도 기업과 협력해 글로벌 혁신을 이끌고 해외시장에 진출할 수 있도록 지원을 아끼지 않을 것”이라고 말했다. 한국오라클의 김성하 사장은 “빅데이터와 AI 기반 시장 환경이 빠르게 변화하는 가운데, 이번 미라클 프로그램에 참여한 스타트업들이 OCI를 활용해 가시적인 성과를 낸 것은 오라클이 국내 기업의 기술 경쟁력 강화에 핵심적인 역할을 하고 있음을 보여준다”면서, “앞으로도 고성능 클라우드 인프라와 차별화된 기술력을 바탕으로, 유망 AI 스타트업과 함께 혁신 생태계를 확장해 나갈 것”이라고 말했다.
작성일 : 2026-01-21
스노우플레이크, ‘2026년 AI 및 데이터 전망’에서 에이전틱 AI와 데이터 전략에 주목
스노우플레이크는 ‘AI + 데이터 예측 2026 보고서’를 발간하고 “2026년은 에이전틱 AI와 데이터 전략이 엔터프라이즈 AI 성과를 좌우하는 해가 될 것”이라고 전망했다. 스노우플레이크는 매년 슈리다 라마스워미(Sridhar Ramaswamy) CEO를 비롯한 리더들의 인사이트를 토대로 AI 및 데이터 트렌드를 예측하며 보고서를 발간하고 있다. 올해 보고서에서는 “에이전틱 AI의 신뢰성 확보와 데이터 활용 전략이 기업 경쟁력을 좌우하는 핵심 요소가 될 것”이라고 강조했다. 2026년에는 대규모 언어 모델(LLM)에서 더 나아가 정교한 추론과 실행 능력을 갖춘 에이전틱 AI 중심 구조로 진화하며 기업의 AI는 전사적인 AI 생태계 구축 단계로 진입할 것이라는 설명이다. 스노우플레이크의 아나히타 타프비지(Anahita Tafvizi) 최고 데이터 및 애널리틱스 책임자는 “AI 혁신 속도는 매우 빠르지만 대부분의 기업은 이를 실질적 성과로는 이어가지 못한다”면서, “데이터 상태, 거버넌스, 조직 역량의 차이가 기업 간 AI 활용의 격차를 만들 것”이라고 말했다. 또한, 에이전틱 AI의 진화로 개발자 생산성이 33% 향상될 것으로 전망되는 가운데, 다양한 도구와 데이터 및 AI를 유기적으로 활용할 수 있는 오케스트레이션 역량을 갖춘 인재의 가치가 부각될 것이라 내다봤다.     ‘AI + 데이터 예측 2026 보고서’에서 분석한 2026년 주요 전망은 ▲에이전틱 AI 신뢰도 높이는 ‘자체 검증 메커니즘’의 발전 ▲AI 생태계 확장의 필수요소로 자리잡을 표준 프로토콜, 오픈소스, 운영 인프라 ▲사이버 보안의 양날의 검이 된 에이전틱 AI 등이다. 에이전틱 AI는 기업 업무 환경에 본격 활용될수록 신뢰성 확보가 최우선 과제가 될 것으로 보인다. 이를 위해 사용자 피드백을 반영하는 ‘피드백 루프’와 결과를 스스로 점검 및 보정하는 ‘자체 검증 메커니즘’이 중요해질 것이다. 라마스워미 CEO는 “구글 검색 알고리즘이 사용자의 클릭 데이터를 반영하며 진화해온 것처럼 에이전틱 AI 역시 사용자의 피드백 패턴을 학습하며 업무 환경에서 더욱 정교한 의사결정을 수행하게 될 것”이라고 내다봤다. 기업 업무 환경에서는 단일 슈퍼 에이전트보다 특정 업무에 특화된 마이크로 에이전트가 먼저 등장할 것으로 예측했다. 즉, 마이크로 에이전트가 단계적으로 도입되고 이를 유기적으로 결합하는 에이전틱 AI가 효과적인 도구가 될 것이다. 스노우플레이크의 마이크 블랜디나(Mike Blandina) 최고정보책임자(CIO)는 “앞으로 몇 년 내 특정 업무에 특화된 마이크로 에이전트의 등장에 따라 각각의 마이크로 에이전트를 레고 블럭처럼 조합할 수 있게 된다면 더 크고 복잡한 업무를 성공적으로 수행할 수 있을 것”이라고 설명했다. 에이전틱 AI가 기업 시스템 전반으로 확산되기 위해서는 연동 방식의 표준화가 선행되어야 한다. 에이전틱 AI는 여러 시스템 및 데이터베이스를 아우르며 업무를 수행한다. 이에 에이전트 및 외부 시스템과의 통신을 표준화하는 지배적 AI 프로토콜의 등장이 에이전틱 AI 개발 및 도입 속도를 높일 것이다. 특히 인터넷 환경이 TCP/IP로 확산된 것처럼 단일 지배적 프로토콜이 자리잡으면 에이전틱 AI 개발 속도가 높아지고 벤더 종속에서도 자유로워질 것이라는 것이다. 또한 AI 생태계의 확장성을 높이기 위해서는 오픈소스 파운데이션 모델의 역할도 커질 것이다. 한편 에이전틱 AI는 대화형 도구에서 벗어나 추론과 다단계 행동을 수행하는 에이전트로 진화하고 있다. 이에 따라 기업 운영 인프라는 분석 중심에서 실시간 처리 상태 관리 중심으로 재편될 것이다. 이 과정에서 포스트그레스(Postgres)가 빠른 응답 및 낮은 지연이 요구되는 온라인 처리 워크로드를 뒷받침하며 에이전틱 AI가 생성하는 대규모 실시간 이벤트와 지속적인 운영 데이터 처리에 핵심 인프라로 활용될 것으로 전망된다. 에이전틱 AI가 기업 시스템 전반에서 실시간으로 실행되고 외부와의 연동 범위가 넓어질수록, 보안 환경에서는 위협과 기회가 동시에 등장한다. 스노우플레이크의 브래드 존스(Brad Jones) 최고정보보호책임자(CISO)는 “에이전틱 AI가 취약점 탐지, 익스플로잇 자동화 데이터 탈취 등 공격 행위를 정교하게 수행할 수 있어 사이버 위협의 규모와 속도를 크게 높일 수 있다”고 강조했다. 한편 에이전틱 AI가 기업의 보안 운영 센터(SOC)의 대응 역량을 강화하는 방향으로 활용될 수 있다고 전망했다. 존스 CISO는 “뛰어난 보안 전문가 확보의 어려움은 당분간 지속될 것”이라며, “강력한 AI 에이전트와 보안 도구를 적절히 결합해 활용하면 SOC 운영의 리소스 공백을 보완해 제한된 인력으로 보다 효과적인 보안 대응 체계를 구축할 수 있다”고 설명했다. 한편, 스노우플레이크는 리테일/소비재, 금융 서비스, 제조 등  산업별 AI 활용 전략에 대해서도 짚었다. 모든 산업에서 에이전틱 AI의 활용이 도입 단계를 넘어 실제 업무 실행 중심으로 확산될 것으로 보인다. 리테일/소비재 산업에서는 데이터가 풍부한 대규모 AI 모델을 기반으로 고객관리가 고도화되고 개인화된 경험에 대한 서비스가 늘어나며 ‘AI 쇼핑 어시스턴트’가 대중화될 것이다. 엄격한 규제 환경의 금융 서비스 분야에서는 데이터 퍼스트 및 정교한 리스크 관리 전략을 바탕으로 의사결정 전반에 통합되는 AI 기반 분석 및 리스크 관리 에이전트가 확대될 것이다. 제조 산업의 경우 품질 검사, 설비 정비, 공급망 최적화 등 운영 전반에서 설비 효율성을 진단하는 ‘산업 특화 챗봇형 AI 에이전트’ 도입이 가장 빠르게 이뤄질 것으로 예측된다.
작성일 : 2026-01-15
코딩 없는 LLM 기반 에이전트 개발 도구, 디파이
BIM 칼럼니스트 강태욱의 이슈 & 토크   디파이(Dify)는 대규모 언어 모델(LLM)을 활용한 에이전트 서비스를 전문적인 코딩 지식 없이 개발하고 효율적으로 운영할 수 있도록 지원하는 LLMOps(대규모 언어 모델 운영) 플랫폼 및 도구이다. 이 도구는 LLM과 같은 개발에 필요한 도구를 팔래트에서 가져와 캔버스에 배치하고, 이들의 작업 흐름을 연결함으로써 손쉽게 AI 에이전트 서비스를 개발할 수 있다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   그림 1. 디파이로 개발된 챗봇 에이전트 예시   디파이는 사용자가 아이디어를 실제 AI 서비스로 신속하게 전환할 수 있도록 설계된 통합 개발 환경을 제공한다. 가장 큰 특징은 복잡한 백엔드(backend) 인프라나 API 연동 과정을 추상화하여, 사용자가 시각적인 인터페이스를 통해 애플리케이션의 핵심 로직과 기능 구현에만 집중할 수 있도록 한 것이다.   기능 소개 디파이의 주요 기능은 다음과 같다. 시각적 프롬프트 오케스트레이션 : 사용자는 텍스트 입력, LLM 호출, 조건 분기, 외부 도구(API) 사용 등의 과정을 블록처럼 연결하여 정교한 워크플로를 설계할 수 있다. 이를 통해 단순한 질의응답을 넘어 복잡한 추론과 작업 수행이 가능한 AI 에이전트를 구축하는 것이 가능하다. RAG(검색 증강 생성) 엔진 : 자체 데이터(PDF, TXT, 마크다운 등)를 업로드하여 AI 모델이 해당 정보를 기반으로 답변하도록 만드는 RAG 기술을 손쉽게 구현할 수 있다. 디파이는 문서 자동 전처리, 벡터화, 청킹(chunking) 등 복잡한 과정을 내부적으로 처리하여 사용자의 부담을 최소화한다. 모델 호환성 및 관리 : 오픈AI(OpenAI)의 GPT 시리즈, 앤트로픽(Anthropic)의 클로드(Claude), 구글의 제미나이(Gemini) 등 20개 이상의 상용 및 오픈소스 LLM을 지원한다. 사용자는 여러 모델을 프로젝트에 등록해두고 특정 작업에 가장 적합한 모델을 선택하거나, A/B 테스트를 통해 성능을 비교 분석할 수 있다. 배포 및 운영 : 개발이 완료된 애플리케이션은 즉시 사용 가능한 웹 API 엔드포인트(endpoint)나 독립적인 웹 사이트 형태(웹앱)로 배포된다. 또한 사용자 피드백 수집, 모델 성능 모니터링, 프롬프트 개선 등 지속적인 운영 및 관리를 위한 대시보드를 제공하여 서비스 품질을 유지하고 발전시키는 데 도움을 준다. 더 자세한 정보는 디파이 공식 웹사이트(https://dify.ai)에서 확인할 수 있다.   개발 배경 디파이는 2023년 5월에 설립된 랭지니어스(LangGenius, Inc.)에 의해 개발되었으며, 생성형 AI 기술의 급격한 발전 속에서 LLM을 실제 비즈니스에 적용하려는 수요와 기술적 장벽 사이의 간극을 메우기 위해 탄생했다. 초기 LLM 애플리케이션 개발은 파이썬(Python) 라이브러리인 랭체인(LangChain)이나 라마인덱스(LlamaIndex) 등을 활용하는 개발자 중심의 영역이었다. 하지만 이는 프롬프트 엔지니어링, 벡터 데이터베이스 관리, API 연동 등 상당한 전문 지식을 요구했다. 랭지니어스 팀은 이러한 기술적 복잡성이 AI 기술의 대중화와 비즈니스 혁신을 저해하는 주요 요인이라고 판단했다. 이에 따라 기획자, 디자이너, 마케터 등 비개발 직군도 직접 AI 서비스를 만들고 테스트할 수 있는 직관적인 플랫폼을 목표로 디파이를 개발했다. 특히, 모든 소스코드를 공개하는 오픈소스 전략을 채택하여 개발자 커뮤니티의 참여를 유도하고, 데이터 보안에 민감한 기업이 자체 서버에 직접 설치(self-hosting)하여 사용할 수 있도록 유연성을 제공했다. 디파이의 소스코드는 깃허브 저장소(https://github.com/langgenius/dify)에서 확인할 수 있다.   유사 도구 디파이와 유사한 기능을 제공하는 AI 개발 플랫폼은 다수 존재하며, 각각의 도구는 고유한 특징과 목표 시장을 가지고 있다. 플로와이즈AI(FlowiseAI) : 디파이와 마찬가지로 노드를 연결하여 LLM 기반 워크플로를 구축하는 오픈소스 플랫폼이다. UI/UX 측면에서 더 개발자 친화적인 경향이 있으며, LangChain.js를 기반으로 하여 자바스크립트(JavaScript) 생태계와의 통합이 용이하다는 장점이 있다.(https://flowiseai.com) 보이스플로(Voiceflow) : 주로 대화형 AI, 특히 음성 기반 챗봇 및 어시스턴트 제작에 특화된 로코드 플랫폼이다. 시각적인 대화 흐름 설계 도구가 강력하며, 프로토타이핑부터 실제 배포까지 전 과정을 지원하여 고객 서비스 자동화 분야에서 많이 사용된다.(https://www. voiceflow.com) 버블(Bubble) : 웹 애플리케이션 개발을 위한 대표적인 노코드 플랫폼이다. AI 기능이 내장된 것은 아니지만, 높은 유연성과 확장성을 바탕으로 디파이나 오픈AI에서 제공하는 API를 연동하여 복잡한 웹 서비스 내에 AI 기능을 통합하는 방식으로 활용될 수 있다.(https://bubble. io) n8n : 워크플로 자동화에 중점을 둔 오픈소스 도구이다. AI 기능보다는 수백 개의 다양한 서드파티 애플리케이션(예 : 구글 시트, 슬랙, 노션)을 연결하여 데이터 동기화 및 업무 자동화를 구현하는 데 강점을 보인다.(https://n8n.io)     ■ 기사의 상세 내용은 PDF로 제공됩니다.
작성일 : 2026-01-07
인텔, CES 2026서 18A 공정 기반의 ‘인텔 코어 울트라’ 프로세서 출시
인텔은 CES 2026에서 미국에서 설계·제조된 인텔 18A 공정 기술을 기반으로 한 첫 번째 AI PC 플랫폼인 ‘인텔 코어 울트라 시리즈 3(Intel Core Ultra Series 3)’ 프로세서를 공개했다. 인텔은 글로벌 주요 파트너사의 200개 이상 제품 설계에 탑재되는 이 프로세서가 지금까지 인텔이 선보인 AI PC 플랫폼 가운데 가장 폭넓게 글로벌 시장에 공급되는 플랫폼이 될 것으로 전망했다. 인텔 코어 울트라 시리즈 3 모바일(노트북) 라인업에는 고성능의 통합형 인텔 아크(Arc) 그래픽을 탑재한 새로운 등급의 인텔 코어 울트라 X9 및 X7 프로세서가 포함된다. 이들 프로세서는 이동 중에도 게이밍, 콘텐츠 제작, 생산성 등 고급 워크로드를 동시에 처리하는 멀티태스킹을 위해 설계됐다. 최상위 SKU는 최대 16개 CPU 코어, 12개 Xe 코어, 50 NPU TOPS를 제공하며, 멀티스레드 성능은 최대 60% 향상, 게이밍 성능은 최대 77% 이상 개선됐고, 최대 27시간 지속되는 배터리 수명을 목표로 설계됐다.     인텔 코어 울트라 시리즈 3 제품군에는 메인스트림 급 노트북 구동을 위해 설계된 인텔 코어 프로세서도 포함되어 있다. 인텔 코어 울트라 시리즈 3과 동일한 기본 아키텍처를 활용하는 인텔 코어 라인업은 더 저렴한 가격대에서 가성비와 효율성을 갖춘 노트북 설계를 가능하게 한다. 시리즈 3 에지 프로세서는 PC 버전과 더불어 최초로 임베디드 및 산업용 인증을 획득했다. 이를 통해 확장된 작동 온도 범위, 성능, 그리고 24시간 상시 가동이 가능한 신뢰성 등 산업 현장의 까다로운 요건을 충족한다. 인텔 코어 울트라 시리즈 3는 핵심 에지 AI 워크로드에서 경쟁력을 제공하며, 대규모 언어 모델(LLM) 성능은 최대 1.9배 향상, 엔드 투 엔드 비디오 분석에서는 와트·달러당 성능이 최대 2.3배 개선, 비전-언어-액션(VLA) 모델 처리량은 최대 4.5배 향상됐다. 또한 통합형 AI 가속을 통해 기존의 멀티칩 CPU·GPU 아키텍처 대비 단일 시스템 온 칩(SoC) 설루션으로 더 우수한 총소유비용(TCO)을 제공한다. 인텔의 클라이언트 컴퓨팅 그룹을 총괄하는 짐 존슨(Jim Johnson) 부사장은 “이번 인텔 코어 울트라 시리즈 3를 통해 전력 효율과 CPU 성능을 한층 강화하고, 동급 최고 수준의 GPU와 개선된 AI 연산 성능을 제공한다”며, “x86 아키텍처 기반에서 신뢰할 수 있는 애플리케이션 호환성 역시 강화했다”고 말했다. 인텔 코어 울트라 시리즈 3 프로세서를 탑재한 첫 번째 소비자용 노트북은 1월 말부터 전 세계 시장에서 판매될 예정이며, 이후 제품은 2026년 상반기 동안 순차적으로 공개될 예정이다. 인텔 코어 울트라 시리즈 3 기반의 에지 시스템은 2026년 1분기부터 출시될 예정이다.
작성일 : 2026-01-06