• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "SoC"에 대한 통합 검색 내용이 1,263개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
HP Z북 울트라 G1a 리뷰 : AI 엔지니어가 살펴본 모바일 워크스테이션의 새로운 기준
HP Z북 울트라 G1a는 고성능 AI 작업과 3D 제작을 동시에 염두에 둔 14인치 모바일 워크스테이션이다. 이 글에서는 필자가 실제로 자주 사용하는 AI 리서처와 3D 제작 작업 시나리오를 바탕으로, 기존에 사용해 온 게이밍 노트북과 비교하면서 HP Z북 울트라 G1a의 장단점을 조명해보고자 한다.   HP Z북 울트라 G1a(ZBook Ultra G1a)는 프로세서 성능과 메모리 용량에 명확하게 집중한 구성을 취함으로써, 기존의 노트북 선택 방법과는 다른 노선을 제시한다. 일반적으로 노트북을 선택할 때 대부분의 사용자는 성능, 휴대성, 가격, 배터리 지속 시간, 확장성 등 여러 요소를 종합적으로 고려한다. 그러나 특정 작업 환경에서는 이러한 균형 중심의 접근이 오히려 비효율로 작용하기도 한다. 대용량 데이터 전처리, 로컬 AI 추론, 3D 콘텐츠 제작과 같이 CPU와 메모리 자원 의존도가 높은 워크로드에서는, 그래픽 성능이나 휴대성보다 연산 자원과 메모리 용량이 작업 효율을 결정짓는 핵심 요소가 되기 때문이다. HP Z북 울트라 G1a는 바로 이러한 관점에서 색다른 접근법을 채택한 기기라고 볼 수 있다. AMD의 라이젠 AI 맥스+ 프로 395(Ryzen AI Max+ PRO 395) 프로세서를 탑재해 128GB에 달하는 대용량 메모리를 제공하는 반면, 그래픽 카드는 외장 GPU가 아닌 내장 그래픽으로 구성된 14인치 노트북이다. 이처럼 극명하게 갈린 사양 구성은 과연 AI 개발과 3D 콘텐츠 제작이라는 두 가지 작업을 모두 감당할 수 있는 선택지일까?   제품 개요 워크스테이션은 일반적으로 크고 무거운 데스크톱 형태로, ‘들고 다니는 기기’와는 거리가 멀다는 인식이 강하다. 그러나 HP Z북 울트라 G1a는 이러한 고정관념을 벗어나, 14인치 폼팩터 안에 워크스테이션급 성능을 담아냈다. 앞서 언급했듯 이 제품은 AMD 라이젠 AI 맥스+ 프로 395 프로세서와 라데온 8060S(Radeon 8060S) 그래픽을 기반으로 설계되었으며, 최대 128GB LPDDR5x 메모리와 대용량 NVMe SSD를 탑재했다. 정량적인 하드웨어 스펙상 무게는 약 1.57~1.59kg으로, 여타 게이밍 노트북과 비교해도 크게 무겁지 않은 수준이다. 실제로 가방에 넣어 휴대했을 때도 다른 노트북에 비해 체감 무게가 과하게 느껴지지는 않았다. 기기 양쪽에는 USB-C 타입 포트 2개(충전 포트 포함)를 비롯해 HDMI, USB-A 타입 단자, 3.5mm 이어폰 단자가 배치되어 있어, 워크스테이션으로서 요구되는 기본적인 확장성도 충분히 갖추고 있다.   디자인 본격적인 사용기에 앞서 디자인을 살펴보자. 보기 좋은 떡이 먹기도 좋다는 말도 있듯이, 매일 사용하는 기기는 사용자의 마음에 들 정도로는 아름다워야 한다. HP Z북 울트라 G1a의 디자인은 간결하고 군더더기 없었다. 특히, 전반적인 제품의 마감 품질이 높다는 것이 느껴졌다. 처음 노트북이 닫힌 상태에서 보았을 때는 매끄럽고 둥근 디자인의 겉모습이 단정하다는 느낌이 들고, 화면을 열어 전원을 켰을 때에는 베젤이 얇고 깔끔하여 프로페셔널하다는 인상을 준다. 디자인에서 가장 좋았던 점은 키보드이다. 처음에는 짙은 회색의 평범한 플라스틱 소재로 느껴졌지만, 사용하다 보니 키보드의 키감이 좋을 뿐만 아니라 이물질이 잘 묻지 않는 코팅으로 되어 있어 사용 시 편리했다. 외부 작업 중 노트북을 열었을 때, 손때 묻은 키보드를 다른 사람에게 드러내는 것이 걱정인 사람이라면 이 노트북의 키보드 마감이 더욱 마음에 들 것이라 생각한다. 또한 카메라에는 오픈·클로즈 방식의 물리적 커버가 적용되어, 노트북 내장 웹캠을 사용하지 않을 때는 완전히 가릴 수 있다. 사소해 보일 수 있지만, 사용자를 고려한 세심한 설계라는 점에서 인상 깊은 부분이었다.   그림 1. 노트북 전면. 디자인이 깔끔하고 단정하여 외부 미팅에도 무난하게 사용할 수 있었다.   AI 및 데이터 전처리 워크로드 이제 AI 엔지니어의 관점에서 이 제품을 살펴보자. AI 제품 개발 과정에서 절실하게 체감하는 주요 요소 중 하나는 CPU 메모리의 여유이다. 모델 학습은 클라우드 GPU나 서버 자원을 활용하는 경우가 많아졌지만, 탐색적 데이터 분석, 실험을 위한 데이터 전처리는 대부분 로컬 환경에서 수행해야 하기 때문이다. 따라서 CPU 성능과 GPU 성능 둘 중 하나를 선택해야 한다면, 많은 사람들의 예상과 달리 GPU보다는 CPU를 선택하는 것이 합리적이다. CPU 메모리가 여유가 있다면 데이터셋을 실험 가능한 요건에 맞춰 수정 및 조정하는 것이 조금 더 편리해질 뿐만 아니라, 데이터셋 전처리와 동시에 다른 작업이 가능하기 때문이다. HP Z북 울트라 G1a의 128GB 메모리와 라이젠 AI 맥스+ 프로 395의 조합은 대용량 데이터 전처리와 모델 로딩 과정에서 매우 안정적인 모습을 보였다. 텍스트·이미지 데이터 전처리 작업에서 메모리 부족 현상은 거의 발생하지 않았으며, 기존에 사용하던 게이밍 노트북(32GB RAM, RTX 4060 기준) 대비 체감상 약 절반 수준의 시간으로 작업을 마칠 수 있었다. 이는 대규모 로컬 데이터셋을 다루는 리서처에게 매우 중요한 요소다. AI 허브나 대학·연구기관에서 제공하는 공공 데이터셋의 경우 단일 데이터셋만으로도 수백 GB를 훌쩍 넘기는 경우가 많고, 이를 포맷에 맞게 전처리하는 데 상당한 시간이 소요되기 때문이다. HP Z북 울트라 G1a는 메모리의 양이 크기 때문에, 작업 중간 중간에 메모리 부족으로 인해 컴퓨터가 멈추거나 작업 수행 완료를 위해 컴퓨터를 손 놓고 기다리는 일 없이 여유롭게 전처리를 수행할 수 있었다. 몇 가지 사례를 들어보면, 첫째 <그림 2>와 같이 데이터의 압축 해제, 복사와 같은 간단한 작업에서 매우 빠른 처리 속도를 보여주었다. 데이터 전처리 성능을 실험하기 위해 활용한 ‘음식 분류’ 데이터셋의 경우, 각 클래스마다 1천 개의 고화질 사진이 저장되어 있어 전체 용량이 1TB에 육박하는 매우 큰 데이터셋이다. 그러나 HP Z북 울트라 G1a에서는 30GB 용량의 데이터를 압축 해제하는 데 8분밖에 소요되지 않았고, 일관적으로 140MB/s 전후의 속도를 유지하였다. 이는 HP Z북 울트라 G1a의 메모리 대역폭 확대, 멀티채널 구성 안정성 증가가 큰 영향을 미쳤기 때문으로 생각할 수 있다. 일반적인 환경에서는 압축 해제 단계에서 CPU 처리 속도가 병목으로 작용하여, 저장장치가 충분한 성능을 갖추고 있음에도 불구하고 연속적인 읽기·쓰기 작업이 지연되는 현상이 발생하기도 한다.   그림 2. 대용량 데이터의 전처리에도 빠른 속도를 유지하였고, 프로그램 운용에 여유가 있었다.   반면, HP Z북 울트라 G1a에서는 향상된 프로세서 구조와 메모리 서브시스템을 통해 병목이 제거되었으며, 그 결과 압축 해제와 동시에 디스크 I/O가 지속적으로 최대 대역폭에 가깝게 활용될 수 있었다. 이로 인해 사용자 관점에서는 압축 해제뿐 아니라 파일 복사 속도까지 향상된 것처럼 느껴져 직접적으로 작업 효율 향상이 체감되었다. 기존의 게이밍 노트북이 동일한 작업을 수행하는데 평균 60MB/s의 속도로 약 12분 정도가 소요된 것을 고려하면, 이 작업이 전체 데이터셋에 적용될 때 얼마만큼의 작업 시간을 아낄 수 있을 지 기대해 볼 만하다. 둘째, 파이썬 코드를 활용한 데이터 전처리에서도 높은 성능 개선을 보여주었다. CSV 파일을 활용하여 3D 복셀 데이터를 만드는 작업을 수행하는 코드를 기준으로 실험해보았다. 이는 앞에서와 동일하게 CPU·메모리에 집중된 작업을 할 때의 효율을 검사하기 위한 실험으로, 동일한 SVC 파일을 대상으로 데이터의 시각화를 수행하였을 때를 비교한 것이다. 결과적으로, HP Z북 울트라 G1a는 평균적으로 75FPS(초당 프레임)를 유지하였고, 시각화된 데이터를 360도 회전시켜 확인하는 데에 큰 문제가 없었다. 반면, 기준이 된 다른 기기는 평균 42FPS를 유지하고, 시각화된 데이터를 360도로 회전시켜 확인하는 데 약간의 로딩이 필요했다. 특히, 시각화 결과물을 회전하는 과정에서 약간의 버벅임과 끊김이 발생하여 데이터를 세부적으로 확인할 때 약간의 어려움이 따랐다. 기준 기기 또한 일반적인 사무용 노트북을 기준으로 보았을 때보다는 훨씬 빠르고 원활한 데이터 전처리 성능을 보여주었으나, HP Z북 울트라 G1a는 전처리뿐 아니라 시각화 데이터 인터랙션에서도 안정적으로 동작함으로써 실시간에 가까운 시각화 환경을 제공했다는 점에서 차별화된 사용 경험을 제공하였다.   그림 3. 3D 복셀화에 소요된 시간과 프레임률을 tqdm으로 측정한 결과. 동일한 작업을 수행하는 데 HP Z북 울트라는 75FPS, 기준 기기(HX370 CPU, 32RAM)는 42FPS의 성능을 보여주었다.   로컬 AI 추론 로컬 AI 추론 작업에서도 HP Z북 울트라 G1a는 충분히 인상적인 성능을 보여주었다. 로컬 AI 세팅에는 올라마(Ollama)를 사용하였다. 올라마는 다양한 오픈소스 LLM을 간편히 사용할 수 있게 하는 프로그램으로 윈도우, 맥, 리눅스 등 다양한 환경을 지원하며 CLI 및 GUI 환경을 모두 지원하여 확장성이 좋다. 또한, 로컬에서 REST API 형태로 모델을 노출할 수 있어 파이썬(Python), 노드.js(Node.js), 자바(JAVA(Spring)), 랭체인(LangChain) 등과 연동이 용이하며, 프로토타입 서비스 제작 및 온디바이스 AI, 사내 전용 LLM 구축을 위해 다양하게 쓰인다. 필자는 윈도우에서 GUI 기반의 올라마 클라이언트를 설치하여 로컬 AI 추론을 수행하였으며, 엔비디아 그래픽 카드 드라이버(CUDA 포함)를 설치하지 않고 올라마를 구동하였다. 이 지점에서 HP Z북 울트라 G1a의 프로세서의 특장점이 드러난다. 바로 SoC(System on a Chip) 설계를 통해 프로세서 자체에서 CPU·GPU·NPU를 통합하여 활용한다는 것이다. 따라서 이 워크스테이션을 사용하는 사람은 일반적으로 말하는 CPU-Only와 같이 GPU 드라이버를 따로 설치하지 않더라도, AI 추론 및 훈련을 수행할 때 GPU·NPU를 사용하는 것과 같은 효과를 체감할 수 있다.   그림 4. 올라마의 공식 홈페이지. 윈도우, 맥, 리눅스 등 다양한 OS를 지원하며 오픈소스로 활용 가능한 LLM 모델의 가중치를 제공하여 로컬 추론을 가능하게 하는 프로그램이다.   올라마를 활용해 중·대형 언어 모델(gpt-oss:120B)과 소형 언어 모델(qwen3:8B)을 각각 다운로드한 뒤, 동일한 조건에서 추론 시간을 비교해 보았다. 결과는 예상 이상이었다. 중·대형 언어 모델의 추론에는 (약간의 쿨링 소음이 발생하였지만) 약 10초가 소요되었고, 소형 언어 모델 역시 약 13초 내외로 추론을 마쳤다. 비교 대상으로 사용한 다른 노트북에서는 중·대형 모델이 추론 도중 오류를 일으켰고, 소형 모델조차 358초가 걸렸던 점을 감안하면 상당한 차이다. ‘메모리 용량 차이가 얼마나 크겠어’라고 생각한 필자의 판단을 무색하게 만들 정도로, 128GB 메모리와 라이젠 AI 맥스+ 프로 395의 조합은 로컬 AI 추론 환경에서 분명한 강점으로 작용했다. 이러한 특성은 AI 개발자에게만 국한된 장점은 아니다. 성능이 검증된 오픈소스 언어 모델을 노트북에 직접 탑재해 휴대할 수 있다는 것은, 인터넷 연결이 원활하지 않은 환경에서도 개인화된 AI 비서를 여러 개 운용하며 작업을 이어갈 수 있음을 의미한다. 로컬 환경에서의 AI 활용 가능성을 실질적인 수준으로 끌어올렸다는 점에서, HP Z북 울트라 G1a의 방향성과 장점이 명확히 드러나는 지점이었다.   그림 5. qwen3:8b로 로컬 추론을 수행한 결과   그림 6. gpt-oss:120b로 로컬 추론을 수행한 결과   3D 작업 워크플로 다음은 3D 작업 워크플로로 넘어가 보자. 필자가 주로 사용하는 캐릭터 크리에이터(Character Creator), 지브러시(Zbrush) 등을 통하여 내장 그래픽만을 가지고 있음에도 ‘충분히 작업이 가능한가?’라는 요소를 살펴보고, 다음으로는 고화질을 요구하는 3D 게임을 실행시켜 성능을 테스트해 보았다. 먼저, 리얼루션(Reallusion)의 캐릭터 크리에이터 5 소프트웨어를 설치하여 작업 가능 여부를 확인해 보았다. 이 소프트웨어는 사실적 묘사를 담은 메타 휴먼을 만들기 위한 소프트웨어이다. 얼굴, 체형, 옷 및 장신구 같은 다양한 요소를 조합하는 자유도가 높고, 피부 결이나 머리카락 같은 요소까지 섬세하게 구현해야 하기 때문에 일반적인 게이밍 노트북에서도 원활한 작업이 어려운 소프트웨어 중 하나이다. 실제로, 필자가 보유한 게이밍 노트북 기기에서는 동일한 작업을 수행하며 컴퓨터가 다운되는 경우가 종종 있었고, 새로운 스킨으로 교체하거나 요소를 변형할 때 1 ~ 5분 정도의 로딩 타임을 요구했다.   그림 7. 캐릭터 크리에이터로 작업하는 모습   그러나, HP Z북 울트라 G1a에서는 로딩 시간이 1 ~ 3분 이하로 줄어드는 모습을 보여주었을 뿐만 아니라, 컴퓨터가 다운되는 경우도 발생하지 않아 상당히 쾌적하게 작업을 진행할 수 있었다. 물론 다루는 데이터의 크기 자체가 큰 만큼 약간의 로딩 시간은 피해갈 수 없었으나, 대부분 1분 이내의 로딩으로 작업이 완료되어 작업 완료를 기다리는 시간이 줄어들었다. 다음으로는 지브러시를 통해 추가 검증을 진행하였다. 지브러시의 경우 매끄러운 표면을 위해 의도적으로 폴리곤을 많이 나누면서 메모리 부하가 발생하는 경우가 많은데, <그림 8>과 같이 복잡한 인간형 모델링, 특히 상업적으로 판매 가능한 정도의 모델링을 테스트하였음에도 데이터의 로드 및 조형에 시간이 소요되지 않고 바로 진행할 수 있는 정도의 원활함을 보여주었다.   그림 8. 매끄러운 곡선으로 폴리곤의 수가 많아지더라도 원활히 처리하는 모습을 볼 수 있다.   마지막으로, 3D 게임을 통해 성능을 확인하였다. 대상이 된 게임은 ‘호그와트 레거시’로, 언리얼 엔진으로 만들어졌으며 비교적 실사화 스타일의 그래픽, 다양한 파티클 사용으로 고난도의 그래픽 컨트롤을 요구하는 게임이다. 게임에서는 플레이를 진행하며 기기의 사양을 자동으로 측정하여 적절한 그래픽 옵션을 정해주는데, 이 기기는 자동으로 중간 단계의 그래픽 옵션으로 세팅되는 것을 확인하였다.   그림 9. 기기 옵션을 자동으로 분석하여 적절한 수준의 그래픽 구현. 이 기기는 중간 옵션을 배정받았다.   물론 기존의 작업에 비해 3D 게임을 진행할 때는 기기의 쿨링팬 소음이 두드러지게 들리는 편이었다. 앞서 수행한 작업에서는 쿨링이 필요하지 않거나, 쿨링이 필요하더라도 비교적 짧고 조용하게 한 번의 ‘쏴아아’하는 소리가 들렸다면, 3D 게임을 실행 중일 때는 지속적인 쿨링 소음이 발생하였기 때문이다. 그러나, 여기에서도 HP Z북 울트라 G1a의 탁월한 점을 발견할 수 있었다. 그것은 바로 ‘소음이 발생하는 만큼 쿨링이 잘 되고 있다’는 점이다. 랩톱을 주로 사용하는 사용자는 공감하겠지만, 일부 랩톱의 경우 쿨링 소음이 큰데도 불구하고 쿨링이 제대로 되지 않아 기기 아래쪽의 키보드 부분이 상당히 뜨거워지는 경우가 잦다. 그러나 이 기기는 소음이 크더라도 쿨링이 확실히 진행되고 있었고, 피부에 장시간 접촉시킬 수 있을 정도의 발열만 있었다. 아울러, 게임 내의 실사화 그래픽은 모두 끊기는 부분 없이 자연스럽게 재생되었고, 게임 진행에 이상이 없이 원활히 진행되었다.   그림 10. 그림 내 실사화 시나리오 중 그래픽 재현성이 좋은 부분의 캡처. 왼쪽의 바다 물결 표현, 전면의 포그 표현 등이 끊기지 않고 자연스럽게 재생되었다.   맺음말 HP Z북 울트라 G1a는 AI 리서처와 3D 제작 작업을 병행하는 사용자에게 모바일 워크스테이션으로서 분명한 가치를 지닌 기기다. 이 제품의 구성은 모든 요소를 고르게 끌어올리기보다는, 프로세서와 메모리 성능에 명확하게 힘을 준 제품이다. 이에 사용 목적이 분명한 사용자에게 강점으로 작용한다. AI 전처리, 로컬 추론, 3D 제작 작업과 같이 CPU·메모리 의존도가 높은 워크로드에서는 이러한 설계 방향이 체감 성능으로 직결되기 때문이다. 그런 의미에서 HP Z북 울트라 G1a는 특히 다음과 같은 사용자에게 추천하고 싶다. 첫째, 대용량 데이터 전처리가 일상적인 AI 엔지니어, 둘째, 3D 콘텐츠 제작 과정에서 초안과 검증 단계의 결과물을 빠르게 만들어야 하는 사용자, 셋째, 이 모든 작업을 데스크톱이나 서버에 의존하지 않고 모바일 환경에서도 이어가야 하는 사용자다. HP Z북 울트라 G1a를 사용하는 사용자라면, 적어도 서버급 연산을 요구하는 극단적인 작업을 제외하고는 대부분의 실무 환경에서 성능으로 인한 제약을 체감할 일은 드물 것이다. 견적 상담 문의하기 >> https://www.hp.com/kr-ko/shop/hp-workstation-amd-app   ■ 박정은 AI 융합 분야 연구자이자 엔지니어로, 컴퓨터 비전, 게임 엔진, 머신러닝, 딥러닝 기반 실무를 수행하며 대용량 AI 데이터 전처리와 AI 실험 파이프라인을 설계·운용해왔다. 필적, 운동학, 감정 인식 중심의 AI 프로덕트 R&D를 수행하며, 모바일 워크스테이션 환경에서 CPU·GPU 자원을 밀도 있게 활용하는 실험 구조를 활용하였다. 산업 연계 교육 현장에서 연구와 실무를 연결하는 엔지니어이자 교육자로 활동하고 있다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2026-02-04
마이크로소프트, 차세대 AI 추론 가속기 ‘마이아 200’ 공개
마이크로소프트가 대규모 AI 토큰 생성의 경제성을 개선하기 위해 설계된 추론 가속기 ‘마이아 200(Maia 200)’을 공개했다. 마이아 200은 마이크로소프트 애저(Azure) 환경에서 AI 모델을 더욱 빠르고 경제적으로 구동할 수 있도록 지원하며 차세대 AI 인프라의 핵심 역할을 수행할 예정이다. 마이아 200은 TSMC의 3나노미터(nm) 공정을 기반으로 고성능 AI 추론에 최적화된 구조를 갖췄다. 특히 초당 7TB 대역폭의 216GB HBM3e 메모리 시스템과 네이티브 FP8/FP4 텐서 코어, 그리고 데이터 이동 엔진을 유기적으로 결합해 거대 모델에 최적화된 추론 성능을 제공하는 것이 특징이다. 마이아 200은 1400억 개 이상의 트랜지스터를 탑재해 대규모 AI 워크로드에 특화된 설계를 갖췄다. 750W SoC TDP(설계 전력) 범위 내에서 각 칩은 FP4 기준 10 PFLOPS 초과, FP8 기준 5 PFLOPS 초과 성능을 제공한다. 이러한 연산 성능은 대규모 모델 구동을 원활히 지원하며, 향후 등장할 차세대 모델까지 대응 가능한 수준의 성능 여유를 확보한다. 또한 데이터 공급 병목 현상 해결을 위해 메모리 하위 시스템을 전면 재설계해 토큰 처리량을 최적화했다.     이러한 성능은 대규모 클러스터 환경에서도 일관되게 구현된다. 마이크로소프트는 표준 이더넷 기반의 새로운 2계층 스케일업 네트워크를 도입했으며, 맞춤형 전송 계층과 통합 NIC를 통해 독점적인 패브릭 없이도 성능과 신뢰성, 비용 이점을 확보했다. 각 가속기는 초당 2.8TB의 양방향 전용 스케일업 대역폭을 지원하며, 이는 최대 6144개의 가속기를 연결하는 대규모 클러스터 전체에서 일관된 성능을 유지하고 애저 인프라의 전력 소모와 전체 소유 비용(TCO)을 절감하는 기반이 된다. 시스템 효율은 개별 단위인 트레이와 랙 수준의 정밀한 연결 구조를 통해 구현된다. 하나의 트레이 내부에 탑재된 4개의 가속기를 직접 연결해 내부 통신 효율을 높였으며, 동일한 통신 프로토콜을 사용해 랙 단위까지 원활하게 확장할 수 있도록 설계했다. 이러한 통합 네트워킹 환경은 프로그래밍을 단순화하고 워크로드의 유연성을 높여 시스템 운영 효율을 강화한다. 마이크로소프트는 “실제 연산 성능에서 마이아 200은 4비트 정밀도(FP4) 기준 3세대 아마존 트레이니움(Amazon Trainium) 대비 3배 높은 처리량을 기록했으며, 8비트 정밀도(FP8)에서도 구글의 7세대 TPU를 상회한다”고 소개했다. 마이크로소프트는 이러한 기술력을 바탕으로 자사 인벤토리 내 최신 하드웨어 대비 달러당 성능을 30% 개선하며 효율적인 추론 시스템을 구축했다. 마이크로소프트의 이기종AI 인프라에서 핵심 역할을 수행할 마이아 200은 오픈AI의 최신 GPT-5.2 모델을 비롯한 다양한 모델을 지원한다. 이로써 마이크로소프트 파운드리(Microsoft Foundry)와 마이크로소프트 365 코파일럿(Microsoft 365 Copilot)의 가격 대비 성능 효율을 제공한다. 마이크로소프트 슈퍼인텔리전스 팀은 차세대 사내 모델 개선을 위한 합성 데이터 생성 및 강화 학습에 마이아 200을 투입할 계획이다. 이 칩은 고품질 도메인 특정 데이터의 생성 및 필터링 속도를 가속화해 후속 학습에 정교한 신호를 공급하는 중추 역할을 맡게 된다. 마이아 200은 아이오와주 디모인(Des Moines) 인근 미국 중부(US Central) 데이터 센터 지역을 시작으로 배포가 진행된다. 향후 애리조나주 피닉스(Phoenix) 인근 US West 3 지역 등으로 확대될 예정이다. 마이크로소프트 실리콘 개발 프로그램은 칩 출시 전 시스템 전반을 검증하는 엔드 투 엔드 방식을 원칙으로 한다. 설계 초기부터 LLM의 연산 및 통신 패턴을 모델링하는 프리 실리콘 환경을 구축해, 실제 칩 제작 전 이미 실리콘과 네트워킹, 시스템 소프트웨어를 하나의 체계로 최적화했다. 데이터센터 투입 준비도 설계 단계부터 병행했다. 백엔드 네트워크와 2세대 액체 냉각 시스템 등 복잡한 요소를 조기 검증하고 애저 제어 플레인)과 네이티브로 통합했다. 그 결과 마이아 200은 첫 부품 입고 수일 만에 실제 모델 구동에 성공했으며, 칩 입고부터 데이터 센터 배치까지의 기간을 기존 대비 절반 이하로 단축했다. 칩부터 소프트웨어, 데이터 센터를 아우르는 엔드투엔드 방식은 자원 활용률을 높이고 클라우드 규모에서의 비용 및 전력 효율을 지속적으로 개선한다. 마이크로소프트는 대규모 AI 시대가 본격화됨에 따라 인프라가 기술적 가능성을 결정짓는 핵심 요소가 될 것으로 내다보고 있다. 마이아 가속기 프로그램은 다세대 로드맵을 기반으로 설계됐으며, 향후 지속적인 혁신을 통해 새로운 벤치마크를 제시하고 핵심 AI 워크로드에 최적화된 성능과 효율을 제공할 예정이다.
작성일 : 2026-01-27
스노우플레이크, ‘2026년 AI 및 데이터 전망’에서 에이전틱 AI와 데이터 전략에 주목
스노우플레이크는 ‘AI + 데이터 예측 2026 보고서’를 발간하고 “2026년은 에이전틱 AI와 데이터 전략이 엔터프라이즈 AI 성과를 좌우하는 해가 될 것”이라고 전망했다. 스노우플레이크는 매년 슈리다 라마스워미(Sridhar Ramaswamy) CEO를 비롯한 리더들의 인사이트를 토대로 AI 및 데이터 트렌드를 예측하며 보고서를 발간하고 있다. 올해 보고서에서는 “에이전틱 AI의 신뢰성 확보와 데이터 활용 전략이 기업 경쟁력을 좌우하는 핵심 요소가 될 것”이라고 강조했다. 2026년에는 대규모 언어 모델(LLM)에서 더 나아가 정교한 추론과 실행 능력을 갖춘 에이전틱 AI 중심 구조로 진화하며 기업의 AI는 전사적인 AI 생태계 구축 단계로 진입할 것이라는 설명이다. 스노우플레이크의 아나히타 타프비지(Anahita Tafvizi) 최고 데이터 및 애널리틱스 책임자는 “AI 혁신 속도는 매우 빠르지만 대부분의 기업은 이를 실질적 성과로는 이어가지 못한다”면서, “데이터 상태, 거버넌스, 조직 역량의 차이가 기업 간 AI 활용의 격차를 만들 것”이라고 말했다. 또한, 에이전틱 AI의 진화로 개발자 생산성이 33% 향상될 것으로 전망되는 가운데, 다양한 도구와 데이터 및 AI를 유기적으로 활용할 수 있는 오케스트레이션 역량을 갖춘 인재의 가치가 부각될 것이라 내다봤다.     ‘AI + 데이터 예측 2026 보고서’에서 분석한 2026년 주요 전망은 ▲에이전틱 AI 신뢰도 높이는 ‘자체 검증 메커니즘’의 발전 ▲AI 생태계 확장의 필수요소로 자리잡을 표준 프로토콜, 오픈소스, 운영 인프라 ▲사이버 보안의 양날의 검이 된 에이전틱 AI 등이다. 에이전틱 AI는 기업 업무 환경에 본격 활용될수록 신뢰성 확보가 최우선 과제가 될 것으로 보인다. 이를 위해 사용자 피드백을 반영하는 ‘피드백 루프’와 결과를 스스로 점검 및 보정하는 ‘자체 검증 메커니즘’이 중요해질 것이다. 라마스워미 CEO는 “구글 검색 알고리즘이 사용자의 클릭 데이터를 반영하며 진화해온 것처럼 에이전틱 AI 역시 사용자의 피드백 패턴을 학습하며 업무 환경에서 더욱 정교한 의사결정을 수행하게 될 것”이라고 내다봤다. 기업 업무 환경에서는 단일 슈퍼 에이전트보다 특정 업무에 특화된 마이크로 에이전트가 먼저 등장할 것으로 예측했다. 즉, 마이크로 에이전트가 단계적으로 도입되고 이를 유기적으로 결합하는 에이전틱 AI가 효과적인 도구가 될 것이다. 스노우플레이크의 마이크 블랜디나(Mike Blandina) 최고정보책임자(CIO)는 “앞으로 몇 년 내 특정 업무에 특화된 마이크로 에이전트의 등장에 따라 각각의 마이크로 에이전트를 레고 블럭처럼 조합할 수 있게 된다면 더 크고 복잡한 업무를 성공적으로 수행할 수 있을 것”이라고 설명했다. 에이전틱 AI가 기업 시스템 전반으로 확산되기 위해서는 연동 방식의 표준화가 선행되어야 한다. 에이전틱 AI는 여러 시스템 및 데이터베이스를 아우르며 업무를 수행한다. 이에 에이전트 및 외부 시스템과의 통신을 표준화하는 지배적 AI 프로토콜의 등장이 에이전틱 AI 개발 및 도입 속도를 높일 것이다. 특히 인터넷 환경이 TCP/IP로 확산된 것처럼 단일 지배적 프로토콜이 자리잡으면 에이전틱 AI 개발 속도가 높아지고 벤더 종속에서도 자유로워질 것이라는 것이다. 또한 AI 생태계의 확장성을 높이기 위해서는 오픈소스 파운데이션 모델의 역할도 커질 것이다. 한편 에이전틱 AI는 대화형 도구에서 벗어나 추론과 다단계 행동을 수행하는 에이전트로 진화하고 있다. 이에 따라 기업 운영 인프라는 분석 중심에서 실시간 처리 상태 관리 중심으로 재편될 것이다. 이 과정에서 포스트그레스(Postgres)가 빠른 응답 및 낮은 지연이 요구되는 온라인 처리 워크로드를 뒷받침하며 에이전틱 AI가 생성하는 대규모 실시간 이벤트와 지속적인 운영 데이터 처리에 핵심 인프라로 활용될 것으로 전망된다. 에이전틱 AI가 기업 시스템 전반에서 실시간으로 실행되고 외부와의 연동 범위가 넓어질수록, 보안 환경에서는 위협과 기회가 동시에 등장한다. 스노우플레이크의 브래드 존스(Brad Jones) 최고정보보호책임자(CISO)는 “에이전틱 AI가 취약점 탐지, 익스플로잇 자동화 데이터 탈취 등 공격 행위를 정교하게 수행할 수 있어 사이버 위협의 규모와 속도를 크게 높일 수 있다”고 강조했다. 한편 에이전틱 AI가 기업의 보안 운영 센터(SoC)의 대응 역량을 강화하는 방향으로 활용될 수 있다고 전망했다. 존스 CISO는 “뛰어난 보안 전문가 확보의 어려움은 당분간 지속될 것”이라며, “강력한 AI 에이전트와 보안 도구를 적절히 결합해 활용하면 SoC 운영의 리소스 공백을 보완해 제한된 인력으로 보다 효과적인 보안 대응 체계를 구축할 수 있다”고 설명했다. 한편, 스노우플레이크는 리테일/소비재, 금융 서비스, 제조 등  산업별 AI 활용 전략에 대해서도 짚었다. 모든 산업에서 에이전틱 AI의 활용이 도입 단계를 넘어 실제 업무 실행 중심으로 확산될 것으로 보인다. 리테일/소비재 산업에서는 데이터가 풍부한 대규모 AI 모델을 기반으로 고객관리가 고도화되고 개인화된 경험에 대한 서비스가 늘어나며 ‘AI 쇼핑 어시스턴트’가 대중화될 것이다. 엄격한 규제 환경의 금융 서비스 분야에서는 데이터 퍼스트 및 정교한 리스크 관리 전략을 바탕으로 의사결정 전반에 통합되는 AI 기반 분석 및 리스크 관리 에이전트가 확대될 것이다. 제조 산업의 경우 품질 검사, 설비 정비, 공급망 최적화 등 운영 전반에서 설비 효율성을 진단하는 ‘산업 특화 챗봇형 AI 에이전트’ 도입이 가장 빠르게 이뤄질 것으로 예측된다.
작성일 : 2026-01-15
시높시스, CES 2026서 SDV 개발 가속화할 AI·가상화 비전 공개
앤시스를 인수한 시높시스는 1월 6일부터 9일까지 미국 라스베이거스에서 열리는 CES 2026에서 AI 기반 및 가상화 기술을 활용한 자동차 엔지니어링 설루션을 선보이며, 소프트웨어 중심 자동차(Software-Defined Vehicle, SDV) 개발 가속을 위한 다양한 적용 사례와 협업 성과를 공개했다.   시높시스는 이번 CES에서 차량 전자 및 소프트웨어 개발 전 과정을 가상화함으로써, 개발 복잡성과 비용을 줄이는 동시에 시스템 성능과 신뢰성을 사전에 예측 및 검증할 수 있는 통합 엔지니어링 환경을 소개한다. 지능형 시스템 수준 시뮬레이션부터 반도체 설계에 이르기까지 연결된  워크플로를 통해 물리적 시제품 제작 비용을 절감하고, 개발 주기 단축을 지원하는 것이 핵심이다. 자동차 산업에서 수익성과 경쟁력은 점차 소프트웨어에 의해 좌우되고 있으며, 전동화·자율주행·지속 가능성 과제를 동시에 해결해야 하는 완성차 제조사(OEM)와 부품사에게 R&D 효율은 핵심 차별화 요소로 떠오르고 있다. 시높시스는 “차량 전자 시스템의 설계, 통합, 시험, 검증을 가상화함으로써 개발 비용을 20~60% 절감하고 시장 출시 속도를 가속할 수 있도록 지원한다”면서, “이러한 소프트웨어 우선 접근 방식은 커넥티드 서비스, 무선 소프트웨어 업데이트(OTA), 차량 수명 주기 기반 서비스 등 새로운 수익 모델을 창출로 이어진다”고 소개했다.     특히, 시높시스는 국제자동차연맹(FIA)과 협력해 포뮬러 단좌식 레이싱 차량의 안전 기준 고도화를 지원한다. 예측 정확도가 높은 디지털 인체 모델과 첨단 설계 최적화 기술을 활용해 수천 개의 파라미터를 분석함으로써, 모터스포츠 분야의 차세대 안전 혁신을 추진할 계획이다. 또한 앤시스 AV엑셀러레이트 센서(Ansys AVxcelerate Sensors)에는 삼성전자 아이소셀 오토 1H1(ISoCELL Auto 1H1) 차량용 이미지 센서가 새롭게 포함돼, 실제 주행 환경을 반영한 고정밀 센서 시뮬레이션이 가능해졌다. 이를 통해 완성차 제조사(OEM)와 부품사는 하드웨어 제작 이전 단계에서 센서 성능을 검증하고 설계에 직접 반영할 수 있다. 삼성전자의 시스템 LSI 센서 사업팀장인 이해창 부사장은 “삼성은 첨단 이미징 기술을 통해 자동차 시스템이 더 높은 안전성과 지능을 제공하는 미래를 그리고 있다”면서, “삼성 아이오셀 오토 1H1을 앤시스 AV엑셀러레이트 센서에 통합함으로써, 완성차 제조사와 부품사가 하드웨어 통합 이전 단계에서 실제 주행 환경을 예측 정확도로 가상 체험할 수 있도록 했다. 이번 협력은 자율주행 차량 개발을 가속하고 리스크를 줄이며, 더 스마트하고 안전한 모빌리티 생태계를 구축하는 중요한 진전”이라고 말했다.   한편, 시높시스는 SDV 개발을 가속하기 위해 전자 디지털 트윈을 구현하는 가상화 설루션과 함께, 레이더 기반 인지 기술 기업 아브로보틱스(Arbe Robotics), 독일 완성차 제조사 아우디 등 자동차 생태계 전반의 파트너들과 협력한 사례도 소개한다. 또한 시높시스 버추얼라이저 개발 키트(VDK)를 활용하면 실리콘 출시 수개월 전부터 SoC 가상 프로토타입 기반 소프트웨어 개발이 가능하며, 실리콘 확보 후 수일 내 전체 시스템 구동을 구현할 수 있다. 이를 통해 차량 출시 시점을 최대 12개월까지 앞당길 수 있다고 전했다. 아우디의 제프리 부코(Geoffrey Bouquot) CTO는 “아우디는 고객을 개발의 중심에 두고 차량 내 경험을 진화시키고 있다”면서, “가상화 기법을 통해 개발 초기 단계부터 이러한 목표를 반영할 수 있다. 시높시스의 시뮬레이션 설루션을 활용해 AI 기반 모델로 설계 탐색을 가속하고, 프로그램 전반에 걸쳐 가상 검증을 확장함으로써 물리적 시제품을 줄이고 개발 주기를 단축하는 동시에 더 높은 신뢰성과 고객 가치를 확보하고 있다”고 밝혔다.   시높시스의 사신 가지(Sassine Ghazi) CEO는 “AI와 소프트웨어 중심 차량의 확산으로 자동차 엔지니어링 환경은 더욱 복잡해지고 있으며, 동시에 개발 속도와 안전성에 대한 요구도 커지고 있다”면서, “시높시스는 설계부터 통합, 검증에 이르는 전 과정을 가상화하는 엔지니어링 설루션을 통해 고객이 개발 효율을 높이고 비용과 리스크를 줄이면서 차세대 성능과 안전 기준을 충족할 수 있도록 지원하고 있다”고 말했다.
작성일 : 2026-01-07
인텔, CES 2026서 18A 공정 기반의 ‘인텔 코어 울트라’ 프로세서 출시
인텔은 CES 2026에서 미국에서 설계·제조된 인텔 18A 공정 기술을 기반으로 한 첫 번째 AI PC 플랫폼인 ‘인텔 코어 울트라 시리즈 3(Intel Core Ultra Series 3)’ 프로세서를 공개했다. 인텔은 글로벌 주요 파트너사의 200개 이상 제품 설계에 탑재되는 이 프로세서가 지금까지 인텔이 선보인 AI PC 플랫폼 가운데 가장 폭넓게 글로벌 시장에 공급되는 플랫폼이 될 것으로 전망했다. 인텔 코어 울트라 시리즈 3 모바일(노트북) 라인업에는 고성능의 통합형 인텔 아크(Arc) 그래픽을 탑재한 새로운 등급의 인텔 코어 울트라 X9 및 X7 프로세서가 포함된다. 이들 프로세서는 이동 중에도 게이밍, 콘텐츠 제작, 생산성 등 고급 워크로드를 동시에 처리하는 멀티태스킹을 위해 설계됐다. 최상위 SKU는 최대 16개 CPU 코어, 12개 Xe 코어, 50 NPU TOPS를 제공하며, 멀티스레드 성능은 최대 60% 향상, 게이밍 성능은 최대 77% 이상 개선됐고, 최대 27시간 지속되는 배터리 수명을 목표로 설계됐다.     인텔 코어 울트라 시리즈 3 제품군에는 메인스트림 급 노트북 구동을 위해 설계된 인텔 코어 프로세서도 포함되어 있다. 인텔 코어 울트라 시리즈 3과 동일한 기본 아키텍처를 활용하는 인텔 코어 라인업은 더 저렴한 가격대에서 가성비와 효율성을 갖춘 노트북 설계를 가능하게 한다. 시리즈 3 에지 프로세서는 PC 버전과 더불어 최초로 임베디드 및 산업용 인증을 획득했다. 이를 통해 확장된 작동 온도 범위, 성능, 그리고 24시간 상시 가동이 가능한 신뢰성 등 산업 현장의 까다로운 요건을 충족한다. 인텔 코어 울트라 시리즈 3는 핵심 에지 AI 워크로드에서 경쟁력을 제공하며, 대규모 언어 모델(LLM) 성능은 최대 1.9배 향상, 엔드 투 엔드 비디오 분석에서는 와트·달러당 성능이 최대 2.3배 개선, 비전-언어-액션(VLA) 모델 처리량은 최대 4.5배 향상됐다. 또한 통합형 AI 가속을 통해 기존의 멀티칩 CPU·GPU 아키텍처 대비 단일 시스템 온 칩(SoC) 설루션으로 더 우수한 총소유비용(TCO)을 제공한다. 인텔의 클라이언트 컴퓨팅 그룹을 총괄하는 짐 존슨(Jim Johnson) 부사장은 “이번 인텔 코어 울트라 시리즈 3를 통해 전력 효율과 CPU 성능을 한층 강화하고, 동급 최고 수준의 GPU와 개선된 AI 연산 성능을 제공한다”며, “x86 아키텍처 기반에서 신뢰할 수 있는 애플리케이션 호환성 역시 강화했다”고 말했다. 인텔 코어 울트라 시리즈 3 프로세서를 탑재한 첫 번째 소비자용 노트북은 1월 말부터 전 세계 시장에서 판매될 예정이며, 이후 제품은 2026년 상반기 동안 순차적으로 공개될 예정이다. 인텔 코어 울트라 시리즈 3 기반의 에지 시스템은 2026년 1분기부터 출시될 예정이다.
작성일 : 2026-01-06
[칼럼] 나의 비서 - AI 활용 점수는?
현장에서 얻은 것 No. 25   2026년 1월이다. 우리는 또 한 해를 시작한다. 하지만 이번 새해의 공기는 이전과 다르다. AI 때문이다. AI는 더 이상 ‘다가올 기술’이 아니다. 이미 우리의 일상과 업무, 조직과 산업 한가운데에 들어와 있다. 문제는 이제 이것이다. AI를 쓰고 있는가가 아니라, AI가 실제로 우리 일을 얼마나 대신하고 있는가. 그래서 나는 요즘 이 질문을 자주 던진다. “나의 비서, AI 활용 점수는 몇 점인가?”   ▲ 나노 바나나로 작성한 화이트보드(by 류용효, 클릭하면 큰 이미지로 볼 수 있습니다.)   “중요한 것은 더 많은 일을 하는 것이 아니라, 중요한 일을 하는 것이다.” — 피터 드러커(Peter F. Drucker)   AI는 도구가 아니라 ‘비서’가 되었다 챗GPT(ChatGPT), 제미나이(Gemini), 노트북LM(NotebookLM). 이제는 이름만 들어도 어떤 역할을 하는지 떠올릴 수 있을 만큼 익숙해졌다. 챗GPT는 글쓰기, 사고 정리, 기획 초안을 도와주는 가장 친숙한 동료다. 제미나이는 깊이 있는 리서치와 검증, 시각화에 강점을 보인다. 노트북LM은 수백 개의 문서를 기억하는 전문 비서처럼 기술 문서, 사업 계획서, Q&A를 정리해준다. 이 세 가지를 번갈아 쓰다 보면 한 가지 사실을 분명히 깨닫게 된다. AI의 힘은 단일 도구의 성능이 아니라, 어떻게 역할을 나누고 조합하느냐에 있다. AI는 혼자 쓰는 도구가 아니라, 여러 명의 비서를 거느리는 것과 같은 경험을 제공한다. “우리는 반복적으로 하는 것의 총합이다. 그러므로 탁월함은 행동이 아니라 습관이다.” — 아리스토텔레스(Aristotle)   그런데, 왜 어떤 사람은 잘 쓰고 어떤 사람은 못 쓰는가 현장에서 느끼는 온도차는 분명하다. 같은 AI를 쓰는데도 결과는 전혀 다르다. 어떤 사람에게 AI는 일을 덜어주는 비서가 되고, 어떤 사람에게 AI는 잠깐 써보다 마는 장난감이 된다. 이 차이는 기술 이해도의 문제가 아니다. 사고 방식과 태도의 차이다. AI를 잘 쓰는 사람들은 공통점이 있다. 그들은 AI에게 단순히 결과물을 요구하지 않는다. 먼저 문제를 함께 정의하고, 왜 이 일을 해야 하는지부터 정리한다. 그들은 자기만의 원천을 가지고 있다. 현장 경험, 실패의 기록, 축적된 생각과 데이터. AI는 그것을 정리하고 증폭시키는 역할을 한다. 그리고 무엇보다, 한 번에 끝내려 하지 않는다. 여러 AI를 오가며 비교하고, 다듬고, 다시 묻는다. AI를 ‘정답 생성기’가 아니라 사고 파트너로 대한다. AI는 생각 없는 사람을 구원하지 않는다. 그러나 생각하는 사람에게는 강력한 무기가 된다. “행동은 모든 성공의 기초 열쇠다.” — 파블로 피카소(Pablo Picasso)   기업과 학계, 질문을 바꿀 때다 2026년을 맞이한 지금, 기업과 학계가 던져야 할 질문은 더 이상 “AI를 도입할 것인가”가 아니다. 이제 질문은 이렇게 바뀌어야 한다. “AI가 우리 업무와 프로세스에 어디까지 스며들었는가?”, “AI가 실제로 사람의 시간을 되돌려주고 있는가?” 제조 현장을 돌아보면 이 변화는 더 명확하다. 지난 5년간 우리는 디지털 트윈과 스마트 공장을 이야기해왔다. 그 흐름은 자연스럽게 제조 AI로 이어지고 있다. 그리고 그 다음 단계는 이미 보이기 시작했다. 제조 AI에서 물리 AI(Physical AI)로, 물리 AI에서 체화 AI(Embodied AI)로. AI는 이제 보고서를 쓰는 손을 넘어 공장을 판단하고, 설비를 제어하고, 제품 속으로 들어가고 있다. 2026년의 경쟁력은 ‘AI를 쓴다’는 선언이 아니라, AI가 일의 구조를 얼마나 바꿨는가로 결정된다. “도구는 생각을 대신하지 않는다. 다만 생각의 범위를 넓힌다.” — 더글러스 엥겔바트(Douglas Engelbart), 마우스의 발명가   AI 활용 점수는 이벤트로 오르지 않는다 많은 기업이 AI 해커톤을 연다. 파일럿 프로젝트를 진행하고, 컨설팅을 받는다. 그러나 현장에서는 이런 장면도 자주 목격된다. 발표는 화려했지만, 일하는 방식은 그대로 PoC는 있었지만, 프로세스로 이어지지 못한 사례 AI는 남았지만, 습관은 바뀌지 않았다. AI 활용 점수는 이벤트로 오르지 않는다. 일하는 방식이 바뀔 때만 오른다. 누가 문제를 정의하는가? 누가 AI를 매일 쓰는가? 결과물이 축적되는가? 다음 사람이 이어서 쓸 수 있는가? 이 질문에 답하지 못하면 AI는 언제든 사라질 수 있다.   AI는 결국 사람을 비춘다 AI를 오래 쓰다 보면 흥미로운 사실을 깨닫게 된다. AI는 점점 더 사람의 본질을 드러낸다는 점이다. 정리하는 사람은 더 정리하게 되고, 기록하는 사람은 더 많이 남기게 되며, 도망치던 사람은 더 빨리 한계를 마주한다. AI는 거울이다. 그리고 2026년, 그 거울은 점점 더 선명해질 것이다.   2026년을 맞이하는 당신에게 이 글을 읽는 당신이 기업의 임원이든, 연구자든, 실무자든 상관없다. 딱 하나만 스스로에게 물어보면 된다. ‘AI 덕분에 나는 지금, 작년보다 더 중요한 일을 하고 있는가?’ 만약 그렇다면, 당신의 AI 활용 점수는 이미 합격이다. 만약 아니라면, 지금이 가장 빠른 출발선이다. AI는 아직 우리를 대체하지 않았다. 하지만 준비되지 않은 사람을 기다려주지도 않는다. 2026년, AI는 이미 당신의 비서가 될 준비를 마쳤다. 이제 남은 질문은 하나다. ‘당신은 그 비서를 어떻게 쓸 것인가.’   ■ 참고 이번 호의 칼럼은 개인의 경험뿐 아니라 AI와 기술, 일의 미래에 대해 치열하게 고민하고 공유해 온 분들의 글과 문제의식에서 많은 자극을 받았다.전종홍, 홍순성, 김지현, 정진호, 황명하, 이재현.각자의 자리에서 던진 질문과 통찰은 2026년을 바라보는 이 글의 중요한 배경이 되었다.   ■ 류용효 디원의 상무이며 페이스북 그룹 ‘컨셉맵연구소’의 리더로 활동하고 있다. 현업의 관점으로 컨설팅, 디자인 싱킹으로 기업 프로세스를 정리하는데 도움을 주며, 1장의 빅 사이즈로 콘셉트 맵을 만드는데 관심이 많다. (블로그)     ■ 기사 내용은 PDF로도 제공됩니다.        
작성일 : 2026-01-06
팔란티어 온톨로지 플랫폼 아키텍처 기술 해부 및구현 방법
BIM 칼럼니스트 강태욱의 이슈 & 토크   이번 호에서는 세계적으로 주목받고 있는 팔란티어(Palantir)의 온톨로지 플랫폼 아키텍처를 소프트웨어 공학 관점에서 분석하고, 오픈소스 기술을 활용한 구현 방법을 정리한다. 팔란티어의 핵심은 기존 시스템을 대체하는 것이 아니라, 통합하고 확장하는 개방성에 있다. 이번 호에서는 국방이나 제조 분야에서 팔란티어가 어떻게 검증된 오픈소스 기술 기반 위에 독자적인 온톨로지(ontology)라는 의미론적 추상화 계층을 구축했는지, 그리고 그 구조를 파헤쳐 본다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   팔란티어 아키텍처 팔란티어 아키텍처의 근간에는 ‘대체가 아닌 통합’이라는 철학이 있다. 이는 기업이 이미 막대한 투자를 한 데이터레이크, ERP, CRM과 같은 기존 IT 환경을 교체하는 대신, 이들을 하나로 묶고 그 가치를 증대시키는 플랫폼 역할을 하는 것이다. 이러한 철학은 아키텍처의 명확한 관심사 분리로 이어진다. 배포, 오케스트레이션, 데이터 처리와 같은 하위 계층은 의도적으로 쿠버네티스(Kubernetes), 스파크(Spark), 플링크(Flink) 등 보편적인 오픈소스 표준 위에 구축된다. 이를 통해 고객의 기존 기술 스택 및 엔지니어링 역량과 마찰 없이 통합된다. 반면, 온톨로지, AI 플랫폼(AIP)과 같은 상위 계층에는 팔란티어의 독자적인 지적 재산이 집중된다. 이 구조는 고객이 새로운 데이터베이스나 컴퓨팅 엔진이 아닌, 기존 자산과 상호 작용하는 새로운 패러다임을 구매하게 만들어 비즈니스 가치를 제안한다. 플랫폼의 안정성과 확장성은 두 가지 핵심 기술, 즉 자율 배포 시스템인 아폴로(Apollo)와 쿠버네티스 기반의 컨테이너 오케스트레이션 기판인 루빅스(Rubix)에 의해 뒷받침된다. 이 기반 위에서 데이터 통합 및 분석 플랫폼인 파운드리(Foundry), 국방 및 정보 분석에 특화된 고담(Gotham), 그리고 AI 모델을 온톨로지와 연결하는 AIP(Artificial Intelligence Platform)가 운영된다.   그림 1. 팔란티어 아키텍처 구조 개념도   그림 2. 국방 분야 서비스인 팔란티어 고담 플랫폼   그림 3. 서비스의 지속적인 자율 통합/배포(CI/CD)를 위한 팔란티어 아폴로   데이터 처리 워크플로 팔란티어의 워크플로는 이기종의 파편화된 데이터 소스를 연결하고, 이를 구조화된 지식으로 변환하여 온톨로지 모델로 변환한다.   데이터 수집 및 파싱 PDF, 문서, 이미지와 같은 비정형 데이터는 먼저 ‘미디어 셋(media sets)’이라는 파일 모음으로 수집된다. 데이터를 파싱하는 과정은 블랙박스가 아니다. 개발자는 파이썬(Python)이나 자바(Java) 변환과 저수준 파일 시스템 API를 사용하여 직접 파이프라인을 구축한다. 이는 결정론적이고, 테스트 가능하며, 버전 관리가 가능한 파이프라인을 통해 신뢰성과 거버넌스를 확보하는 엔지니어링 중심의 접근 방식이다. 더 나아가 AIP는 AI 기반 파싱 기능을 제공한다. 이는 사전 훈련되거나 맞춤화된 AI 모델(예 : NLP 모델)을 파이프라인 내에 통합하여 개체명 인식, 요약과 같은 정교한 작업을 수행하는 방식이다. 이 구조는 엔지니어가 견고한 데이터 파이프라인을 구축하고, AI 엔지니어가 그 안에 두뇌 역할을 하는 모델을 배포하는 효율적인 이중 계층 시스템을 만든다.   기반 처리 기술 이러한 데이터 변환 및 통합 로직은 독점 엔진에 종속되지 않는다. 모든 데이터는 아파치 파케이(Apache Parquet), 아브로(Avro)와 같은 표준 형식으로 저장되며, 대규모 배치 처리를 위한 아파치 스파크, 실시간 스트림 처리를 위한 아파치 플링크와 같은 오픈소스 런타임을 사용한다.   온톨로지 메타모델 온톨로지는 팔란티어의 핵심 차별화 요소로, 기업의 모든 데이터, 모델, 프로세스를 현실 세계의 대응물(공장, 고객, 제품 등)과 연결하는 의미론적, 동역학적 계층이다. 이는 기업의 ‘디지털 트윈(digital twin)’ 역할을 한다. 온톨로지의 개념은 객체 지향 프로그래밍(OOP)과 매우 유사하다. 객체(object)는 클래스(class)에 해당한다. 온톨로지의 ‘항공기’ 객체 유형은 OOP의 Aircraft 클래스와 같다. 속성(property)은 속성(attribute)에 해당한다. ‘항공기’ 객체의 ‘꼬리 번호’ 속성은 Aircraft 클래스의 tailNumber 속성과 같다. 연결(link)은 객체 간의 관계(asSoCiation)에 해당한다. ‘조종사’가 ‘항공기’에 탑승한다는 연결은 Pilot 객체와 Aircraft 객체 간의 관계를 정의한다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-12-02
[포커스] 한국BIM학회, ‘지능형 건설의 부상’ 국제 심포지엄 성료… “전면 BIM 확대를 위한 정량화와 활성화 노력 필요”
한국BIM학회가 11월 14일 한국과학기술회관에서 ‘스마트를 넘어 : 지능형 건설의 부상(Beyond Smart : The Rise of Intelligent Construction)’을 주제로 ‘KIBIM 2025 국제 심포지엄’을 개최했다. 이번 심포지엄은 AI, 빅데이터, 디지털 트윈 등 첨단 기술이 융합된 지능형 건설의 현재와 미래 방향을 탐색하고, BIM(건설 정보 모델링)의 초기 단계 적용을 위한 정량적 효과 확보라는 핵심 과제를 논의하는 장이 되었다. ■ 최경화 국장      글로벌 전문가, 지능형 건설의 비전을 공유하다 한국BIM학회 추승연 회장은 “지속가능성, 안전, 생산성 문제를 해결하기 위한 통찰과 전략을 공유하는 뜻깊은 자리”가 될 것이라고 심포지엄의 의의를 밝혔다. 심포지엄에서는 글로벌 전문가의 기조연설이 이어졌다. 타이거 그룹(Tiger Group)의 수하일 알 라이에스 전무이사는 ‘두바이 메가 프로젝트를 위한 지능형 시스템’을, 구글의 버나드 크레스 XR 엔지니어링 디렉터는 ‘스마트 건설을 위한 스마트 안경 및 증강 현실 헤드셋’ 활용 방안을 공유하며 지능형 건설의 첨단 기술 적용 사례를 소개했다. 오토데스크코리아의 오찬주 대표는 ‘AECO(설계·엔지니어링·건설·운영) 산업을 위한 연결된 미래’라는 제목으로 AI와 클라우드 기반의 ‘성과 기반 BIM’을 강조했다.   공공 발주기관, BIM 활성화의 현실적 과제 제시 오후 세션에서는 주요 공공 발주기관 관계자들이 참석한 ‘공공 부문의 BIM 리더십’ 특별 세션에서 BIM 적용의 현실적 과제가 집중적으로 논의되었다. 한국공항공사 문순배 센터장은 공공발주기관의 BIM 적용 추진 현황에 대해 소개하고, 스마트건설 얼라이언스 BIM 발주기관 특별위원회에 대해 소개했다. 이 위원회는 국토교통부와 BIM센터(한국건설기술연구원)가 총괄 및 지원하며, 조달청을 포함하여 한국도로공사, 국가철도공단, 인천국제공항공사, 한국토지주택공사(LH), 한국수자원공사, 항만공사, 한국농어촌공사, 국토안전관리원 등 등 SoC 및 개발 분야의 주요 공공기관과 지방자치단체 등 BIM 발주를 담당하는 기관들이 참여하고 있다. 부장은 “발주기관이 BIM 시행방침을 마련하려 해도 정량적 효과가 없다는 지점에서 막히곤 했다”며, 근거 확보의 어려움으로 인한 담당자의 책임 문제를 지적했다. 국토교통부는 올해까지 1000억원 이상 도로·하천·항만·철도·건축 공사에 BIM 적용을 의무화했고, 2026년 500억원 이상, 2028년 300억원 이상, 2030년에는 300억원 미만 공공 공사까지 대상을 확대할 계획이다. 국토교통부가 2030년까지 공공 공사 BIM 적용 대상을 확대할 계획임에도 불구하고, 발주처에서는 BIM 활성화를 뒷받침할 정량적 근거 부족이 핵심 문제로 지적되었다. 협의회에서는 공통 과제를 도출하고, 성과 공유, 협력 체계 구축,  향후 5년간 BIM 발주 물량 통합 등 발전적인 방안을 만들어 나갈 계획이다. 국가철도공단 조성희 부장은 2026년을 예측하고 사고하는 철도의 원년으로 만들기 위한 철도 건설사업 전 주기 AI-BIM 융합 3대 핵심 과제에 대해 소개하고 설계, 시공 BIM 품질검증 자동화와 공정 리스크 예측 및 최적화, 현장 안전 디지털 트윈 구축 등을 해 나갈 것이라고 밝혔다.   AI 기반 기술과 BIM 거버넌스 구축의 중요성 강조 심포지엄의 다른 세션에서는 지능형 건설을 이끄는 다양한 기술과 전략이 소개되었다. ‘스마트 건설의 기반’ 세션에서는 한양대학교, 인하대학교, 연세대학교 등에서 AI 기반 시뮬레이션, 생성형 AI를 활용한 구조계산 자동화 기술 등 첨단 연구 사례를 발표했다. ‘건축 환경을 위한 AI 및 자동화’ 세션에서는 네이버랩스, BLUA, 대우건설 등이 데이터와 파이썬, AI를 활용한 BIM 데이터 검증 프레임워크 등을 소개하며 자동화의 가능성을 제시했다. ‘건설 분야 디지털 전환’ 세션에서는 옵티콘, 현대건설, 수성엔지니어링 등에서 효율적인 BIM 파이프라인 구축 사례 및 디지털 전환 시대 건설 산업의 역할에 대해 소개했다. 특히, 성균관대 진상윤 교수는 초기 단계에서부터 설계 전 과정에서 BIM을 제대로 활용하는 전면 BIM 설계의 중요성에 대해 강조하고, 가치 극대화를 위해서는 초기 설계 단계부터 대안 검토와 디자인 개발이 이루어져야 효과가 극대화될 수 있으며, 현재는 ‘fake BIM’ 현상과 과도기에 있다고 밝혔다. 또한 BIM이 게임 체인저의 역할을 하려면, BIM 거버넌스 구축, 설계 초기 단계부터 BIM 요구사항 명확화, 차별화된 서비스 기반 대가 산정이 이루어져야 할 것이라고 말했다.   ▲ KIBIM 2025 국제 심포지엄 참석자 및 한국BIM학회 주요 멤버 기념사진    심포지엄의 마지막 순서인 시상식에서는 BIM 기술의 연구와 개발, 산업 활성화에 기여한 공로자 및 기관에 대한 표창이 진행되었다. 공로상은 BIM 관련 정책 지원 및 진흥에 기여한 국토교통진흥원에 수여되었다. 학술상은 BIM 분야의 학문적 발전에 공헌한 성균관대학교 심성한 교수와 국립경상대학교 윤석헌 교수에게 돌아갔다. 기술상은 혁신적인 BIM 기술 개발 및 적용에 기여한 ▲국가철도공단 철도혁신연구원 ▲케이지엔지니어링 ▲선문 ▲이산 ▲에스엘즈 등 5개 기관이 수상했다. BIM을 활용한 우수한 건축 작품을 선보인 작품상은 ▲아키탑케이엘종합건축사사무소 ▲해안종합건축사사무소 등 2개 건축사사무소가 수상의 영예를 안았다. 한편, 이날 행사에는 한국BIM학회와 홍콩BIM학회의 MOU가 이루어졌다. 한국BIM학회는 BIM 및 스마트 건설 기술 발전을 위한 협력 프레임워크를 구축하기 위해 홍콩BIM학회와 MOU를 체결했으며, 주요 협력 분야는 BIM 및 스마트 건설 분야 전반에 걸쳐 교육, 연구, 개발, 그리고 정책 지원 등이 포함될 것으로 보인다.   ▲ 한국BIM학회와 홍콩BIM학회의 MOU      ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-12-02
로크웰 오토메이션, 산업 사이버 보안 통합 설루션 ‘시큐어OT’ 출시
로크웰 오토메이션은 산업용 통합 사이버 보안 서비스를 제공하는 시큐어OT(SecureOT) 설루션 제품군을 출시한다고 발표했다. 시큐어OT는 급증하는 운영 기술(OT) 시스템에 대한 사이버 위협에 대응, 제조업체와 주요 인프라의 시스템 보호 및 안전한 환경 구축을 지원하기 위해 설계됐다. 현대 산업 환경에 맞춘 기술력과 전문성을 통해 엔드 투 엔드 보안을 제공하는 점을 특징으로 한다. 아울러 NIST CSF, NIS2, IEC 62443 등 다양한 국제 표준을 준수한다. 로크웰 오토메이션은 이를 통해 기존 보안 시스템의 한계를 보완하고, 산업 OT 환경 전반의 보안 역량을 향상시킬 것으로 기대하고 있다. 시큐어OT는 로크웰 오토메이션이 설계한 시큐어OT 플랫폼과 전문 서비스, 관리형 보안 서비스를 종합적으로 제공한다. 우선 시큐어OT 플랫폼은 다양한 공급업체 생태계 전반의 실시간 자산 가시성, 위험 우선순위 지정, 취약점 관리 등을 지원한다. 전문 서비스는 조직의 보안 태세 강화를 위한 전략적 권고, 평가, 구현 지원 등으로 구성됐다. 관리형 보안 서비스는 로크웰 오토메이션의 전용 OT 보안 운영 센터(SoC)와 네트워크 운영 센터(NOC)의 24시간 연중무휴 모니터링 및 사고 대응 등을 서비스한다. 한편, 로크웰 오토메이션은 시큐어OT를 통해 석유·가스, 음료 제조, 에너지, 전력 등 복잡하고 규제가 엄격한 산업 분야 기업들의 사이버 보안 역량 강화 지원에 나서고 있다. 로크웰 오토메이션의 매튜 포든월트(Matthew Fordenwalt) 라이프사이클 서비스 담당 수석 부사장은 “산업 운영에 대한 사이버 위협이 빠르게 진화하는 환경에서 시큐어OT는 산업 조직의 사이버 보안 접근 방식에 대한 전략적 전환점이 될 것”이라며, “로크웰 오토메이션은 다양한 산업에 대한 깊은 전문성, OT 특화 기술 및 서비스를 결합해 고객들이 보안 위협에 선제 대응하고 안전한 운영을 지속할 수 있도록 지원할 것”이라고 밝혔다.
작성일 : 2025-11-13
IBM, AI 가속기 ‘스파이어 엑셀러레이터’ 정식 출시
IBM은 자사의 메인프레임 시스템 IBM z17 및 IBM 리눅스원 5(IBM LinuxONE 5)에 적용 가능한 인공지능(AI) 가속기 ‘스파이어 엑셀러레이터(Spyre Accelerator)’를 정식 출시한다고 밝혔다. 스파이어 엑셀러레이터는 생성형 및 에이전트 기반 AI 업무를 지원하는 빠른 추론 기능을 제공하며, 핵심 업무의 보안과 복원력을 최우선으로 고려해 설계되었다. 12월 초부터는 파워11(Power11) 서버용 제품도 제공될 예정이다. 오늘날 IT 환경은 기존의 논리 기반 업무 흐름에서 에이전트 기반 AI 추론 중심으로 전환되고 있으며, AI 에이전트는 저지연(low-latency) 추론과 실시간 시스템 반응성을 요구한다. 기업은 처리량의 저하없이 가장 까다로운 엔터프라이즈 업무와 AI 모델을 동시에 처리할 수 있는 메인프레임과 서버 인프라를 필요로 한다. IBM은 이러한 수요에 대응하기 위해서 생성형 및 에이전트 기반 AI를 지원하면서도 핵심 데이터, 거래, 애플리케이션의 보안과 복원력을 유지할 수 있는 AI 추론 전용 하드웨어가 필수적이라고 판단했다. 스파이어 엑셀러레이터는 기업이 중요한 데이터를 사내 시스템(온프레미스, on-premise) 내에서 안전하게 관리할 수 있도록 설계되었으며, 운영 효율성과 에너지 절감 효과도 함께 제공한다.     스파이어 엑셀러레이터는 IBM 리서치 AI 하드웨어 센터의 혁신 기술과 IBM 인프라 사업부의 개발 역량이 결합된 결과물이다. 시제품으로 개발된 이후 IBM 요크타운 하이츠 연구소의 클러스터 구축과 올버니대학교 산하 ‘신흥 인공지능 시스템 센터(Center for Emerging Artificial Intelligence Systems)’와의 협업을 통해 빠른 반복 개발 과정을 거쳐 완성도를 높였다. 이렇게 기술적 완성도를 높여 온 시제품 칩은 현재는 IBM Z, 리눅스원, 파워 시스템에 적용 가능한 기업용 제품으로 진화했다. 현재 스파이어 엑셀러레이터는 32개의 개별 가속 코어와 256억 개의 트랜지스터를 탑재한 상용 시스템온칩(SoC, system-on-a-chip) 형태로 완성되었다. 5나노미터 공정 기술을 기반으로 제작된 각 제품은 75와트(Watt) PCIe 카드에 장착되며, IBM Z 및 리눅스원 시스템에는 최대 48개, IBM 파워 시스템에는 최대 16개까지 클러스터 구성이 가능하다. IBM 고객들은 스파이어 엑셀러레이터를 통해 빠르고 안전한 처리 성능과 사내 시스템 기반의 AI 가속 기능을 활용할 수 있다. 이는 기업이 IBM Z, 리눅스원, 파워 시스템 상에서 데이터를 안전하게 유지하면서도 AI를 대규모로 적용할 수 있게 되었음을 의미한다. 특히, IBM Z 및 리눅스원 시스템에서는 텔럼 II(Telum II) 프로세서와 함께 사용되어 보안성, 저지연성, 높은 거래 처리 성능을 제공한다. 이를 통해 고도화된 사기 탐지, 유통 자동화 등 예측 기반 업무에 다중 AI 모델을 적용할 수 있다. IBM 파워 기반 서버에서는 AI 서비스 카탈로그를 통해 기업 업무 흐름에 맞춘 종합적인 AI 활용이 가능하다. 고객은 해당 서비스를 한 번의 클릭으로 설치할 수 있으며, 온칩 가속기(MMA)와 결합된 파워용 스파이어 엑셀러레이터는 생성형 AI를 위한 데이터 변환을 가속화해 심층적인 프로세스 통합을 위한 높은 처리량을 제공한다. 또한 128개 토큰 길이의 프롬프트 입력을 지원하며, 이를 통해 시간당 800만 건 이상의 대규모 문서를 지식 베이스에 통합할 수 있다. 이러한 성능은 IBM의 소프트웨어 스택, 보안성, 확장성, 에너지 효율성과 결합되어, 기업이 생성형 AI 프레임워크를 기존 업무에 통합해 나가는 여정을 효과적으로 지원한다. IBM 인프라 사업부 최고운영책임자(COO)이자 시스템즈 사업부 총괄 배리 베이커(Barry Baker) 사장은 “스파이어 엑셀러레이터를 통해 IBM 시스템은 생성형 및 에이전트 기반 AI를 포함한 다중 모델 AI를 지원할 수 있는 역량을 갖추게 됐다. 이 기술 혁신은 고객이 AI 기반 핵심 업무를 보안성과 복원력, 효율성을 저해하지 않고 확장할 수 있도록 돕는 동시에, 기업 데이터의 가치를 효과적으로 끌어낼 수 있도록 지원한다”고 말했다. IBM 반도체 및 하이브리드 클라우드 부문 무케시 카레(Mukesh Khare) 부사장은 “IBM은 2019년 AI 리서치 하드웨어 센터를 설립해, 생성형 AI와 대규모 언어 모델(LLM)이 본격적으로 확산되기 이전부터 AI의 연산 수요 증가에 대응해 왔다. 최근 고도화된 AI 역량에 대한 수요가 높아지는 가운데, 해당 센터에서 개발된 첫 번째 칩이 상용화 단계에 진입해 자랑스럽다”면서, “이번 스파이어 칩의 정식 출시로 IBM 메인프레임 및 서버 고객에게 향상된 성능과 생산성을 제공할 수 있게 되었다”고 설명했다.
작성일 : 2025-10-28