• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 " GPT-5"에 대한 통합 검색 내용이 110개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
HP Z북 울트라 G1a 리뷰 : AI 엔지니어가 살펴본 모바일 워크스테이션의 새로운 기준
HP Z북 울트라 G1a는 고성능 AI 작업과 3D 제작을 동시에 염두에 둔 14인치 모바일 워크스테이션이다. 이 글에서는 필자가 실제로 자주 사용하는 AI 리서처와 3D 제작 작업 시나리오를 바탕으로, 기존에 사용해 온 게이밍 노트북과 비교하면서 HP Z북 울트라 G1a의 장단점을 조명해보고자 한다.   HP Z북 울트라 G1a(ZBook Ultra G1a)는 프로세서 성능과 메모리 용량에 명확하게 집중한 구성을 취함으로써, 기존의 노트북 선택 방법과는 다른 노선을 제시한다. 일반적으로 노트북을 선택할 때 대부분의 사용자는 성능, 휴대성, 가격, 배터리 지속 시간, 확장성 등 여러 요소를 종합적으로 고려한다. 그러나 특정 작업 환경에서는 이러한 균형 중심의 접근이 오히려 비효율로 작용하기도 한다. 대용량 데이터 전처리, 로컬 AI 추론, 3D 콘텐츠 제작과 같이 CPU와 메모리 자원 의존도가 높은 워크로드에서는, 그래픽 성능이나 휴대성보다 연산 자원과 메모리 용량이 작업 효율을 결정짓는 핵심 요소가 되기 때문이다. HP Z북 울트라 G1a는 바로 이러한 관점에서 색다른 접근법을 채택한 기기라고 볼 수 있다. AMD의 라이젠 AI 맥스+ 프로 395(Ryzen AI Max+ PRO 395) 프로세서를 탑재해 128GB에 달하는 대용량 메모리를 제공하는 반면, 그래픽 카드는 외장 GPU가 아닌 내장 그래픽으로 구성된 14인치 노트북이다. 이처럼 극명하게 갈린 사양 구성은 과연 AI 개발과 3D 콘텐츠 제작이라는 두 가지 작업을 모두 감당할 수 있는 선택지일까?   제품 개요 워크스테이션은 일반적으로 크고 무거운 데스크톱 형태로, ‘들고 다니는 기기’와는 거리가 멀다는 인식이 강하다. 그러나 HP Z북 울트라 G1a는 이러한 고정관념을 벗어나, 14인치 폼팩터 안에 워크스테이션급 성능을 담아냈다. 앞서 언급했듯 이 제품은 AMD 라이젠 AI 맥스+ 프로 395 프로세서와 라데온 8060S(Radeon 8060S) 그래픽을 기반으로 설계되었으며, 최대 128GB LPDDR5x 메모리와 대용량 NVMe SSD를 탑재했다. 정량적인 하드웨어 스펙상 무게는 약 1.57~1.59kg으로, 여타 게이밍 노트북과 비교해도 크게 무겁지 않은 수준이다. 실제로 가방에 넣어 휴대했을 때도 다른 노트북에 비해 체감 무게가 과하게 느껴지지는 않았다. 기기 양쪽에는 USB-C 타입 포트 2개(충전 포트 포함)를 비롯해 HDMI, USB-A 타입 단자, 3.5mm 이어폰 단자가 배치되어 있어, 워크스테이션으로서 요구되는 기본적인 확장성도 충분히 갖추고 있다.   디자인 본격적인 사용기에 앞서 디자인을 살펴보자. 보기 좋은 떡이 먹기도 좋다는 말도 있듯이, 매일 사용하는 기기는 사용자의 마음에 들 정도로는 아름다워야 한다. HP Z북 울트라 G1a의 디자인은 간결하고 군더더기 없었다. 특히, 전반적인 제품의 마감 품질이 높다는 것이 느껴졌다. 처음 노트북이 닫힌 상태에서 보았을 때는 매끄럽고 둥근 디자인의 겉모습이 단정하다는 느낌이 들고, 화면을 열어 전원을 켰을 때에는 베젤이 얇고 깔끔하여 프로페셔널하다는 인상을 준다. 디자인에서 가장 좋았던 점은 키보드이다. 처음에는 짙은 회색의 평범한 플라스틱 소재로 느껴졌지만, 사용하다 보니 키보드의 키감이 좋을 뿐만 아니라 이물질이 잘 묻지 않는 코팅으로 되어 있어 사용 시 편리했다. 외부 작업 중 노트북을 열었을 때, 손때 묻은 키보드를 다른 사람에게 드러내는 것이 걱정인 사람이라면 이 노트북의 키보드 마감이 더욱 마음에 들 것이라 생각한다. 또한 카메라에는 오픈·클로즈 방식의 물리적 커버가 적용되어, 노트북 내장 웹캠을 사용하지 않을 때는 완전히 가릴 수 있다. 사소해 보일 수 있지만, 사용자를 고려한 세심한 설계라는 점에서 인상 깊은 부분이었다.   그림 1. 노트북 전면. 디자인이 깔끔하고 단정하여 외부 미팅에도 무난하게 사용할 수 있었다.   AI 및 데이터 전처리 워크로드 이제 AI 엔지니어의 관점에서 이 제품을 살펴보자. AI 제품 개발 과정에서 절실하게 체감하는 주요 요소 중 하나는 CPU 메모리의 여유이다. 모델 학습은 클라우드 GPU나 서버 자원을 활용하는 경우가 많아졌지만, 탐색적 데이터 분석, 실험을 위한 데이터 전처리는 대부분 로컬 환경에서 수행해야 하기 때문이다. 따라서 CPU 성능과 GPU 성능 둘 중 하나를 선택해야 한다면, 많은 사람들의 예상과 달리 GPU보다는 CPU를 선택하는 것이 합리적이다. CPU 메모리가 여유가 있다면 데이터셋을 실험 가능한 요건에 맞춰 수정 및 조정하는 것이 조금 더 편리해질 뿐만 아니라, 데이터셋 전처리와 동시에 다른 작업이 가능하기 때문이다. HP Z북 울트라 G1a의 128GB 메모리와 라이젠 AI 맥스+ 프로 395의 조합은 대용량 데이터 전처리와 모델 로딩 과정에서 매우 안정적인 모습을 보였다. 텍스트·이미지 데이터 전처리 작업에서 메모리 부족 현상은 거의 발생하지 않았으며, 기존에 사용하던 게이밍 노트북(32GB RAM, RTX 4060 기준) 대비 체감상 약 절반 수준의 시간으로 작업을 마칠 수 있었다. 이는 대규모 로컬 데이터셋을 다루는 리서처에게 매우 중요한 요소다. AI 허브나 대학·연구기관에서 제공하는 공공 데이터셋의 경우 단일 데이터셋만으로도 수백 GB를 훌쩍 넘기는 경우가 많고, 이를 포맷에 맞게 전처리하는 데 상당한 시간이 소요되기 때문이다. HP Z북 울트라 G1a는 메모리의 양이 크기 때문에, 작업 중간 중간에 메모리 부족으로 인해 컴퓨터가 멈추거나 작업 수행 완료를 위해 컴퓨터를 손 놓고 기다리는 일 없이 여유롭게 전처리를 수행할 수 있었다. 몇 가지 사례를 들어보면, 첫째 <그림 2>와 같이 데이터의 압축 해제, 복사와 같은 간단한 작업에서 매우 빠른 처리 속도를 보여주었다. 데이터 전처리 성능을 실험하기 위해 활용한 ‘음식 분류’ 데이터셋의 경우, 각 클래스마다 1천 개의 고화질 사진이 저장되어 있어 전체 용량이 1TB에 육박하는 매우 큰 데이터셋이다. 그러나 HP Z북 울트라 G1a에서는 30GB 용량의 데이터를 압축 해제하는 데 8분밖에 소요되지 않았고, 일관적으로 140MB/s 전후의 속도를 유지하였다. 이는 HP Z북 울트라 G1a의 메모리 대역폭 확대, 멀티채널 구성 안정성 증가가 큰 영향을 미쳤기 때문으로 생각할 수 있다. 일반적인 환경에서는 압축 해제 단계에서 CPU 처리 속도가 병목으로 작용하여, 저장장치가 충분한 성능을 갖추고 있음에도 불구하고 연속적인 읽기·쓰기 작업이 지연되는 현상이 발생하기도 한다.   그림 2. 대용량 데이터의 전처리에도 빠른 속도를 유지하였고, 프로그램 운용에 여유가 있었다.   반면, HP Z북 울트라 G1a에서는 향상된 프로세서 구조와 메모리 서브시스템을 통해 병목이 제거되었으며, 그 결과 압축 해제와 동시에 디스크 I/O가 지속적으로 최대 대역폭에 가깝게 활용될 수 있었다. 이로 인해 사용자 관점에서는 압축 해제뿐 아니라 파일 복사 속도까지 향상된 것처럼 느껴져 직접적으로 작업 효율 향상이 체감되었다. 기존의 게이밍 노트북이 동일한 작업을 수행하는데 평균 60MB/s의 속도로 약 12분 정도가 소요된 것을 고려하면, 이 작업이 전체 데이터셋에 적용될 때 얼마만큼의 작업 시간을 아낄 수 있을 지 기대해 볼 만하다. 둘째, 파이썬 코드를 활용한 데이터 전처리에서도 높은 성능 개선을 보여주었다. CSV 파일을 활용하여 3D 복셀 데이터를 만드는 작업을 수행하는 코드를 기준으로 실험해보았다. 이는 앞에서와 동일하게 CPU·메모리에 집중된 작업을 할 때의 효율을 검사하기 위한 실험으로, 동일한 SVC 파일을 대상으로 데이터의 시각화를 수행하였을 때를 비교한 것이다. 결과적으로, HP Z북 울트라 G1a는 평균적으로 75FPS(초당 프레임)를 유지하였고, 시각화된 데이터를 360도 회전시켜 확인하는 데에 큰 문제가 없었다. 반면, 기준이 된 다른 기기는 평균 42FPS를 유지하고, 시각화된 데이터를 360도로 회전시켜 확인하는 데 약간의 로딩이 필요했다. 특히, 시각화 결과물을 회전하는 과정에서 약간의 버벅임과 끊김이 발생하여 데이터를 세부적으로 확인할 때 약간의 어려움이 따랐다. 기준 기기 또한 일반적인 사무용 노트북을 기준으로 보았을 때보다는 훨씬 빠르고 원활한 데이터 전처리 성능을 보여주었으나, HP Z북 울트라 G1a는 전처리뿐 아니라 시각화 데이터 인터랙션에서도 안정적으로 동작함으로써 실시간에 가까운 시각화 환경을 제공했다는 점에서 차별화된 사용 경험을 제공하였다.   그림 3. 3D 복셀화에 소요된 시간과 프레임률을 tqdm으로 측정한 결과. 동일한 작업을 수행하는 데 HP Z북 울트라는 75FPS, 기준 기기(HX370 CPU, 32RAM)는 42FPS의 성능을 보여주었다.   로컬 AI 추론 로컬 AI 추론 작업에서도 HP Z북 울트라 G1a는 충분히 인상적인 성능을 보여주었다. 로컬 AI 세팅에는 올라마(Ollama)를 사용하였다. 올라마는 다양한 오픈소스 LLM을 간편히 사용할 수 있게 하는 프로그램으로 윈도우, 맥, 리눅스 등 다양한 환경을 지원하며 CLI 및 GUI 환경을 모두 지원하여 확장성이 좋다. 또한, 로컬에서 REST API 형태로 모델을 노출할 수 있어 파이썬(Python), 노드.js(Node.js), 자바(JAVA(Spring)), 랭체인(LangChain) 등과 연동이 용이하며, 프로토타입 서비스 제작 및 온디바이스 AI, 사내 전용 LLM 구축을 위해 다양하게 쓰인다. 필자는 윈도우에서 GUI 기반의 올라마 클라이언트를 설치하여 로컬 AI 추론을 수행하였으며, 엔비디아 그래픽 카드 드라이버(CUDA 포함)를 설치하지 않고 올라마를 구동하였다. 이 지점에서 HP Z북 울트라 G1a의 프로세서의 특장점이 드러난다. 바로 SoC(System on a Chip) 설계를 통해 프로세서 자체에서 CPU·GPU·NPU를 통합하여 활용한다는 것이다. 따라서 이 워크스테이션을 사용하는 사람은 일반적으로 말하는 CPU-Only와 같이 GPU 드라이버를 따로 설치하지 않더라도, AI 추론 및 훈련을 수행할 때 GPU·NPU를 사용하는 것과 같은 효과를 체감할 수 있다.   그림 4. 올라마의 공식 홈페이지. 윈도우, 맥, 리눅스 등 다양한 OS를 지원하며 오픈소스로 활용 가능한 LLM 모델의 가중치를 제공하여 로컬 추론을 가능하게 하는 프로그램이다.   올라마를 활용해 중·대형 언어 모델(gpt-oss:120B)과 소형 언어 모델(qwen3:8B)을 각각 다운로드한 뒤, 동일한 조건에서 추론 시간을 비교해 보았다. 결과는 예상 이상이었다. 중·대형 언어 모델의 추론에는 (약간의 쿨링 소음이 발생하였지만) 약 10초가 소요되었고, 소형 언어 모델 역시 약 13초 내외로 추론을 마쳤다. 비교 대상으로 사용한 다른 노트북에서는 중·대형 모델이 추론 도중 오류를 일으켰고, 소형 모델조차 358초가 걸렸던 점을 감안하면 상당한 차이다. ‘메모리 용량 차이가 얼마나 크겠어’라고 생각한 필자의 판단을 무색하게 만들 정도로, 128GB 메모리와 라이젠 AI 맥스+ 프로 395의 조합은 로컬 AI 추론 환경에서 분명한 강점으로 작용했다. 이러한 특성은 AI 개발자에게만 국한된 장점은 아니다. 성능이 검증된 오픈소스 언어 모델을 노트북에 직접 탑재해 휴대할 수 있다는 것은, 인터넷 연결이 원활하지 않은 환경에서도 개인화된 AI 비서를 여러 개 운용하며 작업을 이어갈 수 있음을 의미한다. 로컬 환경에서의 AI 활용 가능성을 실질적인 수준으로 끌어올렸다는 점에서, HP Z북 울트라 G1a의 방향성과 장점이 명확히 드러나는 지점이었다.   그림 5. qwen3:8b로 로컬 추론을 수행한 결과   그림 6. gpt-oss:120b로 로컬 추론을 수행한 결과   3D 작업 워크플로 다음은 3D 작업 워크플로로 넘어가 보자. 필자가 주로 사용하는 캐릭터 크리에이터(Character Creator), 지브러시(Zbrush) 등을 통하여 내장 그래픽만을 가지고 있음에도 ‘충분히 작업이 가능한가?’라는 요소를 살펴보고, 다음으로는 고화질을 요구하는 3D 게임을 실행시켜 성능을 테스트해 보았다. 먼저, 리얼루션(Reallusion)의 캐릭터 크리에이터 5 소프트웨어를 설치하여 작업 가능 여부를 확인해 보았다. 이 소프트웨어는 사실적 묘사를 담은 메타 휴먼을 만들기 위한 소프트웨어이다. 얼굴, 체형, 옷 및 장신구 같은 다양한 요소를 조합하는 자유도가 높고, 피부 결이나 머리카락 같은 요소까지 섬세하게 구현해야 하기 때문에 일반적인 게이밍 노트북에서도 원활한 작업이 어려운 소프트웨어 중 하나이다. 실제로, 필자가 보유한 게이밍 노트북 기기에서는 동일한 작업을 수행하며 컴퓨터가 다운되는 경우가 종종 있었고, 새로운 스킨으로 교체하거나 요소를 변형할 때 1 ~ 5분 정도의 로딩 타임을 요구했다.   그림 7. 캐릭터 크리에이터로 작업하는 모습   그러나, HP Z북 울트라 G1a에서는 로딩 시간이 1 ~ 3분 이하로 줄어드는 모습을 보여주었을 뿐만 아니라, 컴퓨터가 다운되는 경우도 발생하지 않아 상당히 쾌적하게 작업을 진행할 수 있었다. 물론 다루는 데이터의 크기 자체가 큰 만큼 약간의 로딩 시간은 피해갈 수 없었으나, 대부분 1분 이내의 로딩으로 작업이 완료되어 작업 완료를 기다리는 시간이 줄어들었다. 다음으로는 지브러시를 통해 추가 검증을 진행하였다. 지브러시의 경우 매끄러운 표면을 위해 의도적으로 폴리곤을 많이 나누면서 메모리 부하가 발생하는 경우가 많은데, <그림 8>과 같이 복잡한 인간형 모델링, 특히 상업적으로 판매 가능한 정도의 모델링을 테스트하였음에도 데이터의 로드 및 조형에 시간이 소요되지 않고 바로 진행할 수 있는 정도의 원활함을 보여주었다.   그림 8. 매끄러운 곡선으로 폴리곤의 수가 많아지더라도 원활히 처리하는 모습을 볼 수 있다.   마지막으로, 3D 게임을 통해 성능을 확인하였다. 대상이 된 게임은 ‘호그와트 레거시’로, 언리얼 엔진으로 만들어졌으며 비교적 실사화 스타일의 그래픽, 다양한 파티클 사용으로 고난도의 그래픽 컨트롤을 요구하는 게임이다. 게임에서는 플레이를 진행하며 기기의 사양을 자동으로 측정하여 적절한 그래픽 옵션을 정해주는데, 이 기기는 자동으로 중간 단계의 그래픽 옵션으로 세팅되는 것을 확인하였다.   그림 9. 기기 옵션을 자동으로 분석하여 적절한 수준의 그래픽 구현. 이 기기는 중간 옵션을 배정받았다.   물론 기존의 작업에 비해 3D 게임을 진행할 때는 기기의 쿨링팬 소음이 두드러지게 들리는 편이었다. 앞서 수행한 작업에서는 쿨링이 필요하지 않거나, 쿨링이 필요하더라도 비교적 짧고 조용하게 한 번의 ‘쏴아아’하는 소리가 들렸다면, 3D 게임을 실행 중일 때는 지속적인 쿨링 소음이 발생하였기 때문이다. 그러나, 여기에서도 HP Z북 울트라 G1a의 탁월한 점을 발견할 수 있었다. 그것은 바로 ‘소음이 발생하는 만큼 쿨링이 잘 되고 있다’는 점이다. 랩톱을 주로 사용하는 사용자는 공감하겠지만, 일부 랩톱의 경우 쿨링 소음이 큰데도 불구하고 쿨링이 제대로 되지 않아 기기 아래쪽의 키보드 부분이 상당히 뜨거워지는 경우가 잦다. 그러나 이 기기는 소음이 크더라도 쿨링이 확실히 진행되고 있었고, 피부에 장시간 접촉시킬 수 있을 정도의 발열만 있었다. 아울러, 게임 내의 실사화 그래픽은 모두 끊기는 부분 없이 자연스럽게 재생되었고, 게임 진행에 이상이 없이 원활히 진행되었다.   그림 10. 그림 내 실사화 시나리오 중 그래픽 재현성이 좋은 부분의 캡처. 왼쪽의 바다 물결 표현, 전면의 포그 표현 등이 끊기지 않고 자연스럽게 재생되었다.   맺음말 HP Z북 울트라 G1a는 AI 리서처와 3D 제작 작업을 병행하는 사용자에게 모바일 워크스테이션으로서 분명한 가치를 지닌 기기다. 이 제품의 구성은 모든 요소를 고르게 끌어올리기보다는, 프로세서와 메모리 성능에 명확하게 힘을 준 제품이다. 이에 사용 목적이 분명한 사용자에게 강점으로 작용한다. AI 전처리, 로컬 추론, 3D 제작 작업과 같이 CPU·메모리 의존도가 높은 워크로드에서는 이러한 설계 방향이 체감 성능으로 직결되기 때문이다. 그런 의미에서 HP Z북 울트라 G1a는 특히 다음과 같은 사용자에게 추천하고 싶다. 첫째, 대용량 데이터 전처리가 일상적인 AI 엔지니어, 둘째, 3D 콘텐츠 제작 과정에서 초안과 검증 단계의 결과물을 빠르게 만들어야 하는 사용자, 셋째, 이 모든 작업을 데스크톱이나 서버에 의존하지 않고 모바일 환경에서도 이어가야 하는 사용자다. HP Z북 울트라 G1a를 사용하는 사용자라면, 적어도 서버급 연산을 요구하는 극단적인 작업을 제외하고는 대부분의 실무 환경에서 성능으로 인한 제약을 체감할 일은 드물 것이다. 견적 상담 문의하기 >> https://www.hp.com/kr-ko/shop/hp-workstation-amd-app   ■ 박정은 AI 융합 분야 연구자이자 엔지니어로, 컴퓨터 비전, 게임 엔진, 머신러닝, 딥러닝 기반 실무를 수행하며 대용량 AI 데이터 전처리와 AI 실험 파이프라인을 설계·운용해왔다. 필적, 운동학, 감정 인식 중심의 AI 프로덕트 R&D를 수행하며, 모바일 워크스테이션 환경에서 CPU·GPU 자원을 밀도 있게 활용하는 실험 구조를 활용하였다. 산업 연계 교육 현장에서 연구와 실무를 연결하는 엔지니어이자 교육자로 활동하고 있다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2026-02-04
알리바바, 최신 추론 모델 ‘큐원3-맥스-싱킹’ 공개
알리바바그룹이 최신 추론 모델인 ‘큐원3-맥스-싱킹(Qwen3-Max-Thinking)’을 공개했다. 이 모델은 강화학습(Reinforcement Learning)을 위해 1조 개 이상의 파라미터로 모델 규모를 대폭 확장했으며, 이를 통해 사실적 지식 처리, 복합 추론, 지시 수행, 인간 선호도 정렬, 에이전트 기능 등 여러 핵심 영역에서 성능 향상을 달성했다. 알리바바에 따르면 큐원3-맥스-싱킹은 총 19개 주요 벤치마크 평가에서 클로드 오푸스 4.5(Claude Opus 4.5), 제미나이 3 프로(Gemini 3 Pro), GPT-5.2-Thinking-xhigh 등 최신 고성능 모델과 비교해 경쟁력 있는 성능을 보였다. 과학·수학·코딩 문제 해결은 물론 검색 도구를 활용해 다양한 분야의 전문가급 질문을 해결하는 평가 항목에서도 높은 수준의 결과를 보였다.     큐원3-맥스-싱킹의 이런 성능은 두 가지 핵심 기술 혁신에서 비롯된다. 첫째는 적응형 도구 활용(Adaptive Tool-use) 기능으로, 모델이 상황에 따라 정보를 검색하고 내장된 코드 인터프리터를 필요 시 자동으로 호출해 활용함으로써, 사용자가 도구를 직접 선택하지 않아도 보다 효율적인 문제 해결이 가능하도록 설계됐다. 둘째는 고도화된 테스트 단계 확장(Test-time Scaling) 기법으로, 이를 통해 추론 성능을 향상시키고 주요 추론 벤치마크에서 다른 고성능 모델에 뒤지지 않는 수준의 결과를 기록했다. 기존에는 작업마다 사용자가 도구를 직접 선택해야 했던 반면, 큐원3-맥스-싱킹은 대화 중 검색(search), 메모리(memory), 코드 인터프리터(code interpreter)를 동적으로 선택·활용한다. 이러한 기능은 도구 활용을 위한 초기 미세 조정(fine-tuning) 이후, 규칙 기반(rule-based) 및 모델 기반(model-based) 피드백을 결합한 다양한 과제 학습을 통해 구현됐다. 특히 검색 및 메모리 기능은 환각(hallucination)을 줄이고 실시간 정보 접근성을 높이며, 사용자의 개인적인 필요에 맞춘 응답 생성을 가능하게 한다. 또한 코드 인터프리터는 코드 실행이나 계산 기반 추론이 필요한 복잡한 문제를 보다 효율적으로 해결할 수 있도록 지원한다. 알리바바는 여기에 더해 경험 누적형 다회차 테스트 단계 확장(experience-cumulative, multi-round test-time scaling) 전략을 도입했다. 이 방식은 이전 상호작용에서 도출된 핵심 정보를 정제·활용함으로써, 이미 알려진 결론을 반복적으로 재추론하지 않고 남아 있는 불확실성 해결에 집중하도록 설계됐다. 이를 통해 단순히 대화 기록을 그대로 참조하는 방식보다 문맥 효율(context efficiency)을 높였으며, 유사한 토큰 비용으로 기존 표준 방식인 병렬 샘플링 및 집계(parallel sampling plus aggregation) 대비 지속적으로 높은 성능을 기록했다. 큐원3-맥스-싱킹은 현재 큐원 챗(Qwen Chat)을 통해 제공되고 있으며, 모델 API는 알리바바의 생성형 AI 개발 플랫폼 ‘모델 스튜디오(Model Studio)’에서 이용할 수 있다.
작성일 : 2026-01-28
마이크로소프트, 차세대 AI 추론 가속기 ‘마이아 200’ 공개
마이크로소프트가 대규모 AI 토큰 생성의 경제성을 개선하기 위해 설계된 추론 가속기 ‘마이아 200(Maia 200)’을 공개했다. 마이아 200은 마이크로소프트 애저(Azure) 환경에서 AI 모델을 더욱 빠르고 경제적으로 구동할 수 있도록 지원하며 차세대 AI 인프라의 핵심 역할을 수행할 예정이다. 마이아 200은 TSMC의 3나노미터(nm) 공정을 기반으로 고성능 AI 추론에 최적화된 구조를 갖췄다. 특히 초당 7TB 대역폭의 216GB HBM3e 메모리 시스템과 네이티브 FP8/FP4 텐서 코어, 그리고 데이터 이동 엔진을 유기적으로 결합해 거대 모델에 최적화된 추론 성능을 제공하는 것이 특징이다. 마이아 200은 1400억 개 이상의 트랜지스터를 탑재해 대규모 AI 워크로드에 특화된 설계를 갖췄다. 750W SoC TDP(설계 전력) 범위 내에서 각 칩은 FP4 기준 10 PFLOPS 초과, FP8 기준 5 PFLOPS 초과 성능을 제공한다. 이러한 연산 성능은 대규모 모델 구동을 원활히 지원하며, 향후 등장할 차세대 모델까지 대응 가능한 수준의 성능 여유를 확보한다. 또한 데이터 공급 병목 현상 해결을 위해 메모리 하위 시스템을 전면 재설계해 토큰 처리량을 최적화했다.     이러한 성능은 대규모 클러스터 환경에서도 일관되게 구현된다. 마이크로소프트는 표준 이더넷 기반의 새로운 2계층 스케일업 네트워크를 도입했으며, 맞춤형 전송 계층과 통합 NIC를 통해 독점적인 패브릭 없이도 성능과 신뢰성, 비용 이점을 확보했다. 각 가속기는 초당 2.8TB의 양방향 전용 스케일업 대역폭을 지원하며, 이는 최대 6144개의 가속기를 연결하는 대규모 클러스터 전체에서 일관된 성능을 유지하고 애저 인프라의 전력 소모와 전체 소유 비용(TCO)을 절감하는 기반이 된다. 시스템 효율은 개별 단위인 트레이와 랙 수준의 정밀한 연결 구조를 통해 구현된다. 하나의 트레이 내부에 탑재된 4개의 가속기를 직접 연결해 내부 통신 효율을 높였으며, 동일한 통신 프로토콜을 사용해 랙 단위까지 원활하게 확장할 수 있도록 설계했다. 이러한 통합 네트워킹 환경은 프로그래밍을 단순화하고 워크로드의 유연성을 높여 시스템 운영 효율을 강화한다. 마이크로소프트는 “실제 연산 성능에서 마이아 200은 4비트 정밀도(FP4) 기준 3세대 아마존 트레이니움(Amazon Trainium) 대비 3배 높은 처리량을 기록했으며, 8비트 정밀도(FP8)에서도 구글의 7세대 TPU를 상회한다”고 소개했다. 마이크로소프트는 이러한 기술력을 바탕으로 자사 인벤토리 내 최신 하드웨어 대비 달러당 성능을 30% 개선하며 효율적인 추론 시스템을 구축했다. 마이크로소프트의 이기종AI 인프라에서 핵심 역할을 수행할 마이아 200은 오픈AI의 최신 GPT-5.2 모델을 비롯한 다양한 모델을 지원한다. 이로써 마이크로소프트 파운드리(Microsoft Foundry)와 마이크로소프트 365 코파일럿(Microsoft 365 Copilot)의 가격 대비 성능 효율을 제공한다. 마이크로소프트 슈퍼인텔리전스 팀은 차세대 사내 모델 개선을 위한 합성 데이터 생성 및 강화 학습에 마이아 200을 투입할 계획이다. 이 칩은 고품질 도메인 특정 데이터의 생성 및 필터링 속도를 가속화해 후속 학습에 정교한 신호를 공급하는 중추 역할을 맡게 된다. 마이아 200은 아이오와주 디모인(Des Moines) 인근 미국 중부(US Central) 데이터 센터 지역을 시작으로 배포가 진행된다. 향후 애리조나주 피닉스(Phoenix) 인근 US West 3 지역 등으로 확대될 예정이다. 마이크로소프트 실리콘 개발 프로그램은 칩 출시 전 시스템 전반을 검증하는 엔드 투 엔드 방식을 원칙으로 한다. 설계 초기부터 LLM의 연산 및 통신 패턴을 모델링하는 프리 실리콘 환경을 구축해, 실제 칩 제작 전 이미 실리콘과 네트워킹, 시스템 소프트웨어를 하나의 체계로 최적화했다. 데이터센터 투입 준비도 설계 단계부터 병행했다. 백엔드 네트워크와 2세대 액체 냉각 시스템 등 복잡한 요소를 조기 검증하고 애저 제어 플레인)과 네이티브로 통합했다. 그 결과 마이아 200은 첫 부품 입고 수일 만에 실제 모델 구동에 성공했으며, 칩 입고부터 데이터 센터 배치까지의 기간을 기존 대비 절반 이하로 단축했다. 칩부터 소프트웨어, 데이터 센터를 아우르는 엔드투엔드 방식은 자원 활용률을 높이고 클라우드 규모에서의 비용 및 전력 효율을 지속적으로 개선한다. 마이크로소프트는 대규모 AI 시대가 본격화됨에 따라 인프라가 기술적 가능성을 결정짓는 핵심 요소가 될 것으로 내다보고 있다. 마이아 가속기 프로그램은 다세대 로드맵을 기반으로 설계됐으며, 향후 지속적인 혁신을 통해 새로운 벤치마크를 제시하고 핵심 AI 워크로드에 최적화된 성능과 효율을 제공할 예정이다.
작성일 : 2026-01-27
마이크로소프트의 AI 확산 보고서에서 한국이 AI 채택 최고 성장세 기록
마이크로소프트의 싱크탱크 AI 이코노미 인스티튜트가 2025년 하반기 AI 도입 현황과 디지털 격차 문제를 심층 분석한 ‘AI 확산 보고서 : 심화되는 디지털 격차(AI Diffusion Report : A Widening Digital Divide)’를 발표했다. AI 이코노미 인스티튜트는 글로벌 AI 생태계에 대한 포괄적인 시각을 제시하기 위해 국가별 도입률, 혁신 허브, 기술 트렌드 및 인프라의 역할을 정기적으로 분석해 발표하고 있다. 이번 보고서에는 국가별 도입률 추정치(해당 기간 중 생성형 AI를 1회 이상 사용한 근로 연령 인구 비율)를 비롯해 최신 AI 기술 트렌드와 공평한 접근을 가능하게 하는 디지털 인프라의 핵심적인 역할 등이 포함됐다. 마이크로소프트는 정기적인 데이터 및 연구 업데이트를 바탕으로, 국가별 도입률 추이와 주요 지표에 대한 지속적인 평가 결과를 발표할 계획이다. 보고서에 따르면 2025년 하반기 기준 전 세계 생성형 AI 채택률은 상반기 대비 1.2%포인트 상승한 16.3%를 기록하며 꾸준한 성장세를 보였다. 전 세계 근로 연령 인구 6명 중 1명이 AI를 사용하는 수준이다. 하지만 선진국 중심의 글로벌 노스(Global North)와 신흥국 중심의 글로벌 사우스(Global South) 간 AI 채택률 격차가 확대되며, 초기 인프라 투자 여부에 따른 지역 간 디지털 격차가 심화되는 양상을 보였다. 글로벌 노스의 채택률(24.7%)은 글로벌 사우스(14.1%)에 비해 두 배 가까이 높았으며, 두 지역 간 격차는 2025년 상반기 9.8% 포인트에서 하반기 10.6% 포인트로 확대됐다.     국가별로는 아랍에미리트(64.0%), 싱가포르(60.9%), 노르웨이(46.4%), 스페인(41.8%) 등 디지털 인프라에 조기 투자한 국가들이 도입률 선두를 지속했다. 반면, 미국은 절대적인 사용량 면에서는 세계 최고 수준을 유지했으나, 인프라가 밀집된 소규모 디지털 경제 국가들에 비해 인구 대비 사용 비율이 낮게 나타나며 글로벌 순위는 24위를 기록했다. 대한민국은 7계단 상승한 18위에 오르면서, 이번 하반기 조사 대상국 중 가장 눈에 띄는 성장세를 기록했다. 사용률은 전체 근로 연령 인구의 30%를 돌파했으며, 2024년 10월 이후 누적 성장률은 80%를 넘어 글로벌 평균(35%) 및 미국(25%)의 성장 속도를 크게 앞지른 것으로 나타났다.  보고서는 한국의 이러한 급성장이 국가 정책, 모델 성능 고도화, 대중적 문화 현상이라는 세 가지 동력이 맞물린 결과라고 분석했다 기술적으로는 프론티어 모델의 한국어 처리 능력이 비약적으로 향상된 점이 주효했다. 실제로 GPT-4o 및 GPT-5 등 최신 모델은 한국 대학수학능력시험(CSAT) 벤치마크에서 우수한 성과를 거두며 전문적인 업무와 교육 분야 등 실무 환경에서의 활용도를 높였다. 보고서는 특히 한국의 사례가 모델의 언어 역량이 정교해질수록 실제 사용량 또한 비례하여 증가할 수 있음을 보여주는 중요한 지표라고 짚었다. 이는 학습 데이터가 부족한 다른 언어권 국가들 역시 현지어 모델 성능 강화에 따라 향후 AI 도입이 비약적으로 확대될 수 있음을 시사한다. 아울러 ‘지브리 스타일’ 이미지 생성과 같은 대중적 문화 현상이 신규 사용자의 유입을 촉발했으며, 이러한 초기 경험이 일시적 유행을 넘어 장기적인 사용으로 안착하는 양상을 보였다고 분석했다. 마이크로소프트는 이러한 소비자 차원의 관심이 정부의 정책 및 기술 고도화와 맞물려 한국의 AI 사용량 증가를 견인한 핵심 동력이 되었다고 설명했다. 한편, 보고서는 오픈소스 AI 플랫폼 ‘딥시크(DeepSeek)’가 경제적·기술적 진입 장벽을 낮추며 글로벌 지형을 재편하는 양상을 보이고 있다고 분석했다. 중국, 러시아, 아프리카 전역에서 딥시크의 사용량이 급증했으며, 특히 아프리카 지역의 사용량은 타 지역 대비 2~4배 높은 것으로 추정됐다. 반면, 서비스가 이미 안정적으로 구축된 한국이나 이스라엘과 같은 국가에서는 도입이 미미한 수준에 그치며 지역별로 뚜렷한 차이를 보였다. 마이크로소프트는 이러한 변화에 대해 글로벌 AI 도입 결정 요인이 모델의 품질뿐만 아니라 ‘접근성과 가용성’에 있음을 시사한다고 짚었다. 오픈 모델이 빠르게 확산되면서, 상대적으로 감독이나 통제가 어려운 구조상 AI의 안전 기준과 관리 체계에 대한 논의 필요성도 함께 커지고 있다. 보고서는 10억 명의 차세대 AI 사용자가 오픈소스 혁신이 가능해진 ‘글로벌 사우스’ 지역을 중심으로 형성될 수 있다고 분석하면서, 향후 혁신이 격차를 좁히는 방향으로 확산되도록 보장하는 것이 글로벌 생태계의 핵심 과제라고 전했다.
작성일 : 2026-01-13
코딩 없는 LLM 기반 에이전트 개발 도구, 디파이
BIM 칼럼니스트 강태욱의 이슈 & 토크   디파이(Dify)는 대규모 언어 모델(LLM)을 활용한 에이전트 서비스를 전문적인 코딩 지식 없이 개발하고 효율적으로 운영할 수 있도록 지원하는 LLMOps(대규모 언어 모델 운영) 플랫폼 및 도구이다. 이 도구는 LLM과 같은 개발에 필요한 도구를 팔래트에서 가져와 캔버스에 배치하고, 이들의 작업 흐름을 연결함으로써 손쉽게 AI 에이전트 서비스를 개발할 수 있다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   그림 1. 디파이로 개발된 챗봇 에이전트 예시   디파이는 사용자가 아이디어를 실제 AI 서비스로 신속하게 전환할 수 있도록 설계된 통합 개발 환경을 제공한다. 가장 큰 특징은 복잡한 백엔드(backend) 인프라나 API 연동 과정을 추상화하여, 사용자가 시각적인 인터페이스를 통해 애플리케이션의 핵심 로직과 기능 구현에만 집중할 수 있도록 한 것이다.   기능 소개 디파이의 주요 기능은 다음과 같다. 시각적 프롬프트 오케스트레이션 : 사용자는 텍스트 입력, LLM 호출, 조건 분기, 외부 도구(API) 사용 등의 과정을 블록처럼 연결하여 정교한 워크플로를 설계할 수 있다. 이를 통해 단순한 질의응답을 넘어 복잡한 추론과 작업 수행이 가능한 AI 에이전트를 구축하는 것이 가능하다. RAG(검색 증강 생성) 엔진 : 자체 데이터(PDF, TXT, 마크다운 등)를 업로드하여 AI 모델이 해당 정보를 기반으로 답변하도록 만드는 RAG 기술을 손쉽게 구현할 수 있다. 디파이는 문서 자동 전처리, 벡터화, 청킹(chunking) 등 복잡한 과정을 내부적으로 처리하여 사용자의 부담을 최소화한다. 모델 호환성 및 관리 : 오픈AI(OpenAI)의 GPT 시리즈, 앤트로픽(Anthropic)의 클로드(Claude), 구글의 제미나이(Gemini) 등 20개 이상의 상용 및 오픈소스 LLM을 지원한다. 사용자는 여러 모델을 프로젝트에 등록해두고 특정 작업에 가장 적합한 모델을 선택하거나, A/B 테스트를 통해 성능을 비교 분석할 수 있다. 배포 및 운영 : 개발이 완료된 애플리케이션은 즉시 사용 가능한 웹 API 엔드포인트(endpoint)나 독립적인 웹 사이트 형태(웹앱)로 배포된다. 또한 사용자 피드백 수집, 모델 성능 모니터링, 프롬프트 개선 등 지속적인 운영 및 관리를 위한 대시보드를 제공하여 서비스 품질을 유지하고 발전시키는 데 도움을 준다. 더 자세한 정보는 디파이 공식 웹사이트(https://dify.ai)에서 확인할 수 있다.   개발 배경 디파이는 2023년 5월에 설립된 랭지니어스(LangGenius, Inc.)에 의해 개발되었으며, 생성형 AI 기술의 급격한 발전 속에서 LLM을 실제 비즈니스에 적용하려는 수요와 기술적 장벽 사이의 간극을 메우기 위해 탄생했다. 초기 LLM 애플리케이션 개발은 파이썬(Python) 라이브러리인 랭체인(LangChain)이나 라마인덱스(LlamaIndex) 등을 활용하는 개발자 중심의 영역이었다. 하지만 이는 프롬프트 엔지니어링, 벡터 데이터베이스 관리, API 연동 등 상당한 전문 지식을 요구했다. 랭지니어스 팀은 이러한 기술적 복잡성이 AI 기술의 대중화와 비즈니스 혁신을 저해하는 주요 요인이라고 판단했다. 이에 따라 기획자, 디자이너, 마케터 등 비개발 직군도 직접 AI 서비스를 만들고 테스트할 수 있는 직관적인 플랫폼을 목표로 디파이를 개발했다. 특히, 모든 소스코드를 공개하는 오픈소스 전략을 채택하여 개발자 커뮤니티의 참여를 유도하고, 데이터 보안에 민감한 기업이 자체 서버에 직접 설치(self-hosting)하여 사용할 수 있도록 유연성을 제공했다. 디파이의 소스코드는 깃허브 저장소(https://github.com/langgenius/dify)에서 확인할 수 있다.   유사 도구 디파이와 유사한 기능을 제공하는 AI 개발 플랫폼은 다수 존재하며, 각각의 도구는 고유한 특징과 목표 시장을 가지고 있다. 플로와이즈AI(FlowiseAI) : 디파이와 마찬가지로 노드를 연결하여 LLM 기반 워크플로를 구축하는 오픈소스 플랫폼이다. UI/UX 측면에서 더 개발자 친화적인 경향이 있으며, LangChain.js를 기반으로 하여 자바스크립트(JavaScript) 생태계와의 통합이 용이하다는 장점이 있다.(https://flowiseai.com) 보이스플로(Voiceflow) : 주로 대화형 AI, 특히 음성 기반 챗봇 및 어시스턴트 제작에 특화된 로코드 플랫폼이다. 시각적인 대화 흐름 설계 도구가 강력하며, 프로토타이핑부터 실제 배포까지 전 과정을 지원하여 고객 서비스 자동화 분야에서 많이 사용된다.(https://www. voiceflow.com) 버블(Bubble) : 웹 애플리케이션 개발을 위한 대표적인 노코드 플랫폼이다. AI 기능이 내장된 것은 아니지만, 높은 유연성과 확장성을 바탕으로 디파이나 오픈AI에서 제공하는 API를 연동하여 복잡한 웹 서비스 내에 AI 기능을 통합하는 방식으로 활용될 수 있다.(https://bubble. io) n8n : 워크플로 자동화에 중점을 둔 오픈소스 도구이다. AI 기능보다는 수백 개의 다양한 서드파티 애플리케이션(예 : 구글 시트, 슬랙, 노션)을 연결하여 데이터 동기화 및 업무 자동화를 구현하는 데 강점을 보인다.(https://n8n.io)     ■ 기사의 상세 내용은 PDF로 제공됩니다.
작성일 : 2026-01-07
엔비디아, 차세대 로봇과 자율 머신에 탑재되는 새로운 피지컬 AI 모델 출시
엔비디아가 미국 라스베이거스에서 열린 CES 2026에서 피지컬 AI(physical AI)를 위한 새로운 오픈 모델, 프레임워크, AI 인프라를 발표하고, 글로벌 파트너들과 협력해 다양한 산업용 로봇을 공개했다고 밝혔다. 새롭게 공개된 엔비디아 기술은 로봇 개발 전반의 워크플로를 가속화해, 다양한 작업을 빠르게 학습할 수 있는 전문가형 범용(generalist-specialist) 로봇을 포함한 차세대 로보틱스의 확산을 촉진한다. 엔비디아는 LG전자를 비롯해 보스턴 다이내믹스, 캐터필러, 프랑카 로보틱스, 휴머노이드, 뉴라 로보틱스 등의 기업이 자사의 로보틱스 스택을 활용한 새로운 AI 기반 로봇을 공개한다고 전했다. 고비용, 단일 작업 중심의 프로그래밍이 까다로운 기계를 추론 가능한 ‘전문가형 범용’ 로봇으로 전환하려면, 파운데이션 모델 구축을 위한 대규모의 자본과 전문 지식이 필요하다. 엔비디아는 개발자가 자원 집약적인 사전 훈련을 생략하고, 차세대 AI 로봇과 자율형 머신 개발에 집중할 수 있도록 지원하는 오픈 모델을 구축하고 있다.  여기에는 ▲물리 기반 합성 데이터 생성과 시뮬레이션 환경에서의 로봇 정책 평가를 지원하는 맞춤형 오픈 월드 모델인 ‘엔비디아 코스모스 트랜스퍼 2.5(Cosmos Transfer 2.5)’와 ‘엔비디아 코스모스 프리딕트 2.5(Cosmos Predict 2.5)’ ▲지능형 머신이 인간처럼 현실 세계를 인식하고, 이해하며 행동할 수 있도록 지원하는 오픈 추론 비전 언어 모델(VLM)인 ‘엔비디아 코스모스 리즌 2(Cosmos Reason 2)’ ▲향상된 추론과 컨텍스트 이해를 지원하며, 전신 제어를 가능하게 하는 휴머노이드 로봇에 특화된 오픈 추론 VLA 모델인 ‘엔비디아 아이작 GR00T N1.6(Isaac GR00T N1.6)’ 등이 포함된다.     한편, 엔비디아는 복잡한 로봇 시뮬레이션 파이프라인을 단순화하고, 연구에서 실제 사용 사례로 전환을 가속하는 새로운 오픈소스 프레임워크를 깃허브(GitHub)에 공개했다. ‘엔비디아 아이작 랩-아레나(Isaac Lab-Arena)’는 대규모 로봇 정책 평가와 벤치마킹을 위한 협업 시스템을 제공하는 오픈소스 프레임워크로, 라이트휠(Lightwheel)과의 협업을 통해 평가와 작업 레이어를 설계했다. 아이작 랩-아레나는 리베로, 로보카사 등 업계 주요 벤치마크와 연동돼 테스트를 표준화하고, 물리적 하드웨어 배포 이전에 로봇 역량의 안정성과 신뢰성을 확보한다. 엔비디아 OSMO는 로보틱스 개발을 단일 제어 센터로 통합하는 클라우드 네이티브 오케스트레이션 프레임워크다. OSMO를 통해 개발자는 합성 데이터 생성, 모델 훈련, 소프트웨어 인 더 루프(software-in-the-loop) 테스트 등의 워크플로를 정의하고 실행할 수 있다. 이를 통해 워크스테이션부터 혼합 클라우드 인스턴스에 이르는 다양한 컴퓨팅 환경에서 개발 주기를 단축할 수 있다. OSMO는 현재 헥사곤 로보틱스과 같은 로봇 개발사에서 사용되고 있으며, 마이크로소프트 애저 로보틱스 액셀러레이터 툴체인에 통합됐다. 엔비디아 젯슨 토르(Jetson Thor)는 추론 기능을 갖춘 휴머노이드 로봇에 요구되는 대규모 컴퓨팅 성능을 충족한다. 이번 CES에서 휴머노이드 개발사들은 젯슨 토르가 통합된 최신 로봇을 선보인다. 뉴라 로보틱스는 포르쉐가 디자인한 Gen 3 휴머노이드와 함께 정교한 제어에 최적화된 소형 휴머노이드를 공개했다. 리치테크 로보틱스는 복잡한 산업 환경에서의 고난도 조작과 내비게이션을 지원하는 모바일 휴머노이드 덱스(Dex)를 선보였다. 애지봇은 산업과 소비자 시장을 위한 휴머노이드와 아이작 심(Isaac Sim)과 통합된 로봇 시뮬레이션 플랫폼 지니 심 3.0(Genie Sim 3.0)을 공개했다. LG전자는 다양한 실내 집안일을 수행하도록 설계된 신규 홈 로봇을 발표했다. 보스턴 다이내믹스, 휴머노이드, 리얼월드는 기존 휴머노이드에 젯슨 토르를 통합해 내비게이션과 조작 역량을 강화했다. 엔비디아 젯슨 T4000(Jetson T4000) 모듈은 엔비디아 젯슨 오린(Jetson Orin) 고객을 위한 비용 효율적이면서도 고성능 업그레이드 경로를 제공하며, 자율형 머신과 범용 로보틱스를 위해 엔비디아 블랙웰(Blackwell) 아키텍처를 도입했다. 이 모듈은 1000개 단위 구매 기준 1999달러에 제공되며, 이전 세대 대비 4배의 성능을 제공한다. 또한 1,200 FP4 TFLOPS의 연산 성능과 64GB 메모리를 70와트 내에서 구성 가능해 에너지 제약 환경의 자율 시스템에 적합하다. 1월 말 출시 예정인 엔비디아 IGX 토르(IGX Thor)는 엔터프라이즈 소프트웨어 지원과 기능 안전을 갖춘 고성능 AI 컴퓨팅을 제공해 로보틱스를 산업 에지로 확장한다. 아처는 IGX 토르를 활용해 항공 분야에 AI를 도입하고, 항공기 안전, 공역 통합, 자율 시스템 핵심 역량을 고도화하고 있다. 또한 캐터필러는 건설, 광산 현장의 장비와 작업 환경에 첨단 AI와 자율성을 도입하기 위해 엔비디아와의 협력을 확대하고 있다. 엔비디아의 젠슨 황 CEO는 “로보틱스 분야에도 ‘챗GPT(Chat GPT) 시대’가 도래했다. 현실 세계를 이해하고, 추론하며, 행동을 계획하는 피지컬 AI 모델의 도약은 완전히 새로운 애플리케이션을 가능하게 한다. 엔비디아의 젯슨 로보틱스 프로세서, 쿠다, 옴니버스, 오픈 피지컬 AI 모델로 구성된 풀스택은 글로벌 파트너 생태계가 AI 기반 로보틱스를 통해 산업을 혁신할 수 있도록 지원한다”고 말했다.
작성일 : 2026-01-06
[신간] 프롬프트를 만드는 프롬프트 GPTs & Gems
프롬프트를 만드는 프롬프트 GPTs & Gems 민진홍, 국난아, 김진수 지음 / 2만 7000원 / 성안당 나만의 AI 비서를 만드는 기술, 메타 프롬프트와 커스텀 GPT 완벽 가이드 인공지능(AI)을 단순한 질의응답 도구로 사용하는 단계를 넘어, 반복되는 업무를 템플릿화하고 자동화하려는 시도가 가속화되고 있다. 최근 AI 업계의 화두는 사용자의 업무 목적에 맞게 맞춤형 앱처럼 설계하는 ‘AI 에이전트’다. 이러한 흐름 속에서 상위 프롬프트인 메타 프롬프트를 활용해 실무 효율을 극대화할 수 있는 지침서가 발간되었다. 이 책은 프롬프트 엔지니어이자 AI 전문 강사인 세 명의 저자가 집필했다. 주요 AI 플랫폼인 오픈AI의 챗GPT 커스텀 기능인 GPTs(지피티스), 구글 제미나이(Gemini)의 Gems(젬스), 그리고 클로드(Claude)의 Projects(프로젝츠) 제작 기법을 한데 모아 상세히 다룬다. 단순히 일회성 질문을 던지는 수준을 벗어나, AI가 사용자의 의도를 정확히 파악하고 전속 비서처럼 작동하도록 설계하는 ‘커스텀 GPT’ 제작 노하우를 총망라했다. 이 책은 실무 담당자의 업무 상당 부분을 AI가 대신 수행할 수 있도록 돕는다. 대기업 직장인은 물론 업무 효율이 절실한 1인 기업가와 소상공인에게도 최적화된 솔루션을 제공한다. 특히 독자들이 현업에 바로 적용할 수 있도록 실무용 메타 프롬프트 124선과 50선을 PDF 템플릿으로 제공하여 활용성을 높였다. 사용자는 챗GPT의 '지침'란이나 제미나이의 '요청 사항(Instructions)'에 검증된 프롬프트를 붙여넣고 저장하는 것만으로도 자신만의 강력한 AI 도구를 가질 수 있다. 복잡한 코딩 없이도 업무 자동화를 구현하고 싶은 독자들에게 이 책은 실질적인 가이드라인이 될 것이다.  
작성일 : 2025-12-22
AI가 가져온 건축 시각화의 혁신과 건축가의 과제
생성형 AI를 활용한 건축 분야 이미지 렌더링   생성형 AI(generative AI)는 텍스트와 이미지를 넘어 영상 제작까지 건축 시각화의 혁명을 일으키며, 누구나 쉽게 고품질 결과물을 만드는 ‘뉴노멀 시대’를 열었다. 기술의 보편화로 커뮤니케이션 방식은 혁신적으로 변화했지만, 결과물의 구조적·기능적 타당성을 검증하고 윤리적으로 활용하는 건축가의 비판적 사고와 주도적 역할은 여전히 필수이다.   ■  양승규 캐드앤그래픽스 전문 필진으로, MOT를 공부하며 엔지니어와 직장인으로 살아가는 방법에 대해 탐구한다. 건축과 CAD를 좋아한다. 홈페이지 | yangkoon.com   시작하며 얼마전 서울시 여의도공원에 건립 예정인 (가칭)제2세종문화회관 건립 설계 공모 당선작이 발표되었다. 2023년 5월 디자인 공모를 시작으로 진행된 긴 여정이 종합건축사사무소 디자인캠프 문박 디엠피(dmp)의 계획안을 당선작으로 선정하며 마무리되었다. 관람자의 입장에서 여의도광장에 위치하는 대규모 공공 문화 시설을 어떠한 형태와 배치로 풀어냈는지 보는 재미도 있었다. 설계 공모 당선작 발표 과정에서 눈에 띄는 것은 당연히 계획안의 디자인이겠지만, 필자에게는 계획안을 표현한 투시도가 인상 깊었다. 지어진 건물의 주변 일상을 담은 거의 실사와 유사한(사진인 듯한) 투시도였다. 계절의 변화, 시간의 변화, 바라보는 위치의 변화에 따라 주변 실사에 투사된 이미지는 거의 현실처럼 보였다. 생성형 AI 기술이 발전되면서 실제와 가짜(fake)의 구분이 모호해졌다. 일반인이 쉽게 실제와 가짜의 경계에서 줄타기하는 결과물을 뽑아내는 시기에 프로들은 그 줄 넘어의 견고한 결과물을 만들어 내고 있다. 일반인이지만 얼리어답터들은 또 그것을 따라가고 있고. 이러한 시기에 dmp의 계획안 투시도는 건축 투시도가 어떠한 방향으로 가고 있는가를 보여준 사례라고 할 수 있겠다.   그림 1. 출처 : https://project.seoul.go.kr   그림 2. 출처 : https://project.seoul.go.kr   전통적 렌더링의 한계와 도전 건축 렌더링 작업은 오랫동안 전문가의 영역으로 여겨져 왔다. 빛과 그림자의 각도와 강도를 조절하고, 재료의 질감을 표현하며, 카메라와 타깃의 위치, 화면 비율, 카메라 렌즈를 정밀하게 제어하는 일련의 과정은 수개월 이상의 학습이 필요하며, 실제 프로젝트에서도 원하는 이미지를 얻어 내기 위해서는 많은 시행착오가 필요하다. 렌더링 작업의 복잡성은 단순히 소프트웨어 조작 능력을 넘어선다. 사진작가처럼 빛의 성질을 이해해야 하고, 3D 아티스트처럼 재질의 물리적 속성을 파악해야 하며, 영화 감독처럼 구도와 시점을 결정해야 한다. 하나의 프로젝트를 위해 수십 번의 테스트 렌더링을 실행하고, 각 렌더링마다 몇 시간씩 기다리는 것은 일상적인 풍경이었다. 브이레이(VRay), 루미온(Lumion)과 같은 전문 렌더링 소프트웨어를 능숙하게 다루기 위해서는 상당한 시간과 노력을 투자해야 했다. 학습을 통해 렌더를 돌릴 수 있게 되더라도, 실제 프로젝트에 사용할 정도의 수준에 도달하려면 수 년간의 실무 경험이 요구되었다. 필자가 대학에서 건축을 배우던 시절에는 렌더링 이미지를 잘 뽑는 순서대로 건축 설계를 잘한다는 말이 있을 정도였다. 이러한 높은 진입 장벽은 많은 건축가와 디자이너에게 렌더링은 어떤 느낌의 이미지가 나오는지 테스트하는 정도에 머물렀고, 그 이상은 외주 전문 업체에 의존하게 만들었다. 여기에는 비용 증가와 커뮤니케이션의 지연, 디자인 의도의 완벽한 전달의 한계라는 문제가 존재했다. 더욱이 렌더링 소프트웨어의 라이선스 비용은 소규모 스튜디오나 학생들에게 부담으로 작용했다. 전문가용 소프트웨어를 구동하기 위한 고성능 하드웨어 구입 비용까지 고려하면 진입 장벽은 더욱 높았다. 결과적으로 프로 수준의 건축 시각화는 자본과 기술을 갖춘 일부 전문가들의 영역이었다.   생성형 AI의 등장 생성형 AI의 등장은 이러한 풍경을 완전히 바꾸어 놓았다. 전 국민의 카톡 프로필 사진을 점령했던 챗GPT(ChatGPT)의 지브리 풍 프로필 이미지는 이전에 챗GPT를 사용해 보지 않은 이들을 유입시켰고, 기존 사용자에게는 유료화 전환을 이끌어냈다.(과금한 만큼 좋은 이미지가 나왔다.)  2025년 3월에 출시된 GPT-4o의 이미지 생성 기술은 건축 시각화의 접근 방식을 근본적으로 재정의했다고 할 수 있겠다. 너도나도 프로필 사진을 찍어내던 시기에 얼리어답터들은 다양한 건축적 실험을 통해 건축 이미지 생성의 다양한 방법을 제시하기 시작했다.   그림 3   그림 4   그림 5   그림 6   초기에는 다양한 실험과 건축 스케치를 보완하는 보조 도구로 시작했지만, 불과 몇 달 만에 새로운 디자인 결과를 뽑아내는 강력한 도구로 자리잡았다. 물론 이전에도 AI를 활용한 렌더링 기술은 존재했지만, GPT-4o만큼의 파급력은 없었다. 생성형 AI의 가장 혁명적인 측면은 전문 지식 없이도 고품질 이미지를 생성할 수 있다는 점이다. 간단한 손 스케치나 스터디 모형 사진을 업로드하고 단 한 줄의 텍스트를 입력하는 것만으로도, 과거라면 며칠이 걸렸을 전문가 수준의 렌더링 이미지를 몇 분 안에 얻을 수 있게 된 것이다. 이는 단순히 작업 속도의 향상을 넘어, 디자인 프로세스 자체의 변화를 의미한다. 과거에는 한 번의 고화질 렌더링에 많은 시간과 비용이 소요되기 때문에, 여러 대안을 시각적으로 비교하는 것에 제약이 있었다. 하지만 생성형 AI는 이러한 제약을 제거했다. 이제 건축가, 디자이너는 수십 개의 디자인 대안을 거의 동시에 시각화하고, 실시간으로 비교하며, 대안들 사이에서 최적의 방향을 선택할 수 있게 되었다.   ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-12-02
[신간] AI 2026 트렌드&활용백과
김덕진 지음 / 2만 5000원 / 스마트북스   2026년, AI 빅뱅을 미리 준비하는 최고급 코스! 1,400만 뷰 화제의 영상, 16주 연속 종합 베스트셀러 작가인 김덕진 소장의 최신작  <AI 2026 트렌드&활용백과>가 출간됐다. 이 책은 절대 놓쳐서는 안 될 2026년 AI 핫 트렌드와 실질적인 활용법을 총망라했다. 10여 년 동안 IT 트렌드의 최전선에서 대중과 호흡해온 김덕진 IT커뮤니케이션연구소장은 오픈AI, 앤트로픽, 구글, xAI 등 빅테크들의 최신 전략을 심층 분석하고, 다가오는 2026년을 ‘AI 빅뱅 시대: AI 전쟁의 2막’으로 규정했다. 특히 현실세계로 걸어 나오는 피지컬 AI, 소형 모델 혁명(엣지 AI·온디바이스 AI), 먼저 말을 거는 일상 AI 등 2026년을 대표할 AI 트렌드 키워드 10가지를 제시하고, 이들이 우리의 업무와 삶에 미칠 영향을 상세히 짚어냈다. 이 책은 지난 3년여 간 수천 회의 강의 현장에서 만난 5만여 명 사용자들의 요구와 고민을 반영해 실용성을 극대화했다. GPT-5, 클로드, 제미나이 등 범용 AI의 업무 특화형 '찐' 기능부터, 메타 프롬프트 및 프롬프트 팩(직장인/대학생 모음집) 사용법까지 담아냈다. 보고서, 영상, 음악 등을 위한 생성형 AI 도구 30개 활용법도 구체적인 사례와 함께 수록했다. 감마, 미리캔버스, 노션AI 등 사무 특화형 AI부터 퍼플렉시티 같은 심층 리서치 에이전트, 나노바나나, 소라 2, 베오 3 등 미디어 특화 AI까지 일잘러를 위한 알짜배기 도구들을 소개했다. 독자들은 이를 통해 자신만의 워크플로를 구축할 수 있게 됐다. 더불어 "개인 PC나 노트북에서 민감한 업무 정보를 다룰 수는 없을까?"라는 현장의 요구를 반영해, 인터넷 연결 없이 구동되는 오픈소스형 AI(로컬 AI) 사용법도 다뤘다. 젬마 3, 쿠웬 3 등 로컬 AI 설치 및 활용법, 한국의 오픈소스 AI(A.X, 하이퍼클로바 시드, 엑사원, 솔라) 체험 방법까지 안내했다. 이 책은 직장인이 번거로운 업무 자동화를 원할 때, 보고서 작성이나 아이디어가 막막할 때, 대학생이 리포트를 쓸 때, 부모가 자녀의 학습을 도울 때 등 일과 생활에서 AI 활용의 길잡이가 될 것이다.   
작성일 : 2025-11-11
세일즈포스, “오픈AI·앤트로픽 파트너십 통해 에이전트포스 360 강화”
세일즈포스는 오픈AI 및 앤트로픽과의 전략적 파트너십을 기반으로 에이전트포스 360과 챗지피티(ChatGPT), 클로드 등 플랫폼과의 통합을 지원하는 한편, 차세대 업무 환경 구축과 커머스 경험 혁신을 지원하기 위한 역량을 지속 강화해 나갈 것이라는 비전을 밝혔다. 이번 세일즈포스와 오픈AI의 파트너십을 기반으로 세일즈포스의 고객은 이제 챗지피티에서도 ‘에이전트포스 360’ 앱을 직접 활용하여 자연어로 기록 조회, 고객 대화 분석, 태블로 데이터 시각화 등의 작업을 수행할 수 있다. 또한 GPT-5를 포함한 오픈AI의 최신 모델을 기반으로 세일즈포스 플랫폼 내에서도 AI 에이전트와 프롬프트를 생성할 수 있게 된다. 오픈AI와 세일즈포스는 앞으로도 챗지피티와 슬랙 등 양사의 대표 플랫폼을 통해 업무 생산성 제고를 위한 에이전틱 AI 기반의 협업 환경 구축을 지원할 계획이다. 나아가 세일즈포스는 ‘에이전트포스 커머스(Agentforce Commerce)’를 챗지피티의 ‘즉시결제(Instant Checkout)’ 및 ‘에이전틱 커머스 프로토콜(Agentic Commerce Protocol)’과 통합한다고 밝혔다. 이를 통해 커머스 기업은 주문, 결제, 고객 관계 등 핵심 프로세스에 대한 통제권을 유지하면서도 새로운 유통 채널을 기반으로 수억 명의 잠재 고객에게 제품을 판매할 수 있는 역량을 확보할 수 있다.     슬랙과 클로드의 통합 기능도 공개됐다. 세일즈포스는 앤트로픽과의 전략적 협업을 통해 클로드(Claude) 모델을 에이전트포스 360 내 선호 AI 모델로 통합하며, 클로드 모델을 세일즈포스의 트러스트 레이어(Trust Layer) 내에 완전히 통합한 최초의 LLM 제공업체라고 소개했다. 세일즈포스는 이번 파트너십을 기반으로 금융·헬스케어·사이버보안 등 규제가 엄격하고 민감한 데이터를 다루는 산업에서도 데이터를 안전하게 보호 및 활용할 수 있는 ‘엔터프라이즈 AI’를 제공하겠다는 의지를 밝혔다. 이에 따라 슬랙의 사용자는 이제 클로드와의 양방향 통합을 통해 문서 분석, 데이터 기반 의사결정, 문서 권한 관리와 같은 업무를 슬랙 내에서 신속하게 수행할 수 있다. 특히 ‘에이전트포스 금융 서비스(Agentforce Financial Services)’와 연계해 산업 내 규제를 준수하면서도 금융 상품 분석, 보험 청구 처리, 고객 포트폴리오 요약 등의 핵심 업무를 자동화하는 것이 가능하다. 대표적으로 ‘크라우드스트라이크(CrowdStrike)’와 ‘RBC 자산 관리(RBC Wealth Management)’와 같은 기업들은 이미 에이전트포스에서 클로드를 활용하여 AI 기반의 새로운 고객 경험을 제공하고 있다. 한편, 세일즈포스는 차세대 AI 기업 대상의 투자를 확대하며, 중장기적인 AI 생태계 지원 의지를 밝혔다. 세일즈포스의 자체 글로벌 투자 기업인 ‘세일즈포스 벤처스(Salesforce Ventures)’는 지난해 드림포스에서 출범한 10억 달러 규모의 AI 펀드 중 75% 이상을 차세대 엔터프라이즈 AI 기업에 투입했다. 현재까지 총 2200억 달러 규모로 성장한 35개 기업에 투자하며 엔터프라이즈 AI 분야의 선도 벤처 캐피털로 자리매김한 세일즈포스 벤처스는 기존 포트폴리오 기업에 대한 투자를 25% 이상 확대할 계획이라고 전했다. 세일즈포스 벤처스의 AI 펀드 포트폴리오에는 앤트로픽, 코히어, 일레븐랩스, 투게더 AI, 런웨이 등의 혁신 기업과, 팔 AI, 월드 랩스, 라이터 등의 스타트업이 포함됐다.  세일즈포스 코리아의 박세진 대표는 “세일즈포스는 오픈AI 및 앤트로픽과 같은 글로벌 파트너와의 긴밀한 협력을 통해 기업들이 AI를 기반으로 한 차세대 업무 환경에서 혁신적인 고객 경험을 제공할 수 있는 ‘에이전틱 엔터프라이즈’로의 전환을 지원하고 있다”면서, “에이전트포스 360은 직원과 고객 모두에게 보다 효율적이고 개인화된 경험을 제공하기 위한 핵심 플랫폼으로 자리매김할 것이며, AI 에이전트가 지닌 무한한 잠재력을 기반으로 국내 기업들과 함께 만들어 나갈 새로운 혁신 여정이 매우 기대된다”고 전했다.
작성일 : 2025-10-16