• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "비디오"에 대한 통합 검색 내용이 1,853개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
엔비디아 젠슨 황, CES 2025서 ‘놀라운 속도’로 진보하는 AI 소개
엔비디아 젠슨 황, CES 2025서 ‘놀라운 속도’로 진보하는 AI 소개   CES 2025에서 엔비디아 창립자 겸 CEO 젠슨 황(Jensen Huang)이 AI와 컴퓨팅 기술의 미래를 조망했다.  젠슨 황은 1월 8일 90분간 이어진 연설에서 게이밍, 자율 주행차, 로보틱스, 그리고 에이전틱 AI(agentic AI)의 발전에 기여할 엔비디아의 최신 기술과 제품들을 공개했다. 라스베이거스 미켈롭 울트라 아레나에 6천 명이 넘는 관중이 운집한 가운데, 젠슨 황은 “AI가 놀라운 속도로 진보하고 있다”면서, AI의 발전 과정을 세 단계로 나눠 설명했다. “AI는 처음에 이미지와 단어, 소리를 이해하는 '인식형 AI(Perception AI)'에서 시작됐다. 이후 텍스트, 이미지, 소리를 생성하는 '생성형 AI(Generative AI)'가 등장했다. 그리고 이제 우리는 처리, 추론, 계획, 행동까지 가능한 물리적 AI(Physical AI) 시대에 접어들고 있다.” 젠슨 황은 이 변혁의 중심에 엔비디아 GPU와 플랫폼이 자리 잡고 있다고 강조하며, 엔비디아가 게이밍, 로보틱스, 자율 주행차 등 다양한 산업에서 혁신을 선도할 것이라고 전했다. 이번 기조연설에서는 엔비디아의 신제품과 기술이 공개됐다. 젠슨 황은 이를 통해 AI와 컴퓨팅 기술이 어떻게 미래를 재정의할지 상세히 설명했다. 엔비디아 코스모스(Cosmos) 플랫폼은 로봇과 자율 주행차, 비전 AI를 위해 새롭게 개발된 모델과 영상 데이터 프로세싱 파이프라인을 통해 물리적 AI를 발전시킬 것이다. 새로 출시될 엔비디아 블랙웰(Blackwell) 기반 지포스(GeForce) RTX 50 시리즈 GPU는 놀랍도록 사실적인 비주얼과 전례 없는 성능을 제공한다.  이번 CES에 소개된 RTX PC용 AI 기초 모델에는 디지털 휴먼(digital human)과 팟캐스트, 이미지, 동영상 제작을 도울 엔비디아 NIM 마이크로서비스와 AI 블루프린트가 포함된다. 엔비디아 프로젝트 디지츠(Project DIGITS)는 주머니에 들어가는 소형 크기의 패키지로 개발자의 데스크톱에 엔비디아 그레이스 블랙웰(Grace Blackwell)의 강력한 성능을 제공한다. 엔비디아는 토요타와 협업하면서 엔비디아 드라이브OS(DriveOS) 기반의 엔비디아 드리아브 AGX 차내 컴퓨터로 안전한 차세대 차량 개발에 힘쓰고 있다.   젠슨 황은 30년에 걸친 엔비디아의 여정을 돌아보는 것으로 키노트를 시작했다. 1999년, 엔비디아는 프로그래머블 GPU(programmable GPU)를 개발했다. 그로부터 지금까지 현대적 AI가 컴퓨팅의 작동 방식을 근본적으로 바꿔놨다. “당시 GPU의 테크놀로지 스택 레이어 하나하나가 고작 12년만에 놀라운 혁신을 경험했다.”   지포스 RTX 50 시리즈의 그래픽 혁명 젠슨 황은 “지포스는 AI가 대중에게 다가가는 계기였고, 이제 AI는 지포스의 본진이 되고 있다”고 말했다. 이 같은 평가와 함께 젠슨 황은 지금껏 개발된 제품 중 가장 강력한 지포스 RTX GPU인 엔비디아 지포스 RTX 5090 GPU 를 소개했다. 지포스 RTX 5090은 920억 개의 트랜지스터를 탑재하고 초당 3,352조 개(TOPS)의 연산을 제공한다.  젠슨 황은 “바로 이것이 우리가 처음 선보이는 블랙웰 아키텍처의 지포스 RTX 50 시리즈”라며 소개를 시작했다. 젠슨 황은 검게 처리된 GPU를 높이 들어 보이며, 이 제품이 첨단 AI를 활용해 혁신적인 그래픽을 구현하는 방법을 설명했다. 그는 “이 GPU는 문자 그대로 야수라 할 만하다. 지포스 RTX 5090의 기계적 디자인조차 기적에 가깝다”며, 해당 그래픽 카드에 냉각 팬 두 개가 장착돼 있다고 언급했다.  이번 기조연설에서는 지포스 RTX 5090 시리즈를 변형한 제품들의 출시 소식도 알렸다. 지포스 RTX 5090과 지포스 RTX 5080 데스크톱 GPU가 오는 1월 30일에 공개된다. 지포스 RTX 5070 Ti와 지포스 RTX 5070 데스크톱은 오는 2월부터 만나볼 수 있다. 랩톱 GPU는 올 3월 출시 예정이다.  DLSS 4 는 DLSS 테크놀로지를 활용한 제품군 일체와 함께 작동하는 멀티 프레임 생성(Multi Frame Generation)을 도입해 성능을 최대 8배까지 끌어올린다. 또한 엔비디아는 PC의 레이턴시(latency)를 75%까지 줄여주는 엔비디아 리플렉스(Reflex) 2 도 공개했다.  최신 DLSS의 경우, 우리가 계산하는 프레임마다 세 개의 프레임을 추가로 생성할 수 있다. 젠슨 황은 “그 결과 AI가 담당하는 계산이 크게 줄어들기 때문에 렌더링 성능이 크게 향상된다”고 말했다. RTX 뉴럴 셰 이더(RTX Neural Shaders)는 소형 신경망을 사용해 실시간 게이밍의 텍스처와 머티리얼, 빛을 개선한다. RTX 뉴럴 페이스(RTX Neural Faces)와 RTX 헤어(RTX Hair)는 생성형 AI로 얼굴과 머리카락의 실시간 렌더링을 개선해 더없이 사실적인 디지털 캐릭터를 만들어낸다. RTX 메가 지오메트리(RTX Mega Geometry)는 레이 트레이싱된 트라이앵글(triangle)의 개수를 100배까지 늘려 디테일을 강화한다.    코스모스로 진보하는 물리적 AI 젠슨 황은 그래픽의 발전상과 더불어 엔비디아 코스모스 월드 파운데이션 모델(world foundation model) 플랫폼을 소개하며, 이것이 로보틱스와 산업 AI를 크게 혁신할 것이라고 내다봤다.  그는 AI의 차세대 개척지는 물리적 AI가 될 것이라면서 이 순간을 대규모 언어 모델이 생성형 AI의 혁신에 미쳤던 거대한 영향에 비유하고 “챗GPT(ChatGPT) 같은 혁신의 순간이 로보틱스 분야 전반에 다가온 셈”이라고 설명했다.  젠슨 황은 거대 언어 모델(large language model)과 마찬가지로 월드 파운데이션 모델 또한 로봇과 AV 개발 촉진에 중요한 역할을 하지만, 이를 자체적으로 훈련할 수 있는 전문 지식과 자원을 모든 개발자가 갖추고 있는 것은 아니라고 진단했다.  엔비디아 코스모스는 생성형 모델과 토크나이저(tokenizer), 영상 프로세싱 파이프라인을 통합해 AV와 로봇 등의 물리적 AI 시스템을 강화한다.  엔비디아 코스모스의 목표는 AI 모델에 예측과 멀티버스 시뮬레이션 기능을 지원해 발생 가능한 모든 미래를 시뮬레이션하고 최적의 행위를 선택할 수 있도록 하는 것이다.   젠슨 황의 설명에 따르면 코스모스 모델은 텍스트나 이미지, 비디오 프롬프트를 수집해 가상 월드를 동영상 형태로 생성한다. 그는 “코스모스의 생성 작업은 실제 환경과 빛, 대상 영속성(object permanence) 등 AV와 로보틱스라는 고유한 활용 사례에 필요한 조건들을 최우선으로 고려한다”고 말했다. 1X와 애자일 로봇(Agile Robots), 어질리티(Agility), 피규어 AI(Figure AI), 포어텔릭스(Foretellix), 푸리에(Fourier), 갤봇(Galbot), 힐봇(Hillbot), 인트봇(IntBot), 뉴라 로보틱스(Neura Robotics), 스킬드 AI(Skild AI), 버추얼 인시전(Virtual Incision), 와비(Waabi), 샤오펑(XPENG) 등 로보틱스와 자동차 분야의 선도적인 기업들과 차량 공유 업체 우버(Uber)가 코스모스를 최초 도입했다.  또한 현대자동차 그룹은 엔비디아 AI와 옴니버스(Omniverse) 를 기반으로 더 안전하고 스마트한 차량을 개발하고, 제조를 강화하며, 최첨단 로보틱스의 활용성을 높인다. 코스모스는 오픈 라이선스로 깃허브(GitHub)에서 이용할 수 있다.    AI 기초 모델로 개발자 지원 엔비디아는 로보틱스와 자율 주행차 외에도 AI 기초 모델을 통해 개발자와 크리에이터를 지원한다.  젠슨 황은 디지털 휴먼과 콘텐츠 제작, 생산성과 개발성을 극대화하는 RTX PC용 AI 파운데이션 모델을 소개했다.  그는 “모든 클라우드에서 엔비디아 GPU를 사용할 수 있기 때문에 이 AI 기초 모델들 또한 모든 클라우드에서 실행이 가능하다. 모든 OEM에서 사용이 가능하므로 이 모델들을 가져다 여러분의 소프트웨어 패키지에 통합하고, AI 에이전트를 생성하며, 고객이 소프트웨어 실행을 원하는 어디에나 배포할 수 있다”고 전했다.  이 기초 모델들은 엔비디아 NIM 마이크로서비스로 제공되며, 신형 지포스 RTX 50 시리즈 GPU로 가속된다. 신형 지포스 RTX 50은 모델의 신속 실행에 필요한 기능을 갖추고 있으며, FP4 컴퓨팅 지원을 추가해 AI 추론을 2배까지 향상시킨다. 또한 생성형 AI 모델이 전 세대 하드웨어에 비해 더 적은 메모리 공간에서 로컬로 실행되도록 지원한다.   젠슨 황은 이처럼 새로운 툴이 크리에이터에게 어떤 잠재력을 갖는지 짚었다. 그는 “우리는 우리의 생태계가 활용할 수 있는 다양한 블루프린트를 만들고 있다. 이 모든 게 오픈 소스로 제공되므로 여러분이 블루프린트를 가져다 직접 수정해 사용할 수 있다”고 말했다.  엔비디아는 업계 최고의 PC 제조업체와 시스템 개발자들이 지포스 RTX 50 시리즈 GPU를 탑재하고 NIM을 지원하는 RTX AI PC를 내놓을 예정이다. 젠슨 황은 “AI PC들이 여러분 가까이로 찾아갈 예정”이라고 말했다. 엔비디아는 이처럼 개인 컴퓨팅에 AI 기능을 더하는 툴들을 제공하는 한편, 안전과 인텔리전스가 가장 중요하게 손꼽히는 자율 주행차 산업에서도 AI 기반 솔루션을 발전시키고 있다.   자율 주행 차량의 혁신 젠슨 황 CEO는 엔비디아 AGX 토르(Thor) 시스템 온 칩(SoC)을 기반으로 구축된 엔비디아 드라이브 하이페리온 AV(Hyperion AV) 플랫폼의 출시를 알렸다. 이 플랫폼은 생성형 AI 모델용으로 고안돼 기능 안전성과 자율 주행 기능을 강화한다.  젠슨 황은 “자율 주행차의 혁명이 찾아왔다. 자율 주행차 제작에는 로봇을 만들 때와 마찬가지로 세 대의 컴퓨터가 필요하다. AI 모델 훈련을 위한 엔비디아 DGX, 시험 주행과 합성 데이터 생성을 위한 옴니버스, 차내 슈퍼컴퓨터인 드라이브 AGX가 필요하다”고 말했다.  드라이브 하이페리온은 최초의 엔드-투-엔드(end-to-end) AV 플랫폼으로, 첨단 SoC와 센서, 차세대 차량용 안전 시스템, 센서 제품군과 액티브 세이프티(active safety)와 레벨 2 자율 주행 스택을 통합했다. 이 플랫폼은 메르세데츠 벤츠(Mercedes-Benz)와 JLR, 볼보자동차(Volvo Cars) 등 자동차 안전성 분야를 선도하는 기업들에 채택됐다.  젠슨 황은 자율 주행차의 발전에서 합성 데이터가 중요한 역할을 수행한다고 강조했다. 합성 데이터는 실세계 데이터에 한계가 존재하는 상황에서 자율 주행차 제조 단계에서의 훈련에 필수적이라고 설명했다.  엔비디아 옴니버스 AI 모델과 코스모스를 기반으로 한 이 같은 접근 방식은 “훈련 데이터의 양을 어마어마하게 늘리는 합성 주행 시나리오를 생성”한다.  엔비디아와 코스모스를 사용하는 엔비디아의 AI 데이터 공장은 “수백 개의 주행을 수십억 마일에 달하는 유효 주행으로 확장”함으로써 안전하고 진일보한 자율 주행에 필요한 데이터세트를 획기적으로 늘릴 수 있다.  젠슨 황은 “자율 주행차 훈련에 쓰일 방대한 데이터를 보유하게 될 것”이라고 덧붙였다.  세계 최대 자동차 제조사인 토요타는 안전 인증을 획득한 엔비디아 드라이브OS 운영 체제와 엔비디아 드라이브 AGX 오린(Orin)을 기반으로 차세대 차량을 생산할 것이라고 밝혔다.  젠슨 황은 “컴퓨터 그래픽이 놀라운 속도로 혁신을 이룩했듯 향후 몇 년 동안 AV 발전 속도 또한 엄청나게 빨라질 것으로 예상된다. 이 차량들은 기능 안전성과 진일보한 주행 지원 능력을 제공할 전망”이라고 말했다.    에이전트 AI와 디지털 제조 엔비디아와 협력사들은 효율적인 조사와 영상 검색, 요약을 통해 대용량 영상과 이미지를 분석할 수 있는 PDF 투 팟캐스트(PDF-to-podcast) 등 에이전틱 AI용 AI 블루프린트들을 출시했다. 이를 통해 개발자들이 어디서나 AI 에이전트를 구축, 테스트, 실행할 수 있도록 지원해왔다.  개발자는 AI 블루프린트를 활용해 맞춤형 에이전트를 배포하고 엔터프라이즈 워크플로우를 자동화할 수 있다. 이 새로운 범주의 협력사 블루프린트는 엔비디아 NIM 마이크로서비스나 엔비디아 네모(NeMo) 등의 엔비디아 AI 엔터프라이즈 소프트웨어와 크루AI(CrewAI), 데일리(Daily), 랭체인(LangChain), 라마인덱스(LlamaIndex), 웨이츠 앤 바이어시스(Weights & Biases) 등 선도적인 제공자들의 플랫폼을 통합한다.  이와 더불어 젠슨 황은 라마 네모트론(Llama Nemotron)도 새롭게 발표했다.  개발자는 엔비디아 NIM 마이크로서비스를 활용해 고객 지원과 사기 탐지, 공급망 최적화 작업용 AI 에이전트를 구축할 수 있다.  엔비디아 NIM 마이크로서비스로 제공되는 이 모델들은 가속 시스템 일체에서 AI 에이전트를 가속한다. 엔비디아 NIM 마이크로서비스는 영상 콘텐츠 관리를 간소화해 미디어 업계의 효율성과 시청자 참여도를 높인다. 엔비디아의 신기술은 디지털 분야의 애플리케이션을 넘어 AI가 로보틱스로 물리적 세계를 혁신할 길을 열어주고 있다. 그는 “지금까지 말씀드린 지원 테크놀로지 일체를 바탕으로 우리는 향후 몇 년 동안 로보틱스 전반에서 엄청난 속도의 혁신과 놀라운 변화들을 만들어내게 될 것”이라고 말했다. 제조 분야의 합성 모션 생성을 위한 엔비디아 아이작(Isaac) GR00T 블루프린트는 기하급수적으로 많은 합성 모션 데이터를 생성해 모방 학습을 통한 휴머노이드 훈련에 도움을 줄 것이다. 젠슨 황은 엔비디아 옴니버스로 수백 만 개의 휴머노이드 훈련용 합성 모션을 생성해 로봇을 효율적으로 훈련시키는 것이 중요하다고 강조했다. 메가 블루프린트는 엑센츄어(Accenture)와 키온(KION) 같은 선진 업체들이 창고 자동화를 위해 채택한 로봇들의 대규모 시뮬레이션을 지원한다.  이러한 AI 툴을 바탕으로 엔비디아의 새로운 혁신, 일명 프로젝트 디지츠로 불리는 개인용 AI 슈퍼컴퓨터가 등장했다.                                                                                             엔비디아 프로젝트 디지츠 공개 젠슨 황은 개인 사용자와 개발자 모두에게 엔비디아 그레이스 블랙웰을 쥐여주게 될 엔비디아 프로젝트 디지츠 를 공개했다. 그는 “한 가지 더 보여드리고 싶은 게 있다. 약 10년 전에 시작된 이 놀라운 프로젝트가 아니었다면 이 같은 일은 절대로 불가능했을 것이다. 이는 우리 회사 내부에서 프로젝트 디지츠라 불리던 작업이다. 딥 러닝 GPU 인텔리전스 트레이닝 시스템(deep learning GPU intelligence training system)의 약어다”라며 소개를 시작했다. 그는 2016년 최초의 엔비디아 DGX 시스템이 오픈AI(OpenAI)에 제공되던 당시를 그리며 엔비디아의 AI 슈퍼컴퓨팅 개발을 향한 여정이 남긴 유산을 되새겼다. 그는 “그 덕분에 AI 컴퓨팅의 혁명이 가능했다는 건 분명한 사실”이라고 말했다. 새로 발표된 프로젝트 디지츠는 엔비디아의 슈퍼컴퓨팅 개발 미션을 더욱 발전시켰다. 젠슨 황은 “모든 소프트웨어 엔지니어, 모든 엔지니어, 모든 크리에이티브 아티스트, 오늘날 컴퓨터를 도구로 사용하는 모든 이들에게 AI 슈퍼컴퓨터가 필요해질 것”이라고 전했다. 젠슨 황은 10기가 그레이스 블랙웰 슈퍼칩으로 구동되는 프로젝트 디지츠가 엔비디아의 가장 작지만 가장 강력한 AI 슈퍼컴퓨터라고 밝혔다. 젠슨 황은 “이것이 엔비디아의 최신 AI 슈퍼컴퓨터”라고 설명하며 프로젝트 디지츠를 선보였다. 그는 “이 제품은 엔비디아 AI 스택 전체를 구동한다. 엔비디아 소프트웨어 일체가 여기서 실행된다. DGX 클라우드 또한 마찬가지”라고 말했다.    소형이지만 강력한 프로젝트 디지츠는 오는 5월 출시를 앞두고 있다.    미래를 이끄는 엔비디아의 비전 젠슨 황은 연설을 마무리하며, 엔비디아가 30년간 혁신을 거듭해온 과정을 돌아보고,  “1999년 프로그래머블 GPU를 개발한 이후, 우리는 현대 AI가 컴퓨팅을 근본적으로 변화시키는 과정을 지켜봤다”고 말했다. CES 2025에서 공개된 엔비디아의 혁신들은 AI 기술이 산업 전반에 걸쳐 새로운 가능성을 열어줄 것을 보여줬다. 젠슨 황의 말처럼, AI는 이미 우리의 일상 속 깊숙이 자리 잡았으며, 엔비디아는 그 중심에서 미래를 선도하고 있다.  
작성일 : 2025-01-11
HP, CES 2025에서 신규 AI PC 및 설루션 공개
HP가 CES 2025에서 차세대 AI PC 및 설루션을 공개했다. 이번 신제품을 통해 HP는 전문가들이 혁신적이고 효율적인 협업을 통해 리더십을 발휘할 수 있도록 지원하겠다는 전략이다. 업무 환경의 변화로 PC 사용자들이 기술에 갖는 기대 역시 달라지고 있다. HP는 이러한 트렌드를 반영해, 개인의 업무 스타일에 맞춰 사용할 수 있는 차세대 기업용 AI PC 라인업을 공개했다. HP가 이번 CES에서 발표한 최신 엘리트북(EliteBook) 라인업 제품은 한 번의 클릭으로 발표 자료 준비와 개인 맞춤형 이메일 작성이 가능하다. 뿐만 아니라 스튜디오급 녹음 기능과 HP의 보안 설루션 울프 시큐리티(Wolf Security)가 제공하는 보안 및 인텔리전스 기능까지 내장돼 있다.   ▲ HP 엘리트북 울트라 G1i 14인치   HP의 차세대 기업용 AI 노트북인 HP 엘리트북 울트라 G1i 14인치(HP EliteBook Ultra G1)는 사용자가 빠르게 의사 결정을 내릴 수 있도록 지원하는 동시에 AI를 활용해 협업 경험을 향상시킨다. 최대 48 TOPS의 NPU를 지원하는 인텔 코어 울트라 5/7 프로세서를 통해 로컬 AI 성능을 개선하고 생산성을 높인다. 이를 통해 고성능을 요구하는 애플리케이션에서 멀티태스킹을 원활히 수행할 수 있으며, 웨비나와 팟캐스트를 두 배 이상 빠르게 맞춤 제작하고, 이메일 작성 속도 역시 두 배 가까이 향상시킬 수 있다. 또한 전문가 수준의 동영상을 제작할 수 있는 스튜디오급 녹음 기능, 9MP 카메라, 듀얼 마이크, 쿼드 스피커, AI 기반 폴리 카메라 프로(Poly Camera Pro) 등을 내장했다. 120Hz 3K OLED 디스플레이와 큰 크기의 햅틱 트랙패드도 탑재됐다. HP는 이동이 잦은 사용자들을 위해 높은 성능과 신뢰성을 제공하는 HP 엘리트북 X G1i 14인치(HP EliteBook X G1i)와 HP 엘리트북 X 플립 G1i 14인치(HP EliteBook X Flip G1i)를 선보였다. 이들 제푸은 인텔 코어 울트라 5/7 프로세서를 통해 비디오 데모 녹화와 발표 자료 준비를 두 배 가까이 빠르게 처리할 수 있으며, 개인 맞춤형 이메일도 1.3배 빨라진다. 두 개의 고밀도 터보팬을 이용한 열 조절 설계로 까다로운 작업 중에도 소음을 10% 줄인다. 가벼운 무게와 유연한 디자인을 갖춘 HP 엘리트북 X 플립 G1i 14인치는 노트북, 태블릿, 텐트 모드로 손쉽게 전환돼 다양한 작업 스타일에 맞춰 사용 가능하다. 애트모스피릭 블루(Atmospheric Blue)와 글레이셔 실버(Glacier Silver)의 두 색상으로 출시되며, HP 충전식 액티브 펜(HP Rechargeable Active Pen)과 함께 사용 시 정교한 필기 작업도 용이하다. HP의 차세대 기업용 AI PC 라인업은 CES 2025 혁신상을 수상한 자체 AI 설루션인 HP AI 컴페니언(HP AI Companion)을 탑재했다. 이를 통해 사용자는 개인화된 PC 설정 환경에서 문서를 요약하고, 이를 바탕으로 빠른 의사 결정이 가능하다. 동시에, HP 울프 시큐리티의 인텔리전스 기능을 활용해 고도화되는 사이버 위협으로부터 엔드포인트 전반의 보안을 쉽게 유지할 수 있다.   ▲ HP Z2 미니 G1 미니 워크스테이션   이외에도 HP는 AMD와 협력해 HP Z2 미니 G1a(HP Z2 Mini G1a)와 HP ZBook 울트라 G1a(HP ZBook Ultra G1a)를 개발했다. 두 제품은 AMD 라이젠 AI 맥스 프로(Ryzen AI Max PRO) 프로세서를 탑재한 모바일 워크스테이션으로, 콤팩트한 디자인과 향상된 성능을 제공한다. 이들 제품은 사용자가 3D 설계, 고사양 그래픽 작업이 필요한 프로젝트 렌더링, 로컬 대규모 언어 모델(LLM) 작업을 동시에 수행할 수 있도록 지원한다. 이와 함께 HP는 새로운 18인치 ZBook을 선보이면서 더욱 광범위한 모바일 워크스테이션 포트폴리오를 갖추게 됐다. HP ZBook 울트라 G1a는 14인치 모바일 워크스테이션으로 콤팩트한 디자인 덕분에 이동 중에도 성능에 제약 없이 다양한 작업을 수행할 수 있다. 이 제품은 AMD 라이젠 AI 맥스 프로 프로세서를 탑재해 이전에는 노트북에서 불가능했던 워크플로를 지원한다. 또한, 초박형 및 초경량 디자인, 오래 지속되는 배터리, 차세대 AI PC 기능, AI 강화 프라이버시 기능이 탑재돼 사무실 등 고정된 업무 환경에서의 워크플로를 어디서나 구현할 수 있다. 하드웨어는 여러 애플리케이션 간의 멀티태스킹이 매끄럽게 진행될 수 있도록 구성됐다. 16개의 데스크톱급 CPU 코어, 독립형 그래픽 수준의 성능을 제공하는 통합형 그래픽, 최대 128GB의 통합 메모리 아키텍처를 제공하고, 최대 96GB의 RAM을 GPU에 할당할 수 있도록 설계됐다. 미니 워크스테이션인 HP Z2 미니 G1a는 전문가용 워크스테이션에 일반적으로 요구되는 수준을 뛰어넘는 성능을 제공한다. AMD 라이젠 AI 맥스 프로 프로세서와 128GB까지 확장 가능한 통합 메모리 아키텍처를 탑재해, 최대 96GB를 GPU 전용으로 할당할 수 있다. 내부 전원 공급 장치를 갖춘 이 제품은 책상 위, 모니터 뒤, 책상 아래 어디든 깔끔하게 배치할 수 있는 작은 크기를 갖고 있으며 성능, 관리 용이성, 보안을 갖춘 고밀도 랙 마운트 설루션에도 적합하다. 어도비와 함께 개발한 HP Z 캡티스(HP Z Captis)는 최대 8K의 해상도로 어떠한 소재도 디지털화할 수 있는 폼팩터로, CES 2025 최고 혁신상을 수상했다. 사용자들의 창의성을 극대화하겠다는 신념을 가진 HP는 이러한 비전을 제품에 반영하며, 업계 선도 기업과의 협력을 통해 크리에이티브 워크플로를 향상시키겠다는 의지를 강조했다. HP는 2025년 봄 자사 최초의 18인치 모바일 워크스테이션을 출시할 예정이다. 17인치 워크스테이션과 비슷한 크기지만, 더 많은 전력과 높은 전문가급 그래픽 성능, 대용량 메모리, 저장 공간을 제공한다. 이 제품은 3배 빠른 속도의 터보팬과 HP 베이퍼포스 서멀(HP Vaporforce Thermals) 설루션, 차세대 독립형 그래픽을 탑재해 최대 200와트(W) 열설계전력(TDP)을 지원하도록 세밀하게 설계됐다. 또한 휴대성과 성능의 혁신을 통해 요구 사항이 많은 새로운 워크플로를 가능하게 할 전망이다.
작성일 : 2025-01-09
델, PC 제품군의 브랜드를 세 가지로 통합
델 테크놀로지스는 AI PC 시장의 빠른 진화에 따라 사용자가 최적의 AI PC를 손쉽게 선택할 수 있도록 PC, 디스플레이, 서비스, 액세서리 전반에서 새로운 통합 브랜드를 선보였다. 새 브랜드는 ▲엔터테인먼트·학습·업무용 제품군인 ‘델(Dell)’ ▲전문가급 생산성을 위한 제품군인 ‘델 프로(Dell Pro)’ ▲최고 수준의 성능을 위한 제품군인 ‘델 프로 맥스(Dell Pro Max)’ 의 3가지 제품군으로 구성된다. 그리고 각각의 제품군에서 ‘엔트리급 티어’부터 다양한 수준의 성능을 제공하는 메인스트림급 ‘플러스(Plus) 티어’, 높은 우수한 휴대성 및 디자인을 겸비한 고급형의 ‘프리미엄(Premium) 티어’ 등 세 가지 등급을 제공한다.     델은 기존의 ‘래티튜드’ 비즈니스 노트북과 ‘옵티플렉스’ 데스크톱의 브랜딩을 각각 ‘델 프로 노트북’과 ‘델 프로 데스크톱’으로 재편했다. 비즈니스 전문가를 위한 델 프로 노트북 포트폴리오는 유행을 타지 않는 깔끔한 디자인에 작고 가벼운 폼 팩터로 휴대성과 성능을 높인 것이 특징이다. 또한, 내구성이 우수한 소재를 적용해 외부 충격에 강하다는 점을 내세운다. 고성능 CPU, GPU, NPU를 탑재한 이 AI PC 제품군은 인텔 코어 울트라 시리즈 2 프로세서를 탑재했으며, 향후 AMD 라이젠 프로세서를 탑재한 제품도 제공될 예정이다. 향상된 배터리 수명 및 코파일럿과 같은 온-디바이스 AI 기능을 통해 하이브리드 업무 환경에서 높은 생산성을 안정적으로 구현하도록 했다. ‘델 프로 플러스’ 제품군은 다양한 사양을 제공하는 메인스트림 기업용 노트북으로, 사용자의 니즈에 따라 다양한 스펙, 폼 팩터(클램셸 및 투인원), 디스플레이 크기(13/14/16인치)를 선택할 수 있다. 이 제품군은 모두 동일한 시스템 BIOS를 사용해 IT 부서의 관리 업무 절차를 간소화시켜 준다. USB, HDMI, 썬더볼트 포트 옵션과 5G 및 Wi-Fi 7을 지원하며, 미국 국방성 내구성 표준 테스트(MIL-STD)를 통과했다. 기존 ‘프리시전’ 제품군은 ‘델 프로 맥스’ 포트폴리오로 변경됐다. 델 프로 맥스 제품군은 전체적으로 델 프로의 디자인을 적용해 통일감 있고 프로페셔널한 외관을 구현했다. 워크스테이션은 새롭게 특허 받은 방열 설계 방식을 채택해 이전 세대 대비 더욱 뛰어난 성능을 제공하며, 인텔 코어 울트라 시리즈 2 및 AMD 프로세서 옵션과 전문가용 그래픽을 제공한다. 이 제품군은 보안 유지 및 비용 관리를 원활히 지원하면서 애니메이션부터 비디오 렌더링까지 데이터 집약적인 워크로드를 효율적으로 처리하고, AI 추론을 실행하며, 대규모 언어 모델(LLM)을 미세 조정할 수 있다. 한편, 델은 ‘CES 2025’의 개막에 맞춰 AI 시대에 맞춰 창의성과 생산성을 향상시키는 온-디바이스 AI 기반의 새로운 PC 포트폴리오를 공개했다. 이번에 발표한 신제품은 델, 델 프로, 델 프로 맥스 브랜드의 AI PC를 비롯해, ‘델 울트라샤프(Dell UltraSharp)’와 ‘델 플러스(Dell Plus)’ 모니터를 포함한다. 한국 델 테크놀로지스의 김경진 총괄사장은 “PC는 일상생활에서 가장 중요한 개인용 생산성 디바이스로, AI로 인해 변화의 시기를 맞이하고 있다”면서, “델 테크놀로지스는 지난 40년간 PC 분야에서 목적 지향적인 혁신을 주도해 왔으며, AI 시대에 완벽하게 부합하는 간소화되고 새로운 AI PC 포트폴리오를 통해 컴퓨팅의 미래를 이끌어 나갈 것”이라고 밝혔다.
작성일 : 2025-01-07
언리얼 엔진 5.5 : 애니메이션/가상 프로덕션/모바일 게임 개발 기능 강화
개발 및 공급 : 에픽게임즈 주요 특징 : 고퀄리티 애니메이션 제작 워크플로 지원 기능 향상, 하드웨어 레이 트레이싱 기반 시스템 지원 강화, 버추얼 프로덕션을 위한 인카메라 VFX 툴세트 정식 버전 제공, 모바일 게임 개발 위한 모바일 포워드 렌더러의 기능 추가 등     이번에 출시된 언리얼 엔진 5.5는 애니메이션 제작, 버추얼 프로덕션, 모바일 게임 개발 기능이 크게 향상됐고, 렌더링, 인카메라 VFX, 개발자 반복 작업 등 많은 기능들을 정식 버전으로 제공한다. 또한 메가라이트와 같은 한계를 뛰어넘는 흥미롭고 새로운 혁신도 계속해서 선보였다.   애니메이션 언리얼 엔진 5.5는 에디터에서 고퀄리티 애니메이션 제작 워크플로를 지원하는 신규 및 향상된 기능을 제공하여 상황에 맞는 애니메이션을 제작할 수 있어, DCC 애플리케이션을 오가며 작업할 필요성이 줄어들었다. 또한, 애니메이션 게임플레이 제작 툴세트에도 새로운 기능이 추가되었다.   시퀀서 이번 버전에서는 언리얼 엔진의 비선형 애니메이션 에디터인 시퀀서가 크게 개선되어 직관적인 인터페이스를 제공하며, 더 나은 필터링과 속성을 더 쉽게 사용할 수 있게 됐다. 이를 통해 워크플로 피로도를 줄이고 생산성을 높일 수 있다.  또한, 원본이 훼손되지 않는 애니메이션 레이어가 추가되어 기존 DCC 애플리케이션에서만 볼 수 있었던 추가 제어 기능과 유연성을 제공한다. 이제 애니메이션 레이어의 애디티브 또는 오버라이드를 선택하고, 이 레이어의 가중치도 애니메이션할 수 있어 손쉽게 콘텐츠를 관리할 수 있다.    ▲ 이미지 출처 : 언리얼 엔진 홈페이지 영상 캡처   마지막으로, 인터랙티브 시네마틱 도중 플레이어의 선택에 따른 조건부 상태 변경, 게임플레이 시네마틱 내에서 오브젝트를 보다 섬세하게 제어하는 커스텀 바인딩 등과 같은 기능으로 다양한 다이내믹 시네마틱 시나리오를 작동하도록 설정하는 것이 더 쉬워졌다. 또한, 커브를 사용해 시퀀스의 타이밍을 워프하고, 서브시퀀스 또는 샷의 원점을 재배치할 수도 있다.   애니메이션 디포머 컨트롤 릭에서 애니메이션을 적용할 수 있는 애니메이션 디포머를 만들어 클릭 한 번으로 시퀀서의 캐릭터에 쉽게 적용할 수 있는 기능이 추가되어, 접촉 디포메이션이나 더 나은 카툰 스타일의 스쿼시 앤 스트레치(찌그러짐과 늘어남)같은 더욱 사실적인 애니메이션 이펙트를 제작할 수 있다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지 영상 캡처   또한, 애니메이터 키트 플러그인에는 래티스, 카메라 래티스, 스컬프팅 등 기본 디포머 기능과 함께 바로 사용할 수 있는 다양한 컨트롤 릭이 포함되어 있으며, 애니메이션에 사용하거나 자신만의 릭으로 구동되는 디포머 또는 헬퍼 릭을 제작하는 데 예제로 활용할 수 있는 유틸리티 컨트롤 릭도 제공된다.   모듈형 컨트롤 릭 모듈형 컨트롤 릭(modular control rig)은 다양한 UI 및 UX 개선, 새로운 사족 보행 및 비클 모듈 그리고 기본 이족 스켈레톤 유형에 대한 지원과 함께 베타 버전으로 제공된다. 또한, 스켈레탈 에디터는 이제 더 빠르고 간소화된 페인팅 워크플로 및 가중치 편집 등 다양한 개선 사항과 함께 정식 버전으로 만나볼 수 있다.   메타휴먼 애니메이터 언리얼 엔진용 메타휴먼 플러그인 중 하나인 메타휴먼 애니메이터도 이번 버전에서 대폭 업그레이드됐다. 처음에는 실험 단계 기능으로 도입되었으나, 이제 오디오만으로도 얼굴 상단 부분의 표정 추론을 포함하여 고퀄리티의 페이셜 애니메이션을 생성할 수 있다. 이 로컬 오프라인 설루션은 다양한 음성 및 언어와 함께 작동되며, 다른 메타휴먼 애니메이터 입력과 함께 일괄 처리 및 스크립팅할 수 있다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지   뮤터블 캐릭터 커스터마이제이션 런타임에 동적으로 변경되는 콘텐츠를 개발하는 게임 개발자에게 큰 도움을 제공할 뮤터블(mutable) 캐릭터 커스터마이제이션 시스템이 새롭게 추가됐다. 이 시스템은 캐릭터, 동물, 소품, 무기 등의 다이내믹 스켈레탈 메시, 머티리얼, 텍스처를 생성하는 동시에 메모리 사용량을 최적화하고 셰이더 비용과 드로 콜 수를 줄여준다. 런타임에 콘텐츠를 수정하는 네이티브 툴과는 달리, 뮤터블에서는 많은 파라미터와 텍스처 레이어, 복잡한 메시 상호작용, GPU에 부하가 큰 텍스처 효과 등을 처리할 수 있는 심층적인 커스터마이징을 제공한다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지 영상 캡처   선택기 선택기도 정식 버전으로 제공된다. 복잡한 로직을 작성할 필요 없이 게임 상황에 따라 재생할 애니메이션을 선택할 수 있는 이 프레임워크는 이제 거의 모든 유형의 애셋을 지원하며, 단순한 랜덤 선택기부터 수천 개의 애니메이션을 관리하는 데이터베이스 기반의 로직까지 다양한 수준의 복잡성을 처리할 수 있다. 이러한 기능은 업데이트된 게임 애니메이션 샘플 프로젝트에서 사용해 볼 수 있다.   렌더링 에픽게임즈는 언리얼 엔진 5의 높은 리얼타임 렌더링 퍼포먼스와 퀄리티를 제공하기 위해 지속적으로 노력하고 있다.   루멘 하드웨어 레이 트레이싱(Hardware Ray Tracing, HWRT) 기반 시스템에 많은 향상이 이루어지면서, 이제 하드웨어 지원을 제공하는 플랫폼에서 루멘을 60Hz로 실행할 수 있다. 이러한 개선을 통해 패스 트레이서 및 라이트 베이킹의 퍼포먼스와 기능도 향상될 수 있다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지   패스 트레이서 물리적으로 정확한 DXR 가속 프로그레시브 렌더링 모드인 패스 트레이서는 이제 정식 버전으로 제공되어 비선형 애플리케이션 또는 모든 기능을 갖춘 실사 레퍼런스 이미지의 최종 픽셀을 제작할 때 높은 퀄리티를 제공한다. 이번 버전에서는 퍼포먼스 및 퀄리티 개선, 리눅스 지원, 스카이 애트머스피어 및 볼류메트릭 클라우드 등 다른 모든 정식 버전 기능을 지원한다.   ▲ Audi e-tron GT 모델(이미지 제공 : Audi Business Innovation)   서브스트레이트 언리얼 엔진 5.2에서 실험 단계로 선보인 머티리얼 제작 프레임워크인 서브스트레이트가 베타 버전으로 전환되어, 언리얼 엔진이 지원하는 모든 플랫폼과 기존 머티리얼의 모든 기능이 지원된다. 리얼타임 애플리케이션을 위해 최적화하는 작업이 진행 중이며, 선형 머티리얼 제작에는 정식으로 사용할 수 있다. 룩 개발 아티스트는 이 강력하고 유연한 프레임워크를 활용하여 오브젝트의 룩 앤 필을 더 제어할 수 있다.   무비 렌더 그래프 언리얼 엔진 5.4에서 실험 단계로 도입되었던 무비 렌더 그래프(Movie Render Graph, MRG)도 이번 버전에서 베타 버전으로 전환된다. 그래프 기반의 환경 설정 워크플로에 많은 노력을 통해 커스텀 EXR 메타데이터를 사용하는 기능, 컬렉션의 스포너블 지원과 같은 초기 사용자의 피드백을 기반한 개선점 그리고 오브젝트 ID 지원과 같은 기존 프리셋 구성의 호환성 향상 등을 제공한다. 또한, 이제 MRG의 렌더 레이어 기능에서 반투명 오브젝트, 나이아가라 FX, 불균질 볼륨, 랜드스케이프, 스카이 스피어를 사용할 필요가 없는 스카이 애트머스피어 등을 포함해 모든 애셋 유형을 지원한다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지 영상 캡처   마지막으로, MRG는 신규 실험 단계 기능인 패스 트레이서용 스파시오 템포럴 디노이저(denoiser)를 제공해 선형 시퀀스에 고퀄리티의 결과를 출력할 수 있다.   메가라이트 언리얼 엔진 5.5에서는 새로운 실험 단계 기능인 메가라이트를 미리 만나볼 수 있다. ‘빛의 나나이트’라고 불리는 메가라이트를 사용하면 신에 제약 없이 다이내믹한 그림자를 만드는 수백 개의 라이트를 추가할 수 있다. 이를 통해 라이팅 아티스트는 이제 콘솔과 PC에서 소프트 섀도와 함께 텍스처가 적용된 에어리어 라이트, 라이트 함수, 미디어 텍스처 재생, 볼류메트릭 섀도를 자유롭게 사용해 볼 수 있어 성능보다는 예술적인 부분에 집중할 수 있다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지 영상 캡처   버추얼 프로덕션 언리얼 엔진은 버추얼 프로덕션을 위한 인카메라 VFX(ICVFX) 툴세트를 통해 전 세계 영화, TV, 광고 등 수많은 제작을 지원하고 있다. 언리얼 엔진 5.5는 여러 버전에 걸친 축적된 노력을 통해 ICVFX 툴세트를 정식 버전으로 제공하며, 버추얼 프로덕션 및 시각화를 위한 다른 기능도 향상되었다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지 영상 캡처   SMPTE 2110 언리얼 엔진의 SMPTE 2110 지원이 대표적인 예로, 이번 출시에서는 ICVFX 프로젝트의 요구사항에 맞춰 수많은 안정성 개선, 프레임록 손실 자동 감지 및 복구, 타임코드로 PTP 지원 추가, 2110 미디어에 대한 OCIO 지원, IP 비디오 신호 흐름에 대한 개선이 이뤄졌다.   카메라 캘리브레이션 카메라 캘리브레이션 솔버 역시 언리얼 엔진 5.5에서 정식 버전으로 제공되어, 렌즈 및 카메라 파라미터 추정 정확도가 크게 향상되었다. 이 작업을 바탕으로 이제 모든 카메라에 오버스캔이 내장되어, 렌즈 왜곡을 렌더링하거나 포스트 프로세싱 단계에서 카메라 셰이크 추가 등을 지원한다.    버추얼 스카우팅 언리얼 엔진 5.4에서 처음 도입된 버추얼 스카우팅 툴세트가 정식 버전으로 업데이트됐다. 이제 OpenXR 호환 HMD(오큘러스 및 밸브 인덱스 기본 지원)를 사용해 강력한 경험을 곧바로 활용할 수 있으며, 광범위한 API를 통한 새로운 커스터마이징도 제공한다. 이 툴세트에서는 새로운 VR 콘텐츠 브라우저와 애셋 배치, 블루프린트로 커스터마이징할 수 있는 트랜스폼 기즈모, 색상 보정 뷰파인더 등이 더욱 향상되었다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지 영상 캡처   컬러 그레이딩 패널 이전에는 ICVFX 에디터에서만 제공됐던 컬러 그레이딩 패널이 이제 언리얼 에디터의 일반 기능으로 사용할 수 있게 돼, 모든 언리얼 엔진 신에서 창의적으로 컬러를 보정할 수 있는 풍부하면서도 아티스트 친화적인 인터페이스를 제공한다. nDisplay로 작업하는 사람들만이 아니라 모든 아티스트에게 향상된 컬러 그레이딩 경험을 제공하는 이 패널은 포스트 프로세스 볼륨, 시네 카메라 및 색 보정 영역도 지원한다.    DMX 버추얼 프로덕션뿐만 아니라 방송 및 라이브 이벤트에도 적용할 수 있는 언리얼 엔진의 DMX 테크 스택 또한 정식 버전이 되어 향상된 컨트롤 콘솔, 픽셀 매핑, 컨플릭트 모니터를 제공한다. 또한, 이번 버전에서는 GDTF 규격을 DMX 플러그인에 추가하여 GDTF 및 MVR을 지원하는 제어 장치와 소프트웨어의 지원을 추가하는 등의 다양한 개선 사항을 제공한다.   모바일 게임 개발 언리얼 엔진은 플랫폼 측면에서도 모바일 및 크로스 플랫폼 AAA 게임 개발을 위한 최고의 엔진이 되고자 모바일 지원에 지속적으로 노력을 기울이고 있다. 모바일 포워드 렌더러에는 플랫폼의 비주얼 퀄리티를 높일 수 있는 다양한 신규 기능이 추가되었다. 또한, 이제 D-버퍼 데칼, 렉트 에어리어 라이트, 캡슐 섀도, 포인트 및 스포트라이트용 무버블 IES 텍스처, 볼류메트릭 포그, 나이아가라 파티클 라이트가 지원되며, 모바일 포워드와 디퍼드 렌더러 모두 스크린 스페이스 리플렉션을 사용할 수 있다.    ▲ 이미지 출처 : 언리얼 엔진 홈페이지 영상 캡처   뿐만 아니라 언리얼 엔진 5.4에서 도입된 런타임 자동 PSO(Pipeline State Object) 프리캐싱이 이제 기본 활성화되어, 수동 PSO 수집 워크플로에 대한 쉽고 빠른 대안을 제공한다. 모바일 프리뷰어의 경우 특정 안드로이드 디바이스 프로필을 캡처 및 프리뷰하는 기능과 반정밀도 16비트 플로트 셰이더를 에뮬레이션하여 오류를 쉽게 확인하고 대응할 수 있는 기능 등의 다양한 개선이 이뤄졌다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지   개발자 반복 작업 언리얼 엔진 5.5를 통해 개발자의 빠른 반복 작업과 효율이 더 높은 퀄리티의 결과물을 만든다는 점을 잘 알고 있는 에픽게임즈는 크리에이터 경험의 규모와 비전을 충족하기 위해 언리얼 엔진의 데이터 처리 파이프라인을 지속적으로 발전시키고 있다. 언리얼 엔진 5.4에서 선보인 최적화된 신규 캐시 데이터 스토리지 및 네트워크 커뮤니케이션 아키텍처인 언리얼 젠 서버(Unreal Zen Server)가 이제 정식 버전으로 제공되어 공유 파생 데이터 캐시(Derived Data Cache, DDC)로 사용될 수 있다. 또한, 이번 버전에서는 젠 서버가 PC, 콘솔, 모바일 등의 타깃 플랫폼으로 쿠킹된 데이터의 스트리밍을 지원한다. 실험 단계로 도입된 이 신규 기능으로 개발 중에도 콘솔이나 모바일 등의 타깃 플랫폼에서 게임이 어떻게 보이고 작동하는지 보다 빠르고 쉽게 평가할 수 있다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지   이외에도 에디터 시스템과 쿠킹 프로세스에 최적화된 애셋 로딩 경로를 제공하는 언리얼 젠 로더, 더 빠른 C++ 및 셰이더 컴파일을 제공하는 언리얼 빌드 액셀러레이터(Unreal Build Accelerator, UBA), 더욱 효율적이고 확장 가능한 개발 워크플로를 제공하는 언리얼 호드 지속적 통합(CI) 및 원격 실행 등 다양한 기능을 이번 버전에서 정식 버전으로 제공한다.(UBA는 윈도우 호스트 머신에서 정식 버전으로 제공되며, 타 플랫폼에서는 현재 베타 단계로 제공된다.)   팹 통합 정식으로 출시된 새로운 통합 콘텐츠 마켓플레이스 팹(Fab)이 언리얼 엔진 5.5에 통합되어 퀵셀 메가스캔과 같은 개별 애셋을 신으로 직접 드래그 앤 드롭 할 수 있으며, 팹의 애셋 팩을 콘텐츠 브라우저에 추가할 수도 있다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-01-06
[케이스 스터디] 언리얼 엔진으로 만든 버추얼 아이돌 플레이브
통합 시각화 파이프라인으로 새로운 경험 제공   리얼타임 3D 콘텐츠 제작 기술이 날로 진화함에 따라 버추얼 아티스트, 유튜버 등 디지털 휴먼 시장도 함께 성장하고 있는 가운데, 대한민국에는 데뷔 1년여 만에 실제 아이돌 못지 않은 인기를 누리고 있는 버추얼 아이돌이 있다. 바로 플레이브(PLAVE)다. ■ 자료 제공 : 에픽게임즈   ▲ 이미지 출처 : ‘언리얼 엔진으로 전례 없는 경험을 제공하는 PLAVE’ 영상 캡처   플레이브는 예준, 노아, 밤비, 은호, 하민 등 다섯 명의 멤버가 작사, 작곡 그리고 안무까지 직접 제작하는 버추얼 보이 그룹이다. 2023년 3월 12일 데뷔 이후 버추얼 아이돌 최초로 지상파 음악방송에서 1위를 차지한 것은 물론, 최근에는 잠실 실내체육관에서 양일간 오프라인 단독 라이브 콘서트를 개최해 전석이 매진되는 등 인기를 누리고 있다. 플레이브의 인기 비결에는 여러 요소가 있겠지만 언리얼 엔진의 리얼타임 기술로 자연스러운 비주얼 퀄리티뿐만 아니라, 매주 라이브 방송을 통해 팬들과 소통하며 아티스트의 진면목을 전할 수 있던 점을 꼽을 수 있다. 시네마틱 영상, 라이브 방송 그리고 오프라인 라이브 콘서트까지 어떻게 언리얼 엔진으로 통합 제작 파이프라인을 구축해 아티스트의 본질을 전달할 수 있었는지 살펴보기로 하자.    시네마틱 콘텐츠를 위한 리얼타임 통합 파이프라인   ▲ DCC 툴을 병합한 기존의 시네마틱 콘텐츠 제작 파이프라인(이미지 제공 : 블래스트)    ▲ 언리얼 엔진과 통합한 시네마틱 콘텐츠 제작 파이프라인(이미지 제공 : 블래스트)   플레이브의 소속사인 블래스트는 설립 초창기부터 여러 작품을 통해서 언리얼 엔진의 가능성을 확인했기 때문에, 버추얼 IP 파이프라인이라는 회사의 비전을 바탕으로 시네마틱과 라이브 콘텐츠를 모두 제작할 수 있는 언리얼 엔진 통합 파이프라인을 구축하고자 했다. 플레이브의 첫 뮤직비디오인 ‘기다릴게’를 제작하던 때만 해도 언리얼 엔진 제작 경험이 제한적이었기 때문에 레벨 디자인, 라이팅, 렌더링은 언리얼 엔진으로, 이펙트 및 의상 시뮬레이션, 합성 등은 기존의 DCC 툴을 사용하는 방식을 채택했다. 그렇지만 이러한 제작 방식은 언리얼 엔진의 리얼타임 렌더링의 장점을 극대화하지 못하고 전체적인 콘텐츠 제작 속도를 저하시켰다. 또한, 본래 언리얼 엔진 중심의 통합 파이프라인을 구축하려고 했던 블래스트의 비전과 맞지 않는다는 판단 하에, 파이프라인을 언리얼 엔진으로 완전히 대체하기로 결정했다.     ▲ 플레이브 ‘WAY 4 LUV’ 뮤직비디오 영상   의상 및 헤어 시뮬레이션을 언리얼 엔진의 실시간 시뮬레이션으로 완전히 전환하면서, 이제는 애니메이션이 수정될 때마다 라이브 방송처럼 실시간으로 시뮬레이션되어 임포트 과정이 간소화되었다. 렌더링을 위해 라이브 시뮬레이션을 베이크해야 하는 경우 역시 언리얼 엔진의 테이크 레코더를 사용하면 바로 결과를 확인할 수 있어, 전체적인 작업 과정이 효율적으로 향상되었다. 또한, 이펙트 제작에는 언리얼 엔진의 나이아가라 시스템을 전면 도입하여 룩뎁 아티스트들은 모든 최종 연출 요소를 실시간으로 확인하며 함께 작업할 수 있게 되었다. 애니메이션, 시뮬레이션, 이펙트 등의 모든 최종 연출 요소가 엔진으로 통합되면서, 언리얼 엔진을 컴포지터로까지 활용할 수 있었다. 그 결과 ‘WAY 4 LUV’의 시네마틱 영상부터는 모델링, 애니메이션, 룩뎁 등 각 제작 요소가 통합된 최종 결과물을 언리얼 엔진에서 실시간으로 렌더링할 수 있게 되어, 작업의 효율과 퀄리티를 향상시킬 수 있었다.   고도화된 리얼타임 모션 캡처로 아티스트의 진심을 전한 라이브 방송   ▲ 플레이브의 첫 라이브 방송(이미지 제공 : 블래스트)   ▲ 플레이브의 최근 라이브 방송(이미지 제공 : 블래스트)   라이브 방송은 플레이브의 강력한 팬덤을 구축하는 데 있어 매우 중요한 역할을 하고 있는 만큼, 블래스트는 아티스트의 매력과 진심을 잘 전할 수 있도록 많은 노력을 기울여 왔다. 특히 아티스트의 모든 모션이 자연스럽게 보이도록 하기 위해 언리얼 엔진의 라이브 링크로 스트리밍한 모션 캡처 원시 데이터를 실시간으로 가공할 수 있는 다양한 설루션을 개발하는데 많은 정성을 들였다.   ▲ 실시간 간섭 회피 설루션 전후 비교(이미지 제공 : 블래스트)   개발된 설루션은 다양한 체형 사이에 애니메이션을 이질감 없이 자연스럽게 전환할 수 있는 리타기팅 설루션, 매 촬영 때마다 발생하는 마커의 위치 오차를 모션으로 측정하여 보정하는 캘리브레이션 설루션, 신체 비율 또는 외형 차이에 따른 메시 간섭 문제를 실시간으로 해결하는 간섭 회피 설루션, 정확한 포즈와 자연스러운 주변 환경과의 인터랙션 사이를 상황에 따라 적절하게 전환할 수 있는 Dynamic FK/ IK 설루션, 골반 너비와 신발 밑창 및 볼 너비까지 보정해 지면과 발의 접지를 정교하게 표현하는 Foot IK 설루션 등이다. 이를 통해 기존에는 실시간으로 처리하기 어려워서 라이브 콘텐츠에서 적용할 수 없었던 모션 캡처 데이터의 실시간 가공 기술을 자체적으로 개발하여 언리얼 엔진에 통합했다. 이러한 기술 투자 덕분에 버추얼 아이돌임에도 아티스트의 진심을 잘 전할 수 있는 기술적 기반을 갖추게 되었다.   리얼타임 통합 파이프라인의 화룡점정, 오프라인 라이브 콘서트 플레이브는 시네마틱 영상을 매 앨범 발매 시 제작하고 라이브 방송을 지난 1년 반 동안 매주 4시간씩 진행하면서, 언리얼 엔진 중심의 리얼타임 파이프라인을 고도화할 수 있었다. 그리고 그 과정에서 블래스트가 깨달은 점은 두 파이프라인을 서로 구분할 필요가 없다는 점이었다. 아티스트의 퍼포먼스를 실시간으로 보여 줄 지, 녹화해 두고 퀄리티를 올린 후에 보여 줄 지의 차이만 있을 뿐, 두 파이프라인은 모두 라이브 모션 캡처에서 시작한다는 점에서 근본적으로 동일했기 때문이다. 이러한 깨달음을 바탕으로 블래스트는 모든 콘텐츠가 라이브 모션 캡처로부터 시작되는 통합 파이프라인을 개발하였고, 이를 통해 제작 흐름이 간소화되고 직관적으로 개선되어 작업의 효율을 높일 수 있었다. 무엇보다도 큰 이점은 통합된 파이프라인을 통해 콘서트 제작 및 연출에 필요한 역량을 미리 내재화할 수 있었다는 점이다.   ▲ 시네마틱과 라이브 콘텐츠 제작 파이프라인이 통합된 전체 파이프라인(이미지 제공 : 블래스트)   콘서트는 연출뿐만 아니라 제작 파이프라인에서도 시네마틱과 라이브 콘텐츠의 특성을 모두 가지고 있는 특별한 무대다. 수많은 무대의 동선을 사전에 미리 짜맞추며 연출을 확정해 놓으면서도 리허설 때마다 라이브로 전환해야 하므로, 콘서트 작업에는 녹화와 라이브를 수시로 전환할 수 있는 파이프라인이 필수적이다. 이를 위해서 메타휴먼의 캐릭터 설계에 힌트를 얻어 시네마틱 퀄리티와 라이브 퍼포먼스를 모두 만족하는 유연하고 모듈화된 통합 캐릭터 시스템을 개발했다. 이 시스템은 콘서트에 필요한 모든 상황을 지원하기 위해 스켈레탈 메시를 분리해서 적절한 계층구조로 설계하고, 각각의 스켈레탈 메시 컴포넌트는 시퀀서의 애니메이션 트랙을 재생하는 모드와 라이브 링크 모션 캡처 및 실시간 시뮬레이션을 적용하는 모드 사이를 자유롭게 전환할 수 있도록 구현했다. 또한, 라이브 캐릭터 전용 기능은 모두 별도의 컴포넌트로 모듈화시켜 필요한 기능만 라이브 방송 시나리오에 맞춰 적용할 수 있도록 설계했으며, 추가로 룩뎁 아티스트가 일관적인 퀄리티로 작업할 수 있도록 캐릭터 클래스의 모든 기능이 프리뷰 모드와 플레이 모드에서 동일하게 동작하도록 개발했다. 이런 통합 캐릭터 클래스 설계 덕분에 언제든지 시네마틱과 라이브를 간단하게 전환하면서 작업 효율도 높일 수 있게 되었다.   ▲ 스켈레탈 메시의 계층 구조 및 모듈화된 컴포넌트(왼쪽), 컴포넌트 단위로 두 가지 모드를 자유롭게 전환 가능(오른쪽)(이미지 제공 : 블래스트)   통합 캐릭터 클래스와 더불어 좀 더 파이프라인을 단순화하기 위해 언리얼 엔진의 테이크 레코더 기능을 활용한 새로운 모션 캡처 녹화 파이프라인을 구축했으며, 그 덕분에 이제는 모션 캡처부터 시네마틱까지 모든 과정을 언리얼 엔진 내에서 진행할 수 있게 되었다. 이로써 시네마틱용 애니메이션을 제작하기 위해 여러 소프트웨어를 오갈 필요 없이 언리얼 엔진 하나로 모든 작업이 가능해졌다. 또한, 이 새로운 파이프라인을 사용해 자체적으로 개발한 신체 간섭 회피, 캘리브레이션, 리타기팅 기능을 언리얼 엔진 안에서 바로 녹화할 수 있어, 평소 라이브 방송과 동일한 수준의 모션 캡처 퀄리티를 얻을 수 있게 되었다. 이렇게 테이크 레코더의 기능을 통해 녹화 직후 바로 결과를 확인할 수 있어 작업의 효율이 크게 향상되었고, 특히 현장에서 실시간으로 피드백을 주고받을 수 있게 되면서 기획과 디렉팅 측면에서도 큰 발전을 이룰 수 있었다.   ▲ 기존의 모션 캡처 녹화 파이프라인(이미지 제공 : 블래스트)   ▲ 언리얼 엔진으로 통합 후 테이크 레코더를 활용한 모션 캡처 녹화 파이프라인(이미지 제공 : 블래스트)   시네마틱과 라이브 파이프라인의 통합이 더욱 높은 효과를 내기 위해서는 앞서 언급된 기능의 개발과 함께 현장 오퍼레이팅에 대한 지원도 필요했다. 버추얼 파이프라인에서는 여러 소프트웨어를 함께 사용해야 했기 때문에 언리얼 엔진 설정, 녹화 설정, 심지어 단순한 녹음 작업까지 모두 오퍼레이터와 소통해야 했다. 그래서 작업 과정을 단순화하고 자동화하기 위해 언리얼 엔진 기반의 ‘버추얼 슬레이트’라는 태블릿 애플리케이션을 개발했다. 이 애플리케이션은 스튜디오 내 여러 장치와 소프트웨어를 연결하여 원격으로 동시 제어할 수 있고, 녹화 버튼 하나로 언리얼 엔진의 녹화 기능, 모션 캡처 소프트웨어, 여러 채널의 비디오 및 오디오를 동시에 녹화할 수 있다. 그리고 녹화가 끝나면 자동으로 모든 파일의 이름과 저장 위치를 정리하고, 미리보기 장면을 만들어 준다. 이제는 오퍼레이터가 초기 설정만 도와주면, 콘텐츠 제작자들이 직접 모션 캡처 녹화를 할 수 있어 제작자와 아티스트는 서로 의견을 주고받으며 촬영을 진행할 수 있게 되었다.   ▲ 기존의 오퍼레이팅 소통 방식(이미지 제공 : 블래스트)   ▲ 향상된 오퍼레이팅 소통 방식(이미지 제공 : 블래스트)   한편, 시네마틱과 라이브를 결합한 오프라인 라이브 콘서트는 관객에게 높은 몰입감을 전달하는 것이 매우 중요하다. 그렇기 때문에 현실의 무대에 실존하는 아티스트를 보는 것과 같은 스케일과 원근감을 현실감 있게 잘 반영하는 것도 중요한 과제였다. 이 과제를 풀기 위해서는 LED 스크린에 투사된 결과를 미리 예측할 수 있어야 했는데, 이를 위해 언리얼 엔진 내에 실제 공연장과 동일한 크기의 디지털 트윈 레벨을 제작하고 가상 공연장의 LED 스크린에 최종 이미지를 투사했다. 그런 뒤에 관객의 시점에서 VR로 이를 감상하는 방식으로 관객의 시점을 미리 시뮬레이션하며 스케일과 원근감을 조정해 나갔다. 이러한 방법으로 플레이브의 콘서트는 대형 콘서트장의 어떤 좌석에서도 눈앞의 무대에 멤버들이 실존한다는 현실감을 관객에게 전달할 수 있었다.   ▲ 가상에서의 VR 시뮬레이션(이미지 제공 : 블래스트)   ▲ 실제 무대 연출 장면(이미지 제공 : 블래스트)   LED 그 이상의 무한한 상상력을 담게 해 준 언리얼 엔진 블래스트는 2차원의 LED 스크린 평면을 넘어 공연장 전체라는 3차원의 경험으로 관객의 경험을 확장시켜, 플레이브 콘서트에서만 느낄 수 있는 새로운 경험을 만들어나가기 위해 고민했다. 이러한 고민의 결과로 실존하는 아티스트의 콘서트에서는 불가능한 아이디어와 연출, 예를 들면 탑의 꼭대기처럼 다양한 공간을 이동하며 노래 부르기, 바이크를 탄 채로 무대로 등장하고 연출의 단절 없이 공연 시작하기, 등장이나 퇴장 시에 꽃잎을 흩뿌리면서 나타나고 사라지기 등 그야말로 버추얼 아이돌이기에 가능한 연출을 실현할 수 있었다. 이러한 시각적 효과에서 더 나아가 연기와 같은 실제 무대 장치를 결합하여 일반적인 콘서트에서는 불가능한 특별한 연출을 시도할 수 있었다. 그 중에서도 플레이브의 세계관에 등장하는 큐브로 가득찬 ‘아스테룸’이라는 공간에서 세계관 속 빌런과 벌인 박진감 넘치는 격투 액션 신은 버추얼이 아니었다면 불가능한 무대였을 것이다. 또한, 언리얼 엔진은 LED 스크린 너머의 공간에 원하는 환경을 효율적으로 제작하고 다양한 연출들을 자유롭게 시도할 수 있게 해 주었다. 물리적인 시공간의 제약 속에서 짧은 기간 내에 다수의 조직이 동시 협업해야 하기 때문에 작업 충돌을 피하면서도 변경 사항들을 실시간으로 동기화할 수 있는 파이프라인이 매우 중요한데, 여기에 언리얼 엔진의 레벨 스트리밍과 서브 시퀀스 기능이 큰 도움이 되었다. 레벨 스트리밍 덕분에 레벨 디자인, 애니메이션, 룩뎁 작업을 분리하여 하나의 퍼시스턴트 레벨에 스트리밍하는 방식으로 각 팀의 작업 공간을 분리하면서도 동시에 협업이 가능했다. 또한, 룩뎁 레벨 시퀀스 안에 애니메이션 서브 시퀀스를 적용하여 애니메이터와 룩뎁 아티스트의 작업 시퀀스를 분리하면서도 서로의 변경 사항을 함께 업데이트할 수 있었다.   ▲ 레벨과 시퀀스 구조(이미지 제공 : 블래스트)   콘서트 현장의 분위기를 고조시키는 현란한 DMX 조명 연출 역시 언리얼 엔진의 뛰어난 DMX 연동 지원 덕분에 가능했다. 언리얼 엔진 공연 조명을 전문으로 다루는 메타로켓과 협업하여 언리얼 엔진 내에서 실제 콘서트 현장 조명을 시뮬레이션하면서 현실과 가상의 무대 조명을 완성했다.   ▲ 메타로켓과의 협업으로 완성된 공연장 무대 조명(이미지 제공 : 블래스트)   무엇보다 비주얼 퀄리티까지 보장된 리얼타임 렌더링이라는 언리얼 엔진의 강점이 가장 큰 도움이 되었다. 덕분에 콘서트 2~3일 전까지도 끊임없이 수정하며 퀄리티를 끌어올릴 수 있었고, 콘서트 직전의 리허설까지도 이슈를 확인하고 해결할 수 있었기 때문에 촉박한 시간임에도 완성도 높은 콘서트를 제작할 수 있었다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-01-06
[칼럼] AI와 PLM의 융합이 가져올 미래 
현장에서 얻은 것 No. 20   “디지털 시대에서는 변화가 유일한 상수입니다.” - Perplexity.ai “변화는 승리의 유일한 상수다.(Change is the only constant in victory.)” 미국 프로 풋볼의 전설적인 감독인 빈스 롬바디가 남긴 말이다. 디지털 시대에도 변화가 유일한 상수일 것이다. 변화는 불가피하며 성공적으로 대응하는 조직만이 승리할 가능성이 높다는 메시지를 담고 있다고 흔히들 말한다. 2025년 제조업의 디지털 대전환은 어느 해보다 더 ‘AI와 PLM(제품 수명주기 관리)의 융합이 가져올 미래’에 직면할 것 같다. AI와 PLM의 시너지, 초지일관의 운영 철학, 트리플 레볼루션의 시대, 하이퍼 오토메이션과 비즈니스 프로세스의 진화를 염두에 두어야 할 것이다. CES 2025의 핵심 키워드인 몰입(drive-in)은 ‘연결하고 문제를 해결하며, 새로운 가능성을 찾아내 변화에 적극적으로 참여하자(connect, solve, discover, dive In)’는 메시지가 담겼다. AI 시대로 드라이브 인에는 초연결, AI 리스크&보안, 비즈니스 모델 혁신, 지속가능성, 라이프스타일, 디지털 헬스, 콘텐츠, 모빌리티, 공간 컴퓨팅, 인간 안보 등의 키워드를 주목해 볼 만하다. 새해의 시작은 희망으로 가득 채워서 새로운 변화에 대응하는 힘을 길러야 하겠다. “성공적인 혁신의 기폭제는 언제나 동기부여다.” - 클레이튼 크리스텐슨   AI와 PLM의 시너지 AI와 PLM의 결합은 더욱 지능적이고 효율적인 제품 개발 프로세스를 가능하게 하며, 특히 생성형 AI의 도입은 데이터 파편화, 시간 소모적 작업, 의사결정 지원 등의 문제를 해결할 것으로 기대된다. 아직은 이르지만, 제조 현장에서 AI와 PLM의 결합은 혁신적인 변화를 주도하게 될 것이다. 특히 에이전틱 AI(agentic AI), AI 거버넌스, 위험정보 보안 등 10가지 핵심 기술 트렌드가 제조업의 미래를 형성하고 있다. 이러한 기술은 제품 개발 프로세스를 더욱 효율적이고 지능적으로 만들어가고 있다. PLM 솔루션에도 AI 기능이 속속 들어오고 있다. 이런 흐름을 잘 이용하려면 무엇보다도 고려해야 할 사항이 OOTB, 그리고 클라우드이다. 시스템간 통합(integration)이 여전히 걸림돌이다. 앞으로는 IT 전략을 다시 되돌아봐야 할 때라고 생각된다. 늘 익숙한 길로 갈 것인지, 당장은 불편하더라도 궁극의 편리함으로 갈 것인지. 세상은 갈수록 변해 가고 있는 중이다. 그 속에서 과거를 움켜지고 있을 것인지, 새로운 도전을 즐길 것인지 매번 선택의 중심에 있다. 디지털 트윈 기술은 물리적 제품과 가상 모델을 실시간으로 연결하여 제품 개발과 생산 과정의 효율성을 획기적으로 향상시키고 있다. 디지털 트윈 기술은 제품 개발 시간을 20~50% 단축시키고, 품질 문제를 25% 감소시키는 등 큰 영향을 미치고 있다.  AI 기술이 PLM 시스템에 통합되면서 다음과 같은 특징을 보이고 있다. 지능형 데이터 분석은 대량의 제품 데이터를 신속하게 분석하여 의미 있는 인사이트를 도출한다. 예측 분석은 과거 데이터를 기반으로 미래 트렌드와 잠재적 문제를 예측한다. 자동화된 의사결정은 반복적인 작업을 자동화하고 데이터 기반의 의사결정을 지원한다. 개인화된 사용자 경험은 AI를 활용한 직관적인 인터페이스로 사용자 경험을 향상시킬 것이다. 생성형 AI 기술은 PLM 프로세스에 혁신적인 변화를 가져오고 있다. 요구사항 관리는 자연어 처리 기술을 활용하여 문서, 비디오 등 다양한 소스에서 요구사항을 자동으로 추출하고 분석한다. 데이터 재사용은 기존 데이터를 분석하여 새로운 제품 개발에 활용할 수 있는 패턴과 관계를 식별한다. 가상 지원 및 고객 지원으로 대화형 인터페이스를 통해 사용자 지원과 작업 자동화를 제공한다. 특히, 설계 최적화는 AI가 제안하는 최적의 설계 옵션을 통해 제품 성능을 향상시키며, 엔지니어링 AI(engineering AI)를 실현시켜 나갈 것이다. 데이터 기반 의사결정과 예측 분석은 AI와 PLM의 결합에서 데이터 기반 의사결정을 강화시키는 방향으로 진화할 것이다. 실시간 모니터링은 IoT 센서와 AI 분석을 통해 제품 성능을 실시간으로 모니터링한다. 예측 유지보수는 장비 고장을 사전에 예측하여 유지보수 비용을 절감하고 가동 시간을 최적화하며, 공급망 최적화는 AI 알고리즘을 사용하여 공급망 프로세스를 효율화하고 리드 타임을 단축한다. 품질 관리는 AI 기반 이미지 인식 기술을 활용하여 제품 검사를 자동화하고 결함을 감지할 것이다. AI는 PLM의 전체 프로세스를 최적화하여 다음과 같은 이점을 제공할 전망이다. 제품 개발 주기 단축은 반복적인 작업을 자동화하고 지능적인 개선 사항을 제안하여 시장 출시 시간을 단축한다. 비용 절감은 전체 제품 수명 주기에 걸쳐 비효율성을 식별하고 제거하여 상당한 비용 절감을 실현한다. 혁신 촉진은 AI 기반 분석을 통해 새로운 제품 아이디어와 개선 사항을 도출한다. 지속가능성 향상은 제품의 전체 수명 주기에 걸친 환경 영향을 분석하고 최적화하여 지속가능한 제품 개발을 지원한다.  “작은 변화가 큰 차이를 만든다.(Small change can make big difference.)” - 파울 폴먼   ▲ 2025 제조업의 디지털 혁명 로드맵(map by 류용효) (클릭하면 큰 이미지로 볼 수 있습니다.)   초지일관의 운영 철학 ‘처음 세운 뜻을 끝까지 이루고 나간다’는 의미의 초지일관 정신은 PLM의 철학과 유사하며, 제조업의 디지털 혁신을 이끄는 핵심 가치로 자리잡고 있다. AI의 자동화와 도입 가속화, 지속가능성 통합, 디지털 고객 경험 강화 등이 주요 추진 방향으로 설정되어 있다. 기업의 코어 비즈니스를 기반으로 확장할 수 있는 방향으로 초지일관의 운영 철학을 구사하는 것이 중요할 것 같다. “기술은 단순한 도구가 아니라 인간과 사회의 미래를 함께 나아가는 파트너이다.” - 수잔 웨인쉔크   트리플 레볼루션의 시대 2025년을 향해 나아가는 제조업계는 ‘트리플 레볼루션’이라는 새로운 패러다임을 맞이하고 있다. 바이오 헬스케어, 에너지, AI 등 세 가지 핵심 영역에서 혁신이 동시에 진행되며, 이는 세계 경제와 여러 산업 분야에 지대한 영향을 미칠 전망이다. “생존하는 것은 가장 강한 종도 아니고, 가장 지적인 종도 아니다. 변화에 가장 잘 대응하는 종이다.” - 찰스 다윈   하이퍼 오토메이션과 비즈니스 프로세스의 진화 하이퍼 오토메이션은 인공지능(AI), 머신러닝(ML), 로보틱 프로세스 자동화(RPA) 등 다양한 기술을 통합 활용하는 전략이다. 이는 PLM 수명주기 관리의 중요성을 더욱 부각시키며, 모든 산업에 걸쳐서 비즈니스의 생산성과 경쟁력을 극대화하는 핵심 동력이 되고 있다. 이러한 변화는 글로벌 제조업 생태계에서 PLM의 역할을 더욱 중요하게 만들고 있으며, 규정 준수와 감사에 대비한 포괄적인 PLM 수명주기 관리 전략의 중요성을 강조하고 있다.   2025년을 향한 제조기업의 새로운 여정을 시작하며 우리는 지금 역사적인 변곡점에 서 있다. 미래를 선도하기 위한 세 가지 핵심 전략은 다음과 같다. 첫째, 하이퍼오토메이션을 통한 비즈니스 프로세스의 완전한 디지털화를 이루도록 지속적으로 진화하여야 한다. AI, ML, RPA를 통합적으로 활용하여 모든 업무 프로세스를 자동화하고 최적화해야 한다. 둘째, 트리플 레볼루션(바이오 헬스케어, 에너지, AI)의 시대에 맞춰 기업의 혁신 역량을 강화해야 한다. 이는 단순한 기술 도입이 아닌, 기업 문화와 조직 전체의 변혁을 의미한다. 셋째, 엔지니어링 AI의 도입과 PLM의 진화를 통해 글로벌 경쟁력을 확보해야 한다. 단순한 디지털 전환이 아닌, 기업의 생존과 직결된 과제이다. ‘처음 세운 뜻을 끝까지 이루고 나간다’는 초지일관의 정신으로 변화와 도전의 시대를 헤쳐나가야 한다. 위험 정보 보안부터 AI 거버넌스까지, 새로운 도전 과제가 우리를 기다리고 있다. 하지만 이러한 도전은 곧 기회가 될 것이다. 지금 우리에게 필요한 것은 단순한 기술 도입이 아닌, 근본적인 혁신에 대한 결단이다. 2025년, 어떤 모습으로 이 거대한 변화의 물결 속에서 승자가 되어 있을까? 변화하지 않는 것은 오직 변화 뿐이다. 이제 행동할 때이다.   ■ 류용효 디원의 상무이며 페이스북 그룹 ‘컨셉맵연구소’의 리더로 활동하고 있다. 현업의 관점으로 컨설팅, 디자인 싱킹으로 기업 프로세스를 정리하는데 도움을 주며, 1장의 빅 사이즈로 콘셉트 맵을 만드는데 관심이 많다. (블로그)     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-01-06
젠하이저, 올인원 무선 마이크 시스템 프로파일 와이어리스 출시
젠하이저가 콘텐츠 크리에이터, 비디오그래퍼, 방송 전문가를 위해 편리함과 유연성을 제공하는 2채널 올인원 무선 마이크 시스템 ‘프로파일 와이어리스(PROFILE WIRELESS)’를 출시한다고 밝혔다. 프로파일 와이어리스는 카메라 및 스마트폰, 노트북 등의 전자기기에 빠른 연결이 가능한 수신기와 2개의 클립온 마이크 송신기 및 상황에 따라 다양한 용도로 활용이 가능한 충전바 등으로 구성되어 있다. 이 제품은 2.4GHz의 무선 연결을 지원하며 최대 245m의 전송 범위를 보장해, 선명하고 끊김이 없는 고품질의 오디오을 담아낸다.     프로파일 와이어리스는 안정적인 콘텐츠 제작을 위해 최대 30시간의 내부 녹음이 가능한 16GB 내장 메모리를 탑재했다. 이를 통해 녹음 신호가 약해질 때 백업 기능을 자동으로 활성화한다. 또 녹음 과정에서 오디오가 신호가 왜곡될 수 있는 클리핑(clipping) 현상을 방지하기 위해 안전 채널 모드를 적용했다. 프로파일 와이어리스 수신기의 왼쪽 채널에서는 설정한 기본 사운드 레벨로 오디오를 출력하며, 오른쪽 채널에서는 더 낮은 레벨로 출력해 클리핑 현상이 발생할 시 대체 오디오를 확보할 수 있다. 프로파일 와이어리스의 다목적 충전바는 송수신기를 보관하고 충전할 수 있으며, 윈드실드를 부착해 인터뷰용 핸드헬드 마이크로 사용할 수도 있다. 또한 콜드 슈 마운트 어댑터를 지원하여 삼각대와 연결해 사용하기에도 편리하며, 3.5 mm TRS 잭을 지원해 라발리에 마이크 등의 추가 장비와도 유연한 활용이 가능하다. 프로파일 와이어리스는 사용자의 편의를 위한 다양한 기능을 포함한다. 이 제품은 자이로 센서 기반 OLED 디스플레이를 적용해 기기 방향에 따라 화면을 자동으로 회전해 편리한 촬영을 지원하며, 오디오 모니터링을 위한 전용 헤드폰 출력이 포함되어 있어 실시간으로 녹음 품질을 확인할 수 있다. 송수신기는 사전에 페어링된 상태로 제공되어 빠르고 간편하게 녹음을 시작할 수 있다. 프로파일 와이어리스의 내장 배터리는 무선 전송 작업 시 약 7시간 동안 작동하며, 녹음만 진행할 때에는 약 14시간 정도 사용이 가능하다. 구성품에 포함된 마운트 클립과 의류 부착용 자석은 발화자가 옷감의 손상 없이 마이크를 편리하게 고정할 수 있도록 해준다. 제품의 가격은 44만 9000원이다. 젠하이저의 헨드릭 밀러 방송 및 영화 제품 관리자는 “제품 개발 초기부터 크리에이터와 전문가의 요구를 면밀히 분석해, 이전보다 더 안정적이고 유연한 오디오 설루션을 개발했다”면서, “프로파일 와이어리스는 크리에이터의 다양한 요구를 충족하는 강력한 도구가 될 것”이라고 전했다.
작성일 : 2025-01-02
팀뷰어, 2025년 인공지능 전망 발표… "업무 프로세스 변화부터 지속가능성까지 적극 대응이 필요"
팀뷰어가 http://www.teamviewer.com/ 2025년 인공지능(AI)의 발전 방향을 조망하는 ‘2025년 AI 전망’을 발표했다. 팀뷰어는 2025년 주요한 AI 관련 전망에 대해 ▲AI는 여전히 업무 조력자로서 확고하게 자리잡겠지만, 완전한 자동화까지는 이르지 못할 것 ▲AI의 환경적 영향이 주요 이슈로 부상할 것 ▲에지 AI를 활용해 초개인화된 사전 예방적 솔루션을 제공할 수 있을 것 ▲비즈니스 AI가 텍스트 기반에서 시각적 경험 영역으로 발전할 것 등을 꼽았다. ■ 팀뷰어는 2025년 AI는 완전한 자율적 의사결정자보다는 지능형 업무 조력자로서 널리 채택되는 양상이 두드러질 것으로 보고 있다. AI가 업무 및 의사결정 과정에 깊이 관여하겠지만 특히 비즈니스 운영에서는 사람의 감독과 개입은 여전히 필수일 것이고, 이에 따라 업계는 완전 자동화에 대한 과장된 기대에서 벗어나 사람과 AI 간의 실용적이고 협력적인 파트너십에 집중할 것이라는 전망이다. 워크플로 자동화에 있어 AI의 잠재력은 크지만, 기술적 한계와 규제로 2025년에 완전 자동화의 실현은 어려울 것으로 보인다. 이에 따라 팀뷰어는 기업에서 직원들이 AI 도구와 효과적으로 협업할 수 있는 교육 프로그램에 투자하고, 직원의 전문성과 AI의 기능이 시너지 효과를 낼 수 있는 분야에 집중해야 한다고 짚었다. ■ 2025년에는 AI의 환경 발자국, 특히 에너지 소비 측면을 조사하는 것이 중요한 전환점이 될 것으로 보인다. 주요 AI 제공업체는 아직까지 전력 소비 지표에 대해 공개적으로 언급하지 않은 채, 주로 AI의 성능과 역량에 초점을 맞추고 있다. 팀뷰어는 향후 논의의 쟁점은 AI가 환경 문제를 해결할 가능성에서 벗어나, AI 기술 자체가 발생시키는 에너지 수요를 해결하는 방향으로 진화할 것으로 보고 있다. 팀뷰어는 “기업은 AI의 비즈니스 혜택뿐만 아니라 환경적 비용까지도 고려해야 한다. 이러한 인식의 전환을 계기로 기업은 에너지 효율성을 최적화하는 AI 솔루션을 우선시해야 한다”고 전했다. 가능한 한 전력을 많이 소비하는 대규모 모델보다는 작고 효율적인 모델을 선호하는 방향으로 나아가야 한다는 것이다. 2025년의 성공은 AI의 환경적 영향을 투명하게 보고하고 이를 최소화하기 위한 명확한 전략을 수립하는 데에 달려 있다. ■ 현재 원격 연결 솔루션은 주로 문제가 발생한 이후 이를 해결하는 사후 대응적 방식이다. 반면, 2025년은 에지 컴퓨팅과 언어 모델의 융합에 힘입어 사전 예방적 솔루션으로 전환되는 중요한 해가 될 전망이다. AI 기능을 에지 기기에 직접 가져옴으로써, 기업은 세션 중 데이터를 실시간으로 처리하고 분석할 수 있게 되어 더욱 맥락에 맞는 초개인화된 경험을 제공할 수 있다. 특히 에지 AI와 세션 데이터 분석을 결합하면 단순한 문제 해결을 넘어 문제를 미리 예측하고 방지하는 솔루션으로 진화할 수 있다. 팀뷰어는 “기업은 세션 중 데이터 활용 기회를 파악하고 에지 AI 배포 전략을 수립하기 시작해야 한다. 다양한 사용자와 사용 사례의 고유 맥락을 이해하고 AI 워크로드를 지원할 수 있는 에지 컴퓨팅 인프라에 투자하는 것이 필요하다”고 조언했다. 또한, 기업은 실시간 인사이트를 활용해 예방적 기능을 구축하는 데 중점을 두는 동시에, 로컬 처리를 통해 사용자 프라이버시를 보호하는 데도 주의를 기울여야 할 것으로 보인다. ■ 현재 비즈니스 AI 애플리케이션은 주로 텍스트 기반 출력에 집중돼 있지만, 2025년에는 풍부한 시각적 AI 경험으로 큰 폭의 전환이 이뤄질 전망이다. 사용자는 텍스트 기반의 지침이나 보고서를 받는 대신 실시간 비디오 생성, 양방향 시연, 시각적 문제 해결 가이드 등 상호 대화형인 시각적 콘텐츠를 통해 AI와 상호작용할 것이다. 이런 변화는 비즈니스 환경에서 정보가 전달되고 소비되는 방식을 근본적으로 변화시킬 것으로 보인다. 팀뷰어는 “기업은 이 시각적 AI 혁명을 준비하기 시작해야 하며, 텍스트 기반 프로세스를 향상시킬 수 있는 시각적 커뮤니케이션 영역을 파악해야 한다”면서, “기업은 시각적 AI 생성을 지원하는 도구와 플랫폼에 투자하는 동시에 효과적인 시각적 콘텐츠 생성을 위한 가이드라인을 개발해야 한다”고 짚었다. 팀뷰어코리아의 이혜영 대표이사는 “한국은 디지털 전환과 AI 기술의 도입 속도가 빠른 만큼, 이러한 변화에 능동적으로 대응해야 할 필요가 있다”면서, “팀뷰어는 한국 고객이 AI를 활용해 업무 효율성과 생산성을 극대화하고 비용을 절감하며 지속가능한 비즈니스 전략을 실현할 수 있도록 적극 지원하겠다”고 전했다.
작성일 : 2024-12-19
구글, ‘제미나이 2.0’ 출시와 함께 ‘에이전트형 시대’ 발표
구글이 새로운 에이전트 시대를 위한 ‘에이전트형(agentic) AI 모델’인 ‘제미나이 2.0’을 출시했다. 제미나이 2.0은 네이티브 이미지 및 오디오 출력, 네이티브 툴 사용 등 향상된 멀티모달 기능을 제공하여 텍스트, 이미지, 동영상, 오디오, 코드 등 다양한 형태의 정보를 자연스럽게 이해하고 처리할 수 있다.  구글은 “제미나이 2.0는 지금까지 선보인 모델 중 가장 뛰어난 성능을 자랑한다”면서, “리서치, 보고서 작업 등 다양한 방면의 복잡한 작업을 수행하는 ‘에이전트’ 기능을 갖춘 AI 시대를 본격적으로 열어갈 것”이라고 밝혔다.  제미나이 2.0은 네이티브 이미지 및 오디오 출력, 네이티브 툴 사용 등 향상된 멀티모달 기능을 바탕으로 이용자 경험을 혁신할 뿐 아니라, 개발자에게도 강력한 AI 기반 애플리케이션을 구축할 수 있는 툴을 제공한다. 전 세계 제미나이 이용자는 데스크톱과 모바일 웹에서 제미나이 2.0을 사용할 수 있다. 데스크톱과 모바일 웹의 모델 드롭다운 메뉴에서 ‘2.0 플래시 실험 버전’을 선택하면 채팅에 최적화된 제미나이 2.0을 바로 사용해 볼 수 있으며, 이는 제미나이 모바일 앱에도 곧 적용될 예정이다.     제미나이 2.0을 기반으로 새롭게 개선된 ‘프로젝트 아스트라(Project Astra)’는 다국어 대화, 구글 툴(구글 검색, 구글 렌즈, 맵스 등) 사용, 최대 10분 동안의 대화를 기억하는 향상된 메모리, 빠른 응답 속도 등의 기능을 제공한다. 구글은 이러한 기능을 구글의 AI 어시스턴트인 제미나이 앱 등 구글 제품은 물론, 다른 폼 팩터에도 도입할 계획이다.  ‘프로젝트 마리너(Project Mariner)’는 웹 브라우저에서 작동하는 에이전트 프로토타입으로, 픽셀 및 텍스트, 코드, 이미지, 양식과 같은 웹 요소를 포함해 브라우저 화면의 정보를 이해하고 추론한 다음, 실험적인 크롬 확장 프로그램(Chrome extension)을 통해 해당 정보를 활용해 작업을 완료한다. 개발자를 위한 AI 에이전트인 ‘줄스(Jules)’는 깃허브(GitHub) 워크플로에 직접 통합돼 개발자의 지시와 감독 하에 이슈를 처리하고, 계획을 세우고 실행하는 기능을 제공한다.  구글은 제미나이 2.0을 사용해 비디오 게임의 가상 세계 탐색을 지원하는 에이전트를 구축했다. 이 에이전트는 화면의 동작만을 기반으로 게임에 대해 추론하고, 실시간 대화를 통해 다음에 무엇을 해야 할지 제안할 수 있다. 가상 게임의 동반자 역할은 물론, 구글 검색을 활용해 웹 상의 풍부한 게임 지식을 제공할 수도 있다. 이 외에도 구글은 제미나이 2.0의 공간 추론 기능을 로봇 공학에 적용해 물리적 세계에서 도움을 줄 수 있는 에이전트를 실험하고 있다. 한편, 구글은 제미나이 2.0가 구글 검색의 AI 개요(AI Overview) 기능에도 적용되어, 고급 수학 방정식, 멀티모달 쿼리, 코딩 등 더욱 복잡한 질문에 대한 답변을 제공하도록 개선될 예정이라고 밝혔다.  전 세계 제미나이 이용자는 데스크톱 및 모바일 웹에서 제미나이 앱을 통해 제미나이 2.0 플래시(Gemini 2.0 Flash) 실험 버전을 AI 어시스턴트로 사용할 수 있다. 제미나이 2.0 플래시 실험 모델은 구글 AI 스튜디오(Google AI Studio) 및 버텍스 AI(Vertex AI)를 통해 모든 개발자가 사용할 수 있다. 개발자들은 제미나이 2.0을 활용하여 텍스트, 오디오 및 이미지를 포함한 통합 응답을 생성하고, 구글 검색 및 코드 실행과 같은 툴을 활용하는 애플리케이션을 구축할 수 있다.
작성일 : 2024-12-12
엑스리얼, 시네마틱 공간 디스플레이 제공하는 AR 글라스 ‘엑스리얼 원’ 출시
엑스리얼이 기술적 업그레이드를 제공하는 시네마틱 AR 글라스 ‘엑스리얼 원(XREAL One)’을 공개했다. 엑스리얼 원은 자체 개발한 공간 컴퓨팅 칩 X1을 탑재하여 물리적 스크린과 동일한 공간 디스플레이 경험이 가능하다. 2025년 출시 예정인 AI 카메라로 사진 및 비디오 촬영 그리고 AI 기능을 사용할 수 있으며, 독일 TÜV 라인란드의 눈 건강 인증을 획득해 안전성을 더했다. 엑스리얼 원은 글라스에 내장된 X1 칩을 사용해 3DoF 공간 컴퓨팅이 가능한 시네마틱 AR 글라스다. X1 공간 컴퓨팅 코프로세서를 통해 접속이 가능한 기기에 공간 디스플레이를 생성한다. X1는 광학 투과형(OST) AR 글라스용 최초의 맞춤형 칩으로, 120Hz에서 최대 3ms에 불과한 매우 짧은 M2P(Motion-to-Photon) 지연 시간을 제공해 블러 현상이나 이미지 지연 없이 부드럽고 안정적인 공간 스크린을 구현한다. 엑스리얼 원은 X1이 제공하는 M2P 지연 시간, 공간 앵커링(물리적 디스플레이와 동일하게 디스플레이를 공간에 고정하는 기능) 및 이미지 안정성을 특징으로 내세운다.     사용자는 어느 각도에서나 1080p 풀 HD에 준하는 영상을 경험할 수 있다. 엑스리얼 원은 버드베스 광학 방식 렌즈 디자인을 채택하여 50도 시야각(FoV)을 달성해 엑스리얼 에어2(XREAL Air 2) 시리즈보다 20.7% 더 넓은 디스플레이 영역을 구현한다. 또한 수평 IPD 옵션을 통해 흐릿한 부분 없이 편안함과 착용감을 경험할 수 있다. 아울러 소프트웨어 기반으로 IPD를 조절할 수 있는 기능이 포함되어 있으며, 3단계로 템플 각도를 조절할 수 있어 착용자가 자신에게 맞는 수직 IPD 설정을 찾을 수 있다. 엑스리얼 원은 120Hz의 화면 주사율과 각각 600 니트의 최대 밝기를 지원해 열악한 조명 환경에서도 이미지를 선명하고 생생하게 구현한다. 아울러 안경의 버튼을 터치해 렌즈를 어둡게 또는 밝게 조절하는 엑스리얼의 일렉트로크로믹 디밍 기능이 탑재되어 몰입감 제어가 가능하다. 또한 눈의 피로도를 감소하고 더 높은 자외선 차단이 가능함을 인정받아 2개의 새로운 TÜV 라인란드 인증을 획득했다. 엑스리얼 원은 강한 햇빛 아래에서도 디스플레이의 가장자리부분까지 선명하고 높은 해상도를 보장하고 눈의 편안함(5스타)을 인증받았으며, 로 블루라이트 및 플리커 프리에 대한 TÜV 라인란드 인증도 획득했다. 연결성과 사용성을 강화한 점도 특징이다. 엑스리얼 원은 아이폰, 안드로이드 기기, 스팀덱, 원도우 PC, 맥북 그리고 게임 콘솔 등 USB-C 포트를 통한 비디오 출력이 가능한 대부분의 기기에 연결할 수 있다. 사용자는 엑스리얼 원으로 다양한 기기에서 물리적인 디스플레이와 동일한 공간에 고정된 디스플레이를 자유롭게 사용할 수 있으며, 오른쪽 템플 아래쪽의 오렌지색 X 버튼을 누르면 팔로 모드, 앵커 디스플레이 모드 간의 전환과 메뉴 설정을 할 수 있다. 화면은 32:9 비율의 울트라 와이드 모드를 지원하며, 화면 크기, 화면 거리, 스태빌라이저, 사이드 스크린, 밝기 조절, 디스플레이 최적화, 색온도, 2D/3D 전환, IPD 조정, 볼륨 및 사운드 설정, 버튼 매핑 설정, 센서 보정, 언어 설정, 튜토리얼 및 공장 초기화 등 글라스 사용자 지정 옵션이 제공된다. 엑스리얼 원의 무게는 84그램으로, 이전 세대보다 튼튼한 마그네슘 합금 프론트 셸이 사용됐다. 교체 가능한 프론트 프레임은 사용자가 AR 글라스의 외관을 맞춤화할 수 있도록 다양한 악세서리를 제공할 예정이며, 템플 디자인은 무게 분산에 최적화되어 콧대에 가해지는 압력을 줄이고 이전 세대보다 더욱 균형 잡힌 디자인을 구현했다. AR 글라스 템플에는 근거리 및 원거리 전용 알고리즘이 적용된 4개의 마이크 레이아웃이 있어, 거리에 상관 없이 선명하게 음성을 마이크를 통하여 전달할 수 있다. 엑스리얼의 쉬츠(Chi Xu) CEO는 “이제 AR 글라스의 공간 화면은 하루 종일 실제 모니터를 대체할 수 있는 시점에 도달했다”면서, “3년이 넘는 첨단 연구 개발을 통해 개발된 X1 칩을 통해 사용자는 가볍고 휴대 가능한 시네마틱 가상화면을 일상에서 만나볼 수 있게 되었으며, 이는 엑스리얼이 항상 상상해 오고 전 세계 고객이 가장 기다려온 공간 컴퓨팅 기술의 정점”이라고 말했다. 엑스리얼 원은 네이버 스마트 스토어와 엑스리얼 코리아 공식 판매처를 통해 예약 구매가 가능하며, 예약 구매 기간은 2025년 1월 12일까지다. 글라스 단독 구매시 가격은 68만원이며, 예약구매 기간에 글라스 및 엑스리얼 허브 추가 구매시 2만 5천원 할인이 적용된다. 기존 엑스리얼 글라스 시리즈 구매자는 3만원의 추가 할인이 적용된다.
작성일 : 2024-12-11