• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "버추얼"에 대한 통합 검색 내용이 632개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
에픽게임즈, 다양한 산업의 크리에이터를 위한 시각화 기능 제공하는 트윈모션 2025.1 출시
에픽게임즈는 모든 크리에이터를 위해 대규모 신규 기능 및 개선 사항이 추가된 '트윈모션 2025.1'을 출시했다고 발표했다. 트윈모션은 건축과 자동차, 소비자 제품, 영화 등 모든 산업 분야의 크리에이터가 고퀄리티 시각화를 쉽고 빠르게 제작할 수 있는 기능을 제공하며, 직관적인 아이콘 기반의 쉬운 UI로 초보자에서부터 전문가에 이르기까지 누구나 손쉽게 사용할 수 있는 리얼타임 3D 시각화 설루션이다. 최신 버전인 트윈모션 2025.1에서는 ▲쉽고 사실적인 실외 환경 ▲컨피규레이션 ▲라이팅 및 렌더링 향상 ▲카메라 애니메이션 향상 ▲자동차 및 운송 디자인을 위한 기능 등 모든 산업 분야의 크리에이터를 위한 대규모의 신규 기능을 추가하는 것은 물론 기존 기능들을 크게 개선했다.     새 버전에서는 환경 신(scene)에 사실적인 ‘볼류메트릭 클라우드’를 사용할 수 있는 옵션이 추가됐다. 이를 통해, 구름의 높이, 범위, 분포를 조정하고 밀도, 색상, 부피 및 기타 설정을 미세 조정하여 원하는 구름의 모양을 만들 수 있으며, 바람의 영향을 받거나 구름의 그림자를 만들 수도 있다. 혼탁도 및 애트머스피어 밀도와 같은 새로운 설정 기능을 통해 다이내믹 스카이의 선명도와 색상을 제어할 수 있고, 태양의 색상이나 온도, 익스포넨셜 하이트 포그의 색상과 높이, 밀도도 설정할 수 있다. 이러한 환경 설정을 프리셋으로 저장하고 재사용할 수 있는 기능도 추가돼 환경 패널의 모든 설정을 단 한 번의 클릭으로 적용할 수 있으며, 환경 패널의 재설계를 통해 논리적으로 그룹화된 설정을 제공한다. 컨피규레이션은 고객이나 관계자에게 프로젝트의 다양한 베리에이션을 선보일 수 있는 인터랙티브 3D 프레젠테이션 제작 기능으로, 신축 부동산 영업팀, 제품 디자이너, 자동차 제조사 등 다양한 분야에서 활용할 수 있다. 프레젠테이션 환경에 따라 트윈모션을 전체화면 모드로 사용하거나 이미지, 파노라마, 비디오 또는 시퀀스를 보다가 트리거 아이콘 클릭만으로 간단히 베리에이션을 즉시 전환할 수 있다. 라이팅 및 렌더링 향상 부분에서는 라이브 이벤트나 설치물의 시각화, 배 선체의 반사와 같은 이펙트 시뮬레이션에 도움을 줄 수 있는 새로운 ‘프로젝터 라이트’가 추가돼 이제 모든 이미지나 영상 텍스처를 표면에 투사할 수 있게 됐다. 또한, 표준 및 루멘 라이팅 모드에서 직교 뷰의 리얼타임 렌더링이 향상돼, 이제 그림자를 지원하고 오브젝트 주변의 검은색 윤곽선이 제거됐다. 이를 통해 패스 트레이서를 사용하지 않고도 고퀄리티 평면도와 입면도 뷰를 빠르게 생성할 수 있으며, 보다 정확하게 상호작용하는 오브젝트를 배치할 수 있다. 리얼타임 렌더링 퀄리티를 향상시키기 위해, '버추얼 섀도 맵(Virtual Shadow Map)' 기술을 기반으로 리얼타임 렌더링 모드에서 섀도를 렌더링하는 새로운 추가적인 방법도 구현됐다. 이 방법은 표준 섀도보다 더 정확한 섀도를 생성하고, 패스 트레이스 섀도와 더 일치하는 섀도를 생성한다. 카메라 애니메이션 향상 부분에는 카메라 애니메이션 제어와 관련된 여러 가지 기능이 추가 및 개선됐다. 새로운 ‘선회 카메라’ 릭은 신 내에서 지정된 중앙 피벗을 중심으로 카메라를 회전시켜 오브젝트 또는 초점의 360도 뷰를 손쉽게 표시할 수 있으며, 시작점과 끝점, 높이 오프셋을 설정할 수 있다. 이외에도, 이제 카메라 경로에서 지점을 선택하고 탄젠트를 조정하여 부드럽고 제어된 카메라 모션을 설정할 수 있으며, 액션캠을 위한 룩앳 컨스트레인트를 사용할 수 있는 새로운 기능을 통해 움직이는 특정 대상의 샷을 정확하게 촬영할 수 있다. 이번 버전에는 특히 자동차 및 운송 디자인을 위한 기능이 다양하게 제공된다. 업계에서 많이 사용되는 ‘Alias Wire 파일 형식’의 표면을 임포트하는 기능이 새롭게 지원돼, 임포트 대화창에서 추가적으로 정밀하게 테셀레이션 파라미터를 설정할 수 있다. 또한, 타이어처럼 평평한 원통형 오브젝트에 텍스처를 입히고 자동으로 UV를 생성하는 신규 타이어 베이스 머티리얼이 추가됐다. 자동차 페인트 재질에도 진줏빛 강도, 클리어 코트 거칠기, 오염(먼지, 지문, 스크래치)에 대한 새로운 제어 기능을 추가했으며, 메탈 카테고리에 새로운 코팅된 탄소 섬유 소재 등이 추가됐다. 주요 기능의 신규 추가 및 개선 외에도 임의의 두 지점 간의 거리를 정확하게 측정할 수 있는 새로운 측정 툴이 추가됐으며, 평면 전체에서 오브젝트 미러링, 면의 노멀 반전, 면을 선택 및 삭제하는 툴과 임포트한 복잡한 메시로 작업할 때 리얼타임 퍼포먼스를 유지할 수 있도록 자동 레벨 오브 디테일(LOD) 생성 기능 등이 제공된다.
작성일 : 2025-02-19
다쏘시스템, 폭스바겐 그룹에 차량 개발 최적화 위한 클라우드 플랫폼 공급
다쏘시스템과 폭스바겐 그룹은 다쏘시스템의 클라우드 기반 3D익스피리언스(3DEXPERIENCE) 플랫폼 구현을 통해 폭스바겐 그룹의 최첨단 차량 개발을 위한 디지털 인프라를 발전시키기 위한 장기 파트너십을 맺는다고 발표했다. 폭스바겐 그룹은 다쏘시스템의 클라우드 기반 3D익스피리언스 플랫폼을 주요 엔지니어링 및 제조 플랫폼으로 선택했다. 폭스바겐, 아우디, 포르쉐 브랜드의 엔지니어, 디자이너 및 기타 전문가들은 버추얼 트윈을 활용하여 차량 개발을 간소화할 예정이다. 이를 통해 팀은 실제 생산을 시작하기 전 협업 가상 환경에서 차량 개발의 모든 측면을 시뮬레이션, 테스트, 개선하는 동시에 글로벌 규제 및 지속 가능성 표준을 준수할 수 있다. 폭스바겐 그룹은 클라우드 기반 3D익스피리언스 플랫폼을 기반으로 한 다쏘시스템의 네 가지 산업 설루션인 ▲글로벌 모듈형 아키텍처(Global Modular Architecture) ▲스마트 세이프 앤 커넥티드(Smart Safe & Connected) ▲효율적인 멀티 에너지 플랫폼(Efficient Multi-Energy Platform) ▲목표 차량 출시(On-Target Vehicle Launch) 등을 활용할 예정이다.     폭스바겐 그룹의 IT이사회 멤버인 하우케 스타스(Hauke Stars)는 “우리는 차세대 차량 IT 시스템 환경을 발전시키고 있으며, 다쏘시스템과의 파트너십 결정은 중요한 이정표가 될 것”이라면서, “폭스바겐은 일관된 데이터 스트림과 이를 기반으로 구축된 AI 설루션을 통해 개발 및 공장 계획 팀을 위한 진정한 기술적 도약을 실현하는 동시에, 시스템 복잡성을 간소화하고 버추얼 트윈을 활용함으로써 IT 비용을 지속적으로 절감하고 개발 과정을 가속화하고 있다”고 말했다. 다쏘시스템의 파스칼 달로즈(Pascal Daloz) CEO는 “생성형 경제의 흐름에서 산업의 진화는 자동차 기업들이 차량 경험을 새로운 차원으로 끌어올릴 수 있는 혁신적인 결정을 내리도록 강력히 요구하고 있다”면서, “혁신과 신뢰를 바탕으로 40년 간의 파트너십을 이어온 다쏘시스템과 폭스바겐 그룹은 이제 클라우드 기반 3D익스피리언스 플랫폼을 핵심으로 한 새로운 장을 열게 됐다. 다쏘시스템의 AI 기반 버추얼 트윈과 클라우드의 강점 및 탄력성은 폭스바겐 그룹의 하드웨어와 소프트웨어 혁신을 통합하고, 소프트웨어 기반의 변혁을 가속화할 수 있는 지식과 노하우를 이끌어낼 것”이라고 말했다.
작성일 : 2025-02-18
다쏘시스템-피앤피어드바이저리, PLM 컨설팅 서비스 및 제조 경쟁력 강화 위한 설루션 제공 협력
다쏘시스템은 제품 수명주기 관리(PLM) 전문 컨설팅 기업인 피앤피어드바이저리와 C&SI(Consulting & Service Integration) 파트너십을 체결했다고 밝혔다. 양사는 제조업을 중심으로 연구 개발 및 제품 데이터 관리 등의 분야에서 협력해왔으며, 이번 협약을 통해 양사의 기술을 결합하여 새로운 산업 분야로 비즈니스 영역을 확장할 계획이다. 이번 파트너십을 통해 다쏘시스템의 버추얼 트윈 기반 제품 수명 관리 설루션, 모델 기반 시스템 엔지니어링(MBSE), 스마트 제조, 스마트 시티 등의 설루션과 피앤피어드바이저리의 PLM, 기준정보 관리 체계 등 컨설팅 역량이 만나 시너지를 극대화할 계획이다. 양사는 앞으로 자동차, 방산, 조선, 전자 등 제조업 분야의 제품 수명주기 관리, 기준정보 관리 체계 구축 등의 영역에 컨설팅과 설루션을 결합해 기술 혁신을 지원할 예정이다. 양사는 다쏘시스템의 3D익스피리언스 플랫폼 기반 버추얼 트윈과 피앤피어드바이저리의 컨설팅 역량 및 시스템 구축 노하우를 기반으로 디지털 전환을 추진하는 고객사를 위한 지원을 강화할 수 있을 것으로 예상하고 있다. 다쏘시스템이 디지털 전환(DX)의 결과를 실체화할 수 있는 글로벌 레퍼런스를 갖춘 설루션을 제공하면, 피앤피어드바이저리는 전문성과 컨설팅 역량을 바탕으로 디지털 전환 전략과 시스템 구축을 지원하는 방식이다.     다쏘시스템코리아의 정운성 대표이사는 “제품 개발, 시뮬레이션, 제조, 마케팅 등 모든 과정이 통합적으로 관리되어야 하는 시대”라면서, “피앤피어드바이저리의 컨설팅 역량과 자사의 3D익스피리언스 플랫폼을 통해 제조업계의 생산 공정을 최적화하고 효율을 높일 수 있도록 노력할 것”이라고 말했다. 피앤피어드바이저리의 유영진 CEO는 “세계적인 소프트웨어 선도기업 다쏘시스템의 파트너로서 협력할 수 있는 기회를 갖게 되어 기쁘다”면서, “피앤피어드바이저리가 가진 전문성을 바탕으로 국내 제조사가 빠르게 변화하는 환경에 대응하는 역량을 갖출 수 있도록 최선을 다할 것이며, 특히 국내에서 독보적인 하드웨어 및 소프트웨어 분야의 모듈러 디자인 컨설팅 전문성을 바탕으로 MBSE 체계를 확대해 나가는데 기여할 것”이라고 말했다.
작성일 : 2025-02-13
다쏘시스템, ‘3D UNIV+RSES’ 및 AI 기반 서비스 공개
다쏘시스템이 자사의 고객을 위한 글로벌 IP 수명주기 관리(IPLM)의 핵심에 여러 생성형 AI 기술을 내장한 ‘3D UNIV+RSES’를 공개하면서, 생성형 경제(generative economy)의 새로운 지평을 열어나갈 것이라고 밝혔다. 다쏘시스템은 “미래의 게임 체인저는 최고의 지식과 노하우를 보유하고, 살아있는 세계로부터 영감을 받아 소비가 아닌 생성의 관점에서 지구에서 받은 만큼 다시 돌려주는 이들이 될 것이며 이것이 바로 다쏘시스템이 강조하는 ‘생성형 경제’다. 경험 경제와 순환 경제의 융합으로 탄생한 생성형 경제는 차별화를 위한 핵심 요소인 지식재산(IP)이 하나의 화폐 역할을 하는 가상 자산의 경제”라고 소개했다.  생성형 경제는 3D UNIV+RSES를 통해 촉진되고 활성화될 것이며, AI가 제공하는 학습 가능성을 바탕으로 가속화된다. 3D UNIV+RSES는 세계를 표현하는 새로운 차원의 방식으로, 모델링, 시뮬레이션, 실제 데이터, AI 생성 콘텐츠를 유기적으로 결합한 가상-현실 융합 표현을 의미한다. 이는 버추얼 트윈을 결합 및 교차 시뮬레이션하고 멀티 AI 엔진을 훈련하는 동시에, 고객의 지식재산을 보호하는 독특하고 안전한 환경을 제공한다.     계속해서 진화하는 3D UNIV+RSES의 아키텍처를 통해 고객은 새로운 공간인 최고의 디지털 환경에서 3D 디자인, 버추얼 트윈 및 PLM 데이터의 풍부한 고품질 특허를 활용해 새로운 유형의 서비스형 시스템(XaaS, Experience as a Service)을 교육할 수 있다. 이 서비스형 시스템에는 생성형 AI 기반 경험(GenXp), 버추얼 동반자(Virtual Companions), 지능형 서비스형 버추얼 트윈(VTaaS, intelligent Virtual Twin Experience as a Service)이 포함된다. 다쏘시스템의 ‘파워바이AI(POWER'byAI)’ 접근 방식과 산업별 멀티 AI 플랫폼인 3D익스피리언스 플랫폼(제조), 메디데이터(생명과학 및 헬스케어), 센트릭(소비재 및 식품)은 고객이 높은 수준의 보안 환경에서 자사의 지식과 노하우를 빠르게 생성하고 활용할 수 있도록 돕는다. 3D UNIV+RSES는 다쏘시스템이 지난 44년 동안 선보인 세계 표현 방식의 7세대에 해당한다. 이 새로운 세대는 새로운 방식으로 상상하고, 창조하고, 생산하는 길을 열었다. 오늘날 제조 산업 및 인프라·도시 분야에서 비행기, 자동차, 기계, 로봇, 첨단 기술 및 의료 장비를 개발하는 최첨단 기업들은 다쏘시스템의 고도화된 버추얼 트윈을 사용해 제품 및 서비스의 품질, 성능, 안전을 보장하고 규정 및 표준을 준수한다. 다쏘시스템은 생명과학 및 헬스케어 분야의 혁신가들을 위해 동일한 접근 방식을 개발하여 세포에서 장기, 환자에 이르기까지 ‘살아있는 세계’의 버추얼 트윈을 개척해왔다. 다쏘시스템의 3D UNIV+RSES를 통해 고객은 모든 사람을 위한 모든 것의 버추얼 트윈을 생성하고 전체 생태계를 가상화할 수 있다. 3D UNIV+RSES의 핵심은 경험이며, 모션, 변형, 시간을 통합한 실험 환경으로 작동한다. 아울러 임베디드 AI 기술은 판도를 바꾸는 생성형 경험을 창출하고, 버추얼 동반자를 통해 인간의 역량을 강화하며, 미래의 인력을 향상시키는 촉진제 역할을 한다.   다쏘시스템의 버나드 샬레(Bernard Charlès) 회장은 “오랜 기간 다쏘시스템을 신뢰해 온 모든 고객들은 우리가 가상 자산이라는 ‘금광’을 보호하고, 보이지 않는 것을 밝혀주기를 기대하고 있다. 가장 가치 있는 지식재산을 생성하고 보호하기 위해서는 제품, 자연, 삶이 조화를 이루는 모든 것을 위한 버추얼 트윈 경험을 만드는것이 무엇보다 중요하다”면서, “다쏘시스템은 인류의 발전과 상호 이익을 위해 지식과 노하우의 궁극적인 원천인 3D UNIV+RSES를 제공함으로써 가장 신뢰할 수 있는 파트너가 되기 위해 최선을 다하고 있다”고 말했다.   다쏘시스템의 파스칼 달로즈(Pascal Daloz) CEO는 “지난 3년 동안 버나드 샬레 회장과 다쏘시스템의 전략 및 R&D 팀이 수행한 연구는 매우 인상적이었다”면서, “우리는 생성형 AI의 심층적이고 광범위한 채택을 기반으로 획기적인 설루션을 정의하고 개발하기 위해 수행한 광범위한 작업을 진행해왔다. 이를 통해 모든 분야의 고객들이 제품과 서비스 수명주기의 모든 단계에서 AI 시대를 활용해 지속가능성을 높일 수 있게 될 것이며, 이는 궁극적으로 소비자, 환자, 시민의 일상 생활을 개선할 것”이라고 말했다.
작성일 : 2025-02-10
엔비디아, 블랙웰 지포스 RTX 50 시리즈 출시
엔비디아가 게이머, 크리에이터, 개발자를 위한 최첨단 소비자용 GPU인 지포스 RTX 50 시리즈 데스크톱과 노트북 GPU(GeForce RTX 50 Series Desktop and Laptop GPU)를 공개했다. 엔비디아 블랙웰(NVIDIA Blackwell) 아키텍처, 5세대 텐서 코어(Tensor Core), 4세대 RT 코어(RT Core)를 기반으로 하는 지포스 RTX 50 시리즈는 뉴럴 셰이더, 디지털 휴먼 기술, 지오메트리, 조명을 포함한 AI 기반 렌더링의 혁신을 제공한다. 엔비디아 창립자 겸 CEO인 젠슨 황(Jensen Huang)은 “PC 게이머, 개발자, 크리에이터를 위한 AI 엔진인 블랙웰이 등장했다. AI 기반의 뉴럴 렌더링과 광선 추적을 융합한 블랙웰은 25년 전 프로그래머블 셰이딩을 도입한 이래 가장 중요한 컴퓨터 그래픽 혁신”이라고 말했다. 현재까지 출시된 지포스 RTX GPU 중 가장 빠른 지포스 RTX 5090 GPU는 920억 개의 트랜지스터를 탑재하고 있으며, 초당 3,352조 이상의 AI 연산(TOPS) 처리 능력을 제공한다. 블랙웰 아키텍처 혁신과 DLSS 4 덕분에 지포스 RTX 5090 GPU는 지포스 RTX 4090 GPU보다 최대 2배 더 우수한 성능을 발휘한다. 지포스 블랙웰은 데스크톱 모델의 모든 기능을 갖춘 노트북에 탑재된다. 이는 탁월한 그래픽 기능과 놀라운 효율성을 포함해 휴대용 컴퓨팅에 상당한 업그레이드를 제공한다. 엔비디아 맥스-Q(Max-Q) 기술의 블랙웰 세대는 배터리 수명을 최대 40%까지 연장하며, 전력이나 성능을 희생하지 않고 세련된 디자인을 유지하는 얇고 가벼운 노트북을 포함한다. 최대 8배의 성능을 향상시키는 엔비디아 DLSS 4 DLSS 4는 렌더링된 프레임당 최대 3개의 프레임을 생성하기 위해 AI를 사용해 프레임 속도를 높이는 멀티 프레임 생성(Multi Frame Generation)을 선보인다. 이 기술은 DLSS 기술 제품군과 함께 작동해 엔비디아 리플렉스(Reflex) 기술로 응답성을 유지하면서 기존 렌더링보다 최대 8배의 성능 향상을 제공한다. 또한 DLSS 4는 그래픽 업계 최초로 트랜스포머 모델 아키텍처를 실시간으로 적용한다. 트랜스포머 기반의 DLSS 레이 리컨스트럭션(Ray Reconstruction)과 슈퍼 레졸루션(Super Resolution) 모델은 2배 더 많은 파라미터와 4배 더 많은 연산을 사용한다. 이를 통해 게임 장면에서 더 큰 안정성, 감소된 고스팅, 더 높은 디테일, 향상된 안티 앨리어싱(anti-aliasing)을 제공한다. DLSS 4는 75개 이상의 게임과 애플리케이션에서 지포스 RTX 50 시리즈 GPU를 통해 지원될 예정이다. 엔비디아 리플렉스 2는 디스플레이로 보내기 직전에 최신 마우스 입력을 기반으로 렌더링된 프레임을 업데이트해 게임의 지연 시간을 줄이는 혁신적인 기술인 프레임 워프(Frame Warp)를 도입한다. 리플렉스 2는 지연 시간을 최대 75%까지 줄일 수 있다. 이를 통해 게이머는 멀티플레이어 게임에서 경쟁 우위를 점할 수 있고 싱글 플레이어 타이틀의 반응성도 향상된다. 블랙웰, 셰이더에 AI 도입 25년 전, 엔비디아는 지포스 3와 프로그래밍 가능한 셰이더를 출시했다. 이 셰이더는 픽셀 셰이딩, 컴퓨트 셰이딩, 실시간 레이 트레이싱에 이르기까지 20년 동안 그래픽 혁신의 발판을 마련했다. 엔비디아는 지포스 RTX 50 시리즈 GPU와 함께 RTX 뉴럴 셰이더(Neural Shader)를 출시한다. 이 셰이더는 작은 AI 네트워크를 프로그래밍 가능한 셰이더에 도입해 실시간 게임에서 영화 수준의 소재, 조명 등을 구현한다. 게임 캐릭터 렌더링은 실시간 그래픽에서 가장 어려운 작업 중 하나다. 사람들이 디지털 휴먼에서 아주 작은 오류나 부작용을 쉽게 발견해내기 때문이다. RTX 뉴럴 페이스(Neural Face)는 단순한 래스터화된 얼굴과 3D 포즈 데이터를 입력으로 받아서, 생성형 AI를 사용해 실시간으로 일시적으로 안정적이고 고품질의 디지털 페이스를 렌더링한다. RTX 뉴럴 페이스는 레이 트레이싱된 머리카락과 피부용으로 새롭게 개발된 RTX 기술로 보완된다. 장면에서 레이 트레이싱 삼각형을 최대 100배까지 늘려주는 새로운 RTX 메가 지오메트리(Mega Geometry)와 함께, 이러한 발전은 게임 캐릭터와 환경의 사실성을 크게 향상시킬 것이다. 뉴럴 렌더링의 힘, DLSS 4, 그리고 새로운 DLSS 트랜스포머 모델은 엔비디아의 획기적인 신기술 데모인 조라(Zorah)를 통해 지포스 RTX 50 시리즈 GPU에서 선보인다. 자율 게임 캐릭터 지포스 RTX 50 시리즈 GPU는 업계 최고의 AI 톱스(TOPS)를 통해 게임 렌더링과 병행해 자율 게임 캐릭터를 구동한다. 엔비디아는 게임 캐릭터가 인간 플레이어처럼 인지하고, 계획하고, 행동할 수 있도록 하는 새로운 엔비디아 에이스(ACE) 기술 제품군을 소개한다. 에이스 기반 자율 캐릭터는 크래프톤(KRAFTON)의 PUBG: 배틀그라운드(PUBG: BATTLEGROUNDS)와 곧 출시될 생활 시뮬레이션 게임인 인조이(InZOI), 그리고 위메이드 넥스트(Wemade Next)의 미르5(MIR5)에 통합되고 있다. PUBG에서는 엔비디아 에이스로 구동되는 동료들이 생존을 위해 휴먼 플레이어와 역동적으로 협력하면서 전략적 행동을 계획하고 실행한다. 인조이에는 삶의 목표와 게임 내 이벤트에 따라 행동을 자율적으로 조정하는 스마트 조이(Smart Zoi) 캐릭터가 등장한다. 미르5에서는 거대 언어 모델(large language model, LLM) 기반 레이드 보스가 플레이어의 행동에 따라 전술을 조정해 더욱 역동적이고 도전적인 만남을 만들어 낸다. RTX AI PC용 AI 파운데이션 모델 엔비디아는 블랙 포레스트 랩스(Black Forest Labs), 메타(Meta), 미스트랄(Mistral), 스태빌리티 AI(Stability AI)와 같은 최고의 모델 개발자들이 만든 NIM 마이크로서비스와 RTX AI PC용 AI 블루프린트(Blueprint) 파이프라인을 출시할 예정이다. 이는 RTX 애호가와 개발자들이 엔비디아 NIM 마이크로서비스를 사용해 AI 에이전트와 어시스턴트를 구축하는 방법을 소개하기 위함이다. 사용 사례는 LLM, 비전 언어 모델, 이미지 생성, 음성, 검색 증강 생성(retrieval-augmented generation, RAG)을 위한 임베딩 모델, PDF 추출, 컴퓨터 비전 등 다양한 분야에 걸쳐 있다. NIM 마이크로서비스에는 PC에서 AI를 실행하는 데 필요한 모든 구성 요소가 포함돼 있으며, 모든 엔비디아 GPU에 배포할 수 있도록 최적화돼 있다. 엔비디아는 애호가들과 개발자들이 NIM을 사용해 AI 에이전트와 어시스턴트를 구축할 수 있는 방법을 보여주기 위해 프로젝트 R2X(Project R2X)를 미리 공개했다. 프로젝트 R2X는 사용자의 손끝에 정보를 제공하고, 데스크톱 앱과 화상 회의 통화를 지원하고, 문서를 읽고 요약하는 등의 기능을 수행할 수 있는 비전 지원 PC 아바타다. 크리에이터를 위한 AI 기반 도구 지포스 RTX 50 시리즈 GPU는 크리에이티브 워크플로우를 강화한다. RTX 50 시리즈 GPU는 FP4 정밀도를 지원하는 최초의 소비자용 GPU이다. 이는 플럭스(FLUX)와 같은 모델의 AI 이미지 생성 성능을 2배 향상시키고, 이전 세대 하드웨어에 비해 더 작은 메모리 공간에서 생성형 AI 모델을 로컬로 실행할 수 있도록 한다. 엔비디아 브로드캐스트(Broadcast) 앱은 라이브 스트리머를 위한 두 가지 AI 기반 베타 기능을 제공한다: 마이크 오디오를 업그레이드하는 스튜디오 보이스(Studio Voice)와 세련된 스트리밍을 위해 얼굴을 다시 비추는 버추얼 키 라이트(Virtual Key Light)이다. 스트림랩스(Streamlabs)는 엔비디아 에이스와 인월드 AI(Inworld AI)를 기반으로 하는 인텔리전트 스트리밍 어시스턴트(Intelligent Streaming Assistant)를 소개한다. 이 기능은 라이브 스트리밍을 향상시키기 위해 공동 진행자, 프로듀서, 기술 보조자의 역할을 한다. 이용 정보 데스크톱 사용자의 경우, 3,352개의 AI 톱스의 지포스 RTX 5090 GPU와 1,801개의 AI 톱스의 지포스 RTX 5080 GPU가 오는 1월 30일에 각각 $1,999와 $999에 출시될 예정이다. 1,406개의 AI 톱스의 지포스 RTX 5070 Ti GPU와 988개의 AI 톱스의 지포스 RTX 5070 GPU는 2월부터 각각 $749와 $549에 판매될 예정이다. 지포스 RTX 5090, RTX 5080, RTX 5070 GPU의 엔비디아 파운더스 에디션(Founders Edition)는 nvidia.com과 전 세계 일부 소매점에서 직접 구매할 수 있다. 에이수스(ASUS), 컬러풀(Colorful), 게인워드(Gainward), 갤럭시(GALAX), 기가바이트(GIGABYTE), 이노3D(INNO3D), KFA2, MSI, 팔릿(Palit), PNY, 조탁(ZOTAC) 등 최고의 애드인 카드 제공업체와 팔콘 노스웨스트(Falcon Northwest), 인피니아크(Infiniarc), 메인기어(MAINGEAR), 미프콤(Mifcom), 오리진 PC(ORIGIN PC), PC 스페셜리스트(PC Specialist), 스캔 컴퓨터스(Scan Computers) 등 데스크탑 제조업체에서 기본 클럭 모델과 공장 오버클럭 모델을 구입할 수 있다.
작성일 : 2025-01-27
에픽게임즈, 전주시의 버추얼 프로덕션 산업 기반 조성 지원
에픽게임즈가 영화의 도시 전주의 영화영상산업 발전을 위해 전주시, 전주정보문화산업진흥원과 업무협약(MOU)을 체결했다고 발표했다. 이번 MOU는 에픽게임즈와 전주시, 전주정보문화산업진흥원이 언리얼 엔진 5(UE5)의 버추얼 프로덕션 기술을 도입하여 전주시의 버추얼 프로덕션 산업 기반 조성을 위해 체결됐다. 이와 더불어, 버추얼 프로덕션 커리큘럼의 공동 개발 및 현장 학습 프로그램 지원을 통해 전주시의 인재를 양성하고, 지역 사회의 고용 및 창업 역량 등을 강화할 예정이다. 에픽게임즈의 언리얼 엔진은 게임, 영화, TV, 애니메이션, 건축, 자동차 등 여러 산업에서 첨단 콘텐츠, 인터랙티브 경험, 몰입형 가상세계 제작에 사용되고 있다. 영화 산업을 이끌고 있는 감독 및 스튜디오와 함께 개발된 언리얼 엔진 5는 영화 제작자들이 현실 세계와 디지털 세계를 결합하여 창의적인 비전을 실현할 수 있도록 돕는 버추얼 프로덕션 툴세트를 제공하고 있다.     전주시의 우범기 시장은 “이번 협약은 글로벌 기업과 지역이 버추얼 프로덕션 산업생태계 조성을 위해 상호 협력하는 성공적인 협업 모델이 될 것으로 예상한다”면서, “이번 협업 모델을 토대로 전주가 국내를 넘어 글로벌 경쟁력 확보까지 이어나갈 수 있기를 기대한다”고 말했다. 전주정보문화산업진흥원의 허전 원장은 “앞으로 전주시가 가진 다양한 문화 자산과 에픽게임즈의 기술력 그리고 진흥원의 매니지먼트 능력을 바탕으로 긴밀하게 협력하여 성공적인 협력 모델이 될 수 있도록 지원을 아끼지 않을 계획”이라면서, “언리얼 엔진의 버추얼 프로덕션 기술 도입을 통해 전주가 버추얼 프로덕션 산업의 핵심 거점으로 성장할 수 있도록 지속적으로 노력하겠다”고 말했다. 에픽게임즈 코리아의 박성철 대표는 “대한민국 3대 영화제 중 하나인 전주국제영화제가 개최되며 글로벌 영화영상산업 수도를 꿈꾸는 영화의 도시로 자리 잡은 전주시와 업무협약을 체결하게 돼 기쁘게 생각한다”면서, “에픽게임즈는 공동 개발 교육 커리큘럼을 통해 전주 지역의 전문 인력에게 언리얼 엔진의 최첨단 기술을 제공해 전주가 글로벌 영화 산업의 핵심 도시로 도약할 수 있도록 지원할 것”이라고 말했다.
작성일 : 2025-01-13
엔비디아 젠슨 황, CES 2025서 ‘놀라운 속도’로 진보하는 AI 소개
엔비디아 젠슨 황, CES 2025서 ‘놀라운 속도’로 진보하는 AI 소개   CES 2025에서 엔비디아 창립자 겸 CEO 젠슨 황(Jensen Huang)이 AI와 컴퓨팅 기술의 미래를 조망했다.  젠슨 황은 1월 8일 90분간 이어진 연설에서 게이밍, 자율 주행차, 로보틱스, 그리고 에이전틱 AI(agentic AI)의 발전에 기여할 엔비디아의 최신 기술과 제품들을 공개했다. 라스베이거스 미켈롭 울트라 아레나에 6천 명이 넘는 관중이 운집한 가운데, 젠슨 황은 “AI가 놀라운 속도로 진보하고 있다”면서, AI의 발전 과정을 세 단계로 나눠 설명했다. “AI는 처음에 이미지와 단어, 소리를 이해하는 '인식형 AI(Perception AI)'에서 시작됐다. 이후 텍스트, 이미지, 소리를 생성하는 '생성형 AI(Generative AI)'가 등장했다. 그리고 이제 우리는 처리, 추론, 계획, 행동까지 가능한 물리적 AI(Physical AI) 시대에 접어들고 있다.” 젠슨 황은 이 변혁의 중심에 엔비디아 GPU와 플랫폼이 자리 잡고 있다고 강조하며, 엔비디아가 게이밍, 로보틱스, 자율 주행차 등 다양한 산업에서 혁신을 선도할 것이라고 전했다. 이번 기조연설에서는 엔비디아의 신제품과 기술이 공개됐다. 젠슨 황은 이를 통해 AI와 컴퓨팅 기술이 어떻게 미래를 재정의할지 상세히 설명했다. 엔비디아 코스모스(Cosmos) 플랫폼은 로봇과 자율 주행차, 비전 AI를 위해 새롭게 개발된 모델과 영상 데이터 프로세싱 파이프라인을 통해 물리적 AI를 발전시킬 것이다. 새로 출시될 엔비디아 블랙웰(Blackwell) 기반 지포스(GeForce) RTX 50 시리즈 GPU는 놀랍도록 사실적인 비주얼과 전례 없는 성능을 제공한다.  이번 CES에 소개된 RTX PC용 AI 기초 모델에는 디지털 휴먼(digital human)과 팟캐스트, 이미지, 동영상 제작을 도울 엔비디아 NIM 마이크로서비스와 AI 블루프린트가 포함된다. 엔비디아 프로젝트 디지츠(Project DIGITS)는 주머니에 들어가는 소형 크기의 패키지로 개발자의 데스크톱에 엔비디아 그레이스 블랙웰(Grace Blackwell)의 강력한 성능을 제공한다. 엔비디아는 토요타와 협업하면서 엔비디아 드라이브OS(DriveOS) 기반의 엔비디아 드리아브 AGX 차내 컴퓨터로 안전한 차세대 차량 개발에 힘쓰고 있다.   젠슨 황은 30년에 걸친 엔비디아의 여정을 돌아보는 것으로 키노트를 시작했다. 1999년, 엔비디아는 프로그래머블 GPU(programmable GPU)를 개발했다. 그로부터 지금까지 현대적 AI가 컴퓨팅의 작동 방식을 근본적으로 바꿔놨다. “당시 GPU의 테크놀로지 스택 레이어 하나하나가 고작 12년만에 놀라운 혁신을 경험했다.”   지포스 RTX 50 시리즈의 그래픽 혁명 젠슨 황은 “지포스는 AI가 대중에게 다가가는 계기였고, 이제 AI는 지포스의 본진이 되고 있다”고 말했다. 이 같은 평가와 함께 젠슨 황은 지금껏 개발된 제품 중 가장 강력한 지포스 RTX GPU인 엔비디아 지포스 RTX 5090 GPU 를 소개했다. 지포스 RTX 5090은 920억 개의 트랜지스터를 탑재하고 초당 3,352조 개(TOPS)의 연산을 제공한다.  젠슨 황은 “바로 이것이 우리가 처음 선보이는 블랙웰 아키텍처의 지포스 RTX 50 시리즈”라며 소개를 시작했다. 젠슨 황은 검게 처리된 GPU를 높이 들어 보이며, 이 제품이 첨단 AI를 활용해 혁신적인 그래픽을 구현하는 방법을 설명했다. 그는 “이 GPU는 문자 그대로 야수라 할 만하다. 지포스 RTX 5090의 기계적 디자인조차 기적에 가깝다”며, 해당 그래픽 카드에 냉각 팬 두 개가 장착돼 있다고 언급했다.  이번 기조연설에서는 지포스 RTX 5090 시리즈를 변형한 제품들의 출시 소식도 알렸다. 지포스 RTX 5090과 지포스 RTX 5080 데스크톱 GPU가 오는 1월 30일에 공개된다. 지포스 RTX 5070 Ti와 지포스 RTX 5070 데스크톱은 오는 2월부터 만나볼 수 있다. 랩톱 GPU는 올 3월 출시 예정이다.  DLSS 4 는 DLSS 테크놀로지를 활용한 제품군 일체와 함께 작동하는 멀티 프레임 생성(Multi Frame Generation)을 도입해 성능을 최대 8배까지 끌어올린다. 또한 엔비디아는 PC의 레이턴시(latency)를 75%까지 줄여주는 엔비디아 리플렉스(Reflex) 2 도 공개했다.  최신 DLSS의 경우, 우리가 계산하는 프레임마다 세 개의 프레임을 추가로 생성할 수 있다. 젠슨 황은 “그 결과 AI가 담당하는 계산이 크게 줄어들기 때문에 렌더링 성능이 크게 향상된다”고 말했다. RTX 뉴럴 셰 이더(RTX Neural Shaders)는 소형 신경망을 사용해 실시간 게이밍의 텍스처와 머티리얼, 빛을 개선한다. RTX 뉴럴 페이스(RTX Neural Faces)와 RTX 헤어(RTX Hair)는 생성형 AI로 얼굴과 머리카락의 실시간 렌더링을 개선해 더없이 사실적인 디지털 캐릭터를 만들어낸다. RTX 메가 지오메트리(RTX Mega Geometry)는 레이 트레이싱된 트라이앵글(triangle)의 개수를 100배까지 늘려 디테일을 강화한다.    코스모스로 진보하는 물리적 AI 젠슨 황은 그래픽의 발전상과 더불어 엔비디아 코스모스 월드 파운데이션 모델(world foundation model) 플랫폼을 소개하며, 이것이 로보틱스와 산업 AI를 크게 혁신할 것이라고 내다봤다.  그는 AI의 차세대 개척지는 물리적 AI가 될 것이라면서 이 순간을 대규모 언어 모델이 생성형 AI의 혁신에 미쳤던 거대한 영향에 비유하고 “챗GPT(ChatGPT) 같은 혁신의 순간이 로보틱스 분야 전반에 다가온 셈”이라고 설명했다.  젠슨 황은 거대 언어 모델(large language model)과 마찬가지로 월드 파운데이션 모델 또한 로봇과 AV 개발 촉진에 중요한 역할을 하지만, 이를 자체적으로 훈련할 수 있는 전문 지식과 자원을 모든 개발자가 갖추고 있는 것은 아니라고 진단했다.  엔비디아 코스모스는 생성형 모델과 토크나이저(tokenizer), 영상 프로세싱 파이프라인을 통합해 AV와 로봇 등의 물리적 AI 시스템을 강화한다.  엔비디아 코스모스의 목표는 AI 모델에 예측과 멀티버스 시뮬레이션 기능을 지원해 발생 가능한 모든 미래를 시뮬레이션하고 최적의 행위를 선택할 수 있도록 하는 것이다.   젠슨 황의 설명에 따르면 코스모스 모델은 텍스트나 이미지, 비디오 프롬프트를 수집해 가상 월드를 동영상 형태로 생성한다. 그는 “코스모스의 생성 작업은 실제 환경과 빛, 대상 영속성(object permanence) 등 AV와 로보틱스라는 고유한 활용 사례에 필요한 조건들을 최우선으로 고려한다”고 말했다. 1X와 애자일 로봇(Agile Robots), 어질리티(Agility), 피규어 AI(Figure AI), 포어텔릭스(Foretellix), 푸리에(Fourier), 갤봇(Galbot), 힐봇(Hillbot), 인트봇(IntBot), 뉴라 로보틱스(Neura Robotics), 스킬드 AI(Skild AI), 버추얼 인시전(Virtual Incision), 와비(Waabi), 샤오펑(XPENG) 등 로보틱스와 자동차 분야의 선도적인 기업들과 차량 공유 업체 우버(Uber)가 코스모스를 최초 도입했다.  또한 현대자동차 그룹은 엔비디아 AI와 옴니버스(Omniverse) 를 기반으로 더 안전하고 스마트한 차량을 개발하고, 제조를 강화하며, 최첨단 로보틱스의 활용성을 높인다. 코스모스는 오픈 라이선스로 깃허브(GitHub)에서 이용할 수 있다.    AI 기초 모델로 개발자 지원 엔비디아는 로보틱스와 자율 주행차 외에도 AI 기초 모델을 통해 개발자와 크리에이터를 지원한다.  젠슨 황은 디지털 휴먼과 콘텐츠 제작, 생산성과 개발성을 극대화하는 RTX PC용 AI 파운데이션 모델을 소개했다.  그는 “모든 클라우드에서 엔비디아 GPU를 사용할 수 있기 때문에 이 AI 기초 모델들 또한 모든 클라우드에서 실행이 가능하다. 모든 OEM에서 사용이 가능하므로 이 모델들을 가져다 여러분의 소프트웨어 패키지에 통합하고, AI 에이전트를 생성하며, 고객이 소프트웨어 실행을 원하는 어디에나 배포할 수 있다”고 전했다.  이 기초 모델들은 엔비디아 NIM 마이크로서비스로 제공되며, 신형 지포스 RTX 50 시리즈 GPU로 가속된다. 신형 지포스 RTX 50은 모델의 신속 실행에 필요한 기능을 갖추고 있으며, FP4 컴퓨팅 지원을 추가해 AI 추론을 2배까지 향상시킨다. 또한 생성형 AI 모델이 전 세대 하드웨어에 비해 더 적은 메모리 공간에서 로컬로 실행되도록 지원한다.   젠슨 황은 이처럼 새로운 툴이 크리에이터에게 어떤 잠재력을 갖는지 짚었다. 그는 “우리는 우리의 생태계가 활용할 수 있는 다양한 블루프린트를 만들고 있다. 이 모든 게 오픈 소스로 제공되므로 여러분이 블루프린트를 가져다 직접 수정해 사용할 수 있다”고 말했다.  엔비디아는 업계 최고의 PC 제조업체와 시스템 개발자들이 지포스 RTX 50 시리즈 GPU를 탑재하고 NIM을 지원하는 RTX AI PC를 내놓을 예정이다. 젠슨 황은 “AI PC들이 여러분 가까이로 찾아갈 예정”이라고 말했다. 엔비디아는 이처럼 개인 컴퓨팅에 AI 기능을 더하는 툴들을 제공하는 한편, 안전과 인텔리전스가 가장 중요하게 손꼽히는 자율 주행차 산업에서도 AI 기반 솔루션을 발전시키고 있다.   자율 주행 차량의 혁신 젠슨 황 CEO는 엔비디아 AGX 토르(Thor) 시스템 온 칩(SoC)을 기반으로 구축된 엔비디아 드라이브 하이페리온 AV(Hyperion AV) 플랫폼의 출시를 알렸다. 이 플랫폼은 생성형 AI 모델용으로 고안돼 기능 안전성과 자율 주행 기능을 강화한다.  젠슨 황은 “자율 주행차의 혁명이 찾아왔다. 자율 주행차 제작에는 로봇을 만들 때와 마찬가지로 세 대의 컴퓨터가 필요하다. AI 모델 훈련을 위한 엔비디아 DGX, 시험 주행과 합성 데이터 생성을 위한 옴니버스, 차내 슈퍼컴퓨터인 드라이브 AGX가 필요하다”고 말했다.  드라이브 하이페리온은 최초의 엔드-투-엔드(end-to-end) AV 플랫폼으로, 첨단 SoC와 센서, 차세대 차량용 안전 시스템, 센서 제품군과 액티브 세이프티(active safety)와 레벨 2 자율 주행 스택을 통합했다. 이 플랫폼은 메르세데츠 벤츠(Mercedes-Benz)와 JLR, 볼보자동차(Volvo Cars) 등 자동차 안전성 분야를 선도하는 기업들에 채택됐다.  젠슨 황은 자율 주행차의 발전에서 합성 데이터가 중요한 역할을 수행한다고 강조했다. 합성 데이터는 실세계 데이터에 한계가 존재하는 상황에서 자율 주행차 제조 단계에서의 훈련에 필수적이라고 설명했다.  엔비디아 옴니버스 AI 모델과 코스모스를 기반으로 한 이 같은 접근 방식은 “훈련 데이터의 양을 어마어마하게 늘리는 합성 주행 시나리오를 생성”한다.  엔비디아와 코스모스를 사용하는 엔비디아의 AI 데이터 공장은 “수백 개의 주행을 수십억 마일에 달하는 유효 주행으로 확장”함으로써 안전하고 진일보한 자율 주행에 필요한 데이터세트를 획기적으로 늘릴 수 있다.  젠슨 황은 “자율 주행차 훈련에 쓰일 방대한 데이터를 보유하게 될 것”이라고 덧붙였다.  세계 최대 자동차 제조사인 토요타는 안전 인증을 획득한 엔비디아 드라이브OS 운영 체제와 엔비디아 드라이브 AGX 오린(Orin)을 기반으로 차세대 차량을 생산할 것이라고 밝혔다.  젠슨 황은 “컴퓨터 그래픽이 놀라운 속도로 혁신을 이룩했듯 향후 몇 년 동안 AV 발전 속도 또한 엄청나게 빨라질 것으로 예상된다. 이 차량들은 기능 안전성과 진일보한 주행 지원 능력을 제공할 전망”이라고 말했다.    에이전트 AI와 디지털 제조 엔비디아와 협력사들은 효율적인 조사와 영상 검색, 요약을 통해 대용량 영상과 이미지를 분석할 수 있는 PDF 투 팟캐스트(PDF-to-podcast) 등 에이전틱 AI용 AI 블루프린트들을 출시했다. 이를 통해 개발자들이 어디서나 AI 에이전트를 구축, 테스트, 실행할 수 있도록 지원해왔다.  개발자는 AI 블루프린트를 활용해 맞춤형 에이전트를 배포하고 엔터프라이즈 워크플로우를 자동화할 수 있다. 이 새로운 범주의 협력사 블루프린트는 엔비디아 NIM 마이크로서비스나 엔비디아 네모(NeMo) 등의 엔비디아 AI 엔터프라이즈 소프트웨어와 크루AI(CrewAI), 데일리(Daily), 랭체인(LangChain), 라마인덱스(LlamaIndex), 웨이츠 앤 바이어시스(Weights & Biases) 등 선도적인 제공자들의 플랫폼을 통합한다.  이와 더불어 젠슨 황은 라마 네모트론(Llama Nemotron)도 새롭게 발표했다.  개발자는 엔비디아 NIM 마이크로서비스를 활용해 고객 지원과 사기 탐지, 공급망 최적화 작업용 AI 에이전트를 구축할 수 있다.  엔비디아 NIM 마이크로서비스로 제공되는 이 모델들은 가속 시스템 일체에서 AI 에이전트를 가속한다. 엔비디아 NIM 마이크로서비스는 영상 콘텐츠 관리를 간소화해 미디어 업계의 효율성과 시청자 참여도를 높인다. 엔비디아의 신기술은 디지털 분야의 애플리케이션을 넘어 AI가 로보틱스로 물리적 세계를 혁신할 길을 열어주고 있다. 그는 “지금까지 말씀드린 지원 테크놀로지 일체를 바탕으로 우리는 향후 몇 년 동안 로보틱스 전반에서 엄청난 속도의 혁신과 놀라운 변화들을 만들어내게 될 것”이라고 말했다. 제조 분야의 합성 모션 생성을 위한 엔비디아 아이작(Isaac) GR00T 블루프린트는 기하급수적으로 많은 합성 모션 데이터를 생성해 모방 학습을 통한 휴머노이드 훈련에 도움을 줄 것이다. 젠슨 황은 엔비디아 옴니버스로 수백 만 개의 휴머노이드 훈련용 합성 모션을 생성해 로봇을 효율적으로 훈련시키는 것이 중요하다고 강조했다. 메가 블루프린트는 엑센츄어(Accenture)와 키온(KION) 같은 선진 업체들이 창고 자동화를 위해 채택한 로봇들의 대규모 시뮬레이션을 지원한다.  이러한 AI 툴을 바탕으로 엔비디아의 새로운 혁신, 일명 프로젝트 디지츠로 불리는 개인용 AI 슈퍼컴퓨터가 등장했다.                                                                                             엔비디아 프로젝트 디지츠 공개 젠슨 황은 개인 사용자와 개발자 모두에게 엔비디아 그레이스 블랙웰을 쥐여주게 될 엔비디아 프로젝트 디지츠 를 공개했다. 그는 “한 가지 더 보여드리고 싶은 게 있다. 약 10년 전에 시작된 이 놀라운 프로젝트가 아니었다면 이 같은 일은 절대로 불가능했을 것이다. 이는 우리 회사 내부에서 프로젝트 디지츠라 불리던 작업이다. 딥 러닝 GPU 인텔리전스 트레이닝 시스템(deep learning GPU intelligence training system)의 약어다”라며 소개를 시작했다. 그는 2016년 최초의 엔비디아 DGX 시스템이 오픈AI(OpenAI)에 제공되던 당시를 그리며 엔비디아의 AI 슈퍼컴퓨팅 개발을 향한 여정이 남긴 유산을 되새겼다. 그는 “그 덕분에 AI 컴퓨팅의 혁명이 가능했다는 건 분명한 사실”이라고 말했다. 새로 발표된 프로젝트 디지츠는 엔비디아의 슈퍼컴퓨팅 개발 미션을 더욱 발전시켰다. 젠슨 황은 “모든 소프트웨어 엔지니어, 모든 엔지니어, 모든 크리에이티브 아티스트, 오늘날 컴퓨터를 도구로 사용하는 모든 이들에게 AI 슈퍼컴퓨터가 필요해질 것”이라고 전했다. 젠슨 황은 10기가 그레이스 블랙웰 슈퍼칩으로 구동되는 프로젝트 디지츠가 엔비디아의 가장 작지만 가장 강력한 AI 슈퍼컴퓨터라고 밝혔다. 젠슨 황은 “이것이 엔비디아의 최신 AI 슈퍼컴퓨터”라고 설명하며 프로젝트 디지츠를 선보였다. 그는 “이 제품은 엔비디아 AI 스택 전체를 구동한다. 엔비디아 소프트웨어 일체가 여기서 실행된다. DGX 클라우드 또한 마찬가지”라고 말했다.    소형이지만 강력한 프로젝트 디지츠는 오는 5월 출시를 앞두고 있다.    미래를 이끄는 엔비디아의 비전 젠슨 황은 연설을 마무리하며, 엔비디아가 30년간 혁신을 거듭해온 과정을 돌아보고,  “1999년 프로그래머블 GPU를 개발한 이후, 우리는 현대 AI가 컴퓨팅을 근본적으로 변화시키는 과정을 지켜봤다”고 말했다. CES 2025에서 공개된 엔비디아의 혁신들은 AI 기술이 산업 전반에 걸쳐 새로운 가능성을 열어줄 것을 보여줬다. 젠슨 황의 말처럼, AI는 이미 우리의 일상 속 깊숙이 자리 잡았으며, 엔비디아는 그 중심에서 미래를 선도하고 있다.  
작성일 : 2025-01-11
언리얼 엔진 5.5 : 애니메이션/가상 프로덕션/모바일 게임 개발 기능 강화
개발 및 공급 : 에픽게임즈 주요 특징 : 고퀄리티 애니메이션 제작 워크플로 지원 기능 향상, 하드웨어 레이 트레이싱 기반 시스템 지원 강화, 버추얼 프로덕션을 위한 인카메라 VFX 툴세트 정식 버전 제공, 모바일 게임 개발 위한 모바일 포워드 렌더러의 기능 추가 등     이번에 출시된 언리얼 엔진 5.5는 애니메이션 제작, 버추얼 프로덕션, 모바일 게임 개발 기능이 크게 향상됐고, 렌더링, 인카메라 VFX, 개발자 반복 작업 등 많은 기능들을 정식 버전으로 제공한다. 또한 메가라이트와 같은 한계를 뛰어넘는 흥미롭고 새로운 혁신도 계속해서 선보였다.   애니메이션 언리얼 엔진 5.5는 에디터에서 고퀄리티 애니메이션 제작 워크플로를 지원하는 신규 및 향상된 기능을 제공하여 상황에 맞는 애니메이션을 제작할 수 있어, DCC 애플리케이션을 오가며 작업할 필요성이 줄어들었다. 또한, 애니메이션 게임플레이 제작 툴세트에도 새로운 기능이 추가되었다.   시퀀서 이번 버전에서는 언리얼 엔진의 비선형 애니메이션 에디터인 시퀀서가 크게 개선되어 직관적인 인터페이스를 제공하며, 더 나은 필터링과 속성을 더 쉽게 사용할 수 있게 됐다. 이를 통해 워크플로 피로도를 줄이고 생산성을 높일 수 있다.  또한, 원본이 훼손되지 않는 애니메이션 레이어가 추가되어 기존 DCC 애플리케이션에서만 볼 수 있었던 추가 제어 기능과 유연성을 제공한다. 이제 애니메이션 레이어의 애디티브 또는 오버라이드를 선택하고, 이 레이어의 가중치도 애니메이션할 수 있어 손쉽게 콘텐츠를 관리할 수 있다.    ▲ 이미지 출처 : 언리얼 엔진 홈페이지 영상 캡처   마지막으로, 인터랙티브 시네마틱 도중 플레이어의 선택에 따른 조건부 상태 변경, 게임플레이 시네마틱 내에서 오브젝트를 보다 섬세하게 제어하는 커스텀 바인딩 등과 같은 기능으로 다양한 다이내믹 시네마틱 시나리오를 작동하도록 설정하는 것이 더 쉬워졌다. 또한, 커브를 사용해 시퀀스의 타이밍을 워프하고, 서브시퀀스 또는 샷의 원점을 재배치할 수도 있다.   애니메이션 디포머 컨트롤 릭에서 애니메이션을 적용할 수 있는 애니메이션 디포머를 만들어 클릭 한 번으로 시퀀서의 캐릭터에 쉽게 적용할 수 있는 기능이 추가되어, 접촉 디포메이션이나 더 나은 카툰 스타일의 스쿼시 앤 스트레치(찌그러짐과 늘어남)같은 더욱 사실적인 애니메이션 이펙트를 제작할 수 있다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지 영상 캡처   또한, 애니메이터 키트 플러그인에는 래티스, 카메라 래티스, 스컬프팅 등 기본 디포머 기능과 함께 바로 사용할 수 있는 다양한 컨트롤 릭이 포함되어 있으며, 애니메이션에 사용하거나 자신만의 릭으로 구동되는 디포머 또는 헬퍼 릭을 제작하는 데 예제로 활용할 수 있는 유틸리티 컨트롤 릭도 제공된다.   모듈형 컨트롤 릭 모듈형 컨트롤 릭(modular control rig)은 다양한 UI 및 UX 개선, 새로운 사족 보행 및 비클 모듈 그리고 기본 이족 스켈레톤 유형에 대한 지원과 함께 베타 버전으로 제공된다. 또한, 스켈레탈 에디터는 이제 더 빠르고 간소화된 페인팅 워크플로 및 가중치 편집 등 다양한 개선 사항과 함께 정식 버전으로 만나볼 수 있다.   메타휴먼 애니메이터 언리얼 엔진용 메타휴먼 플러그인 중 하나인 메타휴먼 애니메이터도 이번 버전에서 대폭 업그레이드됐다. 처음에는 실험 단계 기능으로 도입되었으나, 이제 오디오만으로도 얼굴 상단 부분의 표정 추론을 포함하여 고퀄리티의 페이셜 애니메이션을 생성할 수 있다. 이 로컬 오프라인 설루션은 다양한 음성 및 언어와 함께 작동되며, 다른 메타휴먼 애니메이터 입력과 함께 일괄 처리 및 스크립팅할 수 있다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지   뮤터블 캐릭터 커스터마이제이션 런타임에 동적으로 변경되는 콘텐츠를 개발하는 게임 개발자에게 큰 도움을 제공할 뮤터블(mutable) 캐릭터 커스터마이제이션 시스템이 새롭게 추가됐다. 이 시스템은 캐릭터, 동물, 소품, 무기 등의 다이내믹 스켈레탈 메시, 머티리얼, 텍스처를 생성하는 동시에 메모리 사용량을 최적화하고 셰이더 비용과 드로 콜 수를 줄여준다. 런타임에 콘텐츠를 수정하는 네이티브 툴과는 달리, 뮤터블에서는 많은 파라미터와 텍스처 레이어, 복잡한 메시 상호작용, GPU에 부하가 큰 텍스처 효과 등을 처리할 수 있는 심층적인 커스터마이징을 제공한다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지 영상 캡처   선택기 선택기도 정식 버전으로 제공된다. 복잡한 로직을 작성할 필요 없이 게임 상황에 따라 재생할 애니메이션을 선택할 수 있는 이 프레임워크는 이제 거의 모든 유형의 애셋을 지원하며, 단순한 랜덤 선택기부터 수천 개의 애니메이션을 관리하는 데이터베이스 기반의 로직까지 다양한 수준의 복잡성을 처리할 수 있다. 이러한 기능은 업데이트된 게임 애니메이션 샘플 프로젝트에서 사용해 볼 수 있다.   렌더링 에픽게임즈는 언리얼 엔진 5의 높은 리얼타임 렌더링 퍼포먼스와 퀄리티를 제공하기 위해 지속적으로 노력하고 있다.   루멘 하드웨어 레이 트레이싱(Hardware Ray Tracing, HWRT) 기반 시스템에 많은 향상이 이루어지면서, 이제 하드웨어 지원을 제공하는 플랫폼에서 루멘을 60Hz로 실행할 수 있다. 이러한 개선을 통해 패스 트레이서 및 라이트 베이킹의 퍼포먼스와 기능도 향상될 수 있다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지   패스 트레이서 물리적으로 정확한 DXR 가속 프로그레시브 렌더링 모드인 패스 트레이서는 이제 정식 버전으로 제공되어 비선형 애플리케이션 또는 모든 기능을 갖춘 실사 레퍼런스 이미지의 최종 픽셀을 제작할 때 높은 퀄리티를 제공한다. 이번 버전에서는 퍼포먼스 및 퀄리티 개선, 리눅스 지원, 스카이 애트머스피어 및 볼류메트릭 클라우드 등 다른 모든 정식 버전 기능을 지원한다.   ▲ Audi e-tron GT 모델(이미지 제공 : Audi Business Innovation)   서브스트레이트 언리얼 엔진 5.2에서 실험 단계로 선보인 머티리얼 제작 프레임워크인 서브스트레이트가 베타 버전으로 전환되어, 언리얼 엔진이 지원하는 모든 플랫폼과 기존 머티리얼의 모든 기능이 지원된다. 리얼타임 애플리케이션을 위해 최적화하는 작업이 진행 중이며, 선형 머티리얼 제작에는 정식으로 사용할 수 있다. 룩 개발 아티스트는 이 강력하고 유연한 프레임워크를 활용하여 오브젝트의 룩 앤 필을 더 제어할 수 있다.   무비 렌더 그래프 언리얼 엔진 5.4에서 실험 단계로 도입되었던 무비 렌더 그래프(Movie Render Graph, MRG)도 이번 버전에서 베타 버전으로 전환된다. 그래프 기반의 환경 설정 워크플로에 많은 노력을 통해 커스텀 EXR 메타데이터를 사용하는 기능, 컬렉션의 스포너블 지원과 같은 초기 사용자의 피드백을 기반한 개선점 그리고 오브젝트 ID 지원과 같은 기존 프리셋 구성의 호환성 향상 등을 제공한다. 또한, 이제 MRG의 렌더 레이어 기능에서 반투명 오브젝트, 나이아가라 FX, 불균질 볼륨, 랜드스케이프, 스카이 스피어를 사용할 필요가 없는 스카이 애트머스피어 등을 포함해 모든 애셋 유형을 지원한다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지 영상 캡처   마지막으로, MRG는 신규 실험 단계 기능인 패스 트레이서용 스파시오 템포럴 디노이저(denoiser)를 제공해 선형 시퀀스에 고퀄리티의 결과를 출력할 수 있다.   메가라이트 언리얼 엔진 5.5에서는 새로운 실험 단계 기능인 메가라이트를 미리 만나볼 수 있다. ‘빛의 나나이트’라고 불리는 메가라이트를 사용하면 신에 제약 없이 다이내믹한 그림자를 만드는 수백 개의 라이트를 추가할 수 있다. 이를 통해 라이팅 아티스트는 이제 콘솔과 PC에서 소프트 섀도와 함께 텍스처가 적용된 에어리어 라이트, 라이트 함수, 미디어 텍스처 재생, 볼류메트릭 섀도를 자유롭게 사용해 볼 수 있어 성능보다는 예술적인 부분에 집중할 수 있다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지 영상 캡처   버추얼 프로덕션 언리얼 엔진은 버추얼 프로덕션을 위한 인카메라 VFX(ICVFX) 툴세트를 통해 전 세계 영화, TV, 광고 등 수많은 제작을 지원하고 있다. 언리얼 엔진 5.5는 여러 버전에 걸친 축적된 노력을 통해 ICVFX 툴세트를 정식 버전으로 제공하며, 버추얼 프로덕션 및 시각화를 위한 다른 기능도 향상되었다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지 영상 캡처   SMPTE 2110 언리얼 엔진의 SMPTE 2110 지원이 대표적인 예로, 이번 출시에서는 ICVFX 프로젝트의 요구사항에 맞춰 수많은 안정성 개선, 프레임록 손실 자동 감지 및 복구, 타임코드로 PTP 지원 추가, 2110 미디어에 대한 OCIO 지원, IP 비디오 신호 흐름에 대한 개선이 이뤄졌다.   카메라 캘리브레이션 카메라 캘리브레이션 솔버 역시 언리얼 엔진 5.5에서 정식 버전으로 제공되어, 렌즈 및 카메라 파라미터 추정 정확도가 크게 향상되었다. 이 작업을 바탕으로 이제 모든 카메라에 오버스캔이 내장되어, 렌즈 왜곡을 렌더링하거나 포스트 프로세싱 단계에서 카메라 셰이크 추가 등을 지원한다.    버추얼 스카우팅 언리얼 엔진 5.4에서 처음 도입된 버추얼 스카우팅 툴세트가 정식 버전으로 업데이트됐다. 이제 OpenXR 호환 HMD(오큘러스 및 밸브 인덱스 기본 지원)를 사용해 강력한 경험을 곧바로 활용할 수 있으며, 광범위한 API를 통한 새로운 커스터마이징도 제공한다. 이 툴세트에서는 새로운 VR 콘텐츠 브라우저와 애셋 배치, 블루프린트로 커스터마이징할 수 있는 트랜스폼 기즈모, 색상 보정 뷰파인더 등이 더욱 향상되었다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지 영상 캡처   컬러 그레이딩 패널 이전에는 ICVFX 에디터에서만 제공됐던 컬러 그레이딩 패널이 이제 언리얼 에디터의 일반 기능으로 사용할 수 있게 돼, 모든 언리얼 엔진 신에서 창의적으로 컬러를 보정할 수 있는 풍부하면서도 아티스트 친화적인 인터페이스를 제공한다. nDisplay로 작업하는 사람들만이 아니라 모든 아티스트에게 향상된 컬러 그레이딩 경험을 제공하는 이 패널은 포스트 프로세스 볼륨, 시네 카메라 및 색 보정 영역도 지원한다.    DMX 버추얼 프로덕션뿐만 아니라 방송 및 라이브 이벤트에도 적용할 수 있는 언리얼 엔진의 DMX 테크 스택 또한 정식 버전이 되어 향상된 컨트롤 콘솔, 픽셀 매핑, 컨플릭트 모니터를 제공한다. 또한, 이번 버전에서는 GDTF 규격을 DMX 플러그인에 추가하여 GDTF 및 MVR을 지원하는 제어 장치와 소프트웨어의 지원을 추가하는 등의 다양한 개선 사항을 제공한다.   모바일 게임 개발 언리얼 엔진은 플랫폼 측면에서도 모바일 및 크로스 플랫폼 AAA 게임 개발을 위한 최고의 엔진이 되고자 모바일 지원에 지속적으로 노력을 기울이고 있다. 모바일 포워드 렌더러에는 플랫폼의 비주얼 퀄리티를 높일 수 있는 다양한 신규 기능이 추가되었다. 또한, 이제 D-버퍼 데칼, 렉트 에어리어 라이트, 캡슐 섀도, 포인트 및 스포트라이트용 무버블 IES 텍스처, 볼류메트릭 포그, 나이아가라 파티클 라이트가 지원되며, 모바일 포워드와 디퍼드 렌더러 모두 스크린 스페이스 리플렉션을 사용할 수 있다.    ▲ 이미지 출처 : 언리얼 엔진 홈페이지 영상 캡처   뿐만 아니라 언리얼 엔진 5.4에서 도입된 런타임 자동 PSO(Pipeline State Object) 프리캐싱이 이제 기본 활성화되어, 수동 PSO 수집 워크플로에 대한 쉽고 빠른 대안을 제공한다. 모바일 프리뷰어의 경우 특정 안드로이드 디바이스 프로필을 캡처 및 프리뷰하는 기능과 반정밀도 16비트 플로트 셰이더를 에뮬레이션하여 오류를 쉽게 확인하고 대응할 수 있는 기능 등의 다양한 개선이 이뤄졌다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지   개발자 반복 작업 언리얼 엔진 5.5를 통해 개발자의 빠른 반복 작업과 효율이 더 높은 퀄리티의 결과물을 만든다는 점을 잘 알고 있는 에픽게임즈는 크리에이터 경험의 규모와 비전을 충족하기 위해 언리얼 엔진의 데이터 처리 파이프라인을 지속적으로 발전시키고 있다. 언리얼 엔진 5.4에서 선보인 최적화된 신규 캐시 데이터 스토리지 및 네트워크 커뮤니케이션 아키텍처인 언리얼 젠 서버(Unreal Zen Server)가 이제 정식 버전으로 제공되어 공유 파생 데이터 캐시(Derived Data Cache, DDC)로 사용될 수 있다. 또한, 이번 버전에서는 젠 서버가 PC, 콘솔, 모바일 등의 타깃 플랫폼으로 쿠킹된 데이터의 스트리밍을 지원한다. 실험 단계로 도입된 이 신규 기능으로 개발 중에도 콘솔이나 모바일 등의 타깃 플랫폼에서 게임이 어떻게 보이고 작동하는지 보다 빠르고 쉽게 평가할 수 있다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지   이외에도 에디터 시스템과 쿠킹 프로세스에 최적화된 애셋 로딩 경로를 제공하는 언리얼 젠 로더, 더 빠른 C++ 및 셰이더 컴파일을 제공하는 언리얼 빌드 액셀러레이터(Unreal Build Accelerator, UBA), 더욱 효율적이고 확장 가능한 개발 워크플로를 제공하는 언리얼 호드 지속적 통합(CI) 및 원격 실행 등 다양한 기능을 이번 버전에서 정식 버전으로 제공한다.(UBA는 윈도우 호스트 머신에서 정식 버전으로 제공되며, 타 플랫폼에서는 현재 베타 단계로 제공된다.)   팹 통합 정식으로 출시된 새로운 통합 콘텐츠 마켓플레이스 팹(Fab)이 언리얼 엔진 5.5에 통합되어 퀵셀 메가스캔과 같은 개별 애셋을 신으로 직접 드래그 앤 드롭 할 수 있으며, 팹의 애셋 팩을 콘텐츠 브라우저에 추가할 수도 있다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-01-06
[케이스 스터디] 언리얼 엔진으로 만든 버추얼 아이돌 플레이브
통합 시각화 파이프라인으로 새로운 경험 제공   리얼타임 3D 콘텐츠 제작 기술이 날로 진화함에 따라 버추얼 아티스트, 유튜버 등 디지털 휴먼 시장도 함께 성장하고 있는 가운데, 대한민국에는 데뷔 1년여 만에 실제 아이돌 못지 않은 인기를 누리고 있는 버추얼 아이돌이 있다. 바로 플레이브(PLAVE)다. ■ 자료 제공 : 에픽게임즈   ▲ 이미지 출처 : ‘언리얼 엔진으로 전례 없는 경험을 제공하는 PLAVE’ 영상 캡처   플레이브는 예준, 노아, 밤비, 은호, 하민 등 다섯 명의 멤버가 작사, 작곡 그리고 안무까지 직접 제작하는 버추얼 보이 그룹이다. 2023년 3월 12일 데뷔 이후 버추얼 아이돌 최초로 지상파 음악방송에서 1위를 차지한 것은 물론, 최근에는 잠실 실내체육관에서 양일간 오프라인 단독 라이브 콘서트를 개최해 전석이 매진되는 등 인기를 누리고 있다. 플레이브의 인기 비결에는 여러 요소가 있겠지만 언리얼 엔진의 리얼타임 기술로 자연스러운 비주얼 퀄리티뿐만 아니라, 매주 라이브 방송을 통해 팬들과 소통하며 아티스트의 진면목을 전할 수 있던 점을 꼽을 수 있다. 시네마틱 영상, 라이브 방송 그리고 오프라인 라이브 콘서트까지 어떻게 언리얼 엔진으로 통합 제작 파이프라인을 구축해 아티스트의 본질을 전달할 수 있었는지 살펴보기로 하자.    시네마틱 콘텐츠를 위한 리얼타임 통합 파이프라인   ▲ DCC 툴을 병합한 기존의 시네마틱 콘텐츠 제작 파이프라인(이미지 제공 : 블래스트)    ▲ 언리얼 엔진과 통합한 시네마틱 콘텐츠 제작 파이프라인(이미지 제공 : 블래스트)   플레이브의 소속사인 블래스트는 설립 초창기부터 여러 작품을 통해서 언리얼 엔진의 가능성을 확인했기 때문에, 버추얼 IP 파이프라인이라는 회사의 비전을 바탕으로 시네마틱과 라이브 콘텐츠를 모두 제작할 수 있는 언리얼 엔진 통합 파이프라인을 구축하고자 했다. 플레이브의 첫 뮤직비디오인 ‘기다릴게’를 제작하던 때만 해도 언리얼 엔진 제작 경험이 제한적이었기 때문에 레벨 디자인, 라이팅, 렌더링은 언리얼 엔진으로, 이펙트 및 의상 시뮬레이션, 합성 등은 기존의 DCC 툴을 사용하는 방식을 채택했다. 그렇지만 이러한 제작 방식은 언리얼 엔진의 리얼타임 렌더링의 장점을 극대화하지 못하고 전체적인 콘텐츠 제작 속도를 저하시켰다. 또한, 본래 언리얼 엔진 중심의 통합 파이프라인을 구축하려고 했던 블래스트의 비전과 맞지 않는다는 판단 하에, 파이프라인을 언리얼 엔진으로 완전히 대체하기로 결정했다.     ▲ 플레이브 ‘WAY 4 LUV’ 뮤직비디오 영상   의상 및 헤어 시뮬레이션을 언리얼 엔진의 실시간 시뮬레이션으로 완전히 전환하면서, 이제는 애니메이션이 수정될 때마다 라이브 방송처럼 실시간으로 시뮬레이션되어 임포트 과정이 간소화되었다. 렌더링을 위해 라이브 시뮬레이션을 베이크해야 하는 경우 역시 언리얼 엔진의 테이크 레코더를 사용하면 바로 결과를 확인할 수 있어, 전체적인 작업 과정이 효율적으로 향상되었다. 또한, 이펙트 제작에는 언리얼 엔진의 나이아가라 시스템을 전면 도입하여 룩뎁 아티스트들은 모든 최종 연출 요소를 실시간으로 확인하며 함께 작업할 수 있게 되었다. 애니메이션, 시뮬레이션, 이펙트 등의 모든 최종 연출 요소가 엔진으로 통합되면서, 언리얼 엔진을 컴포지터로까지 활용할 수 있었다. 그 결과 ‘WAY 4 LUV’의 시네마틱 영상부터는 모델링, 애니메이션, 룩뎁 등 각 제작 요소가 통합된 최종 결과물을 언리얼 엔진에서 실시간으로 렌더링할 수 있게 되어, 작업의 효율과 퀄리티를 향상시킬 수 있었다.   고도화된 리얼타임 모션 캡처로 아티스트의 진심을 전한 라이브 방송   ▲ 플레이브의 첫 라이브 방송(이미지 제공 : 블래스트)   ▲ 플레이브의 최근 라이브 방송(이미지 제공 : 블래스트)   라이브 방송은 플레이브의 강력한 팬덤을 구축하는 데 있어 매우 중요한 역할을 하고 있는 만큼, 블래스트는 아티스트의 매력과 진심을 잘 전할 수 있도록 많은 노력을 기울여 왔다. 특히 아티스트의 모든 모션이 자연스럽게 보이도록 하기 위해 언리얼 엔진의 라이브 링크로 스트리밍한 모션 캡처 원시 데이터를 실시간으로 가공할 수 있는 다양한 설루션을 개발하는데 많은 정성을 들였다.   ▲ 실시간 간섭 회피 설루션 전후 비교(이미지 제공 : 블래스트)   개발된 설루션은 다양한 체형 사이에 애니메이션을 이질감 없이 자연스럽게 전환할 수 있는 리타기팅 설루션, 매 촬영 때마다 발생하는 마커의 위치 오차를 모션으로 측정하여 보정하는 캘리브레이션 설루션, 신체 비율 또는 외형 차이에 따른 메시 간섭 문제를 실시간으로 해결하는 간섭 회피 설루션, 정확한 포즈와 자연스러운 주변 환경과의 인터랙션 사이를 상황에 따라 적절하게 전환할 수 있는 Dynamic FK/ IK 설루션, 골반 너비와 신발 밑창 및 볼 너비까지 보정해 지면과 발의 접지를 정교하게 표현하는 Foot IK 설루션 등이다. 이를 통해 기존에는 실시간으로 처리하기 어려워서 라이브 콘텐츠에서 적용할 수 없었던 모션 캡처 데이터의 실시간 가공 기술을 자체적으로 개발하여 언리얼 엔진에 통합했다. 이러한 기술 투자 덕분에 버추얼 아이돌임에도 아티스트의 진심을 잘 전할 수 있는 기술적 기반을 갖추게 되었다.   리얼타임 통합 파이프라인의 화룡점정, 오프라인 라이브 콘서트 플레이브는 시네마틱 영상을 매 앨범 발매 시 제작하고 라이브 방송을 지난 1년 반 동안 매주 4시간씩 진행하면서, 언리얼 엔진 중심의 리얼타임 파이프라인을 고도화할 수 있었다. 그리고 그 과정에서 블래스트가 깨달은 점은 두 파이프라인을 서로 구분할 필요가 없다는 점이었다. 아티스트의 퍼포먼스를 실시간으로 보여 줄 지, 녹화해 두고 퀄리티를 올린 후에 보여 줄 지의 차이만 있을 뿐, 두 파이프라인은 모두 라이브 모션 캡처에서 시작한다는 점에서 근본적으로 동일했기 때문이다. 이러한 깨달음을 바탕으로 블래스트는 모든 콘텐츠가 라이브 모션 캡처로부터 시작되는 통합 파이프라인을 개발하였고, 이를 통해 제작 흐름이 간소화되고 직관적으로 개선되어 작업의 효율을 높일 수 있었다. 무엇보다도 큰 이점은 통합된 파이프라인을 통해 콘서트 제작 및 연출에 필요한 역량을 미리 내재화할 수 있었다는 점이다.   ▲ 시네마틱과 라이브 콘텐츠 제작 파이프라인이 통합된 전체 파이프라인(이미지 제공 : 블래스트)   콘서트는 연출뿐만 아니라 제작 파이프라인에서도 시네마틱과 라이브 콘텐츠의 특성을 모두 가지고 있는 특별한 무대다. 수많은 무대의 동선을 사전에 미리 짜맞추며 연출을 확정해 놓으면서도 리허설 때마다 라이브로 전환해야 하므로, 콘서트 작업에는 녹화와 라이브를 수시로 전환할 수 있는 파이프라인이 필수적이다. 이를 위해서 메타휴먼의 캐릭터 설계에 힌트를 얻어 시네마틱 퀄리티와 라이브 퍼포먼스를 모두 만족하는 유연하고 모듈화된 통합 캐릭터 시스템을 개발했다. 이 시스템은 콘서트에 필요한 모든 상황을 지원하기 위해 스켈레탈 메시를 분리해서 적절한 계층구조로 설계하고, 각각의 스켈레탈 메시 컴포넌트는 시퀀서의 애니메이션 트랙을 재생하는 모드와 라이브 링크 모션 캡처 및 실시간 시뮬레이션을 적용하는 모드 사이를 자유롭게 전환할 수 있도록 구현했다. 또한, 라이브 캐릭터 전용 기능은 모두 별도의 컴포넌트로 모듈화시켜 필요한 기능만 라이브 방송 시나리오에 맞춰 적용할 수 있도록 설계했으며, 추가로 룩뎁 아티스트가 일관적인 퀄리티로 작업할 수 있도록 캐릭터 클래스의 모든 기능이 프리뷰 모드와 플레이 모드에서 동일하게 동작하도록 개발했다. 이런 통합 캐릭터 클래스 설계 덕분에 언제든지 시네마틱과 라이브를 간단하게 전환하면서 작업 효율도 높일 수 있게 되었다.   ▲ 스켈레탈 메시의 계층 구조 및 모듈화된 컴포넌트(왼쪽), 컴포넌트 단위로 두 가지 모드를 자유롭게 전환 가능(오른쪽)(이미지 제공 : 블래스트)   통합 캐릭터 클래스와 더불어 좀 더 파이프라인을 단순화하기 위해 언리얼 엔진의 테이크 레코더 기능을 활용한 새로운 모션 캡처 녹화 파이프라인을 구축했으며, 그 덕분에 이제는 모션 캡처부터 시네마틱까지 모든 과정을 언리얼 엔진 내에서 진행할 수 있게 되었다. 이로써 시네마틱용 애니메이션을 제작하기 위해 여러 소프트웨어를 오갈 필요 없이 언리얼 엔진 하나로 모든 작업이 가능해졌다. 또한, 이 새로운 파이프라인을 사용해 자체적으로 개발한 신체 간섭 회피, 캘리브레이션, 리타기팅 기능을 언리얼 엔진 안에서 바로 녹화할 수 있어, 평소 라이브 방송과 동일한 수준의 모션 캡처 퀄리티를 얻을 수 있게 되었다. 이렇게 테이크 레코더의 기능을 통해 녹화 직후 바로 결과를 확인할 수 있어 작업의 효율이 크게 향상되었고, 특히 현장에서 실시간으로 피드백을 주고받을 수 있게 되면서 기획과 디렉팅 측면에서도 큰 발전을 이룰 수 있었다.   ▲ 기존의 모션 캡처 녹화 파이프라인(이미지 제공 : 블래스트)   ▲ 언리얼 엔진으로 통합 후 테이크 레코더를 활용한 모션 캡처 녹화 파이프라인(이미지 제공 : 블래스트)   시네마틱과 라이브 파이프라인의 통합이 더욱 높은 효과를 내기 위해서는 앞서 언급된 기능의 개발과 함께 현장 오퍼레이팅에 대한 지원도 필요했다. 버추얼 파이프라인에서는 여러 소프트웨어를 함께 사용해야 했기 때문에 언리얼 엔진 설정, 녹화 설정, 심지어 단순한 녹음 작업까지 모두 오퍼레이터와 소통해야 했다. 그래서 작업 과정을 단순화하고 자동화하기 위해 언리얼 엔진 기반의 ‘버추얼 슬레이트’라는 태블릿 애플리케이션을 개발했다. 이 애플리케이션은 스튜디오 내 여러 장치와 소프트웨어를 연결하여 원격으로 동시 제어할 수 있고, 녹화 버튼 하나로 언리얼 엔진의 녹화 기능, 모션 캡처 소프트웨어, 여러 채널의 비디오 및 오디오를 동시에 녹화할 수 있다. 그리고 녹화가 끝나면 자동으로 모든 파일의 이름과 저장 위치를 정리하고, 미리보기 장면을 만들어 준다. 이제는 오퍼레이터가 초기 설정만 도와주면, 콘텐츠 제작자들이 직접 모션 캡처 녹화를 할 수 있어 제작자와 아티스트는 서로 의견을 주고받으며 촬영을 진행할 수 있게 되었다.   ▲ 기존의 오퍼레이팅 소통 방식(이미지 제공 : 블래스트)   ▲ 향상된 오퍼레이팅 소통 방식(이미지 제공 : 블래스트)   한편, 시네마틱과 라이브를 결합한 오프라인 라이브 콘서트는 관객에게 높은 몰입감을 전달하는 것이 매우 중요하다. 그렇기 때문에 현실의 무대에 실존하는 아티스트를 보는 것과 같은 스케일과 원근감을 현실감 있게 잘 반영하는 것도 중요한 과제였다. 이 과제를 풀기 위해서는 LED 스크린에 투사된 결과를 미리 예측할 수 있어야 했는데, 이를 위해 언리얼 엔진 내에 실제 공연장과 동일한 크기의 디지털 트윈 레벨을 제작하고 가상 공연장의 LED 스크린에 최종 이미지를 투사했다. 그런 뒤에 관객의 시점에서 VR로 이를 감상하는 방식으로 관객의 시점을 미리 시뮬레이션하며 스케일과 원근감을 조정해 나갔다. 이러한 방법으로 플레이브의 콘서트는 대형 콘서트장의 어떤 좌석에서도 눈앞의 무대에 멤버들이 실존한다는 현실감을 관객에게 전달할 수 있었다.   ▲ 가상에서의 VR 시뮬레이션(이미지 제공 : 블래스트)   ▲ 실제 무대 연출 장면(이미지 제공 : 블래스트)   LED 그 이상의 무한한 상상력을 담게 해 준 언리얼 엔진 블래스트는 2차원의 LED 스크린 평면을 넘어 공연장 전체라는 3차원의 경험으로 관객의 경험을 확장시켜, 플레이브 콘서트에서만 느낄 수 있는 새로운 경험을 만들어나가기 위해 고민했다. 이러한 고민의 결과로 실존하는 아티스트의 콘서트에서는 불가능한 아이디어와 연출, 예를 들면 탑의 꼭대기처럼 다양한 공간을 이동하며 노래 부르기, 바이크를 탄 채로 무대로 등장하고 연출의 단절 없이 공연 시작하기, 등장이나 퇴장 시에 꽃잎을 흩뿌리면서 나타나고 사라지기 등 그야말로 버추얼 아이돌이기에 가능한 연출을 실현할 수 있었다. 이러한 시각적 효과에서 더 나아가 연기와 같은 실제 무대 장치를 결합하여 일반적인 콘서트에서는 불가능한 특별한 연출을 시도할 수 있었다. 그 중에서도 플레이브의 세계관에 등장하는 큐브로 가득찬 ‘아스테룸’이라는 공간에서 세계관 속 빌런과 벌인 박진감 넘치는 격투 액션 신은 버추얼이 아니었다면 불가능한 무대였을 것이다. 또한, 언리얼 엔진은 LED 스크린 너머의 공간에 원하는 환경을 효율적으로 제작하고 다양한 연출들을 자유롭게 시도할 수 있게 해 주었다. 물리적인 시공간의 제약 속에서 짧은 기간 내에 다수의 조직이 동시 협업해야 하기 때문에 작업 충돌을 피하면서도 변경 사항들을 실시간으로 동기화할 수 있는 파이프라인이 매우 중요한데, 여기에 언리얼 엔진의 레벨 스트리밍과 서브 시퀀스 기능이 큰 도움이 되었다. 레벨 스트리밍 덕분에 레벨 디자인, 애니메이션, 룩뎁 작업을 분리하여 하나의 퍼시스턴트 레벨에 스트리밍하는 방식으로 각 팀의 작업 공간을 분리하면서도 동시에 협업이 가능했다. 또한, 룩뎁 레벨 시퀀스 안에 애니메이션 서브 시퀀스를 적용하여 애니메이터와 룩뎁 아티스트의 작업 시퀀스를 분리하면서도 서로의 변경 사항을 함께 업데이트할 수 있었다.   ▲ 레벨과 시퀀스 구조(이미지 제공 : 블래스트)   콘서트 현장의 분위기를 고조시키는 현란한 DMX 조명 연출 역시 언리얼 엔진의 뛰어난 DMX 연동 지원 덕분에 가능했다. 언리얼 엔진 공연 조명을 전문으로 다루는 메타로켓과 협업하여 언리얼 엔진 내에서 실제 콘서트 현장 조명을 시뮬레이션하면서 현실과 가상의 무대 조명을 완성했다.   ▲ 메타로켓과의 협업으로 완성된 공연장 무대 조명(이미지 제공 : 블래스트)   무엇보다 비주얼 퀄리티까지 보장된 리얼타임 렌더링이라는 언리얼 엔진의 강점이 가장 큰 도움이 되었다. 덕분에 콘서트 2~3일 전까지도 끊임없이 수정하며 퀄리티를 끌어올릴 수 있었고, 콘서트 직전의 리허설까지도 이슈를 확인하고 해결할 수 있었기 때문에 촉박한 시간임에도 완성도 높은 콘서트를 제작할 수 있었다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-01-06
CAD&Graphics 2025년 1월호 목차
  18 THEME. 디지털 전환을 이끄는 제품 개발・제조 기술의 혁신 혁신과 지속가능성을 위한 제조 기술로 진화하는 3D 프린팅 / 김태화 제품 개발 검증의 가속화를 위한 AI 시뮬레이션 프레딕터 / 이종학 최적설계의 대중화 : 더 쉽게 더 알차게 / 최병열 디지털 전환의 성공을 위한 CAE, AI/ML과 디지털 리얼리티 플랫폼 / 전완호   INFOWORLD   Editorial 17 엔지니어링 패러다임 전환 : AI+IoT가 이끄는 산업 혁신   People&Company 34 지멘스 디지털 인더스트리 소프트웨어 존 폭스 부사장 “솔리드 엣지 2025로 중소기업 제품 개발의 디지털화 도울 것”   New Products 37 제품 개발의 생산성 향상부터 SaaS 지원 확대까지 솔리드 엣지 2025 / 솔리드 엣지 X 40 산업 표준에 기반한 차세대 선박 설계 설루션 ShipConstructor 43 애니메이션/가상 프로덕션/모바일 게임 개발 기능 강화 언리얼 엔진 5.5 74 이달의 신제품   Culture 62 구글코리아가 만든 창의와 혁신의 축제, 2024 유튜브 웍스 어워즈 코리아   Case Study 48 언리얼 엔진으로 만든 버추얼 아이돌 플레이브 통합 시각화 파이프라인으로 새로운 경험 제공 53 적층제조를 활용한 외슬러의 제품 혁신 3D 프린팅과 래티스 디자인의 결합   On Air 55 캐드앤그래픽스 CNG TV 지식방송 지상중계 우주를 향한 기술 개발과 혁신의 미래 64 캐드앤그래픽스 CNG TV 지식방송 지상중계 인공지능 시대, 건축 기술의 혁신과 도전 과제   Focus 56 KOIIA 산업데이터스페이스 기술위원회 발족 세미나 개최 58 유니버설 로봇, 협동 로봇 기반의 자동화 플랫폼 비전 제시 60 델, 새롭게 진화할 2025년 AI 기술 전망 소개   Column 65 디지털 지식전문가 조형식의 지식마당 / 조형식 디지털 철학과 디지털 지속가능성을 시작하다 68 현장에서 얻은 것 No.19 / 류용효 AI와 PLM의 융합이 가져올 미래   72 New Books   Directory 131 국내 주요 CAD/CAM/CAE/PDM 소프트웨어 공급업체 디렉토리   CADPIA   AEC 75 BIM 칼럼니스트 강태욱의 이슈 & 토크 / 강태욱 생성형 AI 기반 BIM 전문가 시스템 개발해 보기 82 데스크톱/모바일/클라우드를 지원하는 아레스 캐드 2025 (9) / 천벼리 BIM 도면 분할 84 새로워진 캐디안 2025 살펴보기 (2) / 최영석 라이브 업데이트 기능 소개   Mechanical 87 제조 산업의 설계와 가공 혁신을 위한 기술 / 지더블유캐드코리아 ZWCAD LM/MFG, ZW3D를 통한 설계 프로세스 개선   Visualization 90 산업 분야를 혁신하는 실시간 3D의 힘 / 유니티 코리아 유니티를 활용한 산업 VR & AR 구현 전략과 비전   Reverse Engineering 98 시점 – 사물이나 현상을 바라보는 눈 (1) / 유우식 호기심   Analysis 105 성공적인 유동 해석을 위한 케이던스의 CFD 기술 (17) / 나인플러스IT 피델리티 CFD로 메시 어댑테이션 향상 108 제품 개발 혁신을 가속화하는 크레오 파라메트릭 11.0 (8) / 김성철 메커니즘 다이내믹 시뮬레이션 소개 114 앤시스 워크벤치를 활용한 해석 성공 사례 / 정세훈 해석 사례로 살펴보는 플루언트의 iFSI 기능 118 초보자에서 전문가까지 만족시키는 유동 해석 프로그램 시메릭스MP / 케이더블유티솔루션 시메릭스MP의 해석 과정 소개 122 모델 기반 개발의 추진 방법과 적용 사례 / 오재응 MBD의 기능에 기반한 플랜트와 제어 모델 연계 개발 128 모델링 및 시뮬레이션을 사용한 BMS 개발 / 이웅재 안전한 전기차 배터리 관리 시스템의 설계를 위한 M&S     캐드앤그래픽스 당월호 책자 구입하기   캐드앤그래픽스 당월호 PDF 구입하기
작성일 : 2024-12-27