• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 " 메타휴먼"에 대한 통합 검색 내용이 53개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
[케이스 스터디] 게임으로 이어진 ‘킬 빌’의 다음 이야기
언리얼 엔진을 통해 시네마틱 경험으로 탄생한 복수극   20여 년 전 쿠엔틴 타란티노(Quentin Tarantino)는 영화 ‘킬 빌(Kill Bill)’을 위해 구상한 한 신(scene)을 작성했지만, 그 장면은 끝내 스크린에 올리지 못한 채 팬들의 전설과 오래된 대본 속에만 남았다. 그 이야기는 ‘잊혀진 챕터 : 유키의 복수(The Lost Chapter : Yuki’s Revenge)’로 되살아나, 영화가 아닌 ‘포트나이트’에서 게임이라는 새로운 매개체를 통해 처음으로 세상에 공개되었다. ■ 자료 제공 : 에픽게임즈   ▲ 쿠엔틴 타란티노 감독과 에픽게임즈의 특별 협업 작품 ‘잊혀진 챕터 : 유키의 복수’ 한 장면 속 총을 든 주인공 베아트릭스 키도(우마 서먼)(출처 : 에픽게임즈)   에픽게임즈가 쿠엔틴 타란티노 감독에게 처음 제안을 보냈을 때, 타란티노 감독은 “(이 장면을 위해) 오랜 시간을 고민하며 적절한 시기가 올 때까지 기다리고 있었다”고 말했다. 그는 포트나이트가 “보다 더 시네마틱한 경험을 제공”할 수 있을 것 같았기 때문에, 유키의 복수를 위해 최적이라고 판단하고 협업을 진행했다. ‘잊혀진 챕터 : 유키의 복수’에서는 언리얼 엔진의 ‘버추얼 프로덕션 툴’을 활용해 타란티노 감독의 비전을 현실로 제작했다. 이를 통해 감독은 배우들에게 연기를 지시하고 포트나이트 속에서 실시간으로 연기를 확인할 수 있었다. 더 서드 플로어(The Third Floor)와 에픽게임즈는 메타휴먼 기술로 배우들의 모습을 정교하게 구현하고 실제 연기를 스타일라이즈드 애니메이션과 결합했다. 영화 제작자들은 언리얼 엔진의 메타휴먼 기술과 버추얼 프로덕션 툴을 활용해 유연하고 통합된 시스템에서 배우들이 즉각적으로 펼치는 라이브 액션을 경험할 수 있었다.   ▲ ‘더 로스트 챕터 : 유키의 복수’의 제작 비하인드 영상에 출연한 타란티노 감독(출처 : 에픽게임즈)   제작 팀은 4D 스캔을 기반으로 학습된 고퀄리티 ‘메타휴먼 페이셜 릭’을 사용해 포트나이트 스타일에 부합하는 섬세한 얼굴 표정과 감정을 구현했다. 그리고 메타휴먼 애니메이터를 웹캠과 스마트폰 등 표준 모노 카메라와 스테레오 HMC와 함께 사용해 현장에서 리얼타임 고퀄리티 애니메이션을 캡처했다. 헤드마운트 카메라를 사용해 배우들의 목소리와 얼굴 데이터를 동시에 캡처하고, 각 녹화 세션이 최종 애니메이션 제작 파이프라인에 바로 투입할 수 있었다. 에픽게임즈의 스콧 벤자 애니메이션 감독은 “언리얼 엔진의 실시간 캐릭터 렌더링 기능은 애니메이터뿐 아니라 배우들에게도 큰 도움이 된다”고 밝혔다. 배우들은 다양한 포즈를 시험해보고, 여러 표정을 즉석에서 시도하며 자신이 전달하려는 신체 표현이 화면에서 어떻게 읽히는지를 바로 확인할 수 있다. 이러한 과정을 통해 연기와 애니메이션 사이 간극을 좁히고, 퍼포먼스를 더 자연스럽고 설득력 있게 만든다는 것이다. 배우와 촬영 팀의 상호작용을 강화하기 위해 팀은 에어소프트 소품 총에 장착할 수 있는 프로토타입 하드웨어 부착물인 머즐리포트(MuzzleReport)를 개발했다. 이 장치는 발사 시점을 감지해 해당 이벤트를 언리얼 엔진으로 직접 전송한다. 이를 통해 팀은 가상 신에서 실시간으로 총구 화염, 탄흔 궤적, 탄착 지점을 확인할 수 있어, 배우에게 즉각적인 시각 및 촉각 피드백을 전달할 수 있었다. 유키 역의 배우 미유 이시다테 로버츠는 이번 촬영 방식에 대해 “내 몸의 움직임은 물론, 소품이 어떻게 사용되는지와 내가 세계관 안에서 어떻게 반응하는지까지 정확히 볼 수 있어 매우 새롭고 혁신적인 경험이었다”면서, “모든 촬영 장면이 내 앞에 바로 보였기 때문에 상상할 필요가 없었다”고 전했다.   ▲ ‘잊혀진 챕터 : 유키의 복수’에 출연한 유키가 차량 위에서 총을 겨누고 있다.(출처 : 에픽게임즈)   ▲ 촬영 현장에서 유키 역할로 분한 미유 이시다테 로버츠가 장비를 장착한 채 총을 겨누고 있다.(출처 : 에픽게임즈)   제작 과정에는 실시간 파괴도 포함되어, 촬영 중에 엔진에서 피직스 기반 파손과 충격 효과를 실시간으로 재생할 수 있었다. 이를 통해 샷 컴포지션을 더 정확하게 설정할 수 있었고, 배우들은 순간적으로 반응을 조정할 수 있었으며, 팀은 후반 작업이 아닌 촬영 중에 주요 파괴 장면을 다듬을 수 있었다. 에픽게임즈 관계자는 가상 프로덕션 환경에서 무기를 사용하는 장면의 중요성에 대해 “배우가 소품을 다루더라도 실제와 같은 반응을 느낄 수 있어야 하고, 동시에 단순히 연기하는 것이 아니라 무언가를 맞히고 있다는 감각을 체감하는 것이 중요하다”고 설명했다. 이를 위해 무기 끝 부분에 머즐리포트를 부착해 발사 순간을 감지하고, 그 데이터를 언리얼 엔진으로 실시간 전송했다고 밝혔다. 배우가 실제 무기를 쏘는 것처럼 몰입해 연기할 수 있었던 경험은 기존 가상 프로덕션 현장에서는 보기 드문 사례였다고 덧붙였다. 스턴트맨인 조 벨은 총구 관련 촬영 장면과 관련해 “현장에서 모두가 완전히 안전하다는 걸 알고 있는 소품 총을 사용하면서, 발사 후 반사적인 행동과 반응이 잘 보이도록 연출할 수 있었다”면서, “총을 쏘거나 차량이 무너지고 파편이 튀는 장면까지 실시간으로 화면을 확인하며 촬영할 수 있었다”고 설명했다. 에픽게임즈 관계자는 이번 프로젝트에서 언리얼 엔진이 수행한 역할에 대해 “작업을 최대한 빠르게 진행하기 위해 언리얼 엔진이 핵심이 될 것이라는 점은 처음부터 알고 있었다”고 말했다. 그는 이어 “과거에는 스토리보드나 기존 방식으로 여러 번의 반복 작업이 필요했던 카메라 구도와 화면 구성도, 현장에서는 실시간으로 조정할 수 있었다”면서, “이런 도구들이 모두 언리얼 엔진 사용자에게 열려 있다는 점에서, 우리는 전문가의 작업 방식을 일반 개인 사용자까지 확장되어 활용될 수 있으면서도 동일한 수준의 퀄리티를 제공하고 싶었다”고 덧붙였다. 잊혀진 챕터는 에픽게임즈의 리얼타임 툴이 영화와 인터랙티브 스토리텔링을 더욱 긴밀하게 연결하여 영화적 순간을 포트나이트에서 수백만 명이 함께 즐기는 공유 경험으로 전환할 수 있었음을 보여준다.   ▲ 베아트릭스 키도의 스턴트를 연기한 조 벨이 화면에 비친 자신의 모습을 화면으로 보며 연기를 조정하고 있다.(출처 : 에픽게임즈)     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2026-02-04
에픽게임즈_디지털트윈업체
에픽게임즈는 1991년 팀 스위니(Tim Sweeney) 대표가 창립한 회사로, 본사는 미국 노스캐롤라이나주 캐리에 위치하고 있으며, 전 세계에 50여 개 지사가 있다. 에픽은 인터랙티브 엔터테인먼트를 선도하며, 3D 엔진 기술을 제공하고 있다. 에픽은 세계에서 가장 큰 규모의 게임 중 하나인 포트나이트를 서비스하고 있을 뿐만 아니라 포트나이트, 폴가이즈, 로켓 리그, 에픽게임즈 스토어를 통해 6억 개 이상의 계정과 50억 명의 친구 연결을 제공하고 있다. 또한, 에픽은 언리얼 엔진의 개발사로서, 언리얼 엔진은 세계 유수의 게임 제작뿐만 아니라, 영화, TV, 건축, 자동차, 제조, 시뮬레이션 등 산업에서 사용되고 있다. 에픽은 언리얼 엔진, 에픽게임즈 스토어, 에픽 온라인 서비스를 통해 개발자와 크리에이터가 게임을 비롯한 다양한 콘텐츠를 개발, 배포, 운영할 수 있는 모든 디지털 생태계를 제공하고 있다.         홈페이지 : www.unrealengine.com/ko 사업분야 : 언리얼 엔진 기술 제공, 트윈모션 및 메타휴먼, 리얼리티캡처 등 에픽 에코시스템 제공, 포트나이트 등 게임 개발 및 서비스       #에픽게임즈 #디지털트윈업체   상세 내용은 <디지털 트윈 가이드>에서 확인할 수 있습니다. 상세 내용 보러가기           
작성일 : 2025-12-27
언리얼 엔진 5.7 : 현실감 높은 대규모 월드 구현과 더 강력해진 통합 워크플로
개발 및 공급 : 에픽게임즈 주요 특징 : 고도화된 오픈 월드 제작 기능 추가, 확장 가능한 고품질 렌더링 기능, 메타휴먼 통합 강화, 애니메이션 및 리깅 툴세트 개선, 버추얼 프로덕션 워크플로 향상, AI 어시스턴트 지원 등   풍부하고 아름다운 디테일로 가득한 사실감 넘치는 광활한 월드를 제작할 수 있으면서도 현세대 하드웨어에서 고퀄리티로 실시간 렌더링할 수 있는 다양한 툴을 제공하는 언리얼 엔진 5.7(Unreal Engine 537)이 출시됐다. 언리얼 엔진 5.7은 밀도 높고 울창한 대규모의 식생과 다양한 콘텐츠를 절차적으로 생성하고, 물리적으로 정확하게 복잡한 레이어드 및 블렌디드 머티리얼을 제작할 수 있으며, 이전보다 훨씬 더 많은 라이트를 자유롭게 활용해 더욱 예술적인 방식으로 월드를 표현할 수 있다. 또한, 더 강력하고 직관적인 애니메이션과 리깅 워크플로, 한층 깊고 유연해진 메타휴먼 통합을 비롯 확장된 버추얼 프로덕션 기능을 경험할 수 있다. 새롭게 추가된 언리얼 에디터 내의 AI 어시스턴트는 개발 과정 전반에서 전문적인 도움을 제공한다.   고도화된 오픈 월드 제작 환경을 빠르고 자연스럽게 구성하면서도, 짧은 시간 안에 몰입감 넘치는 게임 경험을 구현할 수 있는 프로시저럴 콘텐츠 제너레이션 프레임워크(PCG)가 이제 정식 버전으로 제공된다. 역동적이면서 시각적으로 풍부한 대규모 월드를 더 쉽고 효율적으로 제작할 수 있도록 다양한 기능이 향상되었다. 예를 들어, 새로운 PCG 에디터 모드는 스플라인 드로잉, 포인트 페인팅, 볼륨 생성 등 다양한 기능을 지원하는 PCG 프레임워크 기반의 커스터마이징 가능한 툴 라이브러리를 제공한다. 각 툴은 PCG 그래프에 연결되어 실시간으로 파라미터를 조정하거나 애셋 워크플로를 독립적으로 실행할 수 있으며, 단 한 줄의 코드를 작성하지 않고도 프로젝트에 맞는 새로운 툴을 만들어 라이브러리를 확장할 수도 있다.   ▲ PCG 에디터 모드(출처 : 언리얼 엔진 홈페이지)   여기에 더해, 다수의 성능 최적화 덕분에 PCG GPU 연산 속도가 빨라졌다. 또한 GPU 파라미터 설정 기능이 추가되어 GPU 노드 작업 시 다양한 파라미터 값을 동적으로 설정할 수 있다. 처음부터 직접 툴을 제작하는 경우, 새로운 Polygon2D 데이터 타입과 관련 연산자를 통해 한층 더 유연하게 작업할 수 있다. 이를 통해 표면이나 스플라인으로 변환할 수 있는 폐쇄 영역을 정의할 수 있고, 스플라인 교차점(spline Intersection) 및 스플라인 분할(split spline) 연산자도 새롭게 추가됐다.   ▲ ‘더 위쳐 4’ 언리얼 엔진 5 테크 데모(출처 : 언리얼 엔진 홈페이지)   PCG 프레임워크는 사용자가 그 위에 자신만의 시스템을 구축할 수 있는 프레임워크로, 새로운 프로시저럴 베지테이션 에디터(PVE)는 이 시스템의 가능성을 보여주는 좋은 예시이다. PVE는 속도, 확장성, 그리고 유연한 제작을 위해 설계된 그래프 기반 툴로 언리얼 엔진 내에서 고퀄리티의 식생 애셋을 실시간으로 제작하고 커스터마이징할 수 있으며, 나나이트 스켈레탈 어셈블리를 직접 출력할 수 있는 옵션도 제공한다.   ▲ 프로시저럴 베지테이션 에디터(출처 : 언리얼 엔진 홈페이지)   이번 첫 번째 실험 단계 버전에서는 PVE를 새로운 퀵셀 메가플랜트(Quixel Megaplants) 애셋과 함께 사용할 수 있다. 이 애셋은 이제 팹(Fab)에서 제공되며, 콘텐츠 브라우저로 직접 다운로드할 수 있다. 첫 번째 컬렉션에는 크기와 구조가 다른 5종의 식물이 포함되어 있으며, 나무, 관목, 풀, 식물 등 수백 가지의 식생 프리셋이 향후 추가될 예정이다.   ▲ 퀵셀 메가플랜트(출처 : 언리얼 엔진 홈페이지)   확장 가능한 고퀄리티 렌더링 정교한 식생을 만드는 것과 정교한 식생으로 가득 찬 월드를 효율적으로 렌더링하는 것은 완전히 다른 문제이다. 언리얼 엔진 5.7에는 성능, 안정성, 확장성을 위해 설계된 실험 단계의 새로운 지오메트리 렌더링 시스템인 나나이트 폴리지(Nanite Foliage)가 추가됐다. 나나이트 폴리지를 사용하면 대규모 오픈 월드에서 디테일하고 밀도 높은 식생 환경을 제작하고, 애니메이션을 적용할 수 있으며, 이는 현세대 하드웨어에서도 효율적으로 렌더링된다. 이 기능은 나나이트 복셀을 활용해 나무의 윗부분, 솔잎, 지면의 잔디 등 수백만 개의 미세하고 겹쳐 있는 요소를 효율적으로 자동 렌더링하여, 멀리서 보면 하나의 밀도감 있는 덩어리처럼 보이게 한다. 이를 통해 LOD를 제작할 필요 없이 크로스 페이드, 팝 현상 없이도 안정적인 프레임 속도를 유지할 수 있다. 또한 나나이트 폴리지는 나나이트 어셈블리를 활용해 저장 공간, 메모리, 렌더링 비용을 줄이고, 나나이트 스키닝을 통해 바람 등에 반응하는 동적 움직임을 구현한다. PVE에서 나나이트 폴리지와 호환되는 메시를 렌더링할 수 있을 뿐만 아니라, USD를 통해 외부 애플리케이션에서 제작된 나무를 가져올 수도 있다.   ▲ 나나이트 폴리지(출처 : 언리얼 엔진 홈페이지)   강력한 툴세트 중 하나인 서브스트레이트(Substrate)도 정식 버전으로 제공한다. 서브스트레이트는 언리얼 엔진의 최첨단 모듈형 머티리얼 제작 및 렌더링 프레임워크로, 레이어드 및 블렌디드 머티리얼을 기본적으로 지원한다. 서브스트레이트는 금속, 클리어 코트, 피부, 천 등 다양한 재질의 특성을 물리적으로 정확하게 고퀄리티로 결합할 수 있게 해준다. 이를 통해 다중 레이어 자동차 도색, 오일 가죽, 피부 위의 피와 땀 같은 사실적인 재질 표현을 손쉽게 구현할 수 있으며, 또한 커스텀 셰이딩 특성을 정교하게 조정할 수 있어 엔진 수정 없이도 고유한 머티리얼 로직을 직접 만들 수 있다. 서브스트레이트는 언리얼 엔진의 라이팅 파이프라인에 통합되어, 모든 재질에 고퀄리티의 결과를 제공한다. 또한 모바일까지 포함해 모든 UE5 타깃 플랫폼에서 일관된 성능과 비주얼 퀄리티를 지원한다.   ▲ 서브스트레이트(출처 : 언리얼 엔진 홈페이지)   메가라이트(MegaLights)는 언리얼 엔진 5.7을 통해 실험 단계에서 베타로 전환됐다. 메가라이트를 활용하면 신(scene)에 훨씬 더 많은 다이내믹 섀도를 생성하는 라이트를 추가할 수 있어, 에어리어 라이트 같은 복잡한 광원에서도 사실적이고 부드러운 그림자 효과를 구현할 수 있다. 이처럼 확장성이 높은 라이팅 워크플로 덕분에 이전보다 더 자유롭게 작업하면서, 더 크고 풍부하며 복잡한 월드를 제작할 수 있다. 또한, 디렉셔널 라이트, 반투명, 나이아가라 파티클 그림자 생성, 그리고 헤어의 빛과 그림자 표현이 더 정교해져 비주얼 퀄리티가 향상됐다. 이와 더불어 기본 성능과 노이즈 감소 기능이 강화되었으며, 수동으로 라이트를 최적화할 필요성도 줄어들었다.   ▲ 메가라이트(출처 : 언리얼 엔진 홈페이지)   확장된 메타휴먼 통합 메타휴먼(MetaHuman)은 언리얼 엔진을 비롯한 파이프라인 내 다양한 툴과의 통합이 한층 강화되고 있다. 메타휴먼 크리에이터 언리얼 엔진 플러그인이 리눅스 및 맥OS를 지원해, 이들 플랫폼 사용자도 언리얼 엔진 통합이 제공하는 모든 혜택을 활용할 수 있다. 메타휴먼 애니메이터의 리눅스 및 맥OS 지원은 향후 버전에서 제공될 예정이다.   ▲ 메타휴먼(출처 : 언리얼 엔진 홈페이지)   이번 출시 버전에서는 파이썬(Python) 또는 블루프린트 스크립팅을 사용해 언리얼 에디터에서 실시간으로 또는 렌더 팜에서 오프라인으로 메타휴먼 캐릭터 애셋의 거의 모든 편집 및 조합 작업을 자동화하고 일괄 처리할 수 있다. 다양한 포즈의 메시를 맞출 수 있는 기능이 추가되어 템플릿과 모델 메시 간에 UV 공간 기반 버텍스 대응 옵션을 제공하며, FBX를 통해 외부 DCC 툴과의 메시 연동을 지원한다. 애니메이션 측면에서도 라이브 링크 페이스를 아이패드 또는 안드로이드 디바이스의 외부 카메라와 연동해 실시간으로 애니메이션을 생성하고 연기를 녹화할 수 있다. 이를 통해 보다 간편하고 비용 효율적인 리얼타임 페이셜 캡처 설루션을 구현할 수 있다.   ▲ 라이브 링크 페이스(출처 : 언리얼 엔진 홈페이지)   마지막으로 헤어 스타일링 측면에서도 두 가지 주요 업데이트가 추가되었다. 언리얼 엔진에서 조인트 기반 변형, 페인팅, 메시 기반 조작을 통해 헤어 가이드와 스트랜드를 직접 제작하고 조정할 수 있으며, 시뮬레이션된 헤어 피직스와 아티스트가 연출한 애니메이션을 블렌딩할 수 있다. 최신 후디니(Houdini)용 메타휴먼 업데이트에서는 사전에 제작된 데이터를 사용해 헤어스타일을 제작할 수 있는 가이드 기반 워크플로를 제공한다. 이 툴에는 조정할 수 있는 다양한 헤어스타일 프리셋이 포함되어 있어 이를 시작점으로 활용할 수 있다.   한층 강화된 에디터 내 애니메이션 툴세트 언리얼 엔진 5.6에서 에디터 내 리깅 및 애니메이션 제작 툴세트가 대폭 강화된 데 이어, 5.7 버전에서는 새롭게 개선된 애니메이션 모드가 추가되어 워크플로를 간소화하고 화면 공간 활용을 최적화했다. 애니메이터라면 누구나 알 수 있듯, 리그(rig)나 여러 애셋에서 다수의 컨트롤을 반복적으로 선택하는 작업은 번거롭고 시간이 많이 소요되는데, 셀렉션 세트 기능이 추가되어 클릭 한 번만으로 해결할 수 있다. 이 기능은 캐릭터 양쪽에 미러링된 사본을 자동으로 생성하고, 작업의 집중도를 위해 세트를 숨기거나 표시하는 기능을 제공하며, 팀원 간에 세트를 공유할 수도 있다.   ▲ 셀렉션 세트(출처 : 언리얼 엔진 홈페이지)   IK 리타기터(IK Retargeter)가 개선되어 발과 지면의 접촉이 한층 자연스러워지고, 찌그러지거나 늘어나는 애니메이션의 리타기팅을 지원한다. 추가로 공간 인식 기반 리타기팅을 통해 캐릭터의 자체 충돌을 방지하고, 캐릭터의 크기와 관계없이 상대적 비율에 따라 접촉점이 유지되도록 한다.   ▲ IK 리타기터(출처 : 언리얼 엔진 홈페이지)   리깅 측면에서 언리얼 엔진 5.7은 업계 표준 스컬프팅 워크플로 수준의 유연성을 제공한다. 업데이트된 스켈레탈 에디터를 활용하면 스켈레탈 메시 상에서 본 배치, 웨이트 페인팅, 블렌드 셰이프 스컬프팅 사이를 매끄럽게 전환할 수 있다. 즉각적인 업데이트 덕분에 50~100개의 블렌드 셰이프를 갖춘 리그 제작도 훨씬 쉬워졌다.   ▲ 블렌드 셰이프 스컬프팅(출처 : 언리얼 엔진 홈페이지)   다음으로, 단방향 피직스 월드 콜리전 지원이 새롭게 추가되어 이제 캐릭터를 신에 배치해 환경 내 사물과 상호작용하며 보다 사실적인 래그돌, 역동적인 게임플레이, 몰입감 있는 애니메이션 테스트를 구현할 수 있다.   ▲ 피직스 월드 콜리전(출처 : 언리얼 엔진 홈페이지)   마지막으로, 새로운 디펜던시 뷰가 추가되어 컨트롤 리그 또는 모듈형 컨트롤 리그의 데이터 흐름을 명확한 노드 기반 그래프로 시각화할 수 있다. 이를 통해 복잡한 컨트롤 설정을 더 빠르고 쉽게 디버깅하거나 최적화할 수 있다.   ▲ 디펜던시 뷰(출처 : 언리얼 엔진 홈페이지)   향상된 버추얼 프로덕션 워크플로 언리얼 엔진 5.7에는 버추얼 프로덕션의 새로운 가능성을 제시하는 여러 기능이 추가됐다. 모션 캡처 작업을 위한 새로운 프롭용 다이내믹 컨스트레인트 컴포넌트가 추가됐으며, 모캡 매니저에서 예시 구현도 함께 제공된다. 이제 오브젝트는 손 위치에 자동으로 부착되어 저글링과 같은 복잡한 동작에서도 자연스럽고 부드러운 결과를 제공한다. 또한 블루프린트에서 이 기능을 확장해 자신만의 다이내믹 컨스트레인트 로직과 동작을 구현할 수도 있다.   ▲ 프롭용 다이내믹 컨스트레인트 컴포넌트(출처 : 언리얼 엔진 홈페이지)   새롭게 추가된 라이브 링크 브로드캐스트 컴포넌트를 통해 언리얼 엔진 자체가 네트워크 전반에서 애니메이션 데이터의 소스로 동작할 수 있다. 이를 통해 다양한 멀티 머신 기반 버추얼 프로덕션(VP) 및 모캡 스테이지 워크플로를 구현할 수 있다. 예를 들어, 리타기팅 작업을 다른 에디터 세션으로 분리해 처리하고 그 결과를 메인 신으로 전송할 수 있다. 레벨에 액터를 추가한 뒤 라이브 링크 서브젝트로 전환하면, 에디터에서 트랜스폼, 카메라, 애니메이션 데이터를 직접 스트리밍할 수 있다.   ▲ 라이브 링크 브로드캐스트 컴포넌트(출처 : 언리얼 엔진 홈페이지)   또한, 이번 버전에는 언리얼 엔진이 기본 제공하는 실시간 합성 툴인 컴포셔(Composure)가 새롭게 향상됐다. 접근성이 향상된 컴포셔는 이제 라이브 비디오 입력과 파일 기반의 이미지 미디어 플레이트를 모두 처리하며, 24fps의 영화나 영상에 실시간으로 결과물을 제공할 수 있다. 이와 함께, 이번 업데이트로 새롭게 추가된 그림자와 반사 통합 기능과 향상된 키어 기능으로 실사 영상과 CG 요소를 자연스럽게 결합할 수 있다.   ▲ 컴포셔(출처 : 언리얼 엔진 홈페이지)   즉시 도움을 받을 수 있는 AI 어시스턴트 언리얼 엔진 5.7에는 새로운 AI 어시스턴트가 도입되어 에디터 내에서 직접 언리얼 엔진 관련 가이드를 제공하며, 마치 숙련된 UE 개발자가 팀에 있는 것처럼 필요한 만큼 자세한 도움을 즉시 받을 수 있다. 또한 현재 작업에 집중할 수 있도록 전용 슬라이드 아웃 패널을 통해 에디터를 벗어나지 않고도 질문을 하거나, C++ 코드를 생성할 수 있고, 단계별 안내를 받을 수 있다.   ▲ AI 어시스턴트(출처 : 언리얼 엔진 홈페이지)   질문을 입력하는 것 외에도, 인터페이스 요소 위에 커서를 두고 F1 키를 눌러 툴팁처럼 손쉽게 AI 어시스턴트를 불러와 해당 주제에 대한 대화를 시작할 수 있다. 언리얼 에디터 홈 패널에서 튜토리얼, 문서, 뉴스, 포럼 등 주요 리소스와 최근 프로젝트를 바로 이용할 수 있다. 언리얼 엔진을 처음 사용한다면, 언리얼 에디터에서 바로 실행되는 인터랙티브형 시작하기 샘플을 이용하면 된다.   ▲ 언리얼 에디터 홈 패널(출처 : 언리얼 엔진 홈페이지)   그 외 개선 사항 지금까지 살펴본 주요 기능 외에도 언리얼 엔진 5.7은 다양한 신규 기능과 향상된 기능을 제공한다. 모든 업데이트에 대한 자세한 내용은 출시 노트에서 확인할 수 있다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-12-02
에픽게임즈, 언리얼 엔진 5.7에서 고도화된 오픈 월드 구현과 더 강력해진 통합 워크플로 지원
에픽게임즈는 다양한 신규 기능 및 개선 사항이 추가된 언리얼 엔진 5.7을 정식 출시했다고 발표했다. 이번 언리얼 엔진 5.7 업데이트는 풍부한 디테일로 사실감 넘치는 광활한 월드를 제작하고, 현세대 하드웨어에서 고퀄리티로 실시간 렌더링할 수 있는 다양한 툴을 제공한다. 그리고 복잡한 레이어드 및 블렌디드 머티리얼을 물리적으로 정확하게 제작할 수 있으며, 이전보다 더 많은 라이트를 자유롭게 활용할 수 있다. 또한, 더 강력하고 직관적인 애니메이션과 리깅 워크플로, 한층 깊고 유연해진 메타휴먼 통합, 확장된 버추얼 프로덕션 기능과 함께 새롭게 추가된 언리얼 에디터 내 AI 어시스턴트가 개발 과정 전반에서 전문적인 도움을 제공한다.     언리얼 엔진 5.7에서는 프로시저럴 콘텐츠 제너레이션 프레임워크(PCG)가 정식 버전으로 제공되어 환경을 빠르고 자연스럽게 구성하면서도 몰입감 높은 대규모 월드를 더 쉽고 효율적으로 제작할 수 있다. 새로운 PCG 에디터 모드는 스플라인 드로잉, 포인트 페인팅, 볼륨 생성 등 다양한 기능을 지원하는 커스터마이징 가능한 툴 라이브러리를 제공한다. 다수의 성능 최적화 덕분에 PCG GPU 연산 속도가 획기적으로 빨라졌고, GPU 파라미터 설정 기능이 추가되어 다양한 파라미터 값을 동적으로 설정할 수 있게 됐다. 또한, 새로운 폴리곤 2D 데이터 타입과 관련 연산자를 통해 한층 더 유연하게 제작할 수 있고, 스플라인 교차점(Spline Intersection) 및 스플라인 분할(Split Spline) 연산자도 새롭게 추가됐다. 이와 함께 프로시저럴 베지테이션 에디터(PVE)가 추가돼 엔진 내에서 고퀄리티의 식생 애셋을 실시간으로 제작하고 커스터마이징할 수 있다. 팹(Fab)을 통해서도 5종의 퀵셀 메가플랜트 애셋을 다운로드할 수 있으며, 향후 수백 종의 식물 프리셋이 추가될 예정이다. 언리얼 엔진 5.7에서는 나나이트 폴리지, 서브스트레이트, 메가라이트 등 렌더링 기술 전반이 더욱 향상됐다. 새로운 지오메트리 렌더링 시스템인 나나이트 폴리지가 추가되어 대규모 오픈 월드에서 매우 디테일하고 밀도 높은 식생 환경을 제작하고 애니메이션을 적용할 수 있다. LOD를 제작할 필요 없이 크로스 페이드, 팝 현상 없이도 안정적인 프레임 속도를 유지할 수 있으며, 나나이트 어셈블리를 활용해 저장 공간, 메모리, 렌더링 비용을 줄이고, 나나이트 스키닝을 통해 바람 등에 반응하는 동적 움직임을 구현한다. 언리얼 엔진의 최첨단 모듈형 머티리얼 제작 및 렌더링 프레임워크인 서브스트레이트도 정식 버전으로 제공된다. 이 프레임워크는 레이어드와 블렌디드 머티리얼을 지원해 금속, 클리어 코트, 피부, 천 등 다양한 머티리얼의 물리적 특성을 정확하게 고퀄리티로 결합할 수 있다. 이를 통해 다중 레이어 자동차 도색, 오일 가죽, 피부 위의 피와 땀 같은 사실적인 재질 표현을 손쉽게 구현할 수 있다. 메가라이트는 이번 버전에서 베타 버전으로 전환되었다. 신(scene)에 훨씬 더 많은 다이내믹 섀도를 생성하는 라이트를 추가할 수 있어 복잡한 광원에서도 사실적이고 부드러운 그림자 효과를 구현할 수 있다. 이를 통해 이전보다 훨씬 자유로운 라이팅 연출이 가능해져, 더 크고 풍부하며 복잡한 월드를 제작할 수 있다. 또한 디렉셔널 라이트, 반투명, 나이아가라 파티클 그림자 생성, 그리고 헤어의 빛과 그림자 표현이 더 정교해 비주얼 퀄리티가 향상되었다. 메타휴먼은 언리얼 엔진을 비롯한 파이프라인 내 다양한 툴과의 통합이 한층 강화됐다. 이제 메타휴먼 크리에이터 언리얼 엔진 플러그인이 리눅스 및 맥OS를 지원해 플랫폼 간 호환성과 접근성이 확대됐다. 파이썬 또는 블루프린트 스크립팅을 사용해 언리얼 에디터에서는 실시간으로, 렌더 팜에서는 오프라인으로 메타휴먼 캐릭터 애셋의 편집 및 조합 작업을 자동화하고 일괄 처리할 수 있다. 또한 다양한 포즈의 메시를 맞출 수 있는 기능도 추가됐으며, FBX 포맷을 통해 외부 DCC 툴과의 연동도 지원한다. 애니메이션의 경우, 라이브 링크 페이스를 아이패드 또는 안드로이드 디바이스의 외부 카메라와 연동해 실시간으로 애니메이션을 생성하고 연기를 녹화할 수 있다. 또한 언리얼 엔진에서 직접 헤어 가이드와 스트랜드를 제작하고 조정할 수 있으며, 후디니용 메타휴먼 업데이트를 통해 사전에 제작된 데이터를 활용해 헤어스타일을 효율적으로 제작할 수 있는 가이드 중심의 워크플로를 제공한다. 언리얼 엔진 5.6에서 에디터 내 리깅 및 애니메이션 제작 툴세트가 대폭 강화된 데 이어, 5.7 버전에서는 새롭게 개선된 애니메이션 모드가 추가돼 워크플로를 간소화하고 화면 공간 활용을 최적화할 수 있게 됐다. 셀렉션 세트 기능으로 다수의 컨트롤을 클릭 한 번으로 선택할 수 있고, IK 리타기터 개선으로 발과 지면의 접촉이 한층 자연스러워지고 찌그러지거나 늘어나는 애니메이션의 리타기팅을 지원한다. 리깅 부분에서는 업데이트된 스켈레탈 에디터를 통해 스켈레탈 메시 상에서 본 배치, 웨이트 페인팅, 블렌드 셰이프 스컬프팅 사이를 매끄럽게 전환하며 작업할 수 있다. 또한 단방향 피직스 월드 콜리전 기능이 추가돼 캐릭터와 환경 간 상호작용이 한층 사실적으로 구현되며, 새로운 디펜던시 뷰를 통해 컨트롤 릭 또는 모듈형 컨트롤 릭의 데이터 흐름을 명확한 노드 기반 그래프로 시각화해 효율적으로 디버깅과 최적화할 수 있게 됐다. 새롭게 추가된 프롭용 다이내믹 컨스트레인트 컴포넌트는 모션캡처 작업 후 오브젝트가 손 위치에 자동으로 부착되어 복잡한 동작에서도 자연스럽고 부드러운 결과를 제공한다. 이번 버전에는 라이브 링크 브로드캐스트 컴포넌트가 새롭게 추가돼, 언리얼 엔진 자체가 네트워크 전반에서 애니메이션 데이터의 소스로 동작할 수 있다. 이를 통해 다양한 멀티 머신 기반 버추얼 프로덕션(VP) 및 모캡 스테이지 워크플로를 효율적으로 구현할 수 있게 됐다. 또한, 언리얼 엔진의 실시간 합성 툴, 컴포셔가 향상돼 라이브 비디오와 파일 기반의 이미지 미디어를 모두 실시간으로 처리하며, 24fps의 영화나 영상에도 즉시 결과물을 제공한다. 그림자와 반사 통합 기능과 향상된 키어 기능으로 실사 영상과 CG를 더욱 자연스럽게 결합할 수 있다. 언리얼 엔진 5.6에 새롭게 도입된 AI 어시스턴트는 에디터 내에서 직접 언리얼 엔진 관련 가이드를 제공하며, C++ 코드 생성과 단계별 안내 등 실시간 지원 기능을 제공한다. 또한 언리얼 에디터 홈 패널에서는 튜토리얼, 문서, 뉴스, 포럼 등 주요 리소스를 한곳에서 이용할 수 있으며, 초보 사용자를 위한 인터랙티브형 시작하기 샘플도 함께 제공된다.
작성일 : 2025-11-13
[핫윈도] 리얼타임을 통한 디지털 트랜스포메이션의 진화
지난 9월 11~12일 진행된 ‘코리아 그래픽스 2025’에서 에픽게임즈는 산업 전반에서 리얼타임 시각화가 어떻게 활용되고 있는지를 보여주는 사례를 소개했다. 또한, 이러한 변화 속에서 에픽게임즈가 제시하는 비전과 디지털 트윈에 활용되는 에픽게임즈의 기술을 선보였다.   디지털 트윈과 디지털 트랜스포메이션의 정의 디지털 트윈(digital twin)은 현실의 사물이나 시스템을 외형뿐만 아니라 물리적 특성까지 그대로 디지털로 재현하여, 가상 공간에서 성능을 분석하고 잠재적인 문제를 사전에 확인할 수 있는 기술이다. 디지털 트랜스포메이션(digital transformation) 또는 디지털 전환은 이러한 디지털 기술을 활용해 조직과 기업의 의사결정 방식을 혁신하고, 이를 통해 새로운 가치를 창출하는 과정을 의미한다. 이 글에서는 새로운 가치를 최종 소비자나 시장의 관점에 국한하지 않고, 기업이나 조직 내부에서 디지털 트윈을 활용해 생산 공정을 보다 효율적이고 간소화된 방식으로 개선하고, 이를 기반으로 최적의 결정을 내릴 수 있다면 그것 또한 디지털 트랜스포메이션의 범주에 포함된다고 본다.   리얼타임을 통한 디지털 트랜스포메이션 사례 건축 산업 : 단순 렌더링에서 스마트 시티까지 건축 산업에서는 설계 데이터를 3D 데이터로 변환하고 이를 리얼타임으로 시각화하는 방식을 통해 리얼타임 기반 디지털 트윈이 시작됐다. 기존에는 3D 데이터를 활용해 미리 렌더링된 정적인 영상이나 순차적으로 보여주는 영상만 제작했지만, 언리얼 엔진과 같은 리얼타임 기술이 도입되면서 단순히 정보 전달을 넘어 이해관계자들이 더 명확하고 효과적인 커뮤니케이션을 할 수 있게 된 것은 물론 나아가 최종 고객들에게도 새로운 사용자 경험을 전달할 수 있게 되었다. 이러한 발전은 더욱 가속화되어 현재는 커뮤니케이션 수단을 넘어 실제로 현실의 다양한 정보를 실시간으로 가상 3D 공간으로 가져와서 통합하고, 이를 이용하여 다시 현실의 건물과 공장, 도시를 관제하는 단계에 이르렀다. 예를 들어, 비전스페이스(Vision Space)의 스마트 공장 설루션은 공장의 3D 환경을 구축하고, 자동화 설비를 배치해 현실과 동일한 조건으로 가상 검증을 수행한다. 여기에 인공지능 시뮬레이터를 통합하면 물류 흐름과 생산 효율을 사전에 예측할 수 있다. 이처럼 ‘디지털 트윈 + AI’ 조합은 단순한 시각화 단계를 넘어 기업 경영의 근본을 바꾸는 디지털 트랜스포메이션으로 발전하고 있다.   그림 1. 비전스페이스   도시 개발 영역에서도 이러한 흐름은 더욱 두드러진다. 두바이나 아부다비 같은 중동의 주요 도시의 시각화에 사용된 프롭VR(Prop VR)의 사례를 보면, 단순 도시 계획이나 인프라 설립, 관광과 같은 도시 관리 측면에서의 효과를 넘어서 임대나 거주 여부를 결정하는 데 필요한 몰입형 정보를 제공함으로써 사용자 만족도와 경제적 가치를 동시에 높이고 있다. 실제로 중동의 고급 부동산 개발사인 DAMAC 프로퍼티같은 경우는 프롭VR과 협업 전 2400만 달러 규모였던 매출이 협업 후 4억 달러까지 10배 이상 확대되는 성과를 기록하기도 했다.   그림 2. 프롭VR   결국 단순히 정보 전달의 디지털 트윈을 넘어서 도시 구성원에게 좀 더 몰입감 있는 경험을 제공하고, 이를 통해 그들의 의사 결정을 좀 더 가치 있게 만든 디지털 트랜스포메이션의 사례라고 할 수 있다.   훈련 시뮬레이션 : 안전과 비용 혁신 디지털 트윈을 활용한 디지털 트랜스포메이션은 특히 훈련 및 시뮬레이션 분야에 가장 큰 영향을 미치고 있다. 보잉(Boeing)은 항공기 정비 훈련 과정에 VR 시뮬레이션을 도입해 정비사가 실제 기체를 만지기 전에 가상 환경에서 반복 학습할 수 있도록 했다. 이는 안전성을 크게 높이는 동시에 비용도 절감하는 효과를 가져왔다.   그림 3. 보잉의 훈련 시스템   또한, 화재, 지진, 대규모 재해 대응 훈련에서도 XR(확장현실) 기술을 활용한 몰입형 시뮬레이션이 확산되고 있는데, 기존의 이론 중심 교육보다 훨씬 효과적인 학습 결과를 만들어내기 때문이다. 실제로 삼성 엔지니어링이나 대우조선 해양, 삼성전자 반도체 팹, 남동 화력 발전소를 포함하여 여러 산업 현장과 의료기관에서 이미 언리얼 엔진을 이용한 XR 훈련을 시행하고 있으며 높은 효과를 내고 있다.   그림 4. XR 직무 교육   시뮬레이션에서도 리얼타임의 도입은 큰 효과를 내고 있는데, 대표적인 사례로 한국항공우주산업(KAI)에서 구축한 디지털 트랜스포메이션이 있다. KAI는 수리온 헬기나 KF-21 전투기와 같이 직접 설계 및 제작한 여러 항공기의 훈련용 VR 시뮬레이터를 개발하여, 파일럿이 본격적인 훈련 이전에 실제 훈련 절차와 비행 조작 감각을 사전에 익힐 수 있도록 도와주고 이를 통해 훈련의 전반적인 효과를 극대화했다. 또한 언리얼 엔진의 개방성을 통해 대규모 전술 훈련을 위한 강화 학습 기반의 AI 에이전트를 현재 훈련 시나리오에 통합하기도 했다.   그림 5. KAI의 VR 비행 시뮬레이터   뿐만 아니라 GIS 기반 지형 정보와 AI 시나리오를 접목해 실제 작전 환경에 가까운 훈련을 가능하게 했고, 더 나아가 정비 인력 교육에도 이를 적용하고 있다. 이는 디지털 트윈을 기반으로 GIS 지형 정보 처리부터 XR 기반 훈련 시뮬레이터는 물론 에이전트 AI까지 통합된 디지털 트랜스포메이션의 대표 사례라고 할 수 있다.   자동차 산업 : 전 공정을 아우르는 리얼타임 혁신 자동차 산업은 리얼타임을 통해 완전히 새로운 가치를 찾아가고 있는 핵심 산업이다. 대표적으로 로터스(Lotus)는 언리얼 엔진과 리얼타임을 디자인부터 엔지니어링, 마케팅, 그리고 HMI(휴먼–머신 인터페이스)를 통한 소비자 경험까지 전체 공정에 통합하여 디지털 트랜스포메이션을 이뤄낸 선도적인 기업 중 하나다. 로터스는 디자인 초기 단계부터 리얼타임 기술을 도입해 기존의 오프라인 중심 디자인 과정을 디지털 트윈 기반의 가상 환경으로 전환하면서, 언리얼 엔진의 사실적인 비주얼 퀄리티를 통해 VR 상에서 실사와 동일한 수준의 3D 데이터를 검증할 수 있게 되었고, 이를 통해 디자인 반복 작업이 가속화되었다. 이러한 리얼타임을 통한 디지털 트윈은 나아가 제조, 엔지니어링, 마케팅, HMI까지도 확장되었다. 특히 로터스는 전사적으로 단일 3D 데이터 세트를 공유하는 통합 파이프라인을 구축하고, 퍼포스 기반의 데이터 관리 체계를 도입했다. 이를 통해 불필요한 파일 생성과 관리 비용을 줄였고 그 결과 디자인과 엔지니어링 데이터가 완벽히 통합되어, 차량 개발 전 과정에서 훨씬 효과적으로 데이터를 공유할 수 있게 되었다. 또한 이는 고품질 마케팅 콘텐츠 제작에도 그대로 활용되었다.   그림 6. 로터스   로터스뿐만 아니라 GMC와 볼보(Volvo), 리비안(Rivian), 페라리(Ferrari), 포드(Ford), 소니(Sony)–혼다(Honda) 합작의 아필라(Afeela) 등 글로벌 주요 자동차 브랜드도 이미 HMI에 언리얼 엔진을 도입하고 있다. 이는 자동차가 더 이상 단순한 이동 수단이 아니라, 엔터테인먼트와 커넥티비티를 제공하는 콘텐츠 플랫폼으로 진화하고 있음을 보여준다.   그림 7. 아필라 내부   그림 8. 언리얼 엔진 HMI 탑재 차량   한편, 디지털 트윈을 활용한 디지털 트랜스포메이션은 단순한 3D 시각화를 넘어, 산업의 제품과 서비스를 사용자에게 새로운 경험을 제공하는 콘텐츠로 발전시키고 있다. 이를 통해 현실의 제품과 서비스가 가상공간에서도 새로운 가치를 창출해 나가고 있다. 흥미로운 사례로 페라리는 신형 하이브리드 296 GTB를 ‘포트나이트’ 게임 내에서 공개했다. 페라리는 단순한 차량 공개를 넘어 게임이라는 새로운 콘텐츠 환경에서 플레이어들이 실제로 운전하는 경험을 제공하여, 브랜드 가치를 확장하고 미래 세대 고객과의 접점을 마련하였다.   그림 9. 포트나이트에서 공개된 페라리 신형 하이브리드 296 GTB   에픽게임즈의 기술과 비전 디지털 트랜스포메이션이 성공적으로 정착되기 위해서는 보다 다양하고 매력적이며 풍부한 3D 콘텐츠의 공급이 필수이며, 그러기 위해서는 일반 산업 디자이너를 포함해 누구나 원하는 콘텐츠를 제작할 수 있는 환경이 제공되어야 한다. 이를 실현하기 위해 에픽게임즈는 압도적인 리얼타임 렌더링 기술과 콘텐츠 제작 효율성 향상이라는 두 가지 측면에서 지속적으로 노력을 기울이고 있다.   나나이트 나나이트(Nanite)는 기존의 렌더링에서 상상하기 어려운 수준의 폴리곤을 추가적인 최적화나 작업 공정 없이 처리할 수 있는 기술이다. 일반적인 리얼타임 렌더러에서는 구동조차 불가능한 수조 개의 폴리곤으로 구성된 가상 공간을 게임기 플레이스테이션 5에서 60프레임으로 구동할 수 있게 되었다.   그림 10. 나나이트   루멘 트윈모션과 언리얼 엔진의 새로운 라이팅 시스템인 루멘(Lumen)은 별도의 라이트맵 빌드 없이도 고퀄리티 글로벌 일루미네이션 효과를 실시간으로 처리한다. 덕분에 라이팅에 대한 반복 작업에 소요되는 시간을 대폭 줄일 수 있으며, 절약된 시간은 콘텐츠의 품질 향상에 집중할 수 있어 전반적인 퀄리티를 높일 수 있다.   그림 11. 루멘   월드 파티션 디지털 트윈에서 가장 중요한 요소 중 하나가 바로 광활한 가상 공간 제작인데, 언리얼 엔진 5에서는 LWC(Large World Coordinates : 대규모 월드 좌표)를 통해 사실상 무한에 가까운 공간을 별도의 추가 작업 없이 충분한 정밀도로 엔진 상에서 구축할 수 있다. 게다가 다양한 GIS 데이터 프로토콜을 통합 지원하고, 특히 항공 시뮬레이션에서 필수적인 구형 좌표계도 기본 제공하기 때문에 어떤 목적의 가상 공간이라도 바로 만들 수 있다.   그림 12. 월드 파티션   프로시저럴 콘텐츠 생성 넓은 공간을 만들더라도 사람이 직접 디테일을 추가하고 애셋을 배치해야 한다면, 제작 비용이나 시간 때문에 사실상 광활한 가상 공간의 의미가 없어질 수 있다. 이러한 부분을 지원하기 위해 언리얼 엔진 5에서는 프로시저럴 콘텐츠 생성(Procedural Content Generation : PCG)이라는 절차적 콘텐츠 생성 툴도 제공하고 있다. PCG 비주얼 스크립트를 이용하면 광활한 공간에 수백만 그루의 나무 식생, 바위, 지형 애셋, 절벽 등을 1~2초 만에 절차적으로 배치할 수 있다.   그림 13. PCG   FAB 무엇보다도 디지털 트윈에서 핵심은 바로 애셋 스토어이다. 디지털 트윈에서 필요한 애셋을 모두 직접 만드는 것은 사실상 불가능에 가깝기 때문이다. 에픽게임즈의 통합 애셋 스토어 FAB은 다른 어떤 애셋 스토어 보다도 높은 수준의 퀄리티를 가진 애셋을 제공하고 있으며, 고퀄리티의 애셋을 여러 방식으로 무료로 제공하기 때문에 디지털 트랜스포메이션 프로젝트에 큰 도움을 받을 수 있다.   그림 14. FAB   이외에도, 에픽게임즈는 역동적인 가상 공간 구축에서 핵심인 요소인 캐릭터 생성을 위해 메타휴먼을 제공하여 헐리우드 영화 수준의 포토리얼한 캐릭터를 디지털 트랜스포메이션 프로젝트에 바로 활용할 수 있다. 또한, 자신만의 랜드마크 데이터가 필요할 때는 직접 모델링하지 않고도 휴대폰이나 카메라를 통해 촬영한 데이터를 3D로 변환할 수 있는 리얼리티 스캔도 지원한다.   그림 15. 메타휴먼(왼쪽) 및 리얼리티스캔(오른쪽)   맺음말 지금까지 디지털 트윈과 리얼타임 기술이 디지털 트랜스포메이션을 어떻게 이끌고 있는지 그리고 에픽게임즈가 이를 지원하는 기술과 비전을 살펴보았다. 디지털 트윈과 디지털 트랜스포메이션은 이제 초기 개념 단계를 넘어 산업과 사회 전반에 깊숙이 자리 잡고 있다. 리얼타임 기술은 단순히 ‘보여주는 도구’가 아니라, 기업의 의사결정, 사용자 경험, 나아가 사회적 가치 창출까지 연결되는 인프라로 진화하고 있다. 에픽게임즈와 언리얼 엔진은 이러한 변화의 든든한 파트너로서, 더 많은 산업 분야에서 디지털 트랜스포메이션을 통해 미래를 설계할 수 있도록 기술적 토대를 제공할 것이다.   ■ 권오찬 에픽게임즈 코리아의 부장으로 시니어 에반젤리스트이다. 20여 년간 게임 개발에 몸담았으며, 최근에는 비게임 콘텐츠 산업을 비롯해 건축, 자동차, 제조, 시뮬레이션 등 다양한 일반 산업 분야에서 폭넓은 경험을 쌓고 있다. (홈페이지)     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-11-04
[핫윈도] 리얼타임을 통한 디지털 트랜스포메이션의 진화
지난 9월 11~12일 진행된 ‘코리아 그래픽스 2025’에서 에픽게임즈는 산업 전반에서 리얼타임 시각화가 어떻게 활용되고 있는지를 보여주는 사례를 소개했다. 또한, 이러한 변화 속에서 에픽게임즈가 제시하는 비전과 디지털 트윈에 활용되는 에픽게임즈의 기술을 선보였다.   디지털 트윈과 디지털 트랜스포메이션의 정의 디지털 트윈(digital twin)은 현실의 사물이나 시스템을 외형뿐만 아니라 물리적 특성까지 그대로 디지털로 재현하여, 가상 공간에서 성능을 분석하고 잠재적인 문제를 사전에 확인할 수 있는 기술이다. 디지털 트랜스포메이션(digital transformation) 또는 디지털 전환은 이러한 디지털 기술을 활용해 조직과 기업의 의사결정 방식을 혁신하고, 이를 통해 새로운 가치를 창출하는 과정을 의미한다. 이 글에서는 새로운 가치를 최종 소비자나 시장의 관점에 국한하지 않고, 기업이나 조직 내부에서 디지털 트윈을 활용해 생산 공정을 보다 효율적이고 간소화된 방식으로 개선하고, 이를 기반으로 최적의 결정을 내릴 수 있다면 그것 또한 디지털 트랜스포메이션의 범주에 포함된다고 본다.   리얼타임을 통한 디지털 트랜스포메이션 사례 건축 산업 : 단순 렌더링에서 스마트 시티까지 건축 산업에서는 설계 데이터를 3D 데이터로 변환하고 이를 리얼타임으로 시각화하는 방식을 통해 리얼타임 기반 디지털 트윈이 시작됐다. 기존에는 3D 데이터를 활용해 미리 렌더링된 정적인 영상이나 순차적으로 보여주는 영상만 제작했지만, 언리얼 엔진과 같은 리얼타임 기술이 도입되면서 단순히 정보 전달을 넘어 이해관계자들이 더 명확하고 효과적인 커뮤니케이션을 할 수 있게 된 것은 물론 나아가 최종 고객들에게도 새로운 사용자 경험을 전달할 수 있게 되었다. 이러한 발전은 더욱 가속화되어 현재는 커뮤니케이션 수단을 넘어 실제로 현실의 다양한 정보를 실시간으로 가상 3D 공간으로 가져와서 통합하고, 이를 이용하여 다시 현실의 건물과 공장, 도시를 관제하는 단계에 이르렀다. 예를 들어, 비전스페이스(Vision Space)의 스마트 공장 설루션은 공장의 3D 환경을 구축하고, 자동화 설비를 배치해 현실과 동일한 조건으로 가상 검증을 수행한다. 여기에 인공지능 시뮬레이터를 통합하면 물류 흐름과 생산 효율을 사전에 예측할 수 있다. 이처럼 ‘디지털 트윈 + AI’ 조합은 단순한 시각화 단계를 넘어 기업 경영의 근본을 바꾸는 디지털 트랜스포메이션으로 발전하고 있다.   그림 1. 비전스페이스   도시 개발 영역에서도 이러한 흐름은 더욱 두드러진다. 두바이나 아부다비 같은 중동의 주요 도시의 시각화에 사용된 프롭VR(Prop VR)의 사례를 보면, 단순 도시 계획이나 인프라 설립, 관광과 같은 도시 관리 측면에서의 효과를 넘어서 임대나 거주 여부를 결정하는 데 필요한 몰입형 정보를 제공함으로써 사용자 만족도와 경제적 가치를 동시에 높이고 있다. 실제로 중동의 고급 부동산 개발사인 DAMAC 프로퍼티같은 경우는 프롭VR과 협업 전 2400만 달러 규모였던 매출이 협업 후 4억 달러까지 10배 이상 확대되는 성과를 기록하기도 했다.   그림 2. 프롭VR   결국 단순히 정보 전달의 디지털 트윈을 넘어서 도시 구성원에게 좀 더 몰입감 있는 경험을 제공하고, 이를 통해 그들의 의사 결정을 좀 더 가치 있게 만든 디지털 트랜스포메이션의 사례라고 할 수 있다.   훈련 시뮬레이션 : 안전과 비용 혁신 디지털 트윈을 활용한 디지털 트랜스포메이션은 특히 훈련 및 시뮬레이션 분야에 가장 큰 영향을 미치고 있다. 보잉(Boeing)은 항공기 정비 훈련 과정에 VR 시뮬레이션을 도입해 정비사가 실제 기체를 만지기 전에 가상 환경에서 반복 학습할 수 있도록 했다. 이는 안전성을 크게 높이는 동시에 비용도 절감하는 효과를 가져왔다.   그림 3. 보잉의 훈련 시스템   또한, 화재, 지진, 대규모 재해 대응 훈련에서도 XR(확장현실) 기술을 활용한 몰입형 시뮬레이션이 확산되고 있는데, 기존의 이론 중심 교육보다 훨씬 효과적인 학습 결과를 만들어내기 때문이다. 실제로 삼성 엔지니어링이나 대우조선 해양, 삼성전자 반도체 팹, 남동 화력 발전소를 포함하여 여러 산업 현장과 의료기관에서 이미 언리얼 엔진을 이용한 XR 훈련을 시행하고 있으며 높은 효과를 내고 있다.   그림 4. XR 직무 교육   시뮬레이션에서도 리얼타임의 도입은 큰 효과를 내고 있는데, 대표적인 사례로 한국항공우주산업(KAI)에서 구축한 디지털 트랜스포메이션이 있다. KAI는 수리온 헬기나 KF-21 전투기와 같이 직접 설계 및 제작한 여러 항공기의 훈련용 VR 시뮬레이터를 개발하여, 파일럿이 본격적인 훈련 이전에 실제 훈련 절차와 비행 조작 감각을 사전에 익힐 수 있도록 도와주고 이를 통해 훈련의 전반적인 효과를 극대화했다. 또한 언리얼 엔진의 개방성을 통해 대규모 전술 훈련을 위한 강화 학습 기반의 AI 에이전트를 현재 훈련 시나리오에 통합하기도 했다.   그림 5. KAI의 VR 비행 시뮬레이터   뿐만 아니라 GIS 기반 지형 정보와 AI 시나리오를 접목해 실제 작전 환경에 가까운 훈련을 가능하게 했고, 더 나아가 정비 인력 교육에도 이를 적용하고 있다. 이는 디지털 트윈을 기반으로 GIS 지형 정보 처리부터 XR 기반 훈련 시뮬레이터는 물론 에이전트 AI까지 통합된 디지털 트랜스포메이션의 대표 사례라고 할 수 있다.   자동차 산업 : 전 공정을 아우르는 리얼타임 혁신 자동차 산업은 리얼타임을 통해 완전히 새로운 가치를 찾아가고 있는 핵심 산업이다. 대표적으로 로터스(Lotus)는 언리얼 엔진과 리얼타임을 디자인부터 엔지니어링, 마케팅, 그리고 HMI(휴먼–머신 인터페이스)를 통한 소비자 경험까지 전체 공정에 통합하여 디지털 트랜스포메이션을 이뤄낸 선도적인 기업 중 하나다. 로터스는 디자인 초기 단계부터 리얼타임 기술을 도입해 기존의 오프라인 중심 디자인 과정을 디지털 트윈 기반의 가상 환경으로 전환하면서, 언리얼 엔진의 사실적인 비주얼 퀄리티를 통해 VR 상에서 실사와 동일한 수준의 3D 데이터를 검증할 수 있게 되었고, 이를 통해 디자인 반복 작업이 가속화되었다. 이러한 리얼타임을 통한 디지털 트윈은 나아가 제조, 엔지니어링, 마케팅, HMI까지도 확장되었다. 특히 로터스는 전사적으로 단일 3D 데이터 세트를 공유하는 통합 파이프라인을 구축하고, 퍼포스 기반의 데이터 관리 체계를 도입했다. 이를 통해 불필요한 파일 생성과 관리 비용을 줄였고 그 결과 디자인과 엔지니어링 데이터가 완벽히 통합되어, 차량 개발 전 과정에서 훨씬 효과적으로 데이터를 공유할 수 있게 되었다. 또한 이는 고품질 마케팅 콘텐츠 제작에도 그대로 활용되었다.   그림 6. 로터스   로터스뿐만 아니라 GMC와 볼보(Volvo), 리비안(Rivian), 페라리(Ferrari), 포드(Ford), 소니(Sony)–혼다(Honda) 합작의 아필라(Afeela) 등 글로벌 주요 자동차 브랜드도 이미 HMI에 언리얼 엔진을 도입하고 있다. 이는 자동차가 더 이상 단순한 이동 수단이 아니라, 엔터테인먼트와 커넥티비티를 제공하는 콘텐츠 플랫폼으로 진화하고 있음을 보여준다.   그림 7. 아필라 내부   그림 8. 언리얼 엔진 HMI 탑재 차량   한편, 디지털 트윈을 활용한 디지털 트랜스포메이션은 단순한 3D 시각화를 넘어, 산업의 제품과 서비스를 사용자에게 새로운 경험을 제공하는 콘텐츠로 발전시키고 있다. 이를 통해 현실의 제품과 서비스가 가상공간에서도 새로운 가치를 창출해 나가고 있다. 흥미로운 사례로 페라리는 신형 하이브리드 296 GTB를 ‘포트나이트’ 게임 내에서 공개했다. 페라리는 단순한 차량 공개를 넘어 게임이라는 새로운 콘텐츠 환경에서 플레이어들이 실제로 운전하는 경험을 제공하여, 브랜드 가치를 확장하고 미래 세대 고객과의 접점을 마련하였다.   그림 9. 포트나이트에서 공개된 페라리 신형 하이브리드 296 GTB   에픽게임즈의 기술과 비전 디지털 트랜스포메이션이 성공적으로 정착되기 위해서는 보다 다양하고 매력적이며 풍부한 3D 콘텐츠의 공급이 필수이며, 그러기 위해서는 일반 산업 디자이너를 포함해 누구나 원하는 콘텐츠를 제작할 수 있는 환경이 제공되어야 한다. 이를 실현하기 위해 에픽게임즈는 압도적인 리얼타임 렌더링 기술과 콘텐츠 제작 효율성 향상이라는 두 가지 측면에서 지속적으로 노력을 기울이고 있다.   나나이트 나나이트(Nanite)는 기존의 렌더링에서 상상하기 어려운 수준의 폴리곤을 추가적인 최적화나 작업 공정 없이 처리할 수 있는 기술이다. 일반적인 리얼타임 렌더러에서는 구동조차 불가능한 수조 개의 폴리곤으로 구성된 가상 공간을 게임기 플레이스테이션 5에서 60프레임으로 구동할 수 있게 되었다.   그림 10. 나나이트   루멘 트윈모션과 언리얼 엔진의 새로운 라이팅 시스템인 루멘(Lumen)은 별도의 라이트맵 빌드 없이도 고퀄리티 글로벌 일루미네이션 효과를 실시간으로 처리한다. 덕분에 라이팅에 대한 반복 작업에 소요되는 시간을 대폭 줄일 수 있으며, 절약된 시간은 콘텐츠의 품질 향상에 집중할 수 있어 전반적인 퀄리티를 높일 수 있다.   그림 11. 루멘   월드 파티션 디지털 트윈에서 가장 중요한 요소 중 하나가 바로 광활한 가상 공간 제작인데, 언리얼 엔진 5에서는 LWC(Large World Coordinates : 대규모 월드 좌표)를 통해 사실상 무한에 가까운 공간을 별도의 추가 작업 없이 충분한 정밀도로 엔진 상에서 구축할 수 있다. 게다가 다양한 GIS 데이터 프로토콜을 통합 지원하고, 특히 항공 시뮬레이션에서 필수적인 구형 좌표계도 기본 제공하기 때문에 어떤 목적의 가상 공간이라도 바로 만들 수 있다.   그림 12. 월드 파티션   프로시저럴 콘텐츠 생성 넓은 공간을 만들더라도 사람이 직접 디테일을 추가하고 애셋을 배치해야 한다면, 제작 비용이나 시간 때문에 사실상 광활한 가상 공간의 의미가 없어질 수 있다. 이러한 부분을 지원하기 위해 언리얼 엔진 5에서는 프로시저럴 콘텐츠 생성(Procedural Content Generation : PCG)이라는 절차적 콘텐츠 생성 툴도 제공하고 있다. PCG 비주얼 스크립트를 이용하면 광활한 공간에 수백만 그루의 나무 식생, 바위, 지형 애셋, 절벽 등을 1~2초 만에 절차적으로 배치할 수 있다.   그림 13. PCG   FAB 무엇보다도 디지털 트윈에서 핵심은 바로 애셋 스토어이다. 디지털 트윈에서 필요한 애셋을 모두 직접 만드는 것은 사실상 불가능에 가깝기 때문이다. 에픽게임즈의 통합 애셋 스토어 FAB은 다른 어떤 애셋 스토어 보다도 높은 수준의 퀄리티를 가진 애셋을 제공하고 있으며, 고퀄리티의 애셋을 여러 방식으로 무료로 제공하기 때문에 디지털 트랜스포메이션 프로젝트에 큰 도움을 받을 수 있다.   그림 14. FAB   이외에도, 에픽게임즈는 역동적인 가상 공간 구축에서 핵심인 요소인 캐릭터 생성을 위해 메타휴먼을 제공하여 헐리우드 영화 수준의 포토리얼한 캐릭터를 디지털 트랜스포메이션 프로젝트에 바로 활용할 수 있다. 또한, 자신만의 랜드마크 데이터가 필요할 때는 직접 모델링하지 않고도 휴대폰이나 카메라를 통해 촬영한 데이터를 3D로 변환할 수 있는 리얼리티 스캔도 지원한다.   그림 15. 메타휴먼(왼쪽) 및 리얼리티스캔(오른쪽)   맺음말 지금까지 디지털 트윈과 리얼타임 기술이 디지털 트랜스포메이션을 어떻게 이끌고 있는지 그리고 에픽게임즈가 이를 지원하는 기술과 비전을 살펴보았다. 디지털 트윈과 디지털 트랜스포메이션은 이제 초기 개념 단계를 넘어 산업과 사회 전반에 깊숙이 자리 잡고 있다. 리얼타임 기술은 단순히 ‘보여주는 도구’가 아니라, 기업의 의사결정, 사용자 경험, 나아가 사회적 가치 창출까지 연결되는 인프라로 진화하고 있다. 에픽게임즈와 언리얼 엔진은 이러한 변화의 든든한 파트너로서, 더 많은 산업 분야에서 디지털 트랜스포메이션을 통해 미래를 설계할 수 있도록 기술적 토대를 제공할 것이다.   ■ 권오찬 에픽게임즈 코리아의 부장으로 시니어 에반젤리스트이다. 20여 년간 게임 개발에 몸담았으며, 최근에는 비게임 콘텐츠 산업을 비롯해 건축, 자동차, 제조, 시뮬레이션 등 다양한 일반 산업 분야에서 폭넓은 경험을 쌓고 있다. (홈페이지)     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-11-04
[포커스] 코리아 그래픽스 2025, AI로 가속하는 산업과 크리에이티브의 변화를 짚다 (2)
‘코리아 그래픽스 2025’가 지난 9월 11~12일 온라인으로 진행됐다. ‘AI로 혁신하는 3D 시각화와 산업의 미래’를 주제로 열린 ‘코리아 그래픽스 2025’에서는 급변하는 기술 트렌드 속에서 AI(인공지능)와 3D 시각화가 산업과 문화 전반에 미치는 영향력을 조명했다. 또한 AI 기술의 실질적인 적용 사례와 잠재력을 통해, AI가 단순한 도구를 넘어 창의적 동반자로 진화하는 흐름을 짚었다. ■ 정수진 편집장   ■ 같이 보기 : [포커스] 코리아 그래픽스 2025, AI로 가속하는 산업과 크리에이티브의 변화를 짚다 (1)     AI·3D 시각화 기술의 현재와 미래를 짚다 9월 11일에는 ‘디지털 트윈 & 3D 시각화’ 트랙이 진행됐다. 에픽게임즈 코리아의 권오찬 시니어 에반젤리스트는 ‘리얼타임을 통한 디지털 트랜스포메이션의 진화, 그리고 에픽게임즈의 에코시스템’을 주제로 발표했다. 그는 디지털 트윈을 통한 시각화가 건축, 도시 계획, 훈련 시뮬레이션, 자동차 산업 등 다양한 분야에서 혁신적인 의사결정을 이끌어내는 사례를 소개하면서, 3D 인터랙티브 콘텐츠로의 전환을 강조했다. 권오찬 시니어 에반젤리스트는 “에픽게임즈는 이러한 변화를 성공적으로 지원하기 위해 나나이트, 루멘, 라지 월드 코디네이터, 절차적 콘텐츠 생성 툴 같은 리얼타임 렌더링 기술과 함께 메타휴먼, 애셋 스토어, 리얼리티 스캔 2.0 등 풍부한 에코시스템을 제공한다”고 밝혔다.   ▲ 에픽게임즈 코리아 권오찬 시니어 에반젤리스트   HP 코리아의 차성호 이사는 ‘AI 워크스테이션을 통한 생산성 향상 방안 및 사례’를 발표했다. 워크스테이션은 R&D, 금융, 데이터 과학, AI 등의 분야에서 성능과 안정성을 겸비한 비즈니스 제품군으로 자리잡고 있다. 차성호 이사는 HP의 AI 워크스테이션이 40 TOPS 이상의 NPU(신경망 처리장치)와 코파일럿 키를 탑재하고 있으며, 대량의 그래픽 메모리를 바탕으로 솔리드웍스, 오토데스크 레빗, D5 렌더 등 ISV 애플리케이션에서 높은 생산성 향상을 보인다고 소개했다. 또한, 프로그램과 목적에 따른 최적 하드웨어 선택의 중요성을 강조하면서, “HP는 데모 프로그램을 통한 성20 · 능 검증 기회를 제공한다”고 덧붙였다.   ▲ HP 코리아 차성호 이사   에스엘즈의 정재헌 대표는 ‘AEC 산업을 위해 진화하는 공간지능 기술’을 주제로, 2020년 캐나다 ‘어그멘티드 그라운드’ 프로젝트의 AR 원격 시공 경험을 비롯해 자체 개발한 추론형 AI로 BIM 모델 이미지를 학습하여 고객사의 MEP 설계 노하우의 보안을 유지하면서 자동 배관 설계를 진행한 사례를 소개했다. 또한 ‘증강 휴먼’ 기술이 피지컬 AI 기반의 ‘증강 로봇’으로 진화하는 여정도 공유했다. 정재헌 대표는 “초기 AR 디바이스 탑재를 넘어 휴머노이드 로봇 및 드론에도 공간 지능 기술을 적용 중이며, 드론에서 수신한 GNSS 좌표를 기반으로 BIM 모델을 고정밀 증강하여 실시간 현장 영상 위에 데이터를 매핑하는 데 성공했다”고 밝혔다.   ▲ 에스엘즈 정재헌 대표   유니티코리아의 김현민 시니어 설루션 엔지니어는 ‘유니티 애셋 매니저로 혁신하는 CAD 데이터 관리와 실시간 협업’에 대해 발표했다. 그는 “유니티가 디자인 및 프로토타입 작업 간소화, 비용 절감, 브랜드 경험 강화 등 산업 전반에 몰입감 있고 인터랙티브한 경험을 제공한다”고 설명했다. 오픈 플랫폼인 유니티는 카티아, 솔리드웍스 등 70여 종의 CAD 포맷을 지원하며 애셋 관리, 버전 관리와 함께 20여 종 이상 플랫폼 빌드를 제공하는 엔드 투 엔드 설루션을 제공한다. 또한 유니티 애셋 매니저(Unity Asset Manager)는 클라우드 기반에서 대용량 CAD/3D 데이터를 효율적으로 관리하며, AI 태깅, 버전 관리, 데이터 스트리밍 기능을 통해 실시간 협업 환경을 구축한다.   ▲ 유니티코리아 김현민 시니어 설루션 엔지니어   메가존클라우드의 홍동희 유니티 유닛 테크 그룹장은 ‘CAD와 유니티의 만남 : 새로운 비즈니스 수익 모델과 창의적 혁신’을 발표했다. 그는 “유니티의 실시간 렌더링, 인터랙티브 기능, 멀티플랫폼 배포 능력이 정밀한 설계에 강점을 가진 CAD에 새로운 가치를 부여하고 수익화할 수 있다”고 강조했다. 또한, 가상 복제본 생성부터 AI 결합을 통한 완전 자율화까지 디지털 트윈의 진화 과정을 설명하며, “유니티는 디지털 트윈 개발을 위한 최적의 플랫폼”이라고 전했다. 유니티의 에코시스템을 활용해 기업은 새로운 비즈니스 영역을 창출하고, 개인은 CAD와 유니티를 겸비한 전문가로서 경쟁력을 강화할 수 있다는 것이 그의 설명이다.   ▲ 메가존클라우드 홍동희 유니티 유닛 테크 그룹장   캐디안의 한명기 상무는 ‘AI 이미지 인지기술 기반 3D 도면 생성 방안 및 적용 설루션 소개’를 주제로 발표를 진행했다. 한명기 상무는 “캐디안은 1990년 설립된 국산 CAD 개발 기업으로, 2020년에는 AI CAD 개발을 선언하며 설계 도면 생성 과정의 어려움을 해결하는 데에 AI를 접목했다”고 설명했다. 캐디안은 최근 전통 목조 건축의 손도면을 2D/3D 도면화하는 ‘CADian TWArch’를 개발하여 불국사 복원 가상 설계에 적용했으며, 올해 연말 출시 예정이다. 또한, 현대 건축을 위한 ‘CADian AI-CE’는 JPG, PDF, DWG 등 다양한 도면에서 벽체, 창호, 룸 정보 등을 AI로 탐지하여 도면을 재생성하고 BOM을 산출한다. 한명기 상무는 “캐디안 AI CAD의 미래는 스마트 블록, 디자인 어시스턴트, 인스펙션 시스템 등 기능 강화와 함께 궁극적으로 AI 에이전트를 통한 ‘말로 설계하는 세상’을 목표로 한다”고 전했다.   ▲ 캐디안 한명기 상무   이노시뮬레이션의 이지선 CTO는 ‘모빌리티 XR 사례와 AI 융합 기술의 미래’를 전망했다. 그는 XR 기술이 나와 외부 세계를 소통하는 모든 통로를 대체하는 기술이며, 그래픽, 디바이스, 시뮬레이션 기술과 밀접하다고 정의했다. 그리고 운전 시뮬레이터, 가상 훈련, HMI 검토, 가상 품평, AR HUD 등 다양한 모빌리티 XR 응용 사례를 소개하며 개발 기간과 비용 절감 효과를 강조했다. 이지선 CTO는 “AI와 XR 기술의 결합은 모빌리티 무인화 시대를 가속화할 것”이라면서, “이노시뮬레이션은 AI 개발 툴을 활용하여 AI와 모빌리티가 혼합된 시뮬레이션 시스템을 연구 개발 중”이라고 소개했다.   ▲ 이노시뮬레이션 이지선 CTO   디자인과 제조의 미래를 만드는 생성형 AI 9월 12일에는 ‘AI 비주얼 트렌드 & 응용’ 트랙이 진행됐다. LG CNS의 정용기 선임은 ‘Image Gen.AI를 활용한 업무 생산성 향상 방안’에 대한 발표에서, 생성형 AI 기술에 기반한 LG CNS의 Image Gen.AI 엔진을 소개했다. 이를 활용하면 디자인 과정에서 아이디어 구상 시간을 단축하는 등의 프로세스 개선을 통해 비주얼 콘텐츠의 생성 시간과 비용을 50% 이상 줄여줄 수 있다는 것이 정용기 선임의 설명이다. 또한, LG CNS의 Image Gen.AI 엔진을 탑재한 COP(Content Optimization Platform)도 소개했다. COP는 이미지 생성 및 편집, 배경 제거/교체/확장, 부분 수정 등의 기능을 제공하며, 특화 학습을 통해 고객사의 특정 스타일을 반영한 마케팅 이미지를 생성한다. 정용기 선임은 “COP는 제품의 디테일을 유지하면서 다양한 연출 컷을 만들 수 있으며, 향후 매체별 배너 이미지 자동 생성 기능을 개발 중”이라고 밝혔다.   ▲ LG CNS 정용기 선임   아이스케이프의 조세희 대표는 ‘이미지부터 3D까지 : 크리에이터가 알려주는 생성형 AI 영상 제작’을 주제로 발표했다. 조세희 대표는 AI를 활용한 영상 콘텐츠 제작 과정을 실무 사례와 함께 소개하면서, “영상 제작은 스토리보드, 키 이미지 생성, 영상화, 음악 생성, 편집의 5단계로 진행되며, AI가 텍스트, 이미지, 오디오, 3D 모델 등 다양한 콘텐츠를 생성한다”고 설명했다. 또한, 3D 오브젝트를 활용해 가상 공간에서 영상을 만들고, 미드저니의 옴니 레퍼런스와 페이스 스왑, 일레븐랩스를 이용해 가상 인간의 일관된 이미지와 음성을 제작하는 과정도 시연했다. 조세희 대표는 “AI는 생산성을 높일 수 있는 도구이지만, 영상 구조, 조명, 연출 등의 기본 지식은 필수”라고 짚었다.   ▲ 아이스케이프 조세희 대표   AI팩토리의 김태영 CEO는 ‘크리에이터를 위한 AI 에이전트 활용 및 ‘바이브 코딩’ 발표를 통해 엔트로픽의 클로드 코드(Claude Code)를 활용해서 AI와 협업하여 코드를 작성하고 실행하는 방법을 시연했다. 바이브 코딩(vibe coding)은 대화식으로 사용자가 원하는 내용을 AI 에이전트에게 전달하면 AI가 코딩을 수행하는 방식이다. “요구사항 명세서 역할을 하는 파일을 통해 더욱 상세한 지시가 가능하다”고 소개한 김태영 CEO는 발표 중 실제 라이브 시연을 통해 상품 소개 웹 페이지를 제작하고, AI가 텍스트와 이미지를 자동 생성하여 콘텐츠를 풍부하게 만드는 과정을 선보였다.   ▲ AI팩토리 김태영 CEO   IUM SPACE의 이윰 대표는 ‘AI 툴로 구현하는 비주얼 세계 : 실무 적용과 아트워크 융합 사례’를 주제로 발표했다. 생성형 AI 시대의 진정한 창의성은 ‘세계관 디자인’에 있다고 짚은 이윰 대표는 미드저니의 스타일 레퍼런스 기능을 통해 42억 개의 스타일 시드를 탐색하며 “각 시드가 담고 있는 고유한 세계관을 이해하는 것이 중요하다”고 설명했다. 또한, 인간의 상상력과 AI의 지능을 결합하여 고유한 스타일과 이야기를 만드는 과정을 소개했다. 이윰 대표는 “AI는 의미를 생성하지 않으므로, 인간 창작자가 의미를 부여하고 다양한 이미지를 통합하여 스토리를 완성하는 것이 핵심”이라고 전했다.   ▲ IUM SPACE 이윰 대표   ■ 같이 보기 : [포커스] 코리아 그래픽스 2025, AI로 가속하는 산업과 크리에이티브의 변화를 짚다 (1)
작성일 : 2025-10-01
에픽게임즈, ‘언리얼 페스트 서울 2025’ 마쳐
에픽게임즈 코리아는 ‘언리얼 페스트 서울 2025’가 성공적으로 개최됐다고 밝혔다. 언리얼 페스트는 개발자와 크리에이터에게 언리얼 엔진 및 에픽게임즈의 에픽 에코시스템을 구성하는 제품에 대한 최신 기술과 제작 경험을 공유하기 위해 에픽게임즈에서 매년 진행하는 글로벌 행사이다. 8월 25일~26일 서울 삼성동 코엑스 그랜드볼룸에서 진행된 올해 ‘언리얼 페스트 2025 서울’에는 1800여 명이 현장을 찾아, 언리얼 엔진 및 에픽 에코시스템 제품들의 최신 기술을 확인하고 다양한 산업에서의 혁신적인 리얼타임 3D 인터랙티브 제작 경험을 공유했다. 온라인 중계 역시 전년 대비 전체 중계 세션이 50% 줄었음에도 불구하고 5000여 명의 시청자 수를 기록했다.     에픽게임즈 코리아 박성철 대표의 환영사와 함께 시작된 ‘언리얼 페스트 2025 서울’에서는 에픽게임즈 팀 스위니 대표가 키노트를 통해 업계의 주요 트렌드를 짚어 보고, 언리얼 엔진 개발자를 위한 새로운 기회와 모든 크리에이터를 위한 리얼타임 3D 오픈 에코시스템을 에픽게임즈가 어떻게 구축해 나가고 있는지에 대한 인사이트를 공유했다. 이어, 빌 클리포드 언리얼 엔진 총괄 부사장이 게임을 넘어 다양한 산업 분야에서 크리에이터들이 언리얼 엔진을 활용해 창의적·기술적 한계를 어떻게 뛰어넘고 있는지 그리고 에코시스템의 미래에 대해 소개했다. 마지막으로, 마커스 와스머 개발 담당 수석 부사장은 최근 언리얼 엔진의 업데이트 내용을 뒤돌아보고 향후의 로드맵을 공유하면서 키노트 발표를 마무리했다. 이후 ▲‘더 위쳐 4 언리얼 엔진 5 테크 데모’ 속 기술 들여다보기 ▲언리얼 엔진 5.6으로 모바일 게임 개발하기 ▲일본 사례로 보는 UE5 그래픽 심층 인사이트 ▲나이아가라로 인터랙티브한 파티클 효과 제작해 보기 등의 게임 트랙 세션과 ▲ UE 5.6과 함께 확 달라진 메타휴먼 : 핵심 업데이트 알아보기 ▲언리얼 엔진 5 애니메이션 리타기팅의 미래 등의 미디어 & 엔터테인먼트 트랙 세션, 그리고 ▲ 언리얼 엔진과 에픽 에코시스템을 통한 시뮬레이션 산업의 혁신과 같은 제조 및 시뮬레이션 트랙 세션 등 다양한 주제의 세션이 이틀에 걸쳐 진행됐다. 파트너사 세션도 진행됐다. 게임 트랙에서는 넥슨게임즈의 듀랑고 IP를 이용한 ‘프로젝트 DX’ 세션, 넷마블몬스터의 ‘몬길 : STAR DIVE’ 세션, 넥슨의 ‘낙원 : LAST PARADISE’ 세션, 스퀘어 에닉스의 라이팅 관련 세션 등 다양한 국내외 게임사들의 세션이 많은 관심을 얻었다. 또한, 애니메이션 ‘킹 오브 킹스’의 제작사 모팩스튜디오를 비롯해 메타로켓, Kong Studios, 사운드얼라이언스 등이 참여한 미디어 & 엔터테인먼트 트랙과 한국항공우주산업(KAI)과 비브스튜디오스, 현대자동차, 삼성중공업, 현대오토에버 등이 참여한 제조 및 시뮬레이션 트랙도 진행됐다.
작성일 : 2025-08-29
메타휴먼 5.6 : 디지털 휴먼의 제작 워크플로 향상 및 생태계 확장
개발 및 공급 : 에픽게임즈 주요 특징 : 언리얼 엔진 통합 및 워크플로 간소화, 새로운 파라메트릭 보디 시스템, 신규 언리얼 엔진 의상 애셋, 고퀄리티 실시간 애니메이션 및 오디오 기반 애니메이션 제작 향상, 다양한 DCC 툴을 위한 플러그인 및 스타터 키트 모음 등   혁신적인 디지털 휴먼 툴세트인 메타휴먼(MetaHuman)이 얼리 액세스를 종료하고, 다양한 기능을 갖춘 새 버전을 출시했다. 에픽게임즈는 메타휴먼 5.6 출시를 통해 주요 기능을 새롭게 제공하는 한편, 메타휴먼의 활용 범위를 넓혀주는 새로운 라이선스 옵션과 통합 기능을 도입했다. 이제 메타휴먼 크리에이터는 언리얼 엔진에 통합되어 향상된 퀄리티는 물론 얼굴, 체형, 의상을 더욱 다양하게 확장할 수 있는 새로운 제작 워크플로를 제공한다. 메타휴먼 애니메이터 역시 업데이트되어 거의 모든 카메라 또는 오디오로 실시간 애니메이션을 생성하는 기능이 추가됐다.   그림 1. 이미지 출처 : ‘메타휴먼 시즐릴 | 언리얼 페스트’ 영상 캡처   메타휴먼 크리에이터 언리얼 엔진에서 메타휴먼 제작 메타휴먼 크리에이터가 이제 언리얼 엔진에 통합되어 크리에이터로부터 많은 요청을 받았던 기능을 제공한다. 더 이상 인스턴스를 기다리거나 제한된 세션 시간을 신경 쓸 필요가 없으며, 익스포트 과정이 신속한 어셈블리 단계로 대체되어 반복 작업이 더 빠르고 쉬워졌다. 파이프라인을 관리해야 하는 스튜디오의 경우 메타휴먼 크리에이터(MetaHuman Creator), 메타휴먼 애니메이터(MetaHuman Animator), 메시 투 메타휴먼(Mesh to MetaHuman)이 이제 하나의 애플리케이션으로 통합되면서, 캐릭터 제작 워크플로가 간소화되고 로컬 애셋 관리가 한층 유연해지는 이점을 누릴 수 있게 됐다. 또한, 메타휴먼 크리에이터 툴의 풀 소스 코드 액세스가 제공되어 캐릭터 제작 파이프라인의 필요에 맞춰 툴을 확장하고 커스터마이징할 수 있으며, 자동 리깅과 텍스처 합성을 제공하는 클라우드 서비스를 통해 로컬 에디터 내 제작 워크플로가 향상된다.   그림 2. ‘Creator your MetaHumans’ 영상 캡처(출처 : 언리얼 엔진 홈페이지)   새로운 파라메트릭 보디 시스템 메타휴먼 크리에이터의 직관적인 페이스 제작 툴이 이제 보디 제작에도 확장됐다. 새로운 파라메트릭 보디 시스템은 광범위한 실제 스캔 데이터를 바탕으로 거의 무한대로 사실적인 체형을 생성할 수 있으며, 페이스 제작 때와 마찬가지로 스컬프팅하고 결합할 수 있다. 또한 키, 가슴, 허리, 다리 길이 등 다양한 신체 치수를 조정하거나 제한할 수 있어, 온라인 패션 쇼핑 등 다양한 용도에 맞춰 특정 비율의 메타휴먼을 제작할 수 있다.   그림 3. ‘MetaHuman body editing’ 영상 캡처(출처 : 언리얼 엔진 홈페이지)   새로운 언리얼 엔진 의상 애셋 실제 사람처럼 메타휴먼도 의상이 필요하다. 그 선택의 폭 역시 넓을수록 좋다. 이제 DCC 앱에서 사실적인 메시 기반 의상을 제작하고, 새로운 언리얼 엔진 의상 애셋을 사용하여 메타휴먼을 위한 전체 의상 세트를 생성할 수 있다. 이 기능은 액세서리를 포함한 다양한 의상을 통합된 의상 애셋으로 구성할 수 있다. 다양한 신체 사이즈와 체형에 가장 잘 맞는 의상 애셋을 미리 제작할 수 있으며, 이는 캐릭터의 체형에 따라 자동으로 크기가 조정되므로 모든 신체에 맞는 의상을 생성한다. 의상은 메타휴먼 형식으로 패키징하여 팹 마켓플레이스와 제3자 마켓플레이스에서 구매하거나 판매할 수 있기 때문에, 누구나 사용할 수 있는 기성 메타휴먼 의상의 폭이 더욱 넓어진다.   그림 4. ‘MetaHuman clothing’ 영상 캡처(출처 : 언리얼 엔진 홈페이지)   향상된 비주얼 퀄리티 메타휴먼은 최고의 퀄리티와 사실감을 구현할 수 있도록 지속적으로 발전하고 있다. 이를 위해 메타휴먼 데이터베이스의 실제 스캔 데이터가 확장되어, 더욱 다양한 캐릭터 메시 셰이프와 텍스처를 제공한다. 또한 스캔 데이터의 캡처 및 처리 기능도 향상되어 잡티와 같은 디테일까지 더욱 사실적으로 표현할 수 있다. 그 결과, 메타휴먼 크리에이터로 더욱 실감 나는 얼굴 텍스처를 구현하고 한층 다양한 캐릭터를 만들 수 있으며, 메시 투 메타휴먼을 사용하면 임포트한 메시나 캡처된 영상과 더욱 일치하는 메타휴먼을 만들 수 있다.   그림 5. 이미지 출처 : 언리얼 엔진 홈페이지   메타휴먼 애니메이터 웹캠과 스마트폰으로 제작하는 고퀄리티 실시간 애니메이션 메타휴먼 애니메이터를 사용하면 대부분의 웹캠과 다양한 스마트폰을 비롯한 모노 카메라로 배우의 연기를 캡처하고 언리얼 엔진에서 실시간으로 메타휴먼에 애니메이션을 적용할 수 있다. 기존에 지원되던 스테레오 HMC와 아이폰뿐만 아니라 이제 일부 안드로이드 스마트폰을 포함해 언리얼 엔진 라이브 링크와 연동되는 모든 카메라를 지원한다. 실시간 작업이 가능하기 때문에 라이브 공연이나 즉각적인 피드백이 필요한 촬영 현장에서도 메타휴먼은 배우와 완벽하게 동기화된다. 오프라인 작업 역시 프로젝트 요구 사항에 적합한 환경에서 계속 사용할 수 있다.   그림 6. ‘MetaHuman real-time animation’ 영상 캡처(출처 : 언리얼 엔진 홈페이지)   향상된 오디오 기반 애니메이션 이제 오디오만으로 리얼타임 애니메이션을 생성할 수 있어, 라이브 연기를 더욱 손쉽게 구현할 수 있게 됐다. 또한 메타휴먼 애니메이터는 오디오 화자의 감정을 분석해 더욱 실감 나는 애니메이션을 생성할 수 있으며, 이를 수동으로 조정해 특정 상황에 맞게 공감할 수 있는 메타휴먼의 연기를 제작할 수 있다. 메타휴먼 애니메이터는 오디오 기반 연기에 실제와 같은 머리 움직임까지 구현하여 더욱 사실적인 결과물을 즉시 만들어 낸다. <그림 7>은 감정을 수동으로 조정할 수 있는 오디오 기반 애니메이션을 보여준다. 윗줄은 왼쪽부터 행복, 슬픔, 혐오를, 아랫줄은 왼쪽부터 화남, 놀람, 두려움을 나타낸다.   그림 7. ‘MetaHuman audio-driven animation’ 영상 캡처(출처 : 언리얼 엔진 홈페이지)   어디에서든 활용할 수 있는 메타휴먼 메타휴먼을 언리얼 엔진뿐만 아니라 다른 엔진이나 크리에이티브 소프트웨어에서 사용할 수 있도록 언리얼 엔진 EULA에 새로운 라이선스 옵션이 추가돼, 이제 메타휴먼을 더 다양한 곳에서 만나볼 수 있다. 자세한 내용은 라이선스 페이지에서 확인할 수 있다. 확장된 메타휴먼 에코시스템에는 다른 디지털 콘텐츠 제작 툴의 플러그인 및 스타터 키트 모음이 추가되고 있으며, 여기에는 팹 마켓플레이스 통합도 포함된다.   마야용 메타휴먼 이번 메타휴먼 5.6 출시를 통해 3래터럴의 모든 파이프라인을 누구나 사용할 수 있게 됐다. 리깅 전문가는 마야(Maya)용 메타휴먼을 사용해 캐릭터의 표정을 세밀하게 조정하고 더욱 사실적으로 연출할 수 있다. 또한, 다른 메타휴먼 툴 및 워크플로와의 호환성은 그대로 유지하면서 동시에 마야의 메시 편집 툴세트와 스컬프팅 툴로 메타휴먼 메시를 직접 조작해, 메타휴먼 데이터베이스의 제한을 넘어 독특한 스타일라이즈드 캐릭터나 유사 인간형 캐릭터를 제작할 수 있다.   그림 8. ‘MetaHuman for Maya’ 영상 캡처(출처 : 언리얼 엔진 홈페이지)   그룸 아티스트는 이 플러그인으로 마야의 기존 XGen 시스템에서 생성한 메타휴먼 호환 그룸을 Alembic 파일로 익스포트할 수 있다.   후디니용 메타휴먼 후디니(Houdini)의 프로시저럴 툴세트를 활용해 메타휴먼을 위한 포니테일, 매듭, 둥근 올림머리, 땋은 머리, 도넛형 헤어와 같은 복잡한 헤어 스타일을 제작할 수 있다. 후디니용 메타휴먼 플러그인 및 스타터 키트로 후디니에서 메타휴먼 호환 그룸을 생성하고, Alembic 파일 포맷을 통해 언리얼 엔진으로 임포트해 메타휴먼에 손쉽게 적용할 수 있다.   그림 9. ‘MetaHuman for Houdini’ 영상 캡처(출처 : 언리얼 엔진 홈페이지)   팹에서 만나는 메타휴먼 모든 디지털 콘텐츠 크리에이터가 디지털 애셋을 검색, 공유, 구매 그리고 판매할 수 있는 에픽의 오픈 마켓플레이스인 팹(Fab)과 제3자 마켓플레이스에서 메타휴먼과 의상, 그룸 등 메타휴먼 호환 액세서리를 구매하고 판매할 수 있다. 5.6 이상의 버전에서 생성된 모든 메타휴먼은 동일한 공통 표준을 준수하기 때문에 여러 캐릭터에 애니메이션, 의상, 그룸을 재사용하고 공유할 수 있다. 이로써 누구나 어디에서든 사용할 수 있는 메타휴먼 메타휴먼 호환 액세서리의 종류와 범위가 대폭 확대될 것으로 예상되며, 이를 통해 메타휴먼을 프로젝트에 더욱 빠르고 손쉽게 사용할 수 있을 것으로 전망된다.   그림 10. ‘MetaHuman on Fab’ 영상 캡처(출처 : 언리얼 엔진 홈페이지)     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-08-04
[온에어] HP Z북 울트라, AI 워크스테이션의 새로운 기준 제시
캐드앤그래픽스 지식방송 CNG TV 지상 중계   CNG TV는 7월 11일 ‘모바일에서 데스크톱 GPU 성능 구현이 가능한 HP 고성능 AI 워크스테이션 및 사용기 소개’를 주제로 웨비나를 개최했다. HP가 선보인 차세대 고성능 AI 모바일 워크스테이션 ‘Z북 울트라(ZBook Ultra)’는 데스크톱 수준의 그래픽 성능을 노트북에 구현했다. 웨비나에서는 HP코리아 차성호 이사와 감성놀이터 최석영 대표가 제품의 특징과 실제 활용 사례를 공개했다. 자세한 내용은 다시보기를 통해 확인할 수 있다. ■ 박경수 기자   ▲ 왼쪽부터 캐드앤그래픽스 박경수 이사, HP코리아 차성호 이사, 감성놀이터 최석영 대표   AI 시대를 위한 고성능 모바일 컴퓨팅의 해답 HP는 웨비나를 통해 고성능 모바일 AI 워크스테이션 ‘Z북 울트라’를 공개했다. 이번 신제품은 최대 96GB 그래픽 메모리, 55 TOPS MPU 성능, 총 125 TOPS 통합 성능을 구현해 데스크톱 수준의 AI 컴퓨팅 성능을 제공한다. 특히 ISV 인증을 획득해 산업 현장의 전문 소프트웨어와의 호환성을 확보했다. HP코리아 차성호 이사는 “AI 기술 확산에 따라 로컬 디바이스에서의 고성능 처리 수요가 증가하고 있으며, Z북 울트라는 모바일에서 이를 충분히 감당할 수 있는 제품”이라며, “워크플로 복잡성, 보안 이슈, 빠른 결과 요청 등 AI 시대의 업무 변화에 최적화된 성능과 안정성을 제공한다”고 말했다. Z북 울트라는 AMD의 라이젠 AI 프로세서(최대 16코어, 80MB 캐시)와 라데온 800M 시리즈 그래픽 유닛을 기반으로 설계되었다. DDR5X 메모리 아키텍처를 통해 CPU와 GPU가 최대 128GB를 공유하며, 이 중 최대 96GB를 그래픽 메모리로 할당할 수 있다. 이는 데스크톱 워크스테이션에서 고가의 그래픽 카드 두 개를 장착해야 가능한 성능에 맞먹는다. 또한 AI 컴패니언 앱을 탑재해 인터넷 없이도 요약, 번역, 질의 응답이 가능한 온디바이스 AI 기능을 제공하며, 듀얼 팬 및 증기 챔버 냉각 구조로 발열도 최소화했다.     AI 영상 제작자의 실사용 리뷰…“가볍고 빠르다” 감성놀이터 최석영 대표는 실제 제품을 활용한 AI 콘텐츠 제작 사례를 소개하며 “Z북 울트라는 이동성과 고성능을 동시에 갖춘 드문 워크스테이션”이라고 평가했다. 최석영 대표는 AI 기반의 이미지 생성, 언리얼 엔진을 활용한 시네마틱 영상 제작, 메타휴먼 캐릭터 작업 등에서 빠른 렌더링 속도와 끊김 없는 실시간 미리보기를 경험했다고 밝혔다. 특히 최 대표는 “기존에는 고성능 작업을 위해 데스크톱을 들고 다녔지만, Z북 울트라는 그 필요를 완전히 대체할 수 있었다”며 “AI 영화, 영상 편집, 3D 디자인, 리얼타임 엔진 기반 작업이 가능한 휴대형 워크스테이션으로, AI 콘텐츠 제작자들에게 강력히 추천하고 싶다”고 말했다. Z북 울트라는 고사양 GPU, 풍부한 메모리, 강력한 냉각 시스템, 온디바이스 AI 기능을 갖춘 전문가용 워크스테이션으로 AI 개발을 비롯해 3D 렌더링, 미디어 엔터테인먼트 산업의 모바일 업무 환경 혁신을 예고하고 있다. 데스크톱의 성능과 노트북의 휴대성을 동시에 요구하는 전문 작업자들에게 새로운 대안이 될 전망이다.       ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-08-04