• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "인터랙션"에 대한 통합 검색 내용이 83개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
에픽게임즈 코리아, ‘시작해요 트윈모션 & 언리얼 2025’ 웨비나 진행
에픽게임즈 코리아는 ‘시작해요 트윈모션 & 언리얼 2025’를 4월 23일부터 시작한다고 밝혔다. ‘시작해요 트윈모션 & 언리얼 2025’는 트윈모션과 언리얼 엔진을 사용하는 것이 처음이거나 아직 익숙하게 다루지 못하는 초심자를 위한 튜토리얼 형식의 웨비나로, 4월 23일부터 5월 28일까지 6주간 매주 수요일 오후 2시에 에픽 라운지에서 진행된다. 이번 ‘시작해요 트윈모션 & 언리얼 2025’는 트윈모션과 언리얼 엔진을 활용한 고퀄리티 인터랙티브 3D 콘텐츠 제작을 목표로 기초 개념과 워크플로 전반에 대해 배우고, 결과물까지 제작하는 과정으로 강연이 진행된다.     웨비나의 1~3주 차에는 트윈모션을 활용한 모델링 파일 임포트부터 환경 구성, 인터랙션 구현을 위한 내용으로 진행된다. ▲1주 차에는 ‘트윈모션 시작하기’를 주제로, 트윈모션 및 기본 UI에 대해 알아보고, 전시공간 샘플 모델링 파일 임포트와 전시공간 익스테리어 환경 구성에 대해 설명한다. ▲2주 차에는 ‘트윈모션에서 전시공간 구성하기’를 통해 전시공간 인테리어 라이팅 및 맵핑, 루멘과 패스트레이서를 활용한 렌더링, 제품 모델링 파일을 임포트해 장면을 구성하는 방법에 대해 설명한다. ▲3주 차 '트윈모션에서 시각화 및 인터랙션 고도화하기' 시간에는 컨피규레이션 기능을 통한 상호작용 구현, HDRI 백드롭 시각화 툴을 활용한 신속한 시각화, 이미지, 영상, 로컬 프레젠테이션 실행파일 등으로 결과물을 출력하는 방법에 대한 학습이 진행된다. 웨비나 4~6주 차에는 언리얼 엔진에서 트윈모션 프로젝트를 활용해 메타휴먼, 언리얼 모션그래픽(Unreal Motion Graphics : UMG)을 적용하는 요소를 소개한다. ▲4주 차에는 '언리얼 엔진으로 트윈모션 프로젝트 가져오기'를 주제로 언리얼 엔진에 대해 알아보고, 데이터스미스 임포트, 데이터프랩으로 머티리얼을 자동 변환하는 방법에 대해 설명한다. ▲5주 차에는 '언리얼 엔진에서 리얼타임으로 제품 전시하기'를 통해 메타휴먼을 제작해 전시공간을 둘러보고, 리얼타임으로 제품 및 공간과 상호작용하는 방법을 설명한다. 마지막 ▲6주 차 ‘언리얼 엔진에서 인터랙티브 컨피규레이터 구성하기’ 시간에는 UMG로 제품 정보 표시, 제품의 머티리얼 교체, 시퀸서로 제품의 애니메이션 연출을 추가하는 방법에 대해 배운다. 고퀄리티 인터랙티브 3D 콘텐츠를 제작하고 싶은 사람이라면 전공 여부와 무관하게 학생, 직장인 등 누구나 무료로 등록할 수 있다. 에픽게임즈는 참가자들의 학습에 대한 이해도를 돕고자 매주 도전과제를 출제해 강좌 내용을 완전히 습득할 수 있도록 지원하며, 참가자들은 라이브 Q&A와 채팅을 통해 연사 및 커뮤니티와 실시간 소통할 수 있다. 또한, 매주 웨비나를 끝까지 시청하면 트윈모션과 언리얼 엔진 굿즈를 증정하는 '시청 이벤트'에 자동응모 되며, 출제되는 도전과제를 수행한 참석자에게 한정판 굿즈를 제공하는 '도전과제 이벤트'도 매주 진행된다. 이 밖에도 ‘도전과제 위클리픽’, ‘도전과제 완주 이벤트’ 등의 다양한 이벤트가 진행될 예정이다.
작성일 : 2025-04-21
[케이스 스터디] 언리얼 엔진으로 만든 버추얼 아이돌 플레이브
통합 시각화 파이프라인으로 새로운 경험 제공   리얼타임 3D 콘텐츠 제작 기술이 날로 진화함에 따라 버추얼 아티스트, 유튜버 등 디지털 휴먼 시장도 함께 성장하고 있는 가운데, 대한민국에는 데뷔 1년여 만에 실제 아이돌 못지 않은 인기를 누리고 있는 버추얼 아이돌이 있다. 바로 플레이브(PLAVE)다. ■ 자료 제공 : 에픽게임즈   ▲ 이미지 출처 : ‘언리얼 엔진으로 전례 없는 경험을 제공하는 PLAVE’ 영상 캡처   플레이브는 예준, 노아, 밤비, 은호, 하민 등 다섯 명의 멤버가 작사, 작곡 그리고 안무까지 직접 제작하는 버추얼 보이 그룹이다. 2023년 3월 12일 데뷔 이후 버추얼 아이돌 최초로 지상파 음악방송에서 1위를 차지한 것은 물론, 최근에는 잠실 실내체육관에서 양일간 오프라인 단독 라이브 콘서트를 개최해 전석이 매진되는 등 인기를 누리고 있다. 플레이브의 인기 비결에는 여러 요소가 있겠지만 언리얼 엔진의 리얼타임 기술로 자연스러운 비주얼 퀄리티뿐만 아니라, 매주 라이브 방송을 통해 팬들과 소통하며 아티스트의 진면목을 전할 수 있던 점을 꼽을 수 있다. 시네마틱 영상, 라이브 방송 그리고 오프라인 라이브 콘서트까지 어떻게 언리얼 엔진으로 통합 제작 파이프라인을 구축해 아티스트의 본질을 전달할 수 있었는지 살펴보기로 하자.    시네마틱 콘텐츠를 위한 리얼타임 통합 파이프라인   ▲ DCC 툴을 병합한 기존의 시네마틱 콘텐츠 제작 파이프라인(이미지 제공 : 블래스트)    ▲ 언리얼 엔진과 통합한 시네마틱 콘텐츠 제작 파이프라인(이미지 제공 : 블래스트)   플레이브의 소속사인 블래스트는 설립 초창기부터 여러 작품을 통해서 언리얼 엔진의 가능성을 확인했기 때문에, 버추얼 IP 파이프라인이라는 회사의 비전을 바탕으로 시네마틱과 라이브 콘텐츠를 모두 제작할 수 있는 언리얼 엔진 통합 파이프라인을 구축하고자 했다. 플레이브의 첫 뮤직비디오인 ‘기다릴게’를 제작하던 때만 해도 언리얼 엔진 제작 경험이 제한적이었기 때문에 레벨 디자인, 라이팅, 렌더링은 언리얼 엔진으로, 이펙트 및 의상 시뮬레이션, 합성 등은 기존의 DCC 툴을 사용하는 방식을 채택했다. 그렇지만 이러한 제작 방식은 언리얼 엔진의 리얼타임 렌더링의 장점을 극대화하지 못하고 전체적인 콘텐츠 제작 속도를 저하시켰다. 또한, 본래 언리얼 엔진 중심의 통합 파이프라인을 구축하려고 했던 블래스트의 비전과 맞지 않는다는 판단 하에, 파이프라인을 언리얼 엔진으로 완전히 대체하기로 결정했다.     ▲ 플레이브 ‘WAY 4 LUV’ 뮤직비디오 영상   의상 및 헤어 시뮬레이션을 언리얼 엔진의 실시간 시뮬레이션으로 완전히 전환하면서, 이제는 애니메이션이 수정될 때마다 라이브 방송처럼 실시간으로 시뮬레이션되어 임포트 과정이 간소화되었다. 렌더링을 위해 라이브 시뮬레이션을 베이크해야 하는 경우 역시 언리얼 엔진의 테이크 레코더를 사용하면 바로 결과를 확인할 수 있어, 전체적인 작업 과정이 효율적으로 향상되었다. 또한, 이펙트 제작에는 언리얼 엔진의 나이아가라 시스템을 전면 도입하여 룩뎁 아티스트들은 모든 최종 연출 요소를 실시간으로 확인하며 함께 작업할 수 있게 되었다. 애니메이션, 시뮬레이션, 이펙트 등의 모든 최종 연출 요소가 엔진으로 통합되면서, 언리얼 엔진을 컴포지터로까지 활용할 수 있었다. 그 결과 ‘WAY 4 LUV’의 시네마틱 영상부터는 모델링, 애니메이션, 룩뎁 등 각 제작 요소가 통합된 최종 결과물을 언리얼 엔진에서 실시간으로 렌더링할 수 있게 되어, 작업의 효율과 퀄리티를 향상시킬 수 있었다.   고도화된 리얼타임 모션 캡처로 아티스트의 진심을 전한 라이브 방송   ▲ 플레이브의 첫 라이브 방송(이미지 제공 : 블래스트)   ▲ 플레이브의 최근 라이브 방송(이미지 제공 : 블래스트)   라이브 방송은 플레이브의 강력한 팬덤을 구축하는 데 있어 매우 중요한 역할을 하고 있는 만큼, 블래스트는 아티스트의 매력과 진심을 잘 전할 수 있도록 많은 노력을 기울여 왔다. 특히 아티스트의 모든 모션이 자연스럽게 보이도록 하기 위해 언리얼 엔진의 라이브 링크로 스트리밍한 모션 캡처 원시 데이터를 실시간으로 가공할 수 있는 다양한 설루션을 개발하는데 많은 정성을 들였다.   ▲ 실시간 간섭 회피 설루션 전후 비교(이미지 제공 : 블래스트)   개발된 설루션은 다양한 체형 사이에 애니메이션을 이질감 없이 자연스럽게 전환할 수 있는 리타기팅 설루션, 매 촬영 때마다 발생하는 마커의 위치 오차를 모션으로 측정하여 보정하는 캘리브레이션 설루션, 신체 비율 또는 외형 차이에 따른 메시 간섭 문제를 실시간으로 해결하는 간섭 회피 설루션, 정확한 포즈와 자연스러운 주변 환경과의 인터랙션 사이를 상황에 따라 적절하게 전환할 수 있는 Dynamic FK/ IK 설루션, 골반 너비와 신발 밑창 및 볼 너비까지 보정해 지면과 발의 접지를 정교하게 표현하는 Foot IK 설루션 등이다. 이를 통해 기존에는 실시간으로 처리하기 어려워서 라이브 콘텐츠에서 적용할 수 없었던 모션 캡처 데이터의 실시간 가공 기술을 자체적으로 개발하여 언리얼 엔진에 통합했다. 이러한 기술 투자 덕분에 버추얼 아이돌임에도 아티스트의 진심을 잘 전할 수 있는 기술적 기반을 갖추게 되었다.   리얼타임 통합 파이프라인의 화룡점정, 오프라인 라이브 콘서트 플레이브는 시네마틱 영상을 매 앨범 발매 시 제작하고 라이브 방송을 지난 1년 반 동안 매주 4시간씩 진행하면서, 언리얼 엔진 중심의 리얼타임 파이프라인을 고도화할 수 있었다. 그리고 그 과정에서 블래스트가 깨달은 점은 두 파이프라인을 서로 구분할 필요가 없다는 점이었다. 아티스트의 퍼포먼스를 실시간으로 보여 줄 지, 녹화해 두고 퀄리티를 올린 후에 보여 줄 지의 차이만 있을 뿐, 두 파이프라인은 모두 라이브 모션 캡처에서 시작한다는 점에서 근본적으로 동일했기 때문이다. 이러한 깨달음을 바탕으로 블래스트는 모든 콘텐츠가 라이브 모션 캡처로부터 시작되는 통합 파이프라인을 개발하였고, 이를 통해 제작 흐름이 간소화되고 직관적으로 개선되어 작업의 효율을 높일 수 있었다. 무엇보다도 큰 이점은 통합된 파이프라인을 통해 콘서트 제작 및 연출에 필요한 역량을 미리 내재화할 수 있었다는 점이다.   ▲ 시네마틱과 라이브 콘텐츠 제작 파이프라인이 통합된 전체 파이프라인(이미지 제공 : 블래스트)   콘서트는 연출뿐만 아니라 제작 파이프라인에서도 시네마틱과 라이브 콘텐츠의 특성을 모두 가지고 있는 특별한 무대다. 수많은 무대의 동선을 사전에 미리 짜맞추며 연출을 확정해 놓으면서도 리허설 때마다 라이브로 전환해야 하므로, 콘서트 작업에는 녹화와 라이브를 수시로 전환할 수 있는 파이프라인이 필수적이다. 이를 위해서 메타휴먼의 캐릭터 설계에 힌트를 얻어 시네마틱 퀄리티와 라이브 퍼포먼스를 모두 만족하는 유연하고 모듈화된 통합 캐릭터 시스템을 개발했다. 이 시스템은 콘서트에 필요한 모든 상황을 지원하기 위해 스켈레탈 메시를 분리해서 적절한 계층구조로 설계하고, 각각의 스켈레탈 메시 컴포넌트는 시퀀서의 애니메이션 트랙을 재생하는 모드와 라이브 링크 모션 캡처 및 실시간 시뮬레이션을 적용하는 모드 사이를 자유롭게 전환할 수 있도록 구현했다. 또한, 라이브 캐릭터 전용 기능은 모두 별도의 컴포넌트로 모듈화시켜 필요한 기능만 라이브 방송 시나리오에 맞춰 적용할 수 있도록 설계했으며, 추가로 룩뎁 아티스트가 일관적인 퀄리티로 작업할 수 있도록 캐릭터 클래스의 모든 기능이 프리뷰 모드와 플레이 모드에서 동일하게 동작하도록 개발했다. 이런 통합 캐릭터 클래스 설계 덕분에 언제든지 시네마틱과 라이브를 간단하게 전환하면서 작업 효율도 높일 수 있게 되었다.   ▲ 스켈레탈 메시의 계층 구조 및 모듈화된 컴포넌트(왼쪽), 컴포넌트 단위로 두 가지 모드를 자유롭게 전환 가능(오른쪽)(이미지 제공 : 블래스트)   통합 캐릭터 클래스와 더불어 좀 더 파이프라인을 단순화하기 위해 언리얼 엔진의 테이크 레코더 기능을 활용한 새로운 모션 캡처 녹화 파이프라인을 구축했으며, 그 덕분에 이제는 모션 캡처부터 시네마틱까지 모든 과정을 언리얼 엔진 내에서 진행할 수 있게 되었다. 이로써 시네마틱용 애니메이션을 제작하기 위해 여러 소프트웨어를 오갈 필요 없이 언리얼 엔진 하나로 모든 작업이 가능해졌다. 또한, 이 새로운 파이프라인을 사용해 자체적으로 개발한 신체 간섭 회피, 캘리브레이션, 리타기팅 기능을 언리얼 엔진 안에서 바로 녹화할 수 있어, 평소 라이브 방송과 동일한 수준의 모션 캡처 퀄리티를 얻을 수 있게 되었다. 이렇게 테이크 레코더의 기능을 통해 녹화 직후 바로 결과를 확인할 수 있어 작업의 효율이 크게 향상되었고, 특히 현장에서 실시간으로 피드백을 주고받을 수 있게 되면서 기획과 디렉팅 측면에서도 큰 발전을 이룰 수 있었다.   ▲ 기존의 모션 캡처 녹화 파이프라인(이미지 제공 : 블래스트)   ▲ 언리얼 엔진으로 통합 후 테이크 레코더를 활용한 모션 캡처 녹화 파이프라인(이미지 제공 : 블래스트)   시네마틱과 라이브 파이프라인의 통합이 더욱 높은 효과를 내기 위해서는 앞서 언급된 기능의 개발과 함께 현장 오퍼레이팅에 대한 지원도 필요했다. 버추얼 파이프라인에서는 여러 소프트웨어를 함께 사용해야 했기 때문에 언리얼 엔진 설정, 녹화 설정, 심지어 단순한 녹음 작업까지 모두 오퍼레이터와 소통해야 했다. 그래서 작업 과정을 단순화하고 자동화하기 위해 언리얼 엔진 기반의 ‘버추얼 슬레이트’라는 태블릿 애플리케이션을 개발했다. 이 애플리케이션은 스튜디오 내 여러 장치와 소프트웨어를 연결하여 원격으로 동시 제어할 수 있고, 녹화 버튼 하나로 언리얼 엔진의 녹화 기능, 모션 캡처 소프트웨어, 여러 채널의 비디오 및 오디오를 동시에 녹화할 수 있다. 그리고 녹화가 끝나면 자동으로 모든 파일의 이름과 저장 위치를 정리하고, 미리보기 장면을 만들어 준다. 이제는 오퍼레이터가 초기 설정만 도와주면, 콘텐츠 제작자들이 직접 모션 캡처 녹화를 할 수 있어 제작자와 아티스트는 서로 의견을 주고받으며 촬영을 진행할 수 있게 되었다.   ▲ 기존의 오퍼레이팅 소통 방식(이미지 제공 : 블래스트)   ▲ 향상된 오퍼레이팅 소통 방식(이미지 제공 : 블래스트)   한편, 시네마틱과 라이브를 결합한 오프라인 라이브 콘서트는 관객에게 높은 몰입감을 전달하는 것이 매우 중요하다. 그렇기 때문에 현실의 무대에 실존하는 아티스트를 보는 것과 같은 스케일과 원근감을 현실감 있게 잘 반영하는 것도 중요한 과제였다. 이 과제를 풀기 위해서는 LED 스크린에 투사된 결과를 미리 예측할 수 있어야 했는데, 이를 위해 언리얼 엔진 내에 실제 공연장과 동일한 크기의 디지털 트윈 레벨을 제작하고 가상 공연장의 LED 스크린에 최종 이미지를 투사했다. 그런 뒤에 관객의 시점에서 VR로 이를 감상하는 방식으로 관객의 시점을 미리 시뮬레이션하며 스케일과 원근감을 조정해 나갔다. 이러한 방법으로 플레이브의 콘서트는 대형 콘서트장의 어떤 좌석에서도 눈앞의 무대에 멤버들이 실존한다는 현실감을 관객에게 전달할 수 있었다.   ▲ 가상에서의 VR 시뮬레이션(이미지 제공 : 블래스트)   ▲ 실제 무대 연출 장면(이미지 제공 : 블래스트)   LED 그 이상의 무한한 상상력을 담게 해 준 언리얼 엔진 블래스트는 2차원의 LED 스크린 평면을 넘어 공연장 전체라는 3차원의 경험으로 관객의 경험을 확장시켜, 플레이브 콘서트에서만 느낄 수 있는 새로운 경험을 만들어나가기 위해 고민했다. 이러한 고민의 결과로 실존하는 아티스트의 콘서트에서는 불가능한 아이디어와 연출, 예를 들면 탑의 꼭대기처럼 다양한 공간을 이동하며 노래 부르기, 바이크를 탄 채로 무대로 등장하고 연출의 단절 없이 공연 시작하기, 등장이나 퇴장 시에 꽃잎을 흩뿌리면서 나타나고 사라지기 등 그야말로 버추얼 아이돌이기에 가능한 연출을 실현할 수 있었다. 이러한 시각적 효과에서 더 나아가 연기와 같은 실제 무대 장치를 결합하여 일반적인 콘서트에서는 불가능한 특별한 연출을 시도할 수 있었다. 그 중에서도 플레이브의 세계관에 등장하는 큐브로 가득찬 ‘아스테룸’이라는 공간에서 세계관 속 빌런과 벌인 박진감 넘치는 격투 액션 신은 버추얼이 아니었다면 불가능한 무대였을 것이다. 또한, 언리얼 엔진은 LED 스크린 너머의 공간에 원하는 환경을 효율적으로 제작하고 다양한 연출들을 자유롭게 시도할 수 있게 해 주었다. 물리적인 시공간의 제약 속에서 짧은 기간 내에 다수의 조직이 동시 협업해야 하기 때문에 작업 충돌을 피하면서도 변경 사항들을 실시간으로 동기화할 수 있는 파이프라인이 매우 중요한데, 여기에 언리얼 엔진의 레벨 스트리밍과 서브 시퀀스 기능이 큰 도움이 되었다. 레벨 스트리밍 덕분에 레벨 디자인, 애니메이션, 룩뎁 작업을 분리하여 하나의 퍼시스턴트 레벨에 스트리밍하는 방식으로 각 팀의 작업 공간을 분리하면서도 동시에 협업이 가능했다. 또한, 룩뎁 레벨 시퀀스 안에 애니메이션 서브 시퀀스를 적용하여 애니메이터와 룩뎁 아티스트의 작업 시퀀스를 분리하면서도 서로의 변경 사항을 함께 업데이트할 수 있었다.   ▲ 레벨과 시퀀스 구조(이미지 제공 : 블래스트)   콘서트 현장의 분위기를 고조시키는 현란한 DMX 조명 연출 역시 언리얼 엔진의 뛰어난 DMX 연동 지원 덕분에 가능했다. 언리얼 엔진 공연 조명을 전문으로 다루는 메타로켓과 협업하여 언리얼 엔진 내에서 실제 콘서트 현장 조명을 시뮬레이션하면서 현실과 가상의 무대 조명을 완성했다.   ▲ 메타로켓과의 협업으로 완성된 공연장 무대 조명(이미지 제공 : 블래스트)   무엇보다 비주얼 퀄리티까지 보장된 리얼타임 렌더링이라는 언리얼 엔진의 강점이 가장 큰 도움이 되었다. 덕분에 콘서트 2~3일 전까지도 끊임없이 수정하며 퀄리티를 끌어올릴 수 있었고, 콘서트 직전의 리허설까지도 이슈를 확인하고 해결할 수 있었기 때문에 촉박한 시간임에도 완성도 높은 콘서트를 제작할 수 있었다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-01-06
콘진원, ‘AI콘텐츠 페스티벌’에서 뉴콘텐츠아카데미 신기술 활용 프로젝트 전시 개최
문화체육관광부와 한국콘텐츠진흥원(이하 콘진원)은 10월 31일부터 11월 2일까지 서울 삼성동 코엑스에서 진행되는 ‘AI콘텐츠 페스티벌’에서 뉴콘텐츠아카데미(이하 NCA)에서 제작된 신기술 활용 프로젝트를 전시한다.  ​NCA는 빠르게 변화하는 콘텐츠산업 현장에서 필요한 기술 융합형 인재를 양성하는 교육 프로그램이다. 지난해 9월 개원 이후 기술 융합형 인재들이 산업계로 진출할 수 있도록 전방위적인 지원을 제공하고 있다.  콘진원은 이번 AI콘텐츠 페스티벌을 통해 NCA에서 제작된 신기술 융합 프로젝트를 대중 및 산업 관계자에게 선보이고 상용화와 사업화까지 지원할 방침이다. ​ 이번 전시에서는 인공지능을 비롯한 첨단 기술을 활용한 콘텐츠를 통해 이용자에게 새로운 경험과 몰입감을 제공할 예정이다. ​ ▲생성형 인공지능을 활용하여 제작된 그림 속에서 플레이하는 호러 XR 인터랙션 무비 <In the Picture> ▲인공지능 이미지 학습 기술을 통해 마음속 희망, 소망, 바램을 시각화하는 체험형 전시 <Melodish> ▲생성형 인공지능 이미지와 모래놀이를 결합하여 심리적 안락함을 제공하는 실감형 미디어아트 <Larimar> ▲전기를 다루는 고양이 제트와 함께 전기를 빼앗긴 놀이공원에 빛을 되찾아주는 미디어 어트랙션 <파지직(PAZIZIC)> ▲관람객의 심박수에 따라 시청각 요소가 변화하는 인터랙티브 오디오 비주얼 몰입형 전시 <UINPULSE> ▲관객의 뇌파 데이터를 측정해 시각화한 인공지능 이미지를 보여주는 <몽상정원> 등 총 6종의 콘텐츠가 선보여진다. ​ 11월 1일에는 전시에 참여하는 NCA 프로젝트 <In the Picture>, <Melodish>와 더불어 NCA 단기과정으로 참여하고 있는 인공지능 단편영화 <조이(JOI)> 등 NCA 프로젝트 기획자 3인이 패널로 참여해 제작 비하인드 스토리 및 노하우를 공유하는 ‘AI 창작 워크숍’을 진행한다. 좌장으로는 김땡땡스튜디오 대표이자 NCA 단기과정 퍼실리테이터인 김경래 작가가 나설 예정이다. 워크숍은 AI콘텐츠 페스티벌 공식 누리집(하단 참조)을 통해 사전 신청 시 무료로 참여 가능하다. ​ 한편, 콘진원은 지난 9월 26일 국내 우수 콘텐츠 스타트업의 글로벌 진출을 위한 비즈니스 활성화를 목적으로 하는 ‘스타트업콘’과 연계한 ‘NCA 쇼케이스’를 개최하여 행사에 참석한 국내외 콘텐츠 분야 전문가, 투자자, 창작자 등 콘텐츠 업계 관계자들의 눈길을 끌었다. 쇼케이스에서는 ▲신기술 융합 체험형 전시 콘텐츠 ▲버추얼 프로덕션 영상 등 프로젝트 5종을 전시 및 상영하여 관람객의 호응을 얻었다.  ​ 콘진원 콘텐츠기반본부 유윤옥 본부장은 “최근 전 세계적으로 신기술융합콘텐츠 분야가 빠르게 성장하고 있고, 관련 콘텐츠를 향유하는 사람도 증가하고 있다”라며, “이러한 추세에 맞춰 콘텐츠산업 현장 인재를 양성하고 배출하기 위해 NCA와 같은 인재양성사업을 지속적으로 추진할 계획이다”라고 말했다. ​ AI콘텐츠 페스티벌은 국내 유수의 AI 창작 콘텐츠를 총망라하여 AI콘텐츠의 창작 활성화와 대중화를 도모하기 위한 행사다. ‘AI로 만나는 새로운 콘텐츠 세상’이라는 슬로건 아래 국내 우수 AI 콘텐츠기업 및 창작자 50여 팀이 참여하여 ▲전시·체험 ▲콘퍼런스 ▲창작 워크숍 ▲AI 영상 상영관 등 다양한 프로그램이 진행될 예정이다.  ​
작성일 : 2024-10-29
어도비, 기업의 생산성 높이는 ‘어도비 익스피리언스 플랫폼 AI 어시스턴트’ 출시
어도비가 ‘어도비 익스피리언스 플랫폼 AI 어시스턴트(Adobe Experience Platform AI Assistant)’를 출시했다. 이 기능은 생성형 AI를 통해 실무자의 생산성을 높이고, 더욱 많은 팀원이 콘텐츠 제작 및 인사이트 워크플로에 참여하도록 지원해 기업용 애플리케이션에 대한 접근을 한층 확대한다. 어도비 익스피리언스 플랫폼은 기업 고객에 대한 통합 인사이트를 구축하고 모든 채널에서 고객 참여를 유도하는 솔루션으로, 코카콜라 컴퍼니, 메이저리그베이스볼, 메리어트 인터내셔널, 제너럴 모터스, TSB은행, 레알 마드리드를 비롯한 다양한 업체가 사용하고 있다. 이제부터 기업은 어도비 익스피리언스 플랫폼 AI 어시스턴트를 통해 대화형 인터페이스에서 데이터를 더욱 심층적으로 파악하고 워크플로를 간소화하며 조직에 가치를 제공할 수 있다. 어도비 익스피리언스 플랫폼 AI 어시스턴트는 어도비 실시간 고객 데이터 플랫폼(Adobe Real-Time CDP), 저니 옵티마이저(Adobe Journey Optimizer), 커스터머 저니 애널리틱스(Adobe Customer Journey Analytics) 등 어도비 익스피리언스 클라우드 애플리케이션에 내장돼, 기술 질문에 대한 답변을 제공할 뿐만 아니라 작업 자동화, 결과 시뮬레이션, 신규 타깃 및 여정 생성 등을 지원한다. 이 같은 역량은 기업 고유 데이터, 캠페인, 타깃 청중, 비즈니스 목표 등에 대한 인사이트와 어도비 제품에 대한 지식을 바탕으로 한 생성형 경험 모델을 통해 구현되며, 모두 개인정보 보호를 최우선으로 고려해 안전하게 제공된다.     어도비 익스피리언스 플랫폼 AI 어시스턴트는 다양한 배경과 경험을 가진 사용자가 문제를 빠르게 탐색하고 해결할 수 있는 인사이트를 제공한다. 가령 사용자는 ‘잠재 고객 세그먼트 구축 방법’이나 ‘아이덴티티 맵에 대한 정의’와 같은 제품 관련 질문에 대해 신속한 답변을 얻고, 익숙하지 않은 시나리오를 해결할 수 있다. 또한 ‘내 세그먼트 사용 빈도’와 같은 질문을 통해 SQL 쿼리를 실행하지 않고도 데이터셋, 타깃 및 여정에 대한 운영 인사이트를 확보하는 것도 가능하다.   어도비 익스피리언스 플랫폼 AI 어시스턴트는 잠재 고객 경험부터 개인화 캠페인을 위한 타깃, 데이터 분석 시각화까지 다양한 요소 생성을 추후 지원할 예정이다. 브랜드는 어도비 파이어플라이(Adobe Firefly)를 활용해 이메일 및 웹 페이지에 사용할 카피, 디자인, 이미지 등 마케팅 애셋을 생성하고, 결과를 상시 실험할 수 있다. 또한 어도비 익스피리언스 플랫폼 AI 어시스턴트는 PDF, 발표자료, 워드 문서 등 기존 애셋으로 크리에이티브 제작 브리프를 자동 생성해, 콘텐츠 제작을 가속화한다. 이를 통해 브랜드는 데이터 세그먼트별 폴더 구성이나 AI 생성 콘텐츠의 브랜드 기준 부합 여부를 확인하는 것과 같은 번거로운 작업을 생략할 수 있다.   사용자는 어도비 익스피리언스 플랫폼 AI 어시스턴트에 추후 추가될 역량을 통해 결과를 시뮬레이션하고 마케팅 활동을 최적화하며 더욱 정확한 결과를 빠르게 얻을 수 있다. 특히 ‘해당 세그먼트의 예상 전환 수’나 ‘세그먼트 필터 추가 적용 시 결과’ 등 복잡한 질문에도 몇 초안에 예측 인사이트를 받을 수 있다. 이 밖에도 특정 고객 그룹을 위한 맞춤형 프로모션 제안 등 차선책을 제공해 전환율을 높일 수 있는 기능도 추가될 예정이다. 어도비의 안줄 밤브리(Anjul Bhambhri) 어도비 익스피리언스 클라우드 수석 부사장은 “AI 어시스턴트는 새로운 사용 사례와 초기 사용자의 진입장벽을 대폭 낮추면서 기업용 소프트웨어에 획기적인 변화를 가져오고 있다”며, “매일 40페타바이트(PB)에 달하는 데이터와 50억 건의 사용자 인터랙션을 비롯해 어도비 익스피리언스 플랫폼에서 처리되는 인터랙션, 캠페인 및 프로필 규모를 감안하면, 어도비는 데이터 기반으로 인사이트를 제공하고 자동화할 수 있는 솔루션을 선보이는 독보적인 입지를 가지고 있다”고 설명했다.
작성일 : 2024-07-17
[케이스 스터디] 발레오, SXSW에서 차량 내 XR 레이싱 게임 공개
자율주행 시대의 새로운 사용자 경험을 제시하다   “아직 멀었어요?” 차를 몰고 떠나는 장거리 여행에서 이 말을 듣지 않을 수 있다면, 매일 가족을 태우고 운전하며 평화롭고 정숙한 분위기를 누릴 수 있다면 부모들은 더 이상 바랄 게 없을 것이다. 발레오(Valeo)의 소프트웨어 엔지니어 팀은 이러한 염원을 담아 발레오 레이서(Valeo Racer)를 개발하고, 미국 오스틴에서 열린 SXSW(South by Southwest)에서 처음으로 공개했다. ■ 자료 제공 : 유니티 코리아   ▲ 발레오 레이서   자동차의 주행환경과 3D를 결합한 몰입형 경험 발레오 레이서는 실제 주행 환경과 가상 3D 요소를 결합해 특별한 몰입형 경험을 제공하는 차량 내 XR(확장 현실) 게임이다. 승객은 차량의 와이파이에 연결된 스마트폰이나 태블릿으로 게임을 플레이하며 서로 경쟁할 수 있다. 플레이어는 도로를 달리는 실제 차량이 표시되는 환경에서 경주용 차량을 운전하며 장애물을 피하고, 코인을 수집해 최대한 높은 점수를 획득해야 한다. 발레오 레이서는 실시간 영상과 차량 주변 환경 인식 시스템을 디지털 게임 요소와 결합한 XR 비디오 게임이다. 이 엔드리스 러너 게임은 발레오에서 개발한 새로운 소프트웨어 스택에 의해 생성된다. 이 스택은 카메라, 레이더, 초음파 센서 등 차량에 탑재된 ADAS(첨단 운전자 보조 시스템)와 인공 지능 주변 환경 인식 알고리즘을 사용해 유니티 런타임(Unity Runtime)으로 차량의 실시간 주변 환경 데이터를 처리하여 게임 요소를 생성한다.  유니티 엔진 전용 요소인 유니티 런타임이 고성능 그래픽스 렌더링, 사용자 입력 및 인터랙션 관리, 게임 컴포넌트 조정, 실시간 물리 시뮬레이션 지원, 애니메이션, 스크립팅 언어, 애셋 관리, 네트워킹을 비롯한 게임의 다양한 핵심 요소를 처리하며, 모든 작업이 최종 기기에서 이루어진다. 발레오 레이서는 런타임을 사용하여 승객이 차량의 센서를 통해 수집한 실시간 데이터를 활용하는 혼합 현실 게임을 차량 내 와이파이에 연결된 스마트폰이나 태블릿에서 플레이할 수 있도록 했으며, 차 안에서 경쟁도 가능하도록 구현했다. 세계적인 자동차 공급업체인 발레오 레이서가 단순한 게임의 재미를 넘어 발레오 레이서를 개발한 목적은 무엇일까? 전기자동차와 첨단 자율 주행 기능에서 운전자와 승객의 경험 혁신에 이르기까지, 자동차 업계는 빠르게 진화하고 있다. 차량 내 엔터테인먼트 역시 사용자 경험을 향상하는 중요한 요소로 자리잡았다.   센서 데이터를 활용해 유니티로 XR 구현 발레오 레이서의 제프리 부쿼트 CTO와 유니티의 닉 페이시 유니티 인더스트리 매니징 프로듀서는 SXSW에서 XR 어소시에이션(XR Association)의 엘리자베스 하이만 CEO와 함께 ‘증강현실에서 즐기는 주행 : 자율 주행 차량 내 엔터테인먼트’를 주제로 대담을 진행했다. 제프리 부쿼트는 자동차 센서와 소프트웨어를 본래의 용도에서 더 나아가 무한한 가능성으로 다른 응용 분야에도 사용할 수 있다고 역설했다. 그는 “2030년에는 거의 모든 차량에 카메라와 기타 센서가 탑재될 것이다. 관련 소프트웨어와 함께 이러한 기술은 차세대 모빌리티 분야의 안전성, 전기화, 지속 가능성을 뒷받침하게 될 것”이라면서, “그뿐만 아니라, 게임이나 교육 등 다른 다양한 분야도 새로운 기회를 맞이하게 될 것이다. 자동차, 게임, 기타 창의적인 업계의 파트너들과 함께 새로운 기회를 모색할 수 있어 매우 기쁘다”라고 전했다. 페이시는 “지금까지는 차량이 주는 신호를 유니티같은 더 뛰어난 그래픽스 엔진으로 구현하는 데에 많은 노력이 집중되어 왔다. 그 결과 이제 운전자는 매우 뛰어난 그래픽스와 실시간 정보를 제공받아 더 안전하고 효율적으로 운전할 수 있게 되었다. 이제는 승객들도 그러한 경험을 누릴 수 있어야 한다. 이러한 기술 융합은 거의 언제나 소비자에게 유익한 방향으로 흘러간다”고 덧붙였다. 발레오 레이서는 자동차 센서와 카메라 업계를 선도하는 세계적인 기업이며, 20년 이상 증강현실 분야를 연구해 왔다. 차량 후방 카메라 영상과 헤드업 디스플레이에 표시되는 주차 보조선 오버레이 디스플레이는 발레오 레이서에서 개발하여 이미 수백만 대의 차량에 도입된 AR 기능이다. 발레오 레이서의 새로운 XR SDK는 게임 개발자가 차량에 내장된 기존 카메라, 센서, 인식 알고리즘 및 인공지능을 활용하여 차량 내 게임 경험을 혁신할 새로운 유형의 게임을 제작할 수 있도록 지원할 것이다. 하이만은 “가상, 증강 및 혼합현실 분야의 무역 협회인 XR 어소시에이션의 리더로서, 나는 언제나 몰입형 기술의 최신 발전과 사용 사례를 식별하고 선보일 기회를 찾고 있다”면서, “발레오 레이서는 게임 경험일 뿐만 아니라, 개발자에게 자율 주행 차량의 발전과 몰입형 기술을 융합하는 새로운 제품과 경험 제작에 대한 영감을 주는 플랫폼이기도 하다”고 전했다.   새로운 차량 엔터테인먼트의 PoC 구축 발레오 레이서는 자동차 기술 기업의 게임 업계 진출을 알리는 신호탄이 아니다. 그보다는 자동차 업계가 발레오 레이서 XR SDK로 무엇을 실현할 수 있는지 보여 주는 데모이며, 새로운 유형의 차량 내 엔터테인먼트에 대한 PoC(Proof of Concept : 개념 검증)라고 할 수 있다. 차량의 자율성이 향상됨에 따라, XR을 이용해 승객과 운전자 모두를 위한 새로운 경험을 만들 기회는 더 많아질 것이다.   ▲ 발레오 레이서     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-06-03
[케이스 스터디] 해외 소장 문화재의 ‘디지털 귀향’ 프로젝트
언리얼 엔진과 에픽 에코시스템으로 이뤄낸 문화유산 디지털 경험   문화유산은 우리의 과거를 이해하고, 현재와 미래의 역사와 정체성을 보존하고 전해질 수 있도록 하는 중요한 자산이다. 이러한 대한민국의 문화유산 중 약 23만 점은 합법 또는 부당하게 반출되어, 이를 아카이빙하여 관리하고 가능한 경우 국내에 환수하려는 다양한 노력들이 이어지고 있다. 이런 노력의 일환으로 대한민국 정부는 최근 디지털 기술과 장비들의 발전에 힘입어 복잡하고 어려운 물리적 환수를 대체할 수 있는 ‘디지털 공유’라는 개념을 생각해 냈다. ■ 자료 제공 : 에픽게임즈   ‘디지털 공유’의 개념은 해외 박물관에 소장되어 있는 한국 예술품의 디지털 원형 데이터를 매우 정밀하게 구축하고, 이를 기반으로 실물 예술품을 감상하는 것과 같이 디지털로 실감 나는 콘텐츠를 개발하고 한국과 현지에 동시에 전시해 그 가치를 함께 공유하는 것이다. 이 개념을 처음으로 구체화한 프로젝트가 바로 ‘클리블랜드미술관(CMA) 소장 한국문화재 디지털 귀향 프로젝트’이다.   TRIC 및 CMA 소장 한국문화재 디지털 귀향 프로젝트 소개 이 프로젝트를 수행한 TRIC(문화유산기술연구소)는 문화와 유산을 위한 디지털 기술 R&D와 그 활용 사업을 통해 새로운 가치를 창출하는 기업으로, 지난 10년 동안 인도네시아, 라오스, 튀르키예, 카자흐스탄, 일본, 이집트 등 전 세계의 주요 유산을 대상으로 디지털 아카이빙 및 콘텐츠를 개발해 모두가 누릴 수 있도록 서비스하고 있다. 최근에는 리얼타임 콘텐츠의 발전 덕분에 언리얼 엔진을 중심으로 파이프라인을 구축하며 클리블랜드 미술관의 프로젝트를 진행하고 있다.   ▲ TRIC가 진행한 다양한 프로젝트(이미지 출처 : 언리얼 엔진 홈페이지)   CMA 소장 한국문화재 디지털 귀향 프로젝트는 미국 클리블랜드 미술관이 소장하고 있는 한국 문화유산의 디지털 원형 데이터를 구축하고 디지털 실감 콘텐츠를 제작하여 올 3월부터 한미 양국에서 동시에 전시하는 국제 협력 프로젝트다. 총 3년에 걸쳐 진행되고 있는 이 프로젝트는 1차년도인 2022년에 클리블랜드 미술관이 소장하고 있는 한국 유물 대표 13점을 디지털 아카이빙했고, 2차년도인 2023년에는 13점의 유물 중 대규모 전시 연출에 가장 적합한 칠보산도를 선정해 몰입적인 실감 콘텐츠로 제작했다. 그리고 3차년도인 올해 3월에는 한미 양국에 그 결과물을 선보이는 공동전시를 개최했다.    ▲ CMA 소장 한국문화재 디지털 귀향 프로젝트 : 칠보산도(이미지 출처 : 언리얼 엔진 홈페이지)   언리얼 엔진을 작업 파이프라인에 도입한 이유 예술품 데이터를 활용한 콘텐츠 구축 프로젝트는 디지털 버전의 예술품을 얼마나 실제와 동일하게 구현하는지 그 사실성이 가장 중요하다. 하지만 메시와 텍스처가 정밀할수록, 그리고 단일 예술품이 아닌 건축물을 구현할수록 데이터가 무거워지는 것은 필연적이기 때문에 기존에는 데이터 경량 및 최적화 작업에 많은 리소스를 투입했다. TRIC는 설립 초창기부터 다양한 미디어 기술을 통한 관람객과 예술 사이의 상호작용(인터랙션)을 중요하게 생각해 왔고, 물리적 센싱 기반의 콘텐츠나 VR 및 AR 등 실시간 인터랙티브 콘텐츠 개발을 주로 해 왔기 때문에 이러한 최적화 작업이 반드시 필요했다. 이 때문에 퀄리티를 그대로 보존하면서도 최소한의 작업으로 실시간 구동이 가능한 언리얼 엔진을 도입했다.   ▲ 언리얼 엔진으로 구현한 높은 정밀도의 디지털 유물(이미지 출처 : 언리얼 엔진 홈페이지)   언리얼 엔진 5의 루멘과 나나이트를 활용하면 데이터의 디테일을 높은 비주얼 퀄리티로 구현할 수 있을 뿐만 아니라 리얼타임 제작에 필수였던 장시간의 최적화 작업에 대한 부담을 줄여 주었기 때문에, 적은 인원으로도 목표한 퀄리티의 결과물을 빠르게 도출할 수 있었다. 또한, 언리얼 엔진을 도입한 덕분에 기본 영상부터 복잡한 계산과 시뮬레이션을 요구하는 몰입형 다면 영상, 아나몰픽 영상 등 새로운 출력 방식의 콘텐츠 제작을 위한 작업 파이프라인까지 TRIC가 진행하고 있는 프로젝트 전반의 파이프라인을 단축할 수 있었다.   ▲ TRIC가 제작한 아나몰픽 영상(이미지 출처 : 언리얼 엔진 홈페이지)   최근에 진행한 프로젝트의 파이프라인 CMA 소장 한국문화재 디지털 귀향 프로젝트는 크게 13점의 유물을 스캔하여 디지털화하고, 칠보산도 실감 콘텐츠를 제작하는 2가지 작업으로 진행되었다. 이를 위해 스캔 작업에서는 리얼리티캡처를 전면적으로 활용하였고, 칠보산도 실감 콘텐츠 제작에서는 언리얼 엔진 중심의 파이프라인을 구축했다. 먼저 프로젝트 1차 연도에 진행한 디지털 데이터 구축 작업의 경우, 칠보산도를 포함하여 클리블랜드 박물관이 소장하고 있는 한국 유물 13점에 대한 초정밀 디지털 데이터를 구축했다. 일반적으로 정밀한 3D 스캔은 라이다 또는 구조광 스캐너 등의 전문 장비를 활용해 진행하는 경우가 많은데, 이번에는 유물이 해외에 있어 장비의 반입과 적절한 환경을 조성하기가 어렵다는 점 때문에 사진 측량 기반의 데이터를 생성하는 방식으로 제작했다. 그리고 이를 위해 TRIC가 예술품 데이터 구축 사업에서 대부분의 공간 및 오브젝트의 3D 데이터를 구축할 때 사용하는 리얼리티캡처를 사용했다. 유물마다 수천 장의 사진을 촬영한 후 리얼리티캡처로 메시를 생성했는데, 덕분에 높은 정밀도의 텍스처와 메시가 적용된 애셋을 구축할 수 있었다. 리얼리티캡처는 코로나19 팬데믹으로 독일 국경이 봉쇄된 상황에서 베를린의 건축사진가와 협업을 통해 샤를로텐부르크성 도자기 방 프로젝트를 성공적으로 마무리할 수 있게 해 주었던 핵심 툴이기도 하다.   ▲ 스캔된 13점의 실제 유물(위)과 디지털 버전(아래)(이미지 출처 : 언리얼 엔진 홈페이지)   프로젝트 2차 연도에 진행한 실감 콘텐츠 제작 작업에서는 길게 펼쳐진 병풍 속에 그려진 칠보산을 3면으로 구성된 몰입형 스크린으로 옮겨, 전통 회화의 느낌을 그대로 살리면서 입체적인 공간감을 더하고자 했다. 이를 위해 먼저 카메라 로데이터를 활용해 폭당 수천 장의 이미지를 연결하여 방대한 기가픽셀 데이터를 구축했다. 모든 요소들을 객체별, 색역별, 층별로 분리해 별도의 레이어로 제작하고, 여기에 언리얼 엔진을 활용해 3차원 공간에 재배치한 후 촬영하는 방식을 통해 평면의 전통 회화 유물인 칠보산도에 입체감과 역동감을 부여하여 3D 콘텐츠로 재탄생시켰다.   ▲ 2D 병풍화를 레이어화하여 언리얼 엔진에서 3D 공간에 재배치(이미지 출처 : 언리얼 엔진 홈페이지)   입체감 표현에 무엇보다 중요했던 것은 캐릭터의 윤곽선을 따라 붓 선의 느낌이 나도록 표현하는 것이었다. TRIC는 언리얼 엔진의 머티리얼 에디터를 통해 셰이더를 제작했고, 그 위에 종이 질감의 고퀄리티 텍스처를 메가스캔에서 다운로드 후 가공하여 캐릭터에 포스트 프로세싱 재질을 입혀주는 방식으로 제작했다. 그리고 역동감을 살리기 위해서 필요했던 포그는 언리얼 엔진의 나이아가라 플루이드로 제작했다. 덕분에 다른 오브젝트와 실시간으로 반응하는 시뮬레이션이 가능했고, 원하는 타이밍에 시퀀서를 통해 제어할 수 있었다. 또한, Open VDB를 활용했던 기존 방식보다 가볍고 필요한 수정을 즉시 작업할 수도 있었다. 이렇게 잘 만들어진 캐릭터와 이펙트를 3면으로 구성된 스크린으로 보여주기 위해 세 개의 카메라를 하나로 묶은 카메라 리그를 사용해 애니메이션을 효과적으로 한 번에 처리했고, 렌더링 역시 시퀀서에 배치된 세 개의 카메라를 동시에 렌더링할 수 있는 무비 렌더 큐로 개별 영상을 한 번에 출력했다.   ▲ 3개의 카메라로 동시에 렌더링하는 장면(이미지 출처 : 언리얼 엔진 홈페이지)   언리얼 엔진과 에픽 에코시스템의 역할  칠보산도 실감 콘텐츠처럼 전통 회화 리소스를 활용한 콘텐츠에서는 동양 회화 특유의 심미적 감각과 화풍이 모든 요소와 장면에 일관적으로 유지되어야 하기 때문에, 모든 과정에서 정밀하게 컨트롤할 수 있는 제작 툴이 필요하다. 언리얼 엔진은 퍼포먼스의 제약 없이 콘텐츠 자체의 비주얼 퀄리티를 최대한 올리면서 나이아가라, 시퀀서 등으로 그 구성 애셋을 세밀하면서도 정확하게 컨트롤할 수 있는 환경을 제공했다. 또한, 언리얼 엔진 마켓플레이스와 메가스캔의 라이브러리에서 구름, 달, 안개, 바람, 비 등 다양한 자연 현상을 구현할 때 적합한 리소스를 빠르게 확보할 수 있었고, 리깅된 애니메이션 캐릭터를 전통 회화 스타일로 완전히 새롭게 입체화하는데 반드시 필요한 원화의 캐릭터 질감을 구현하는 데 적합한 고퀄리티의 셰이더, 텍스처 등도 제공하여 작업 시간을 줄일 수 있었다.   ▲ 전통 회화의 붓 선 셰이더 적용 여부 비교. 투명도 0.2(위), 투명도 0.8(아래)(이미지 출처 : 언리얼 엔진 홈페이지)   무엇보다 언리얼 엔진의 리얼타임 렌더링이 프로젝트에 반드시 필요한 핵심 기술이었다. 이번 프로젝트의 경우, 콘텐츠 제작 기간이 2개월도 주어지지 않아 시간이 촉박했다. 그에 반해 3개의 스크린이 사다리꼴 모양으로 배치된 몰입형 스크린에서 콘텐츠를 구현하기 위해 3개의 버추얼 카메라로 촬영하여 매우 높은 해상도로 렌더링해야 했다. 이런 경우 관람객의 위치 및 화각에 따라 몰입도가 확연히 달라지기 때문에, 다양한 변수에 대응하며 반복적이고 섬세한 조정이 필요했다. 특히, 한국과 미국이라는 지구 정 반대편에 있는 양국 전문가들이 참여하다 보니 실시간 컨퍼런스 콜을 통해 세부 의견을 주고받아야 하는 상황이었는데, 언리얼 엔진을 통해 실시간으로 확인하고 조정할 수 있었기 때문에 소통 시간을 줄일 수 있었다. 또한, 최종 결과물의 퀄리티도 이미 제작 과정에서 미리 확인할 수 있었기 때문에 커뮤니케이션의 오류나 재작업 리스크가 거의 없었다. 만약 전통적인 방식으로 제작했다면 회의만 하다 정해진 프로젝트 기간이 다 되거나, 겨우 합의에 이르렀다 해도 퀄리티는 물론 기간 내에 제작하는 것조차 불가능했을 것이다.   ▲ TRIC가 해외 전문가들과 컨퍼런스 콜을 진행하는 모습(이미지 출처 : 언리얼 엔진 홈페이지)   문화유산기술연구소의 향후 목표 및 나아갈 방향 단기적으로는 현재 수행하고 있는 CMA 소장 한국문화재 디지털 귀향 프로젝트와 이집트 문화유산 ODA(공적개발원조) 프로젝트를 성공적으로 마치는 것이 TRIC의 목표다. 장기적으로는 이러한 성과를 바탕으로 확보된 수많은 데이터와 리얼타임 콘텐츠를 연결하는 메타버스와 유사한 개념의 시대별 리얼타임 월드를 구축하는 것을 목표로 하고 있다. 이를 위해서 언리얼 엔진과 에픽 에코시스템을 더욱 적극적으로 활용해 역사적으로 보존할 가치가 높은 도시의 시대별 모습을 입체적으로 복원해 나갈 계획이다. 그 일환으로, 우선 8세기 서라벌 전체를 리얼타임 월드로 구축하는 프로젝트를 언리얼 엔진을 활용하여 진행하고 있다. 신라의 왕경인 서라벌의 지형, 식생 등이 복원된 환경에서 건축, 도로, 사람, 역사적 사건 및 사회 등의 방대한 데이터를 하나의 플랫폼에서 마주하고, 발굴 및 연구 결과를 업데이트할 수 있다. 뿐만 아니라 이를 체험하며 교류할 수 있는 하나의 콘텐츠로서, 실사 수준의 퀄리티로 영화나 다큐멘터리 속의 장면도 그 자리에서 바로 만들어 낼 수 있다.   ▲ 서라벌 리얼타임 월드(위)와 나나이트 트라이앵글 시각화(아래)(이미지 출처 : 언리얼 엔진 홈페이지)     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-04-01
[온에어] 플랜트 조선 분야를 위한 AI와 디지털 트윈 혁신 전략은?
캐드앤그래픽스 CNG TV 지식방송 지상 중계   지난 1월 22일 CNG TV는 ‘플랜트 조선 분야 AI와 디지털 트윈 혁신전략’을 주제로, 2월 21일 개최되는 ‘플랜트 조선 컨퍼런스 2024’ 프리뷰 방송을 진행했다. 이번 방송에서는 플랜트 조선 업계의 현주소와 미래에 대해 전망해 보는 한편, 최근 이슈로 떠오른 디지털 전환 트렌드와 함께 플랜트 조선 업계가 살아남을 수 있는 해법 등에 대한 논의가 이뤄졌다. 자세한 내용은 다시보기를 통해 확인할 수 있다. ■ 박경수 기자   ▲ 왼쪽부터 조형식 대표(디지털 지식연구소), 이경호 교수(인하대학교), 박재만 상무(한국오라클), 조윤기 대표(마켓오브메테리얼)   이번 방송은 디지털 지식연구소 조형식 대표가 사회를 맡고 인하대학교 김경호 교수, 오라클 박재만 상무, 마켓오브메테리얼 조윤기 대표가 발표자로 참여했다. 인하대학교 이경호 교수는 ‘AI와 디지털 트윈 : 스마트 워크와 만나다’를 주제로 이야기하며, 그동안 조선 분야의 1위를 해왔지만 앞으로 어느 방향으로 갈지를 잘 정해야 향후 조선산업이 우리나라의 기간산업으로 40년 이상 자리매김할 수 있을 것으로 전망했다. 이경호 교수는 “현재 조선 분야에서는 선박의 안전운항, 자동화 항해 등 스마트십을 위한 노력을 기울이고 있는데, 이를 위해 어떻게 스마트화를 지원할 것인지에 대한 연구가 진행되고 있다”며, “디지털 트윈 등 스마트십을 위한 디지털 핵심 기술을 중심으로 자율형 선박을 목표로 나아가고 있다”고 밝혔다. 조선 분야의 스마트 워크를 위해 실시간 정보의 지원을 비롯해 양방향 인터랙션, 휴대성/이동성, 시스템의 능동성과 같은 키워드가 주목받고 있다. 과거에는 설계와 생산에 초점이 맞춰졌다면 이제는 여러 가지 설계 데이터 정보를 운용하는 한편 이렇게 모아진 데이터를 기반으로 스마트십이 진행되고 있다. 따라서 라이프사이클에 초점을 맞춰진 연구는 물론, 스마트 데이터를 어떻게 활용할 것인가가 중요한 포인트로 떠올랐다. 한국오라클 건설엔지니어링사업부 한국지사장을 맡고 있는 박재만 상무는 ‘Construction Intelligence Cloud’를 주제로, 어려운 의사 결정을 쉽게 하고 보이지 않는 위험을 가시화하며 인공지능과 결합한 종합적인 정보를 제공하는 CIC(Construction Intelligence Cloud)를 소개했다. 박재만 상무는 “오라클은 CIC를 통해 일정 지연 예측 및 해결책 제시하고 있다”며, “프로젝트 네트워크 성능 평가, 잠재적인 소송을 발견, H&S 위험, 공급망 병목 현상 및 문제 식별, 설계 위험 등을 사전에 찾아 관리 등 빠르게 사전 예방적인 의사 결정을 가능하게 하는 예측을 제공하는데 초점을 맞추고 있다”고 설명했다. 마켓오브메테리얼 조윤기 대표는 ‘플랜트 자재 구매를 위한 AI 활용 방안’을 주제로, 플랜트 분야에서 구매/조달에 AI를 적용해 온 내용을 소개했다. 마켓오브메테리얼은 2019년 10월 출범한 이후 인공지능, 빅데이터, 검색 등 오랜 시간 동안 축적한 기술력과 서비스 경험을 결합하여 시장의 모든 파트너들과 함께 상생할 수 있는 플랫폼인 스틸보소(steelboso)를 서비스하고 있다. 조윤기 대표는 “플랜트 분야에는 약 220억개 이상의 자재 경우의 수가 있는데, 검색 엔진과 데이터과 정형화되어 있지 않고 표준화도 필요했지만 산업 특화 알고리즘의 부재로 인해 제대로 시도되지 못했다”면서, “스틸보소에 구매 리스트를 업로드하면 프로젝트 정보에 대한 견적서가 제출된다. 또한 구매자가 업로드한 정보를 마켓플레이스에서 고르고 선정할 수 있을 만큼 검색 엔진이 향상됐고, 데이터베이스도 구축되어 새로운 변화를 이끌고 있다”고 전했다.   ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-02-01
[포커스] 유니티, 디지털 트윈/XR/AI로 산업 분야서 실시간 3D 기술의 확대 추진
게임 엔진 회사로 출발한 유니티는 점차 산업 분야로 확장하면서, 이 분야에서 실시간 3D 기술의 활용을 지원하는 노력을 기울이고 있다. 유니티는 자동차와 건물의 디자인, 온라인 및 증강현실 기반 제품 컨피규레이터, 자율주행 시뮬레이션, 증강현실 기반의 작업 환경 안전 교육 등에 활용된다. 또한 공장/기계/공항 등 실제 사물과 공간의 실시간 시뮬레이션 및 디지털 트윈 구축에도 유니티가 쓰이고 있다. 유니티 코리아는 지난 10월 5일 ‘유니티 APAC 인더스트리 서밋 2023’을 진행했다. APAC 지역 통합 행사로 진행된 이번 서밋에서는 산업 분야별 전문가, 크리에이터, 업계 관계자를 대상으로 유니티의 핵심 기술 및 활용 사례를 소개했다. ■ 정수진 편집장   ▲ 유니티는 다양한 디지털 트윈 기술과 활용 사례를 소개했다.   실시간 3D 기술로 디지털 트윈의 구축과 활용 지원 유니티의 로리 아메스(Rory Armes) 솔루션 디벨롭먼트 부문 부사장은 “산업 분야의 환경은 게임 분야와 다르기 때문에, 유니티는 이에 맞춰 기존과 다른 새로운 도구를 개발하고자 했다. 또한 산업의 게임화(gamification)가 아니라 실시간 3D 기술과 산업 데이터를 결합해 새로운 비주얼 내러티브를 만들어내는 방향으로 접근하고 있다”고 소개했다. 디지털 트윈은 새로운 것이 아니며 오랜 기간 발전해 온 기술이다. 최근에는 디지털 트윈이 주요한 이슈로 떠오르면서 실시간 3D 기술을 제공하는 게임 엔진이 주목을 받고 있기도 하다. 시장조사업체 글로벌 마켓 인사이트(Global Market Insight)는 디지털 트윈 시장이 2023년까지 연간 약 25%의 성장률을 기록해 900억 달러 규모로 성장할 것으로 전망했다. 이러한 추세에 맞춰, 유니티는 최근 디지털 트윈을 비즈니스의 핵심 부문으로 인식하고 있다. 유니티가 디지털 트윈에서 주목하는 것은 데이터를 통한 공정의 가상화 및 제조 데이터의 시각화이다. CAD 모델은 초당 5~6 프레임으로 작동하는데, 이를 라이브로 사용할 수 있도록 하는 데에 실시간 3D 기술이 쓰인다. 또한 교육이나 훈련에도 실시간 3D 기술이 유용하고, 모든 디바이스에서 시각화된 데이터를 활용할 수 있도록 돕는다. 아메스 부사장은 PLM(제품 수명주기 관리)의 개념을 확장하는 데에도 관심을 갖고 있다고 전했다. 즉, 전체 수명주기에서 산업 데이터를 사용할 수 있도록 하겠다는 것이다. 이를 위해 실시간 3D 기술은 공정 데이터를 실시간으로 사용하거나, 관련된 모든 데이터를 가시화할 수 있도록 지원한다. 이와 함께, 유니티는 실시간 3D 기술에 기반한 디지털 트윈의 성숙도 모델(maturity model)을 제시했다. 이는 ▲산업 데이터를 기반으로 디지털 트윈을 만들고 ▲데이터의 시각화를 통해 인사이트를 얻고 의사결정을 하며 ▲시뮬레이션과 최적화를 통해 미래를 예측하는 3단계로 이뤄진다.   ▲ 유니티의 로리 아메스 솔루션 디벨롭먼트 부문 부사장   산업 분야에서 XR 기술의 확대 전망 유니티는 가상현실(VR), 증강현실(AR)을 포괄하는 확장현실(XR) 기술이 산업 분야에서도 더 많이 쓰일 것으로 보고 있다. 으며, 유니티 저팬의 알렉스 휴즈(Alex Hughes) 디지털 트윈 스튜디오 리드는 이를 위한 XR 개발 기술을 강화하고 있다고 소개했다. XR 앱은 윈도우 형태의 2D 앱부터 2D 평면에 3D 모델링을 보여주거나, 3D 컨테이너를 통해 입체 공간을 구현하는 등 다양한 유형이 있는데, 궁극적으로는 3D 공간을 활용하는 완전 몰입형 앱까지 등장할 것으로 보인다. 유니티는 완전 몰입형 MR 앱을 개발할 수 있는 유니티 폴리스페이셜(Unity PolySpatial)을 선보이면서, 유니티 에디터(Unity Editor)와 통합해 애플의 MR 운영체제인 비전 OS(visionOS) 용 앱을 개발할 수 있도록 지원한다. 휴즈 리드는 “트랙터의 운전 훈련을 XR로 진행하거나, 건물의 배선 및 배관 설계 모델이 현장에 어떻게 반영되는지를 XR로 확인하는 등 산업 분야에서의 적용사례가 등장하고 있다”면서, “산업 분야에서는 XR 개발자가 상대적으로 적지만, 효과적인 개발 환경이 지원되면 다양한 XR 앱이 등장해 활용도가 높아질 것”으로 보았다. 유니티의 김범주 APAC 애드보커시 리더는 “디바이스의 측면에서는 사용법이 복잡하고 여러 디바이스가 파편화되어 있어 아직 과도기라고 할 수 있지만, XR 기술은 분명한 이점을 갖고 있으며 점차 틈새시장에서 주류 시장으로 접어들고 있다”면서, “유니티는 AR 파운데이션과 XR 인터랙션 킷 등 통합 개발 환경을 마련하고 있으며, 유니티 애셋 스토어에서 제공하는 다양한 신(scene)을 XR 환경으로 활용하면 XR의 가치를 체감할 수 있을 것”이라고 전했다.   ▲ 유니티는 실시간 3D 기술과 산업 데이터를 결합한 디지털 트윈의 구축과 활용을 지원한다.   디지털 트윈과 결합 가능한 AI 제안 한편, 유니티는 다양한 AI 도구를 선보이면서, 기존에 확보한 실시간 3D 기술과 AI의 결합을 위한 행보도 강화하고 있다. 예를 들어, 유니티 센티스(Unity Sentis)는 높은 클라우드 컴퓨팅 비용이나 지연에 대한 걱정 없이 인터랙티브한 실시간 3D 경험을 구상하고 구현할 수 있도록 돕는다. 특히 센티스 런타임은 스마트 NPC부터 공장 생산 현장 재현에 이르기까지 인터랙티브 게임 플레이와 디지털 트윈의 가능성을 높인다. 유니티 뮤즈 (Unity Muse)는 게임이나 디지털 트윈 애플리케이션을 위한 실시간 3D 콘텐츠의 제작 방식을 가속화하는 AI 솔루션을 제공한다. 워크플로를 중단하지 않고 애셋과 애니메이션을 더 빠르게 제작할 수 있으며, 유니티 에디터와 웹 액세스가 가능한 툴을 제공한다. 또한, 유니티는 AI 마켓플레이스를 통해 개발자가 프로젝트에 사용할 에셋을 생성하는 생성형 AI(generative AI) 솔루션과 제작 워크플로를 개선할 수 있는 다양한 솔루션을 제공한다. 유니티는 디지털 트윈과 AI의 연계에 대해서 긍정적으로 보고 있다. 아메스 부사장은 “AI는 시뮬레이션뿐 아니라 다양한 영역에서 디지털 트윈과 결합이 가능하다. 예를 들어, AI 기반의 NPC(사람이 아닌 가상의 캐릭터)와 대화를 통해 교육을 할 수도 있다”면서, “AI의 이점은 자연스러움과 유용성에 있다고 본다. 디지털 애셋을 마련하거나, 사물 인식 훈련을 하거나, 미래 예측 등에 AI를 활용할 수 있는데, 이런 추세는 게임과 산업 분야에서 공통적으로 나타나는 흐름”이라고 짚었다.   ▲ 유니티 APAC 인더스트리 서밋 행사장   ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2023-11-02
에픽게임즈, ‘언리얼 페스트 2023’ 개최 발표
에픽게임즈 코리아는 오는 8월 29일부터 9월 1일까지 ‘언리얼 페스트 2023’을 개최한다고 밝혔다. 언리얼 페스트는 기존에 진행되던 '언리얼 서밋'의 새로운 글로벌 브랜드이다. 에픽게임즈는 언리얼 페스트를 언리얼 엔진과 에픽게임즈의 에코시스템을 구성하는 제품에 대한 최신 기술과 제작 경험 등의 정보를 공유할 예정이다. 또한 인터랙티브 3D 콘텐츠를 제작하는 크리에이터를 위한 영감을 제공하는 장으로 발전시킨다는 방침이다.     지난 4년간 코로나19로 인해 온라인으로만 개최됐던 것과는 달리, 올해 언리얼 페스트는 오프라인 행사를 진행한다. 첫째 날인 8월 29일에는 인터컨티넨탈 서울 코엑스에서 오프라인으로 개최되며, 온라인으로도 함께 중계된다. 2~4일 차 강연은 온라인으로 진행된다. 오프라인 개최와 함께 에픽게임즈의 팀 스위니 대표가 4년 만에 방한해 첫째 날 키노트를 진행한다. 에픽게임즈 킴 리브레리 최고기술책임자(CTO)도 현장을 찾아 패널 토크를 진행할 예정이다. 이외에도 첫째 날에는 '포트나이트 언리얼 에디터, 그 무한한 가능성', '메타휴먼 애니메이터 : 손쉽게 제작하는 고퀄리티 페이셜 애니메이션' 등 다양한 산업에 공통으로 해당되는 내용의 강연이 진행된다. 둘째 날은 게임 개발을 주제로 한 강연이 진행된다. 언리얼 엔진을 사용해 'Hi-Fi RUSH' 등의 게임을 개발한 실제 사례를 알아보며, ‘언리얼 엔진 모바일 게임 개발 : 렌더링과 워크플로’, ‘나이아가라로 워터 인터랙션 컴퓨트 셰이더 만들기’, ‘언리얼 디퍼드 렌더를 이용한 툰 렌더링 제작기’, ‘2차원 데이터에서 3D 모션 트래킹하기’ 등의 강연이 진행된다. 셋째 날에는 영화, TV, 애니메이션 산업과 관련된 세션이 마련됐다. 언리얼 엔진으로 탄생한 버추얼 아이돌 그룹 '플레이브'에 대한 강연과 함께 ‘언리얼 스토리 디자인’, ‘언리얼 엔진으로 확장된 VFX 파이프라인’에 관한 강연도 확인할 수 있다. 마지막 날은 건축 및 건설, 자동차 및 시뮬레이션을 주제로 한다. 얼마 전 공개된 프로젝트 힐사이드를 통해 알아보는 건축 시각화, 언리얼 엔진을 활용한 디지털 트윈 구축 경험 사례, 언리얼 엔진 5로 전투기 시뮬레이션 만들기 등의 세션이 진행된다.
작성일 : 2023-07-28
유니티 2022.2 테크 스트림 : 그래픽스 제작의 확장성 향상 및 플랫폼 최적화
개발 및 공급 : 유니티코리아 주요 특징 : 게임 제작 및 멀티플레이어 경험 개발 향상, 그래픽스의 확장성 및 생산성 향상, 확장 가능한 에디터 플랫폼 통합 및 최적화, XR 제작 간소화 등     실시간 3D 콘텐츠 제작 및 운영 플랫폼을 제공하는 유니티가 ‘유니티 2022.2 테크 스트림(Unity 2022.2 Tech Stream)’을 출시했다. 유니티 2022.2 테크 스트림은 2022년 5월 출시한 ‘유니티 2022.1 테크 스트림’의 다양한 의견을 기반으로 최신 개선 사항 및 기능이 적용되었으며, 2023년 출시되는 안정화 버전인 ‘유니티 2022 LTS(Long Term Support)’에 적용될 예정이다. 유니티 2022.2 테크 스트림 릴리스의 주요 기능과 개선 사항은 다음과 같다.   더욱 야심찬 게임 제작 유니티 2022.2 테크 스트림에는 엔티티 컴포넌트 시스템(Entity Component System, 이하 ECS)가 제공된다. ECS는 높은 수준의 제어와 결정론적 분명성으로 더욱 야심찬 게임 제작을 지원하는 데이터 지향 프레임워크다. ECS와 데이터 지향 설계를 활용하면 복잡한 게임플레이 메카닉스와 풍부하고 역동적인 환경도 간편하게 구현할 수 있다. 유니티 ECS는 정식 버전으로 유니티 2022.2 테크 스트림부터 제공되며, 기본 패키지인 엔티티(Entities) 패키지를 비롯해 넷코드(Netcode), 그래픽스(Graphics) 및 물리를 위한 ECS 호환 패키지도 포함된다.   ▲ 스턴락 스튜디오는 ECS를 효과적으로 활용하여 ‘브이 라이징’을 제작했고, 출시 첫 주 만에 100만 건 이상의 판매를 달성했다.   유니티의 ECS를 활용하여 제작된 게임으로는 스턴락 스튜디오(Stunlock Studios)의 브이 라이징(V Rising)이 대표적이다. 스턴락 스튜디오는 ECS로 전환한 덕분에 5㎢ 너비의 맵에서 상호 작용이 가능한 인게임 애셋을 16만 개 이상으로 크게 늘리고 35만 개가 넘는 서버 측 엔티티를 통해 게임 경험을 제공할 수 있게 됐다.   모두를 위한 멀티플레이어 경험 개발 유니티 2022.2 테크 스트림에는 로컬 협동 플레이를 비롯한 여러 게임 시나리오에서 보다 간편하게 멀티플레이어 기능을 구현할 수 있는 넷코드 포 게임오브젝트(Netcode for GameObjects) 패키지가 포함됐다. 이 패키지는 익숙한 게임 오브젝트 기반의 프로그래밍 기법을 사용하며, 로 레벨 기능을 추상화하므로 원하는 멀티플레이어 경험을 제작하는 과정에서 작성해야 하는 코드 수를 줄일 수 있다.   ▲ 넷코드 포 게임오브젝트를 사용하여 제작된 Fika Productions의 ‘Ship of Fools’   보다 까다로운 대규모 게임의 경우, 넷코드 포 엔티티(Netcode for Entities)를 사용하면 성능 저하 없이 게임의 월드 규모, 플레이어 수와 복합적인 네트워크 인터랙션을 늘릴 수 있다. 최근 유니티는 유니티 게이밍 서비스(Unity Gaming Services, 이하 UGS) 내 멀티플레이어 솔루션 제품군을 출시했다. 이 셀프 서비스 기반의 제품군을 활용하면 멀티플레이어 게임의 호스팅과 커뮤니케이션 등을 운영할 수 있다.   확장성이 뛰어난 그래픽스 유니티는 더욱 간소화되고 확장성이 뛰어난 워크플로를 통해 유니버설 렌더 파이프라인(Universal Render Pipeline, 이하 URP)과 빌트인 렌더 파이프라인(Built-in Render Pipeline)의 성능을 유사하게 만들고자 노력하고 있다. 또한 빌트인 렌더 파이프라인의 포워드 패스와 유사한 포워드+(Forward+) 등의 주요 툴을 개선했으며, 이제 포워드+의 광원 수 제한이 없어져 여러 플랫폼에서 최적의 품질로 확장할 수 있다.   ▲ 포워드+로 씬에 다량의 광원을 통합하고 확장할 수 있다.   또 다른 주요 기능인 데칼 레이어(Decal Layer)를 사용하면, 여러 오브젝트가 신(scene)의 다양한 데칼 프로젝터를 통해 받는 영향을 필터링하고 설정할 수 있다. 데칼은 신에 세부적인 텍스처를 추가하는 데 사용될 수 있으며, 특히 머티리얼의 반복성을 깨고 패턴을 세부적으로 표현할 때 유용하게 활용 가능하다.   ▲ 데칼 레이어를 사용하면 신의 특정 데칼 프로젝터에서 메시를 분리할 수 있다.   이외에도 부드러운 전환을 위한 LOD 크로스페이드(Crossfade)를 추가하고, 빌트인 렌더 파이프라인의 기존 프로젝트를 URP로 업그레이드할 수 있는 빌트인 컨버터 개선 등 URP 업데이트도 진행됐다. 두 렌더러 모두에서 셰이더 그래프 풀 스크린 마스터 노드 및 커스텀 포스트 프로세싱을 통한 렌더링 경험을 맞춤화하는 것도 가능하다. HDRP(고해상도 렌더 파이프라인)는 물리 기반의 더 아름다운 환경과 디테일한 캐릭터를 제작할 수 있도록 개선됐다. 바다, 강, 수중 효과를 렌더링할 수 있는 새로운 HDRP 물 시스템을 활용하여 정확도 높은 환경을 확장할 수 있으며, 볼류메트릭 머티리얼을 사용해 셰이더 그래프로 절차적 로컬 포그를 만들 수 있다. 또한 개선된 클라우드 레이어 동적 광원으로 더욱 사실적인 하늘을 구현하고, 여러 볼류메트릭 클라우드 조건을 블렌딩 하는 것도 가능하다.   ▲ 여러 날씨 상태를 원활하게 블렌딩하고 구름, 비, 조명 조건에 따른 실시간 변화를 살펴볼 수 있다.   시네마틱 렌더를 활용하면 커스틱 효과가 적용된 눈 시네마틱(Eye Cinematic)과 PCSS 그림자를 갖춘 사실적인 캐릭터를 렌더링할 수 있다. HDRP의 패스트레이싱(Path Tracing) 디노이저를 통해 엔비디아 옵틱스(NVIDIA Optix) AI 가속 디노이저와 인텔 오픈 이미지(Intel Open Image) 중에서 선택할 수도 있다.   생산성 향상 이번 릴리스에는 생산성과 속도를 높이기 위한 새로운 저작 기능과 워크플로 개선 사항이 포함됐다. 먼저, 프리팹 시스템의 경우 여러 가지 업그레이드가 추가되어 씬의 프리팹 인스턴스나 중첩된 프리팹 인스턴스의 프리팹 애셋을 빠르게 교체할 수 있게 됐다.   ▲ 신 내 프리팹 인스턴스의 프리팹 애셋 교체   더 빠르게 환경을 제작하기 위한 지형 도구(Terrain Tools) 패키지의 페인트 디테일(Paint Detail) 브러시를 사용하면 여러 디테일 유형을 동시에 흩뿌리기할 수 있으며, 디테일 유형별 밀도 설정도 가능하다. 원하는 플랫폼의 성능을 달성하기 위해 품질 설정에서 디테일 밀도 설정 및 기타 몇 가지 터레인 설정을 오버라이드하는 것도 가능하다.   ▲ 지형 도구의 페인트 디테일 브러시로 여러 유형의 디테일 동시 흩뿌리기   이와 함께 스플라인에 개선된 툴 및 API 기능을 사용하여 환경 내에서 강, 도로, 카메라 트랙 및 기타 경로 관련 기능과 툴을 더 효율적으로 만들 수 있다. 또한, AI 내비게이션을 사용하여 수동으로 규칙을 코딩할 필요 없이 3D 캐릭터에 빠르게 지능을 더해 게임 월드에서 움직이게 하는 것도 가능하다.   확장 가능한 에디터 유니티 2022.2 테크 스트림 릴리스에서는 UI 툴킷이 에디터 커스터마이징에 있어 IMGUI와 기능상 동등해졌으며, 에디터 툴을 위한 솔루션으로 권장된다. 따라서 관심사를 더 효율적으로 분리하고, 더욱 유연한 레이아웃과 고급 스타일링을 활용할 수 있게 됐다.   ▲ UI 툴킷을 사용하여 커스텀 에디터 툴 및 확장 기능을 구축할 수 있다.   UI 툴킷으로 만든 기본 인스펙터, 포팅된 빌트인 프로퍼티 드로어(Property Drawers), 다중 열이 지원되는 트리뷰(TreeView) 컨트롤, 새로운 벡터 드로잉 API와 같은 업데이트가 포함된 이번 릴리스는 IMGUI와 유사한 기능을 제공할 뿐만 아니라 런타임 사용 사례도 지원된다.   플랫폼 통합 및 최적화   ▲ 다이렉트X 11 및 다이렉트X 12에서 드로우 콜이 많은 경우의 CPU 성능 테스트 결과 비교   다이렉트X 12(DirectX 12)의 테스트 단계가 종료되고 유니티 2022.2 테크 스트림 릴리스에 정식으로 포함됐다. 이제 일부 프로젝트에서는 특히 드로우 콜이 많은 씬의 경우 다이렉트X 11과 동등하거나 더 좋은 성능을 확인할 수 있을 것으로 기대된다. 현재 다이렉트X 12는 엑스박스 게임 개발에 사용할 수 있는 실시간 레이트레이싱과 같은 고급 그래픽스 기능의 기반이 되고 있으며, 더 나아가 윈도우 및 엑스박스(Xbox) 개발에 대한 권장 그래픽스 API로 자리매김하게 되었다.   ▲ 인디 아티스트 사쿠라 래빗(Sakura Rabbit)은 레이트레이싱과 DX12를 함께 활용하여 풍부한 실시간 씬을 제작했다.   XR 제작 간소화 유니티 XRI 인터랙션 툴킷(XR Interaction Toolkit)으로 더욱 간편한 크로스 디바이스 XR 제작이 가능하다. XRI는 여러 컨트롤러에서 사용되는 일반적인 상호 작용을 위한 프레임워크를 제공하여 잡기, 마우스 오버, 선택, 오브젝트와의 가능한 상호 작용을 나타내는 시각적 피드백 등을 지원한다. 현재 최신 버전인 XRI 2.2에는 여러 오브젝트 잡기 지원 및 새로운 이동 방법이 추가되었으며, Starter Assets 샘플 패키지를 통해 즉시 사용 가능한 프리팹 컬렉션도 제공한다. AR 파운데이션(AR Foundation)도 버전 5.0으로 업데이트되며 개발 시간을 단축하기 위한 두 가지 주요 기능이 포함됐다. 하나는 플레이 모드를 사용하여 에디터에서 AR 앱을 테스트할 수 있는 시뮬레이션 기능으로, 이번 업데이트를 통해 지금까지 AR 개발자들이 자주 겪었던 어려움을 해결할 수 있게 돕는다. 또한 AR 디버그(AR Debug) 메뉴도 새로운 프리팹으로 추가되며, 기기에서 사용할 수 있는 설정을 확인하고 평면 및 포인트 클라우드 위치와 같은 AR 하위 시스템 데이터를 시각화할 수 있게 됐다. 또한 메타 퀘스트 프로(Meta Quest Pro), 플레이스테이션 VR2(PlayStation VR2), 매직 리프 2(Magic Leap 2) 등의 주요 플랫폼도 지원한다.   ▲ 빈치 게임즈(Vinci Games)의 ‘블랙탑 후프(Blacktop Hoops)’는 입력 컨트롤에 유니티 XRI를 사용했다.   테크 스트림 자세히 알아보기 유니티 2022.2 테크 스트림와 관련된 더욱 자세한 내용은 릴리스 노트의 전체 기능 목록 및 유니티 매뉴얼 기술 자료를 통해 확인할 수 있다. 각 테크 스트림 릴리스는 다음 테크 스트림 릴리스가 출시될 때까지 매주 업데이트되지만, 새로운 기능이 장기적으로 지원되지 않을 수도 있으므로 작업물을 수시로 백업하는 것이 필요하다. 프로덕션 단계의 프로젝트에는 안정성과 지원이 제공되는 유니티 2021 LTS(Long Term Support, 장기 지원 릴리스)를 사용하는 것이 좋다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2023-01-31