• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "파이프라인"에 대한 통합 검색 내용이 203개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
[케이스 스터디] 언리얼 엔진으로 만든 버추얼 아이돌 플레이브
통합 시각화 파이프라인으로 새로운 경험 제공   리얼타임 3D 콘텐츠 제작 기술이 날로 진화함에 따라 버추얼 아티스트, 유튜버 등 디지털 휴먼 시장도 함께 성장하고 있는 가운데, 대한민국에는 데뷔 1년여 만에 실제 아이돌 못지 않은 인기를 누리고 있는 버추얼 아이돌이 있다. 바로 플레이브(PLAVE)다. ■ 자료 제공 : 에픽게임즈   ▲ 이미지 출처 : ‘언리얼 엔진으로 전례 없는 경험을 제공하는 PLAVE’ 영상 캡처   플레이브는 예준, 노아, 밤비, 은호, 하민 등 다섯 명의 멤버가 작사, 작곡 그리고 안무까지 직접 제작하는 버추얼 보이 그룹이다. 2023년 3월 12일 데뷔 이후 버추얼 아이돌 최초로 지상파 음악방송에서 1위를 차지한 것은 물론, 최근에는 잠실 실내체육관에서 양일간 오프라인 단독 라이브 콘서트를 개최해 전석이 매진되는 등 인기를 누리고 있다. 플레이브의 인기 비결에는 여러 요소가 있겠지만 언리얼 엔진의 리얼타임 기술로 자연스러운 비주얼 퀄리티뿐만 아니라, 매주 라이브 방송을 통해 팬들과 소통하며 아티스트의 진면목을 전할 수 있던 점을 꼽을 수 있다. 시네마틱 영상, 라이브 방송 그리고 오프라인 라이브 콘서트까지 어떻게 언리얼 엔진으로 통합 제작 파이프라인을 구축해 아티스트의 본질을 전달할 수 있었는지 살펴보기로 하자.    시네마틱 콘텐츠를 위한 리얼타임 통합 파이프라인   ▲ DCC 툴을 병합한 기존의 시네마틱 콘텐츠 제작 파이프라인(이미지 제공 : 블래스트)    ▲ 언리얼 엔진과 통합한 시네마틱 콘텐츠 제작 파이프라인(이미지 제공 : 블래스트)   플레이브의 소속사인 블래스트는 설립 초창기부터 여러 작품을 통해서 언리얼 엔진의 가능성을 확인했기 때문에, 버추얼 IP 파이프라인이라는 회사의 비전을 바탕으로 시네마틱과 라이브 콘텐츠를 모두 제작할 수 있는 언리얼 엔진 통합 파이프라인을 구축하고자 했다. 플레이브의 첫 뮤직비디오인 ‘기다릴게’를 제작하던 때만 해도 언리얼 엔진 제작 경험이 제한적이었기 때문에 레벨 디자인, 라이팅, 렌더링은 언리얼 엔진으로, 이펙트 및 의상 시뮬레이션, 합성 등은 기존의 DCC 툴을 사용하는 방식을 채택했다. 그렇지만 이러한 제작 방식은 언리얼 엔진의 리얼타임 렌더링의 장점을 극대화하지 못하고 전체적인 콘텐츠 제작 속도를 저하시켰다. 또한, 본래 언리얼 엔진 중심의 통합 파이프라인을 구축하려고 했던 블래스트의 비전과 맞지 않는다는 판단 하에, 파이프라인을 언리얼 엔진으로 완전히 대체하기로 결정했다.     ▲ 플레이브 ‘WAY 4 LUV’ 뮤직비디오 영상   의상 및 헤어 시뮬레이션을 언리얼 엔진의 실시간 시뮬레이션으로 완전히 전환하면서, 이제는 애니메이션이 수정될 때마다 라이브 방송처럼 실시간으로 시뮬레이션되어 임포트 과정이 간소화되었다. 렌더링을 위해 라이브 시뮬레이션을 베이크해야 하는 경우 역시 언리얼 엔진의 테이크 레코더를 사용하면 바로 결과를 확인할 수 있어, 전체적인 작업 과정이 효율적으로 향상되었다. 또한, 이펙트 제작에는 언리얼 엔진의 나이아가라 시스템을 전면 도입하여 룩뎁 아티스트들은 모든 최종 연출 요소를 실시간으로 확인하며 함께 작업할 수 있게 되었다. 애니메이션, 시뮬레이션, 이펙트 등의 모든 최종 연출 요소가 엔진으로 통합되면서, 언리얼 엔진을 컴포지터로까지 활용할 수 있었다. 그 결과 ‘WAY 4 LUV’의 시네마틱 영상부터는 모델링, 애니메이션, 룩뎁 등 각 제작 요소가 통합된 최종 결과물을 언리얼 엔진에서 실시간으로 렌더링할 수 있게 되어, 작업의 효율과 퀄리티를 향상시킬 수 있었다.   고도화된 리얼타임 모션 캡처로 아티스트의 진심을 전한 라이브 방송   ▲ 플레이브의 첫 라이브 방송(이미지 제공 : 블래스트)   ▲ 플레이브의 최근 라이브 방송(이미지 제공 : 블래스트)   라이브 방송은 플레이브의 강력한 팬덤을 구축하는 데 있어 매우 중요한 역할을 하고 있는 만큼, 블래스트는 아티스트의 매력과 진심을 잘 전할 수 있도록 많은 노력을 기울여 왔다. 특히 아티스트의 모든 모션이 자연스럽게 보이도록 하기 위해 언리얼 엔진의 라이브 링크로 스트리밍한 모션 캡처 원시 데이터를 실시간으로 가공할 수 있는 다양한 설루션을 개발하는데 많은 정성을 들였다.   ▲ 실시간 간섭 회피 설루션 전후 비교(이미지 제공 : 블래스트)   개발된 설루션은 다양한 체형 사이에 애니메이션을 이질감 없이 자연스럽게 전환할 수 있는 리타기팅 설루션, 매 촬영 때마다 발생하는 마커의 위치 오차를 모션으로 측정하여 보정하는 캘리브레이션 설루션, 신체 비율 또는 외형 차이에 따른 메시 간섭 문제를 실시간으로 해결하는 간섭 회피 설루션, 정확한 포즈와 자연스러운 주변 환경과의 인터랙션 사이를 상황에 따라 적절하게 전환할 수 있는 Dynamic FK/ IK 설루션, 골반 너비와 신발 밑창 및 볼 너비까지 보정해 지면과 발의 접지를 정교하게 표현하는 Foot IK 설루션 등이다. 이를 통해 기존에는 실시간으로 처리하기 어려워서 라이브 콘텐츠에서 적용할 수 없었던 모션 캡처 데이터의 실시간 가공 기술을 자체적으로 개발하여 언리얼 엔진에 통합했다. 이러한 기술 투자 덕분에 버추얼 아이돌임에도 아티스트의 진심을 잘 전할 수 있는 기술적 기반을 갖추게 되었다.   리얼타임 통합 파이프라인의 화룡점정, 오프라인 라이브 콘서트 플레이브는 시네마틱 영상을 매 앨범 발매 시 제작하고 라이브 방송을 지난 1년 반 동안 매주 4시간씩 진행하면서, 언리얼 엔진 중심의 리얼타임 파이프라인을 고도화할 수 있었다. 그리고 그 과정에서 블래스트가 깨달은 점은 두 파이프라인을 서로 구분할 필요가 없다는 점이었다. 아티스트의 퍼포먼스를 실시간으로 보여 줄 지, 녹화해 두고 퀄리티를 올린 후에 보여 줄 지의 차이만 있을 뿐, 두 파이프라인은 모두 라이브 모션 캡처에서 시작한다는 점에서 근본적으로 동일했기 때문이다. 이러한 깨달음을 바탕으로 블래스트는 모든 콘텐츠가 라이브 모션 캡처로부터 시작되는 통합 파이프라인을 개발하였고, 이를 통해 제작 흐름이 간소화되고 직관적으로 개선되어 작업의 효율을 높일 수 있었다. 무엇보다도 큰 이점은 통합된 파이프라인을 통해 콘서트 제작 및 연출에 필요한 역량을 미리 내재화할 수 있었다는 점이다.   ▲ 시네마틱과 라이브 콘텐츠 제작 파이프라인이 통합된 전체 파이프라인(이미지 제공 : 블래스트)   콘서트는 연출뿐만 아니라 제작 파이프라인에서도 시네마틱과 라이브 콘텐츠의 특성을 모두 가지고 있는 특별한 무대다. 수많은 무대의 동선을 사전에 미리 짜맞추며 연출을 확정해 놓으면서도 리허설 때마다 라이브로 전환해야 하므로, 콘서트 작업에는 녹화와 라이브를 수시로 전환할 수 있는 파이프라인이 필수적이다. 이를 위해서 메타휴먼의 캐릭터 설계에 힌트를 얻어 시네마틱 퀄리티와 라이브 퍼포먼스를 모두 만족하는 유연하고 모듈화된 통합 캐릭터 시스템을 개발했다. 이 시스템은 콘서트에 필요한 모든 상황을 지원하기 위해 스켈레탈 메시를 분리해서 적절한 계층구조로 설계하고, 각각의 스켈레탈 메시 컴포넌트는 시퀀서의 애니메이션 트랙을 재생하는 모드와 라이브 링크 모션 캡처 및 실시간 시뮬레이션을 적용하는 모드 사이를 자유롭게 전환할 수 있도록 구현했다. 또한, 라이브 캐릭터 전용 기능은 모두 별도의 컴포넌트로 모듈화시켜 필요한 기능만 라이브 방송 시나리오에 맞춰 적용할 수 있도록 설계했으며, 추가로 룩뎁 아티스트가 일관적인 퀄리티로 작업할 수 있도록 캐릭터 클래스의 모든 기능이 프리뷰 모드와 플레이 모드에서 동일하게 동작하도록 개발했다. 이런 통합 캐릭터 클래스 설계 덕분에 언제든지 시네마틱과 라이브를 간단하게 전환하면서 작업 효율도 높일 수 있게 되었다.   ▲ 스켈레탈 메시의 계층 구조 및 모듈화된 컴포넌트(왼쪽), 컴포넌트 단위로 두 가지 모드를 자유롭게 전환 가능(오른쪽)(이미지 제공 : 블래스트)   통합 캐릭터 클래스와 더불어 좀 더 파이프라인을 단순화하기 위해 언리얼 엔진의 테이크 레코더 기능을 활용한 새로운 모션 캡처 녹화 파이프라인을 구축했으며, 그 덕분에 이제는 모션 캡처부터 시네마틱까지 모든 과정을 언리얼 엔진 내에서 진행할 수 있게 되었다. 이로써 시네마틱용 애니메이션을 제작하기 위해 여러 소프트웨어를 오갈 필요 없이 언리얼 엔진 하나로 모든 작업이 가능해졌다. 또한, 이 새로운 파이프라인을 사용해 자체적으로 개발한 신체 간섭 회피, 캘리브레이션, 리타기팅 기능을 언리얼 엔진 안에서 바로 녹화할 수 있어, 평소 라이브 방송과 동일한 수준의 모션 캡처 퀄리티를 얻을 수 있게 되었다. 이렇게 테이크 레코더의 기능을 통해 녹화 직후 바로 결과를 확인할 수 있어 작업의 효율이 크게 향상되었고, 특히 현장에서 실시간으로 피드백을 주고받을 수 있게 되면서 기획과 디렉팅 측면에서도 큰 발전을 이룰 수 있었다.   ▲ 기존의 모션 캡처 녹화 파이프라인(이미지 제공 : 블래스트)   ▲ 언리얼 엔진으로 통합 후 테이크 레코더를 활용한 모션 캡처 녹화 파이프라인(이미지 제공 : 블래스트)   시네마틱과 라이브 파이프라인의 통합이 더욱 높은 효과를 내기 위해서는 앞서 언급된 기능의 개발과 함께 현장 오퍼레이팅에 대한 지원도 필요했다. 버추얼 파이프라인에서는 여러 소프트웨어를 함께 사용해야 했기 때문에 언리얼 엔진 설정, 녹화 설정, 심지어 단순한 녹음 작업까지 모두 오퍼레이터와 소통해야 했다. 그래서 작업 과정을 단순화하고 자동화하기 위해 언리얼 엔진 기반의 ‘버추얼 슬레이트’라는 태블릿 애플리케이션을 개발했다. 이 애플리케이션은 스튜디오 내 여러 장치와 소프트웨어를 연결하여 원격으로 동시 제어할 수 있고, 녹화 버튼 하나로 언리얼 엔진의 녹화 기능, 모션 캡처 소프트웨어, 여러 채널의 비디오 및 오디오를 동시에 녹화할 수 있다. 그리고 녹화가 끝나면 자동으로 모든 파일의 이름과 저장 위치를 정리하고, 미리보기 장면을 만들어 준다. 이제는 오퍼레이터가 초기 설정만 도와주면, 콘텐츠 제작자들이 직접 모션 캡처 녹화를 할 수 있어 제작자와 아티스트는 서로 의견을 주고받으며 촬영을 진행할 수 있게 되었다.   ▲ 기존의 오퍼레이팅 소통 방식(이미지 제공 : 블래스트)   ▲ 향상된 오퍼레이팅 소통 방식(이미지 제공 : 블래스트)   한편, 시네마틱과 라이브를 결합한 오프라인 라이브 콘서트는 관객에게 높은 몰입감을 전달하는 것이 매우 중요하다. 그렇기 때문에 현실의 무대에 실존하는 아티스트를 보는 것과 같은 스케일과 원근감을 현실감 있게 잘 반영하는 것도 중요한 과제였다. 이 과제를 풀기 위해서는 LED 스크린에 투사된 결과를 미리 예측할 수 있어야 했는데, 이를 위해 언리얼 엔진 내에 실제 공연장과 동일한 크기의 디지털 트윈 레벨을 제작하고 가상 공연장의 LED 스크린에 최종 이미지를 투사했다. 그런 뒤에 관객의 시점에서 VR로 이를 감상하는 방식으로 관객의 시점을 미리 시뮬레이션하며 스케일과 원근감을 조정해 나갔다. 이러한 방법으로 플레이브의 콘서트는 대형 콘서트장의 어떤 좌석에서도 눈앞의 무대에 멤버들이 실존한다는 현실감을 관객에게 전달할 수 있었다.   ▲ 가상에서의 VR 시뮬레이션(이미지 제공 : 블래스트)   ▲ 실제 무대 연출 장면(이미지 제공 : 블래스트)   LED 그 이상의 무한한 상상력을 담게 해 준 언리얼 엔진 블래스트는 2차원의 LED 스크린 평면을 넘어 공연장 전체라는 3차원의 경험으로 관객의 경험을 확장시켜, 플레이브 콘서트에서만 느낄 수 있는 새로운 경험을 만들어나가기 위해 고민했다. 이러한 고민의 결과로 실존하는 아티스트의 콘서트에서는 불가능한 아이디어와 연출, 예를 들면 탑의 꼭대기처럼 다양한 공간을 이동하며 노래 부르기, 바이크를 탄 채로 무대로 등장하고 연출의 단절 없이 공연 시작하기, 등장이나 퇴장 시에 꽃잎을 흩뿌리면서 나타나고 사라지기 등 그야말로 버추얼 아이돌이기에 가능한 연출을 실현할 수 있었다. 이러한 시각적 효과에서 더 나아가 연기와 같은 실제 무대 장치를 결합하여 일반적인 콘서트에서는 불가능한 특별한 연출을 시도할 수 있었다. 그 중에서도 플레이브의 세계관에 등장하는 큐브로 가득찬 ‘아스테룸’이라는 공간에서 세계관 속 빌런과 벌인 박진감 넘치는 격투 액션 신은 버추얼이 아니었다면 불가능한 무대였을 것이다. 또한, 언리얼 엔진은 LED 스크린 너머의 공간에 원하는 환경을 효율적으로 제작하고 다양한 연출들을 자유롭게 시도할 수 있게 해 주었다. 물리적인 시공간의 제약 속에서 짧은 기간 내에 다수의 조직이 동시 협업해야 하기 때문에 작업 충돌을 피하면서도 변경 사항들을 실시간으로 동기화할 수 있는 파이프라인이 매우 중요한데, 여기에 언리얼 엔진의 레벨 스트리밍과 서브 시퀀스 기능이 큰 도움이 되었다. 레벨 스트리밍 덕분에 레벨 디자인, 애니메이션, 룩뎁 작업을 분리하여 하나의 퍼시스턴트 레벨에 스트리밍하는 방식으로 각 팀의 작업 공간을 분리하면서도 동시에 협업이 가능했다. 또한, 룩뎁 레벨 시퀀스 안에 애니메이션 서브 시퀀스를 적용하여 애니메이터와 룩뎁 아티스트의 작업 시퀀스를 분리하면서도 서로의 변경 사항을 함께 업데이트할 수 있었다.   ▲ 레벨과 시퀀스 구조(이미지 제공 : 블래스트)   콘서트 현장의 분위기를 고조시키는 현란한 DMX 조명 연출 역시 언리얼 엔진의 뛰어난 DMX 연동 지원 덕분에 가능했다. 언리얼 엔진 공연 조명을 전문으로 다루는 메타로켓과 협업하여 언리얼 엔진 내에서 실제 콘서트 현장 조명을 시뮬레이션하면서 현실과 가상의 무대 조명을 완성했다.   ▲ 메타로켓과의 협업으로 완성된 공연장 무대 조명(이미지 제공 : 블래스트)   무엇보다 비주얼 퀄리티까지 보장된 리얼타임 렌더링이라는 언리얼 엔진의 강점이 가장 큰 도움이 되었다. 덕분에 콘서트 2~3일 전까지도 끊임없이 수정하며 퀄리티를 끌어올릴 수 있었고, 콘서트 직전의 리허설까지도 이슈를 확인하고 해결할 수 있었기 때문에 촉박한 시간임에도 완성도 높은 콘서트를 제작할 수 있었다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-01-06
팹 : 통합 디지털 콘텐츠 마켓플레이스
개발 및 공급 : 에픽게임즈 주요 특징 : 디지털 애셋을 검색, 구매, 판매 및 공유할 수 있는 원스톱 마켓플레이스, 여러 게임 엔진과 호환되는 콘텐츠 제공, 3D 애셋/VFX/환경 등 다양한 애셋 유형 제공, 크리에이티브 커먼즈 라이선스와 개인 및 전문가용 스탠다드 라이선스 제공 등   ▲ 이미지 출처 : 통합 콘텐츠 마켓플레이스 팹 출시 영상 캡처   디지털 애셋을 검색, 구매, 판매 및 공유할 수 있는 원스톱 마켓플레이스 ‘팹(Fab)’이 출시됐다. 언리얼 엔진 마켓플레이스와 스케치팹 스토어를 통합하고, 퀵셀 메가스캔을 제공하는 새로운 오픈 마켓플레이스 팹은 다양한 산업의 크리에이터가 언리얼 엔진, 유니티 3D, 포트나이트 언리얼 에디터(UEFN) 및 기타 디지털 콘텐츠 제작 툴에서 사용할 수 있는 콘텐츠를 지원한다. 언리얼 엔진 개발자는 언리얼 엔진 5 에디터에서 직접 팹을 이용할 수 있고, 포트나이트 크리에이터는 UEFN에서 팹을 통해 포트나이트 제작에 적합한 애셋을 검색할 수 있다. 팹 홈페이지를 방문하면 리얼타임으로 사용할 수 있는 고퀄리티의 게임 애셋, 환경, VFX, 오디오, 애니메이션, 캐릭터, 플러그인 등 다양한 제품을 만날 수 있다.   ▲ 이미지 : 언리얼 엔진 홈페이지   팹에서 이용 가능한 기능 팹은 여러 게임 엔진과 호환되는 콘텐츠, 폭넓은 애셋 유형, 다양한 라이선스 옵션 등을 제공한다. 방대한 콘텐츠 라이브러리를 탐색할 수 있다. 여기에는 KitBash3D, Dekogon Studios, Leartes Studios와 같은 스튜디오와 크리에이터가 제공하는 고퀄리티 3D 애셋, VFX, 환경 등의 콘텐츠가 포함되어 있다. ‘채널’을 사용하여 언리얼 엔진, UEFN, 그리고 유니티와 호환되는 콘텐츠를 찾을 수 있다. 필요에 맞는 라이선스를 선택할 수 있다. 팹은 크리에이티브 커먼즈 라이선스와 개인 및 전문가용 스탠다드 라이선스를 제공한다. 팹 스탠다드 라이선스로 원하는 모든 게임 엔진과 툴에서 메가스캔을 비롯하여 애셋을 사용할 수 있다. 2024년 말까지 모든 엔진 및 디지털 콘텐츠 제작 툴에서 퀵셀 메가스캔 라이브러리를 무료로 사용할 수 있다. 클릭 한 번으로 퀵셀의 새로운 신(scene) 파일이 포함된 팩 10개를 비롯해 1만 7000개 이상의 메가스캔을 다운로드할 수 있으며, 퀵셀과 팹의 다른 크리에이터가 제공하는 무료 콘텐츠도 이용 가능하다. 다운로드 또는 구매하려는 콘텐츠를 미리 살펴보고 결정할 수 있다. 팹의 차세대 리얼타임 3D 뷰어로 애셋을 구매하기 전에 미리 3D 애셋을 확인할 수 있다. 또한, 각 제품 세부 정보 페이지에서 제품이 생성형 AI의 도움으로 제작되었는지 확인할 수 있고, 필터를 사용하여 검색에서 생성형 AI 제품을 포함하거나 제외할 수 있다. 오디언스에 적합한 애셋을 찾을 수 있다. 팹에서는 성인용 콘텐츠가 허용되지만, 부모가 에픽의 자녀 보호 기능을 사용해 이용 등급 제한을 활성화한 경우 성인용 콘텐츠에 액세스할 수 없다. 팹에서 성인용 콘텐츠는 ‘표시’, ‘흐리게’ 또는 ‘숨기기’ 처리할 수 있다. 성인용 콘텐츠는 포트나이트의 최고 이용 등급을 초과하므로 UEFN에서는 사용할 수 없다. 어도비 서브스턴스 페인터(Adobe Substance Painter) 및 모델러(Modeler) 6개월 무료 구독권을 받을 수 있다. 자세한 자격 요건은 홈페이지에서 확인 가능하다.   ▲ 이미지 : 언리얼 엔진 웹사이트 영상 캡처   향후 로드맵 앞으로 몇 개월 동안 에픽은 계속해서 사용자 경험을 개선하고, 신규 콘텐츠 및 새로운 기능을 추가할 예정이다. 로블록스와 마인크래프트 애셋을 비롯한 새로운 파일 형식, 메타휴먼 액세스, 신규 제품 및 리뷰 시스템, 제품별 FAQ, 크리에이터가 UEFN에서 팹으로 직접 콘텐츠를 손쉽게 퍼블리싱할 수 있는 파이프라인 그리고 판매자 경험을 향상하기 위한 새로운 분석 기능을 도입할 계획이다. 2025년에는 사용 중인 엔진이나 플랫폼에 관계 없이 모든 사용자에게 메가스캔 라이브러리의 콘텐츠 일부를 무료로 제공할 예정이다. 이 스타터 팩에는 다양한 인기 3D 애셋, 식물, 나무, 서피스, 데칼, 임퍼펙션 그리고 팹 오픈과 함께 출시된 퀵셀의 팩 10개를 포함하여 엄선된 1500개 이상의 애셋이 포함되어 있다.      ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-12-04
다쏘시스템, “3D익스피리언스 플랫폼으로 에너지 인프라의 지속가능성 향상 지원”
다쏘시스템은 유럽의 에너지 인프라 운영 기업인 스남(Snam)이 지속 가능한 에너지 전환을 위한 새로운 자산 관리 프로젝트의 핵심으로, 자사의 3D익스피리언스 플랫폼을 사용해 디지털 혁신을 가속화한다고 발표했다. 스남은 이탈리아의 가스 파이프라인 네트워크, 저장소, 액화천연가스(LNG) 터미널을 비롯해 에너지 자원 다각화를 위해 개발하는 미래 자산의 버추얼 트윈을 구축하는데 있어 다쏘시스템의 3D익스피리언스 플랫폼을 사용할 예정이다. 이를 통해 회사의 자산 운영을 관리, 최적화하고, 구조적 안전을 개선하며, 배출량을 줄일 수 있을 것으로 기대하고 있다.     스남의 자산 및 운영자 생태계는 이탈리아 전역을 포함해 전 세계에 안정적인 에너지 공급을 제공한다. 스남은 지속 가능한 미래를 위한 에너지 인프라를 개발하겠다는 포부를 가지고, 현재 및 미래 자산을 보다 협업적인 방식으로 관리하고 엔지니어링을 간소화하며 자산 효율성, 안전성 및 신뢰성을 향상하는 기술을 구현하고자 다쏘시스템을 채택했다. 스남은 복잡한 자산 네트워크를 시뮬레이션하는 다쏘시스템의 3D익스피리언스 플랫폼 기반 버추얼 트윈을 중심으로 모든 이해관계자를 연결하고 현장에서 수집한 실시간 데이터와 정보를 원활하게 통합할 수 있게 됐다. 다쏘시스템의 레미 도니어(Remi DORNIER) 건축·엔지니어링·건설 부문 부사장은 “저렴하고 접근 가능한 에너지 서비스를 제공하기 위해서는 운영 효율성과 안전이 필수적”이라면서, “다쏘시스템의 3D익스피리언스 플랫폼을 통해 스남과 같은 에너지 기업은 자산의 수명 주기 동안 유지 관리하고 에너지 시스템이 가장 필요할 때 작동하도록 조정할 수 있으며, 새로운 설루션을 제공할 수 있다”고 말했다.
작성일 : 2024-11-13
오토데스크, “AI로 M&E 프로그램 기능 및 효율성 높인다”
오토데스크가 자사의 오토데스크 AI(Autodesk AI)를 기반으로 마야(Autodesk Maya) 및 플로우(Autodesk Flow) 등의 기능을 향상시키고, 미디어&엔터테인먼트(M&E) 업무의 효율성과 창의성을 높일 수 있도록 지원한다고 밝혔다. 오토데스크는 오토데스크 AI를 통해 콘텐츠 제작 파이프라인 전반에 걸쳐 인력, 워크플로 및 데이터를 연결함으로써 반복 작업의 효율성을 개선하고 작업 속도를 향상해, 고객이 고품질 콘텐츠를 제작할 수 있도록 지원한다는 계획이다. 오토데스크는 M&E 산업을 위한 설루션으로 마야, 플로우, 원더 스튜디오(Wonder Studio), 플레임(Flame) 등을 제공한다. 플로우는 M&E 분야의 산업 클라우드로 초기 개념부터 최종 결과물에 이르기까지 전체 생산 주기에 걸쳐 고객의 워크플로, 데이터, 팀을 연결한다. 마야는 DCC(디지털 콘텐츠 제작)라 불리는 3D 작업 및 미디어 제작 도구로, 모션 캡처 데이터나 환경 데이터를 제작할 수 있다. 원더 스튜디오는 AI 기능을 통해 영상 속 배우의 모션을 인식하고, CG 캐릭터를 배우 위에 아이콘을 드래그하는 것과 같은 간단한 방식으로 영상에 추가할 수 있다. 플레임은 AI를 활용해 영상 합성, 카메라 트래킹과 같은 수동 작업을 자동화한다.     오토데스크는 아티스트의 워크플로를 가속화하기 위해 기존의 창작 도구에 오토데스크 AI 기능을 추가하고 있다고 소개했다. 렌더링의 노이즈를 줄이기 위해서는 높은 컴퓨팅 성능이 필요했지만, 아놀드(Arnold)의 AI를 사용하면 렌더링 이미지의 노이즈를 신속하게 제거할 수 있다. 플레임에서 영상을 느리게 하고 싶은 경우에는 AI를 사용해 프레임 사이에 추가 프레임을 생성해, 훨씬 더 현실적인 결과를 만들어낼 수 있다. 마야에 적용된 머신러닝 디포머(ML Deformer)는 장면의 데이터만으로 복잡한 캐릭터의 움직임을 학습한다. 복잡한 변형 값을 근사치로 만드는 도구를 통해 사용자는 실시간으로 캐릭터의 자세를 설정할 수 있다. 또한, 오토데스크는 원더 스튜디오의 AI 기능인 모션 예측(Motion Prediction)을 공개했다. 사용자는 이를 통해 캐릭터를 실사 장면에 더욱 쉽게 삽입할 수 있다. 이 기능은 배우의 시야가 물체에 가려져 있을 때도 캐릭터를 예측해 더 자연스러운 포즈를 생성하고, 흔들림과 노이즈를 줄인다.  플로우의 핵심은 오토데스크가 AU를 통해 선보인 새로운 기능을 뒷받침하는 공통 데이터 모델이다. 카메라-클라우드 설루션인 플로우 캡처(Flow Capture)는 사용자의 경험을 좌우하는 애셋 사용을 중심에 두고 있다. 원더 스튜디오는 중앙에서 단번에 애셋을 찾고 드래그하는 것만으로 이를 정리 및 구성할 수 있는 기능을 제공한다.  한편, 오토데스크는 개발자가 클라우드에서 바이프로스트(Autodesk Bifrost) 그래프를 실행하고 맞춤형 설루션을 구축할 수 있는 플로우 그래프 엔진 API(Flow Graph Engine API)를 출시하고, 이를 기반으로 한 생태계를 만들고 있다. 제작진이 세트를 스캔해 디지털 트윈을 생성한 후 플로우 그래프 엔진 API를 사용해 완성하는 것으로, VFX(특수효과) 아티스트는 디지털 트윈에 반응하는 3D 애셋과 VFX 시뮬레이션을 추가할 수 있다. 클라우드에서 시뮬레이션된 시각 효과를 통해 감독은 시각 효과가 장면을 어떻게 변화시킬지 정확하게 파악할 수 있고, 배우들은 연기를 더 다듬고, 촬영 감독은 최상의 카메라 각도를 구성하는 등 전체 스태프는 3D 요소와 상호작용할 수 있다. 또한 플로우 그래프 엔진 API를 사용해 마야 및 3ds 맥스(3ds Max) 2025에서 모두 사용 가능한 플로우 리토폴로지(Flow Retopology) 서비스를 구축해, 아티스트가 애니메이션 및 클라우드로의 렌더링을 위한 복잡한 메시 준비에서 벗어날 수 있다. 오토데스크는 "급변하는 M&E 환경에서 사용자들이 더욱 창의적이고 효율적으로 일할 수 있도록 지원하고자 한다”면서, “현재 사용되고 있는 제품에 계속해서 가치를 제공하고 플로우와 오토데스크 AI 설루션을 더해 사용자 곁에 언제나 함께 하는 것이 목표”라고 전했다.
작성일 : 2024-10-30
에픽게임즈, 새로운 통합 콘텐츠 마켓플레이스 ‘팹’ 정식 론칭
에픽게임즈는 모든 산업의 디지털 크리에이터를 위한 새로운 콘텐츠 마켓플레이스 ‘팹(Fab)’을 정식 출시했다고 발표했다. 팹은 언리얼 엔진 마켓플레이스와 스케치팹 스토어를 통합하고, 퀵셀 메가스캔을 제공하며, 언리얼 엔진, 유니티 3D, 포트나이트 언리얼 에디터(UEFN) 및 기타 디지털 콘텐츠 제작 툴에서 사용할 수 있는 콘텐츠를 지원한다. 디지털 크리에이터라면 누구나 팹에서 리얼타임으로 사용할 수 있는 고퀄리티의 게임 애셋, 환경, VFX, 오디오, 애니메이션, 캐릭터, 플러그인 등 방대한 분량의 제품을 만나볼 수 있다. 언리얼 엔진 개발자는 언리얼 엔진 5 에디터에서 직접 팹을 이용할 수 있으며, 포트나이트 크리에이터는 UEFN에서 팹을 통해 포트나이트 제작에 적합한 애셋을 검색할 수 있다. 에픽게임즈는 크리에이터가 팹에서 실질적이고, 지속 가능한 비즈니스를 구축할 수 있도록 88:12의 크리에이터 친화적 수익 배분율을 적용하며, 올해 말까지 팹 스탠다드 라이선스 제품 판매에 대해 수수료 없이 100%의 수익을 판매자에게 제공한다고 밝혔다.     팹에서는 ▲KitBash3D, Dekogon Studios, Leartes Studios와 같은 스튜디오와 크리에이터가 제공하는 고퀄리티 3D 애셋, VFX, 환경 등의 콘텐츠가 포함된 콘텐츠 라이브러리를 탐색할 수 있으며 ▲‘채널’을 사용하여 언리얼 엔진, UEFN, 그리고 유니티와 호환되는 콘텐츠를 찾을 수 있다. ▲ 오디언스에 적합한 애셋을 찾는 것도 가능하다. 팹에서는 성인용 콘텐츠가 허용되지만, 부모가 에픽의 자녀 보호 기능을 사용해 이용등급 제한을 활성화한 경우 성인용 콘텐츠 접근이 불가능하다. 또한 ▲ 필요에 맞는 라이선스를 선택할 수 있다. 팹은 크리에이티브 커먼즈 라이선스와 개인 및 전문가용 스탠다드 라이선스를 제공하며, 팹 스탠다드 라이선스로 원하는 모든 게임엔진과 툴에서 메가스캔을 포함한 애셋을 사용할 수 있다. ▲ 그리고 올해 말까지 모든 엔진 및 디지털 콘텐츠 제작 툴에서 퀵셀 메가스캔 라이브러리를 무료로 사용할 수 있다. 이용자는 퀵셀의 새로운 신 파일이 포함된 팩 10개를 비롯해 1만 7000개 이상의 메가스캔을 다운로드할 수 있으며, 퀵셀과 팹의 다른 크리에이터가 제공하는 무료 콘텐츠도 확인할 수 있다. 이외에도 ▲ 다운로드 또는 구매하려는 콘텐츠를 미리 살펴보고 결정할 수 있다. 팹의 차세대 리얼타임 3D 뷰어로 애셋을 구매하기 전에 미리 3D 애셋을 확인할 수 있으며, 각 제품 세부 정보 페이지에서 제품이 생성형 AI의 도움으로 제작되었는지 확인 가능하고, 필터를 사용해 검색에서 생성형 AI 제품을 포함하거나 제외할 수 있다. 에픽게임즈는 지속해서 사용자 경험을 개선하고, 신규 콘텐츠 및 새로운 기능을 추가할 계획이다.  로블록스와 마인크래프트 애셋을 비롯한 새로운 파일 형식, 메타휴먼 액세스, 신규 제품 리뷰 시스템, 제품별 FAQ, 크리에이터가 UEFN에서 팹으로 직접 콘텐츠를 손쉽게 퍼블리싱할 수 있는 파이프라인 그리고 판매자 경험을 향상하기 위한 새로운 분석 기능 등이 도입될 예정이다. 또한, 2025년에는 사용 중인 엔진이나 플랫폼에 관계없이 모든 사용자에게 메가스캔 라이브러리의 콘텐츠 일부를 무료로 제공할 예정으로, 여기에는 다양한 인기 3D 애셋, 식물, 나무, 서피스, 데칼, 임퍼펙션과 함께 팹 출시와 함께 출시된 퀵셀의 팩 10개를 포함하여 1500개 이상의 애셋이 포함될 예정이다. 한편, 에픽게임즈는 팹의 출시 프로모션의 일환으로 어도비와 함께 팹에서 제품을 퍼블리싱하거나 최소 25 달러를 구매하는 신규 사용자에게 어도비 서브스턴스 페인터 및 모델러 6개월 구독권을 제공하는 이벤트를 진행한다고 덧붙였다.
작성일 : 2024-10-23
AWS, 생성형 AI 서비스 ‘베드록’ 국내 정식 출시
아마존웹서비스(AWS)가 아시아 태평양(서울) 리전에 ‘아마존 베드록(Amazon Bedrock)’을 정식 출시한다고 발표했다. 아마존 베드록은 사용자가 특정 용도에 적합한 고성능 파운데이션 모델(FM) 및 거대언어모델(LLM)을 쉽게 찾고 접근할 수 있도록 하며, 생성형 인공지능(AI) 애플리케이션을 구축하고 확장할 수 있는 기능을 제공한다. AWS는 2023년부터 일부 지역을 시작으로 베드록 서비스를 제공해오고 있다. 이번 AWS 아시아 태평양(서울) 리전의 아마존 베드록 정식 출시에 대해 AWS는 “국내 고객에게 생성형 AI를 활용한 혁신을 지원하고, 생성형 AI 애플리케이션을 실행하고 저장할 수 있는 위치에 대한 폭 넓은 선택지를 제공한다”면서, “최종 사용자에 더 가깝게 생성형 AI 워크로드를 배포하여 저지연 환경이 중요한 고객에게도 유용하다. 낮은 지연 시간은 실시간 콘텐츠 생성, 인터랙티브 사용자 경험, 실시간 대화형 인사이트와 같은 AI 작업에 필수적인 빠른 처리 및 응답 시간을 제공하는 데 특히 중요하다”고 설명했다. 국내 기업들은 생산성 향상, 혁신적인 사용자 경험 제공, 업무 재구상 등 다양한 목적으로 생성형 AI를 사용하고 있다. 아마존 베드록은 완전 관리형 서비스로, 고객에게 엔터프라이즈급 보안과 개인정보 보호로 구축된 고성능 모델과 강력한 모델 커스터마이즈 기능을 제공한다. 또한, AWS는 고객이 책임감 있고 안전한 생성형 AI 혁신을 발전시키는 데 필요한 툴과 리소스, 교육을 제공한다. 국내 고객은 아마존 타이탄(Amazon Titan)의 텍스트 임베딩 v2(Text Embeddings v2), 앤스로픽(Anthropic)의 클로드3.5 소네트(Claude 3.5 Sonnet)와 클로드3 하이쿠(Claude3 Haiku) 등의 최신 모델을 이용할 수 있다. AWS는 국내 다양한 산업 분야의 고객사와 파트너를 보유하고 있으며, 이들이 생성형 AI를 통해 혁신을 이뤄낼 수 있게 지원하고 있다고 전했다. GS리테일은 아마존 베드록을 활용해 클로드 3 멀티모달 모델 기반 차세대 패션 상품 검색 시스템을 구축했다. 이를 통해 GS SHOP의 700만 개 이상의 패션 상품 데이터에서 속성을 자동으로 추출하고 분류할 수 있게 되었으며, 그 결과 비용을 줄이면서 검색 정확도는 향상되었다.  센드버드(Sendbird)는 금융, 커머스, 미디어, 게임 등의 산업에 대규모 오픈채팅 및 그룹 메신저 채팅 기능을 API 형태로 제공하는 국내 SaaS(서비스형 소프트웨어) 기업이다. 아마존 베드록을 통해 센드버드는 더욱 빠르게 새로운 생성형 AI 모델을 도입할 수 있었고, 데이터 및 비용 관리 문제에서도 경쟁력 있는 대안을 제시함으로써 센드버드 챗봇 제품의 경쟁력을 높일 수 있었다.  식신(Siksin)은 모바일 식권 서비스와 맛집 정보 서비스를 제공하는 푸드테크 기업으로, AWS의 인프라를 활용한 LLM 기반의 AI 대시보드 ‘외식메타 인덱스’를 구축했다. 이는 아마존 베드록을 통해 클로드 3.5 소네트 모델을 사용했으며, 식신이 보유한 100만개 이상의 맛집 데이터 및 월간 350만명의 이용자의 데이터 그리고 금융, 공공 검색, SNS 분석 정보 등 다양한 이기종 데이터를 통합 분석할 수 있었다.  외국인 대상 통번역 지원 서비스를 제공해 온 비영리 단체 bbb코리아는 아마존 베드록을 통해 앤스로픽의 클로드 3.5를 활용해 통역 내용 요약 및 분석을 수행하고 있다. bbb코리아는 AWS를 활용해 통역 내용 분석을 위한 자동화된 파이프라인 구축 시간을 단축하는 등 비용을 약 120% 절감했다.  AWS 코리아의 함기호 대표는 “AWS는 고객이 실험에서 생산 단계에 이르는 생성형 AI 여정을 효율적이고 안전한 방식으로 가속화할 수 있도록 지원하고자 최선을 다하고 있다. 고객은 선택의 폭을 중요하게 생각하는데, 어떤 고객은 처음부터 구축하는 것을 선호하는 반면, 어떤 고객은 특정 사용 사례에 맞는 모델을 선호한다”면서, "아마존 베드록을 통해 모든 산업 분야의 고객이 생성형 AI 혁신을 가속화할 수 있도록 지원하게 되어 기쁘게 생각하며, AWS는 한국 내 기업들이 생성형 AI를 구축하는데 필요한 성능과 비용 효율적인 인프라를 제공할 것”이라고 말했다. 한편, AWS는 한국 전역에서 파트너 지원 프로그램, 스타트업 액셀러레이터, LLM 개발 프로그램 등에 투자해 국내 기업이 특화된 생성형 AI 에플리케이션을 더욱 쉽게 구축할 수 있도록 지원하고 있다고 소개했다. AWS는 혁신적인 생성형 AI 솔루션을 개발하는 스타트업을 선별하여 교육, 멘토링, 최대 2억 6200만원(미화 20만 달러) 상당의 AWS 크레딧을 제공하는 AWS 생성형 AI 엑셀러레이터 프로그램을 발표했다. 또한, AWS 크레딧, 기술 교육, 멘토링 및 네트워킹 기회를 제공해주는 AWS 정글 프로그램도 발표하며 스타트업 기업을 지원하고 있다.
작성일 : 2024-10-02
엔비디아, “LG의 AI 모델에 H100 GPU와 네모 프레임워크 지원”
엔비디아가 LG AI연구원의 엑사원 3.0(EXAONE 3.0)에 H100 GPU와 네모(NeMo) 프레임워크가 활용됐다고 밝혔다. 엑사원 3.0은 네모 프레임워크 위에서 LG AI연구원의 독자 기술로 개발되고 학습됐다. 엑사원 3.0은 지난 8월에 발표된 LG AI연구원의 최신 AI 파운데이션 모델로, 한국어와 영어, 코딩 등 13개 벤치마크 점수 순위에서 1위를 차지했다. 특히 메타(Meta)의 라마(Llama) 등 글로벌 동급 규모의 오픈소스 AI 모델 대비 한국어와 영어에서도 우수한 벤치마크 성능을 확보했다. 연구 목적으로 누구나 자유롭게 활용할 수 있는 엑사원 3.0은 텐서RT-LLM(TensorRT-LLM) SDK를 기반으로 효율적인 비용으로 모델을 배포할 수 있도록 지원한다.      또한 LG 그룹사 내에서도 엑사원은 다양하게 활용되고 있다. LG유플러스에서는 엑사원 기반의 통신, 플랫폼 데이터 특화의 생성형 AI인 익시젠(ixi-GEN)을 출시한 바 있다. 이번에 출시된 엑사원 3.0은 다양한 목적에 맞게 구성된 엑사원 3.0 언어모델 라인업 중에서 7.8B 인스트럭션 튠드(Instruction Tuned) 모델을 오픈소스로 공개한 것이다.  엔비디아 네모는 어디서든 생성형 AI 모델을 구축, 맞춤화, 배포할 수 있는 엔드 투 엔드 프레임워크다. 엔비디아는 생성형 AI용 엔비디아 네모를 통해 엔드 투 엔드 파이프라인, 투자 대비 수익률(ROI) 증가, 가속화된 성능 등 다양한 이점을 경험할 수 있다고 소개했다. 텐서RT-LLM은 엔비디아 AI 플랫폼에서 최신 LLM의 추론 성능을 가속화하고 최적화하는 오픈 소스 라이브러리다. 이는 엔비디아 GPU에서 프로덕트 배포를 위한 고성능을 제공한다. 한편, LG AI연구원은 엑사원 3.0을 바탕으로 개발된 엔터프라이즈 AI 에이전트(Enterprise AI Agent)인 챗엑사원(ChatEXAONE)도 공개했다. LG 그룹사를 대상으로 오픈 베타 서비스로 우선 출시된 챗엑사원은 기업 사용자의 업무 효율성을 높이고 전문가 수준의 인사이트를 제공한다.
작성일 : 2024-09-24
오토데스크, 게임 업계 콘퍼런스 ‘게임 어드밴스 서밋’ 개최
오토데스크가 9월 11일 그래비티 서울 판교 오토그래프 컬렉션에서 게임 기업의 혁신 사례와 업계 트렌드를 공유한 ‘게임 어드밴스 서밋(Game Advance Summit)’ 콘퍼런스를 개최했다고 밝혔다. 오토데스크는 이번 게임 어드밴스 서밋을 통해 급변하는 게임 시장에서 생존을 넘어 글로벌 업계를 선도하기 위한 최신 트렌드 및 방법을 함께 탐색하는 자리를 마련했다. 게임 개발 업계 관계자와 게임 산업의 미래를 준비하는 학생을 위해 글로벌 게임 기업의 혁신 사례를 통한 시장 주도 방법, 시장 대응을 위한 고품질 게임 개발의 새로운 기술과 성공 전략에 대한 인사이트를 공유했다. 이번 행사는 정부 주도 게임교육기관인 게임인재원과 함께 진행했다.     행사는 오토데스크 김건준 영업 대표의 오프닝과 스퀘어 에닉스(SQUARE ENIX) 이와부치 에이타로 리드 테크니컬 아티스트의 세션으로 시작됐다. 김건준 영업 대표는 최근 게임 개발 업계의 주요 트렌드로 ▲멀티플랫폼 게임 개발 증가 ▲고품질 게임에 대한 수요 및 기대 증가 ▲지속적인 게임 복잡성 증가 ▲투자 시간 및 비용 증가 등을 제시하며 오토데스크 솔루션을 통한 효율적 대응 방안에 대해 설명했다. 미디어 및 엔터테인먼트 제작 파이프라인 전반에 걸쳐 인력, 워크플로 및 데이터를 연결하는 클라우드 기반 플랫폼인 오토데스크 플로우(Autodesk Flow)와 오토데스크 AI(Autodesk AI) 등을 활용해 작업 속도를 향상하고, 반복 작업의 효율성을 개선함으로써, 고객이 고품질 콘텐츠를 제작할 수 있도록 지원한다는 것이 핵심이다. 촬영된 영상 속 사람의 움직임을 AI가 분석해 3D 캐릭터에 반영하는 원더 다이내믹스(Wonder Dynamics) 등을 예로 들었다. 이와부치 리드 테크니컬 아티스트는 ‘파이널 판타지 16’의 제작 과정에서 높은 퀄리티를 유지하며 작업량과 복잡성을 줄일 수 있었던 효율적인워크플로우 구축 방법을 주제로 이야기를 풀어 나갔다. 파이널 판타지 16 제작에는 방대한 양의 장면이 필요한데, 이 과정에서 효율성을 높이기 위해 작업 프로세스를 12단계로 분류했다고 말했다. 작업 프로세스를 단계별로 세분화하여 시각화 및 구체화함으로써 각 공정의 진행 상황을 파악하고 문제 발생 시 신속한 대처가 가능했다고 설명했다. 그는 눈물과 바람처럼 특수한 영상을 제작하기 위해서 영상 제작을 위한 자체 편집 프로그램인 컷 에디터(Cut Editor)를 비롯해 오토데스크의 모션 빌더(Motion Builder)와 마야(Maya)를 사용했다고 설명했다. 모션 빌더와 마야는 3D 작업 및 미디어 제작을 위한 DCC(디지털 콘텐츠 제작) 도구로, 모션 캡처 데이터나 환경 데이터는 주로 모션 빌더와 마야에서 생성된다. 이와부치 리드 테크니컬 아티스트는 게임 엔진에서 필요한 데이터는 컷 에디터 내에서 설정해야 하기 때문에, 캐릭터의 중심 위치나 동작 타이밍 컷을 맞추기 위해서는 DCC 툴인 모션 빌더, 마야와 컷 에디터를 긴밀하게 연동시키는 것이 중요하다고 강조했다. 이어 효과적인 프로젝트 관리를 위한 플로 프로덕션 트래킹(Flow Production Tracking)의 사용 사례를 소개했다. 에픽게임즈 코리아의 시니어 에반젤리스트인 권오찬 부장은 실시간으로 3D 콘텐츠를 시각화하고 상호작용할 수 있는 오토데스크의 리얼타임 기술이 가져올 콘텐츠 제작 파이프라인의 혁신과 메타버스, 그리고 크리에이터를 위한 비전을 주제로 발표했다. 권오찬 부장은 버추얼 아티스트 ‘아뽀키’, ‘플레이브’ 등을 언급하며 게임 산업과 비게임 산업에서의 언리얼 엔진 도입 사례를 통해 리얼타임이 어떻게 미래의 콘텐츠를 변화시킬 지에 대해 논의하고, 이러한 변화 속에서 에픽게임즈와 오토데스크가 크리에이터를 지원하기 위해 어떠한 노력들을 하고 있는지 이야기했다. 오토데스크코리아는 “세계적으로 게임 산업의 규모가 점점 커지고 콘텐츠 다양성 및 리얼리즘을 추구하는 만큼 더욱 정교하면서도 AI 기반 워크플로를 통한 효율적인 개발이 중요해지고 있다. 이번 게임 어드밴스 서밋이 업계에 대한 이해와 산업 트렌드에 대한 유의미한 인사이트를 나눌 좋은 기회가 됐길 바란다”면서, “오토데스크는 향후 게임 개발자의 생산성 향상과 더불어 이들의 창의성을 구현하는 도구를 제공하여, 게임 산업의 업무 효율성을 증대와 발전을 이룰 수 있도록 적극적으로 노력할 것”이라고 전했다.
작성일 : 2024-09-13
스노우플레이크, “코텍스 AI에서 라마 3.1 호스팅 개시”
스노우플레이크는 기업이 강력한 AI 애플리케이션을 대규모로 쉽게 활용 및 구축할 수 있도록 스노우플레이크 코텍스 AI(Snowflake Cortex AI)에서 메타의 라마 3.1에 대한 호스팅을 개시한다고 발표했다. 라마 3.1은 다중 언어 오픈소스 대규모 언어 모델(LLM)의 컬렉션이다. 이번에 출시한 서비스에는 메타에서 가장 큰 규모이자 강력한 성능의 오픈소스 LLM인 라마 3.1 405B가 제공된다. 스노우플레이크는 실시간의 고처리량 추론을 구현함은 물론 강력한 자연어 처리 및 생성 애플리케이션의 보편화를 증진하는 추론 시스템 스택을 개발하고 오픈 소싱한다. 스노우플레이크의 AI 리서치팀은 추론 및 파인튜닝에 대해 라마 3.1 405B를 최적화함으로써 서비스 개시 첫날부터 거대한 128K 컨텍스트 윈도를 지원한다. 동시에 기존 오픈소스 솔루션에 비해 엔드 투 엔드 지연시간은 최대 3분의 1로 낮아지고 처리량은 1.4배 높아진 실시간 추론을 구현한다. 또한, 코텍스 AI에서 하나의 GPU 노드만을 사용해 거대 모델을 미세 조정할 수 있어 개발자와 사용자 모두에게 비용과 복잡성을 완화해준다. 메타와 협력을 통해 스노우플레이크 고객은 AI 데이터 클라우드에서 메타의 최신 모델에 원활하게 액세스하고 파인튜닝하여 배포할 수 있다. 스노우플레이크는 사용이 간편하고 효율성 및 신뢰도 높은 방법은 물론, 기본적으로 내장된 신뢰도 및 안전성에 대한 포괄적인 접근방식을 제공한다.     스노우플레이크 AI 리서치팀은 AI 커뮤니티에 정기적으로 기여하고 최첨단 LLM 기술 구축 방식에 대한 투명성을 높여 오픈소스 혁신의 한계를 넓혀가고 있다. 또한, 라마 3.1 405B의 출시와 더불어 딥스피드(DeepSpeed), 허깅페이스(HuggingFace), vLLM 및 보다 폭넓은 AI 커뮤니티와의 협업을 통해 자사의 초거대 LLM 추론 및 파인튜닝 시스템 최적화 스택을 오픈 소스화하고 있다. 이러한 혁신을 통해 수천억 개의 매개변수 모델에 대한 오픈소스 추론 및 파인튜닝 시스템에 필요한 새로운 최첨단 솔루션을 구축한다. 초거대 모델의 규모 및 메모리에 대한 요구사항은 실시간 유스케이스에 요구되는 저지연성 추론과 비용 효율을 위한 높은 처리량, 그리고 다양한 엔터프라이즈급 생성형 AI 유스케이스에 필요한 긴 컨텍스트 지원을 실현하고자 하는 사용자에게 있어 상당한 도전 과제다. 모델 및 활성 상태 저장에 대한 메모리 요구사항도 파인튜닝을 어렵게 하며, 훈련을 위한 모델의 상태에 맞춰야 하는 대규모 GPU 클러스터에 데이터 과학자가 액세스할 수 없는 경우도 빈번하다. 스노우플레이크는 초거대 LLM 추론 및 파인튜닝 시스템 최적화 스택은 고급 병렬화 기술과 메모리 최적화를 통해 복잡하고 고비용의 인프라가 없어도 효율적인 AI 처리가 가능하다고 설명했다. 라마 3.1 405B의 경우 스노우플레이크의 시스템 스택은 단일 GPU 노드 하나로도 실시간의 고처리량 성능을 발휘하고 다중 노드 설정 전반에 걸쳐 128k 개의 거대한 컨텍스트 윈도를 지원한다. 이러한 유연성은 차세대 하드웨어와 레거시 하드웨어 모두에 유효해, 보다 광범위한 기업들이 이용할 수 있다. 또한 데이터 과학자들이 전보다 적은 개수의 GPU 상에서 복합 정밀 기술을 사용해 라마 3.1 405B를 파인튜닝할 수 있으므로 대규모 GPU 클러스터에 대한 필요성이 사라진다. 이에 따라 기업들은 강력한 엔터프라이즈급 생성형 AI 애플리케이션을 보다 편리하고 효율적이며 안전하게 채택하고 배포할 수 있다. 스노우플레이크의 AI 리서치팀은 기업들이 이러한 유스케이스를 코텍스 AI에서 쉽게 적용할 수 있도록 모델 증류, 안전 가드레일, 검색 증강 생성(RAG), 합성 데이터 생성 등 파인튜닝에 최적화된 인프라도 개발했다. 한편, 스노우플레이크는 코텍스 AI에 구축된 모든 LLM 애플리케이션 및 자산을 유해한 콘텐츠로부터 더욱 강도 높게 보호하기 위해 업계 선도 기업과 협업하고 있다고 전했다. 메타의 모델 또는 AI21 랩스(AI21 Labs), 구글, 미스트랄 AI(Mistral AI), 레카(Reka) 및 스노우플레이크 등이 제공하는 LLM을 통해 스노우플레이크 코텍스 가드를 일반인들이 이용할 수 있도록 공개하고 있다는 것이다. 스노우플레이크의 비벡 라구나단(Vivek Raghunathan) AI 엔지니어링 부사장은 “스노우플레이크의 AI 리서치팀은 기업과 오픈 소스 커뮤니티가 라마 3.1 405B 등의 최첨단 오픈 모델을 적극 활용해 효율 극대화를 위한 추론 및 파인튜닝을 가능하게 한다”면서, “스노우플레이크는 메타의 첨단 모델을 스노우플레이크 코텍스 AI를 통해 고객에게 직접 제공할 뿐만 아니라, 더 폭넓은 생태계에서 AI를 고도화하기 위해 128K 컨텍스트 윈도와 다중노드 추론, 파이프라인 병렬화, 8비트 부동 소수점 양자화 등을 지원하는 새로운 연구 및 오픈소스 코드로 기업과 AI 커뮤니티의 역량을 강화하고 있다”고 말했다.
작성일 : 2024-09-09
에픽게임즈, ‘언리얼 페스트 2024 서울’ 전체 세션 내용 공개
에픽게임즈 코리아는 ‘언리얼 페스트 2024’의 트랙별 전체 세션 및 세션 상세 내용을 공개했다고 밝혔다. 언리얼 페스트는 에픽게임즈 임직원 및 외부 전문가들이 개발자 및 크리에이터들에게 언리얼 엔진 및 에픽게임즈의 에코시스템을 구성하는 제품들에 대한 최신 기술을 소개하고 혁신적인 리얼타임 3D 인터랙티브 제작 경험을 공유하는 자리다. 8월 28일~29일 서울 잠실의 롯데호텔 월드에서 개최되는 올해 언리얼 페스트는 ‘게임 : 프로그래밍’, ‘게임 : 아트 및 공통’, ‘영화 & TV, 애니메이션, 방송’ 그리고 ‘건축 및 기타’ 등 4개의 산업별 트랙에서 40여 개의 역대 최다 세션이 준비될 예정이다. 코로나 팬데믹 이후 처음으로 전 일정이 모두 오프라인으로 진행되며, 일부 세션은 온라인으로 동시 중계된다.     공개된 세션 내용을 살펴보면, 먼저 게임 트랙에서는 ▲출시와 함께 대량의 아이템 제작 방법과 차세대 콘솔에서 각 아이템을 표현하기 위한 베이킹 프로세스 및 머티리얼 활용법 등 ‘철권 8’의 캐릭터 커스터마이징 개발에 대해 살펴보는 ‘‘철권 8’ 출시와 동시에 12,000개 아이템 공개! 캐릭터 커스터마이징 아이템 제작과 차세대 콘솔 대응 방법’ 세션을 비롯해 ▲시프트업에서 올 상반기 글로벌 흥행에 성공한 ‘스텔라 블레이드’와 관련해 ‘‘스텔라 블레이드’ VFX : 차세대 FX를 위한 나이아가라’, ‘‘스텔라 블레이드’ 화려함과 성능의 조화 : 스타일리시 액션 게임의 전투 시스템, 비주얼, 그리고 최적화' 세션을 진행한다.  ▲크래프톤의 ‘inZOI’ 개발팀에서는 ‘‘inZOI’의 도시 제작과 캐릭터 페이셜 릭’ 세션을 통해 실시간으로 변화하는 ‘inZOI’의 환경에서 실내외 라이팅을 구현한 방법과 나나이트와 인스턴스 스태틱 메시를 사용하여 도시의 디테일을 보존하면서도 쾌적한 플레이가 가능하도록 최적화한 방법 그리고 ‘inZOI’ 개발에 메타휴먼을 활용한 방법 등에 대해 소개한다.  ▲하운드13은 ‘‘드래곤 소드’ : 데디케이티드 서버 최적화와 비용 절감 사례’ 세션을 통해 ‘드래곤 소드’의 안정적인 멀티 플레이를 위해 활용한 언리얼 데디케이티드 서버의 성능 및 네트워크 최적화 방법을 설명한다. 이와 함께 ▲‘나나이트의 여정’ ▲‘서브스트레이트 : 사실적인 재질 표현을 위한 차세대 머티리얼 시스템 알아보기’ ▲‘프로시저럴 콘텐츠 생성 프레임워크(PCG) : 바이옴 코어 플러그인으로 손쉽게 활용하고 최신 기능 이해하기’ ▲‘모션 매칭 : 자연스러운 애니메이션 손쉽게 구현하기’ ▲‘컨트롤 릭과 시퀀서를 활용한 효율적인 애니메이션 워크플로’ 등 언리얼 엔진 5를 대표하는 최신 기능 관련 세션들도 준비돼 있다. 영화 & TV, 애니메이션, 방송 트랙에서는 ▲BTS의 리더 RM의 뮤직비디오 제작 사례를 통해 버추얼 프로덕션의 혁신적인 제작 방식과 과정 등을 살펴보는 ‘RM ‘Come Back to Me’ 시네마틱 뮤직비디오로 살펴보는 버추얼 프로덕션의 혁신적인 콘텐츠 제작 방식’ 세션과 ▲언리얼 엔진의 버추얼 프로덕션 기능을 이용한 제22대 국회의원 선거 개표방송 ‘MBC 선택 2024’ 무대 제작과정에 대해 소개하는 ‘‘MBC 선택 2024’를 통해 알아보는 nDisplay를 활용한 애너모픽 콘텐츠 제작' 세션이 진행된다. 또한 ▲버추얼 아티스트 ‘아뽀키’, ‘오바’, ‘도주’, ‘르샤’의 라이브 방송 경험을 바탕으로 버추얼 캐릭터를 위한 라이브 방송 제작 과정을 소개하는 ‘버추얼 아티스트 ‘아뽀키’의 라이브 방송 시스템’ ▲‘플레이브’ WAY 4 LUV 뮤직비디오의 제작 과정을 룩뎁 아트를 중심으로 살펴보고, 지난 1년 동안의 블래스트 영상 제작 파이프라인의 주요 개선점에 대해 설명하는 ‘‘플레이브’의 WAY 4 LUV 뮤직비디오 제작기’ 등 버추얼 아티스트들에 대한 강연이 진행된다. 이와 함께 ▲언리얼 엔진 5 파이프라인으로 최소한의 인력으로 TV 애니메이션 시리즈 11부작을 제작한 과정을 소개하는 ‘언리얼 엔진 파이프라인이 처음인 회사를 위한 TV 애니메이션 시리즈 제작 과정’ ▲장편 애니메이션 ‘미스터 로봇’을 제작하면서 구축한 제작 파이프라인 및 제작 노하우를 공유하는 ‘‘미스터 로봇’ : 장편 애니메이션 제작 파이프라인과 제작 노하우’ 등 애니메이션 관련 세션들도 진행된다. 에픽게임즈에서는 ▲언리얼 엔진 5.4에 추가된 모션 디자인을 위한 새로운 툴세트인 모션 디자이너의 새롭고 흥미로운 세계를 소개하는 ‘언리얼 엔진 5.4 모션 디자이너’ ▲언리얼 엔진의 최신 업데이트와 시각화, 인카메라 VFX, 포스트 프로덕션 등 언리얼 엔진 5.5의 버추얼 프로덕션 로드맵을 미리 살펴보는 ‘영화&TV, 애니메이션, 방송을 위한 언리얼 엔진 로드맵’ 등의 세션을 준비했다. 건축 및 기타 트랙에서는 ▲트윈모션의 최신 기능을 활용해 건축, 자동차, 제품 디자인 등에서 포토리얼한 시각화를 빠르게 구성하는 방법에 대해 알아보는 ‘트윈모션으로 다양한 산업에서 손쉽게 포토리얼한 시각화 제작하기’ ▲언리얼 엔진 5의 리얼타임 기술을 사용하여 기존 오프라인 렌더러를 사용하던 건축 관련 콘텐츠 제작에서 탈피해 얻는 기술적 장점과 비용 절감 효과에 대해 살펴보는 ‘언리얼 엔진을 활용한 효율적인 건축 콘텐츠 제작 사례’ 세션이 진행된다. ▲언리얼 엔진을 활용한 광범위 도심 디지털 트윈 구현 방법에 대해 살펴보는 ‘언리얼 엔진을 활용한 광역 도심 디지털 트윈 구현과 활용’ ▲탄소중립을 달성하기 위한 혁신적인 건물 에너지 관리 시스템 구축 사례와 이에 활용된 언리얼 엔진의 디지털 트윈 기술에 대해 알아보는 ‘탄소중립을 향한 도전 : 언리얼 엔진 디지털 트윈’ 등 다양한 산업은 물론 일상생활에까지 확장되고 있는 디지털 트윈 관련 세션도 준비돼 있으며, ▲에픽의 에코시스템 제품군을 활용한 디지털 에셋 데이터의 제작과 근현대물 디지털 복원 관련 다양한 사례를 설명하는 ‘트윈모션, 리얼리티캡처를 활용한 근현대물 기록 보존과 활용 사례’와 ▲언리얼 엔진을 활용한 공장과 물류센터 통합관리 서비스와 사례를 살펴보는 ‘AI와 디지털 트윈을 활용한 공장과 물류센터 통합 관리 서비스’ 등의 세션도 진행된다. 이외에도 ▲언리얼 엔진 개발자들이 포트나이트 언리얼 에디터(UEFN)로 쉽게 전환할 수 있도록 그 유사점과 차이점에 대해 살펴보는 ‘언리얼 엔진 개발자를 위한 포트나이트 언리얼 에디터(UEFN)’ ▲직접 경험한 UEFN에서의 성공 사례를 중심으로 2024년부터 대두되고 있는 UGC 산업에 대한 분석과 함께 Watch-Play 크로스 미디어 전략을 공유하는 ‘UGC는 게임 산업의 미래가 될 것인가? UEFN 성공 사례를 중심으로’ ▲UEFN의 툴, 포트나이트 플랫폼 그리고 UGC 성공 사례에 대해 소개하는 ‘UEFN : UEFN 및 포트나이트 에코시스템 소개’ 등 에픽의 에코시스템 기술 중 하나인 포트나이트 언리얼 에디터에 대한 세션도 마련돼 있다.
작성일 : 2024-08-07