• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "오디오"에 대한 통합 검색 내용이 863개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
[온에어] 2024 생성형 AI 트렌드 결산과 2025 전망
캐드앤그래픽스 CNG TV 지식방송 지상 중계   2024년 12월 23일, CNG TV는 ‘2024 생성형 AI 트렌드 결산과 2025 전망’을 주제로 줌 생방송을 진행했다. 2024년은 생성형 AI가 다양한 산업에서 혁신을 이끌어낸 해로 기억될 것이다. 이번 CNG TV에서는 생성형 AI에 대한 대중적 관심과 사회적 주목이 뜨거웠던 2024년을 정리하고, 2025년 새해에는 어떤 변화가 있을지 전망하는 시간을 가졌다. 자세한 내용은 다시보기를 통해 확인할 수 있다. ■ 박경수 기자    ▲ AI가 주도하는 기술 혁신에 대한 소개   2024년을 주도한 키워드 ‘생성형 AI’ 이날 웨비나에서 LG CNS의 안무정 박사는 “2024년은 생성형 AI가 다양한 산업에서 혁신을 주도한 해였다”고 언급하며, “텍스트, 코드, 이미지, 오디오, 비디오, 3D 모델링 등 여섯 가지 주요 기능에서 생성형 AI의 활용성이 여러 분야로 크게 확장되었다”고 설명했다. 그는 또한 “AI 기술 도입과 관련해 신뢰성, 속도, 창의성 등의 다양한 지표를 기반으로 비용을 평가해야 할 시점이 되었다”고 강조했다. 안 박사는 생성형 AI를 비즈니스 프로세스에 통합하려면 맞춤형 솔루션과 AI 파이프라인 구축이 필수라고 분석했다. 예를 들어, 텍스트 데이터는 지식 기반으로 정제하고 이미지 데이터는 시각적 자산으로 활용하여 제품 설계와 같은 과정에 도움을 줄 수 있다는 설명이다.안무정 박사는 또한, 기업에서는 데이터 보안과 지적 재산권 보호를 위해 폐쇄형 네트워크 모델의 중요성이 점점 커지고 있다고 덧붙였다. 글로벌 AI 모델 대신 도메인 특화형 모델이 기업에 더 적합하다는 평가가 제시되었고, 에지 모델과 같은 솔루션을 도입하여 실제로 의미 있는 성과를 내고 있는 LG전자의 사례도 소개되었다.   ▲ 생성형 AI는 비싼가?   2025년 AI 활용도는 더욱 높아질 전망 안무정 박사는 “비주얼 디자인, 음악, 소설과 같은 창의적 작업에서도 생성형 AI가 전문가와의 협업을 통해 혁신적인 결과물을 만들어내고 있다”며, “앞으로는 기후변화와 같은 글로벌 도전 과제 해결에도 생성형 AI가 중요한 역할을 할 가능성이 크다”고 짚었다. 그는 AI를 활용한 자동화와 생산성 증대가 산업 전반에 걸쳐 혁신적인 성과를 가져올 것이라고 전망하며, “코딩과 알고리즘의 진입 장벽이 AI로 인해 낮아지면서 더 많은 사람이 AI 기술에 쉽게 접근할 수 있을 것”이라고 설명했다. 2025년에는 AI가 멀티모달 기반으로 확장되며, 다양한 산업 분야에서 더욱 활발하게 활용될 것으로 보인다. 이는 단순히 기술 적용을 넘어, 각 산업 분야에서의 비즈니스 혁신과 글로벌 문제 해결에도 적극적이면서 강력한 도구로 자리 잡을 것으로 기대된다.    ▲ 사용자 목적에 따른 생성형 AI의 활용 방안 제안     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-02-04
엔비디아, 블랙웰 지포스 RTX 50 시리즈 출시
엔비디아가 게이머, 크리에이터, 개발자를 위한 최첨단 소비자용 GPU인 지포스 RTX 50 시리즈 데스크톱과 노트북 GPU(GeForce RTX 50 Series Desktop and Laptop GPU)를 공개했다. 엔비디아 블랙웰(NVIDIA Blackwell) 아키텍처, 5세대 텐서 코어(Tensor Core), 4세대 RT 코어(RT Core)를 기반으로 하는 지포스 RTX 50 시리즈는 뉴럴 셰이더, 디지털 휴먼 기술, 지오메트리, 조명을 포함한 AI 기반 렌더링의 혁신을 제공한다. 엔비디아 창립자 겸 CEO인 젠슨 황(Jensen Huang)은 “PC 게이머, 개발자, 크리에이터를 위한 AI 엔진인 블랙웰이 등장했다. AI 기반의 뉴럴 렌더링과 광선 추적을 융합한 블랙웰은 25년 전 프로그래머블 셰이딩을 도입한 이래 가장 중요한 컴퓨터 그래픽 혁신”이라고 말했다. 현재까지 출시된 지포스 RTX GPU 중 가장 빠른 지포스 RTX 5090 GPU는 920억 개의 트랜지스터를 탑재하고 있으며, 초당 3,352조 이상의 AI 연산(TOPS) 처리 능력을 제공한다. 블랙웰 아키텍처 혁신과 DLSS 4 덕분에 지포스 RTX 5090 GPU는 지포스 RTX 4090 GPU보다 최대 2배 더 우수한 성능을 발휘한다. 지포스 블랙웰은 데스크톱 모델의 모든 기능을 갖춘 노트북에 탑재된다. 이는 탁월한 그래픽 기능과 놀라운 효율성을 포함해 휴대용 컴퓨팅에 상당한 업그레이드를 제공한다. 엔비디아 맥스-Q(Max-Q) 기술의 블랙웰 세대는 배터리 수명을 최대 40%까지 연장하며, 전력이나 성능을 희생하지 않고 세련된 디자인을 유지하는 얇고 가벼운 노트북을 포함한다. 최대 8배의 성능을 향상시키는 엔비디아 DLSS 4 DLSS 4는 렌더링된 프레임당 최대 3개의 프레임을 생성하기 위해 AI를 사용해 프레임 속도를 높이는 멀티 프레임 생성(Multi Frame Generation)을 선보인다. 이 기술은 DLSS 기술 제품군과 함께 작동해 엔비디아 리플렉스(Reflex) 기술로 응답성을 유지하면서 기존 렌더링보다 최대 8배의 성능 향상을 제공한다. 또한 DLSS 4는 그래픽 업계 최초로 트랜스포머 모델 아키텍처를 실시간으로 적용한다. 트랜스포머 기반의 DLSS 레이 리컨스트럭션(Ray Reconstruction)과 슈퍼 레졸루션(Super Resolution) 모델은 2배 더 많은 파라미터와 4배 더 많은 연산을 사용한다. 이를 통해 게임 장면에서 더 큰 안정성, 감소된 고스팅, 더 높은 디테일, 향상된 안티 앨리어싱(anti-aliasing)을 제공한다. DLSS 4는 75개 이상의 게임과 애플리케이션에서 지포스 RTX 50 시리즈 GPU를 통해 지원될 예정이다. 엔비디아 리플렉스 2는 디스플레이로 보내기 직전에 최신 마우스 입력을 기반으로 렌더링된 프레임을 업데이트해 게임의 지연 시간을 줄이는 혁신적인 기술인 프레임 워프(Frame Warp)를 도입한다. 리플렉스 2는 지연 시간을 최대 75%까지 줄일 수 있다. 이를 통해 게이머는 멀티플레이어 게임에서 경쟁 우위를 점할 수 있고 싱글 플레이어 타이틀의 반응성도 향상된다. 블랙웰, 셰이더에 AI 도입 25년 전, 엔비디아는 지포스 3와 프로그래밍 가능한 셰이더를 출시했다. 이 셰이더는 픽셀 셰이딩, 컴퓨트 셰이딩, 실시간 레이 트레이싱에 이르기까지 20년 동안 그래픽 혁신의 발판을 마련했다. 엔비디아는 지포스 RTX 50 시리즈 GPU와 함께 RTX 뉴럴 셰이더(Neural Shader)를 출시한다. 이 셰이더는 작은 AI 네트워크를 프로그래밍 가능한 셰이더에 도입해 실시간 게임에서 영화 수준의 소재, 조명 등을 구현한다. 게임 캐릭터 렌더링은 실시간 그래픽에서 가장 어려운 작업 중 하나다. 사람들이 디지털 휴먼에서 아주 작은 오류나 부작용을 쉽게 발견해내기 때문이다. RTX 뉴럴 페이스(Neural Face)는 단순한 래스터화된 얼굴과 3D 포즈 데이터를 입력으로 받아서, 생성형 AI를 사용해 실시간으로 일시적으로 안정적이고 고품질의 디지털 페이스를 렌더링한다. RTX 뉴럴 페이스는 레이 트레이싱된 머리카락과 피부용으로 새롭게 개발된 RTX 기술로 보완된다. 장면에서 레이 트레이싱 삼각형을 최대 100배까지 늘려주는 새로운 RTX 메가 지오메트리(Mega Geometry)와 함께, 이러한 발전은 게임 캐릭터와 환경의 사실성을 크게 향상시킬 것이다. 뉴럴 렌더링의 힘, DLSS 4, 그리고 새로운 DLSS 트랜스포머 모델은 엔비디아의 획기적인 신기술 데모인 조라(Zorah)를 통해 지포스 RTX 50 시리즈 GPU에서 선보인다. 자율 게임 캐릭터 지포스 RTX 50 시리즈 GPU는 업계 최고의 AI 톱스(TOPS)를 통해 게임 렌더링과 병행해 자율 게임 캐릭터를 구동한다. 엔비디아는 게임 캐릭터가 인간 플레이어처럼 인지하고, 계획하고, 행동할 수 있도록 하는 새로운 엔비디아 에이스(ACE) 기술 제품군을 소개한다. 에이스 기반 자율 캐릭터는 크래프톤(KRAFTON)의 PUBG: 배틀그라운드(PUBG: BATTLEGROUNDS)와 곧 출시될 생활 시뮬레이션 게임인 인조이(InZOI), 그리고 위메이드 넥스트(Wemade Next)의 미르5(MIR5)에 통합되고 있다. PUBG에서는 엔비디아 에이스로 구동되는 동료들이 생존을 위해 휴먼 플레이어와 역동적으로 협력하면서 전략적 행동을 계획하고 실행한다. 인조이에는 삶의 목표와 게임 내 이벤트에 따라 행동을 자율적으로 조정하는 스마트 조이(Smart Zoi) 캐릭터가 등장한다. 미르5에서는 거대 언어 모델(large language model, LLM) 기반 레이드 보스가 플레이어의 행동에 따라 전술을 조정해 더욱 역동적이고 도전적인 만남을 만들어 낸다. RTX AI PC용 AI 파운데이션 모델 엔비디아는 블랙 포레스트 랩스(Black Forest Labs), 메타(Meta), 미스트랄(Mistral), 스태빌리티 AI(Stability AI)와 같은 최고의 모델 개발자들이 만든 NIM 마이크로서비스와 RTX AI PC용 AI 블루프린트(Blueprint) 파이프라인을 출시할 예정이다. 이는 RTX 애호가와 개발자들이 엔비디아 NIM 마이크로서비스를 사용해 AI 에이전트와 어시스턴트를 구축하는 방법을 소개하기 위함이다. 사용 사례는 LLM, 비전 언어 모델, 이미지 생성, 음성, 검색 증강 생성(retrieval-augmented generation, RAG)을 위한 임베딩 모델, PDF 추출, 컴퓨터 비전 등 다양한 분야에 걸쳐 있다. NIM 마이크로서비스에는 PC에서 AI를 실행하는 데 필요한 모든 구성 요소가 포함돼 있으며, 모든 엔비디아 GPU에 배포할 수 있도록 최적화돼 있다. 엔비디아는 애호가들과 개발자들이 NIM을 사용해 AI 에이전트와 어시스턴트를 구축할 수 있는 방법을 보여주기 위해 프로젝트 R2X(Project R2X)를 미리 공개했다. 프로젝트 R2X는 사용자의 손끝에 정보를 제공하고, 데스크톱 앱과 화상 회의 통화를 지원하고, 문서를 읽고 요약하는 등의 기능을 수행할 수 있는 비전 지원 PC 아바타다. 크리에이터를 위한 AI 기반 도구 지포스 RTX 50 시리즈 GPU는 크리에이티브 워크플로우를 강화한다. RTX 50 시리즈 GPU는 FP4 정밀도를 지원하는 최초의 소비자용 GPU이다. 이는 플럭스(FLUX)와 같은 모델의 AI 이미지 생성 성능을 2배 향상시키고, 이전 세대 하드웨어에 비해 더 작은 메모리 공간에서 생성형 AI 모델을 로컬로 실행할 수 있도록 한다. 엔비디아 브로드캐스트(Broadcast) 앱은 라이브 스트리머를 위한 두 가지 AI 기반 베타 기능을 제공한다: 마이크 오디오를 업그레이드하는 스튜디오 보이스(Studio Voice)와 세련된 스트리밍을 위해 얼굴을 다시 비추는 버추얼 키 라이트(Virtual Key Light)이다. 스트림랩스(Streamlabs)는 엔비디아 에이스와 인월드 AI(Inworld AI)를 기반으로 하는 인텔리전트 스트리밍 어시스턴트(Intelligent Streaming Assistant)를 소개한다. 이 기능은 라이브 스트리밍을 향상시키기 위해 공동 진행자, 프로듀서, 기술 보조자의 역할을 한다. 이용 정보 데스크톱 사용자의 경우, 3,352개의 AI 톱스의 지포스 RTX 5090 GPU와 1,801개의 AI 톱스의 지포스 RTX 5080 GPU가 오는 1월 30일에 각각 $1,999와 $999에 출시될 예정이다. 1,406개의 AI 톱스의 지포스 RTX 5070 Ti GPU와 988개의 AI 톱스의 지포스 RTX 5070 GPU는 2월부터 각각 $749와 $549에 판매될 예정이다. 지포스 RTX 5090, RTX 5080, RTX 5070 GPU의 엔비디아 파운더스 에디션(Founders Edition)는 nvidia.com과 전 세계 일부 소매점에서 직접 구매할 수 있다. 에이수스(ASUS), 컬러풀(Colorful), 게인워드(Gainward), 갤럭시(GALAX), 기가바이트(GIGABYTE), 이노3D(INNO3D), KFA2, MSI, 팔릿(Palit), PNY, 조탁(ZOTAC) 등 최고의 애드인 카드 제공업체와 팔콘 노스웨스트(Falcon Northwest), 인피니아크(Infiniarc), 메인기어(MAINGEAR), 미프콤(Mifcom), 오리진 PC(ORIGIN PC), PC 스페셜리스트(PC Specialist), 스캔 컴퓨터스(Scan Computers) 등 데스크탑 제조업체에서 기본 클럭 모델과 공장 오버클럭 모델을 구입할 수 있다.
작성일 : 2025-01-27
델 테크놀로지스, “기업 사용자의 AI PC 전환에 대한 관심 높아”
  델 테크놀로지스가 발표한 최근 조사에 따르면 기업의 일반 PC 실사용자 중 68.2%가 현재 사용 중인 일반 업무용 PC에서 AI PC로 전환할 의향이 있는 것으로 나타났다. 한국 델 테크놀로지스는 한국IDG와 발간한 ‘업무용 PC 사용 현황 및 AI PC 전망 보고서’의 내용을 소개했다. 이번 조사는 기업 환경에서 AI를 활용하는 비중이 높아지는 추세에 따라 AI PC 및 업무용 PC·워크스테이션의 사용 현황과 향후 전망을 파악하기 위해 실시됐으며, 2024년 11월 2주간 업무용 PC 실사용자 및 IT 구매 담당자 2982명을 대상으로 진행됐다. 이번 조사에 따르면 기업 환경에서 학습 데이터 가공, AI 모델 트레이닝, 시뮬레이션 및 테스트 등 AI 관련 워크로드의 비중이 빠르게 증가하고 있는 것으로 나타났다. 델 테크놀로지스가 지난 2023년 11월 진행한 ‘업무용 PC 및 워크스테이션 사용 현황 조사’ 결과와 비교하면, 워크스테이션을 통해 AI 워크로드를 처리한다는 응답은 9.8%에서 13.1%로, 일반 PC는 3.2%에서 7.1%로 증가했다. 업무 환경에서 AI의 비중이 높아지고 있는 반면, AI PC에 대한 최종 사용자와 기업 IT 관리자의 인지도는 아직 적은 것으로 나타났다. 이번 조사에서 ‘일반 PC와 AI PC의 차이를 잘 알고 있다’는 응답은 IT 관리자의 21.7%, 실사용자의 15.3%에 불과했으며, ‘AI PC’라는 용어는 알지만 실제 내용은 잘 모른다’는 응답이 60% 내외로 대다수를 차지했다. AI PC는 CPU, GPU, NPU의 처리 능력을 결합한 새로운 PC 아키텍처로, 특히 자체 탑재한 NPU를 활용해 클라우드에 연결하지 않고 로컬 디바이스에서 자체적으로 코파일럿(Copilot)과 같은 AI 비서를 활성화하여 업무 효율을 높이고 생산성을 향상시킨다. 또한, 챗봇을 통해 정보를 효과적으로 검색하는 것부터 문서 작성, 자료 요약, 음성 인식, 이미지 편집 등 다양한 작업을 보다 효과적으로 지원한다. 이와 같은 특징을 갖는 AI PC의 가장 큰 매력 포인트를 묻는 질문에 실사용자의 41.4%, IT 관리자의 33.1%가 ‘일반 PC보다 AI 워크로드를 더 빨리 처리한다’는 점을 가장 먼저 꼽았다. 이어 실사용자의 27.6%, IT 관리자의 31.4%가 ‘AI 기반 편의 기능’을 꼽았다. 이는 기존 업무용 PC 대비 AI PC의 지능적이고 높은 성능에 대한 기대감이 높다는 점을 시사한다. 또한, 현재 사용 중인 PC에서 보완이 필요한 점과 AI PC의 특징을 고려할 때, AI PC를 선택할 의향이 있냐는 질문에 일반 PC 실사용자 중 68.2%가 ‘있다’고 답했다. 특히, 미디어와 콘텐츠 제작 업계에 종사하는 사용자들이 AI PC를 선택하는 데 적극적인 반응을 나타냈다.     또한, 올해 10월 윈도우 10 지원이 종료된다는 점도 AI PC로 전환을 유도하는 데 영향을 미치는 것으로 나타났다. 윈도우 11의 보안 및 하드웨어 요구사항이 높아졌다는 점에서 운영체제 업그레이드를 위해 PC를 교체하고, AI PC를 선택하는 기업이 더욱 많아질 것으로 예상된다. 이번 조사에 참여한 IT 구매 담당자 중 절반에 가까운 44.5%가 윈도우 10 지원 종료 시점에 맞춰 PC 교체를 고려하고 있다고 답했다. 조직의 규모에 따라 PC 교체를 고려한다는 응답률은 다양했다. 대기업 응답자는 57.1%를 기록했으며, 중 견기업과 중소기업은 각각 약 40%와 39%를 기록했다. AI PC의 범주에는 AI 개발, 배포, 정밀 튜닝 작업을 디바이스에서 로컬로 실행하는 ‘AI 워크스테이션’도 포함되어 있다. 이는 인텔 HX, 제온 또는 AMD 스레드리퍼 프로 CPU를 탑재하며, 엔비디아 RTX 5000 GPU 이상으로 구성된 시스템을 일컫는다. 워크스테이션 사용 비율은 실사용자의 업무 유형에 따라 다르게 집계됐는데, 가장 비율이 높은 직무는 제조 연구 개발 직무 종사자(42.2%)로 거의 절반에 달했으며, 제품 디자인 설계 직무와 데이터 사이언티스트(35%)가 그 뒤를 이었다. 반면에 일반 사무직 종사자의 경우, 워크스테이션 사용 비율은 12.1%로 10명 중 1명만이 워크스테이션을 사용하는 것으로 나타났다. 워크스테이션이 고도의 컴퓨팅 성능이 필요한 전문 워크로드에 많이 사용되는 가장 주된 이유는 성능 때문이다. 워크스테이션은 일반 PC와는 달리 서버용 CPU를 주로 사용하고, GPU도 게임용 그래픽카드가 아니라, 그래픽 메모리만 수십 기가바이트(GB)인 전문가용 프로세서를 탑재한다. 테라바이트(TB) 단위의 메모리나 수십 TB를 넘는 스토리지 용량 역시 CAD/CAM이나 3D 콘텐츠 제작 및 편집 같은 전문 워크로드를 처리하는 데 일반 PC와는 다른 차원의 성능을 제공한다. 현재 워크스테이션 실사용자가 워크스테이션을 선택한 가장 큰 이유도 ‘CPU 및 GPU 성능(83.1%)’ 때문으로 나타났다. 스토리지와 메모리(46.0%)가 그 뒤를 이었으며, 냉각 방식이나 소음 제어 등을 포함한 시스템 안정성도 33.5%의 비교적 높은 응답률을 나타냈다. 반면 업무용 PC 사용자들은 워크스테이션의 장점인 성능과 안정성을 현재 사용하는 PC의 단점으로 꼽았다. 현재 사용 중인 업무용 PC의 아쉬운 점 두 가지를 묻는 질문에 일반 PC 사용자의 60.1%가 시스템 성능 및 확장성을, 48.4%가 시스템 안정성을 지적했다. 이 외에 보안, 그래픽 및 오디오 사양, 주변기기 연결성 등도 20%에 가까운 적지 않은 응답률을 보였다. 이는 성능과 확장성, 안정성에 대한 일반 PC 사용자의 니즈가 워크스테이션 도입으로 이어질 수 있는 가능성을 내포하고 있다. 실제로, 업무용 PC를 사용하는 기업 중 올해 AI 프로젝트에 투입할 예정인 기업은 34.5%이며, 이 중 AI 개발 및 테스트 작업을 위한 클라이언트 기기 교체 또는 신규 도입에 투자할 계획이라는 응답은 33.0%였다. 특히, 워크스테이션에 투자할 계획이 있는 기업은 56.0%로 집계됐다.  한국 델 테크놀로지스의 김경진 총괄사장은 “AI가 현대 업무 환경에서 생산성과 혁신을 주도하는 중심축으로 자리 잡으면서 기업들은 AI를 보다 쉽고 안전하게 활용할 수 있는 기술 환경을 구현해야 하는 과제를 안고 있다. 이를 위해서는 하드웨어와 소프트웨어, 서비스를 포함해 온전한 AI 활용 경험을 제공할 수 있는 환경이 필요하다”면서, “PC는 AI 중심 업무의 혁신을 이끄는 첨병이다. 델 테크놀로지스는 폭넓은 AI PC 포트폴리오를 갖추고 다양한 업무 영역을 지원하고 있으며, 모든 사용자가 업무 환경에서 AI를 비용 효과적으로 활용할 수 있도록 적극 지원하고 있다”고 말했다.
작성일 : 2025-01-23
에이수스, 최신 인텔 코어 울트라 프로세서 탑재한 AI 컨슈머 노트북 4종 출시
에이수스가 인텔의 최신 CPU인 코어 울트라 프로세서 시리즈2(코드명 루나 레이크 및 애로우 레이크)를 탑재한 고성능 AI 컨슈머 노트북 4종을 출시한다고 밝혔다. 이번에 출시한 신제품은 루나 레이크를 탑재한 ▲젠북 S16 OLED(Zenbook S16 OLED) 및 애로우 레이크를 탑재한 ▲젠북 14 OLED(Zenbook 14 OLED) ▲젠북 듀오(Zenbook Duo) ▲비보북 S16 OLED(Vivobook S16 OLED) 등이다.   ▲ 젠북 S16 OLED   슬림한 디자인의 젠북 S16 OLED는 최대 47 TOPS(초당 최대 47조회 연산) 성능의 NPU가 결합된 최신 인텔 코어 울트라 프로세서(시리즈2)인 루나 레이크를 새롭게 탑재해 한층 강력한 AI 성능을 갖췄다. 1.1cm의 두께 및 1.5kg의 무게로 휴대성을 높였으며, 하이테크 세라믹인 세랄루미늄(Ceraluminum)이 적용된 견고한 보디가 특징이다. ASUS Lumina OLED가 적용된 16인치의 터치스크린 화면은 16:10 및 3K의 해상도로 선명한 화질을 제공하며, 120Hz 주사율로 지연 및 끊김 없는 매끄러운 디스플레이 경험을 선사한다. 이와 함께 전문가 색 영역인 100% DCI-P3을 충족, 베사(VESA) 디스플레이 HDR 트루 블랙 500, 돌비 비전(Dolby Vision), 팬톤 인증을 통해 생생하고 입체적인 비주얼을 구현한다. 이와 함께 노트북에 내장된 78Wh의 대용량 배터리는 종일 작업에도 충분한 배터리 수명을 제공해 학생, 창작자, 비즈니스 전문가 및 여행이 잦은 사용자에게도 적합하다. 전작 대비 40% 커진 터치패드는 인체공학적 디자인이 적용돼 한층 편안한 사용감을 지원하며, 하만 카돈 인증을 받은 스피커도 탑재됐다. 색상은 ‘스칸디나비안 화이트’와 ‘수마이아 그레이’ 2가지로 출시된다.   ▲ 젠북 14 OLED   젠북 14 OLED는 프리미엄 성능의 최대 인텔 코어 울트라 9 프로세서 285H 및 NPU AI 엔진이 통합된 인텔 아크 그래픽 프로세서가 탑재돼 한층 업그레이드된 AI 성능을 제공한다. 1.28kg의 무게와 1.49cm의 두께로 휴대성을 높였고, 제품에 탑재된 75Wh의 대용량 배터리는 15시간 이상 지속된다. 최대 3K 해상도 및 120Hz의 14인치 ASUS Lumina OLED 터치 스크린의 디스플레이는 나노엣지 디자인이 적용됐으며, DCI-P3 100%의 넓은 색 영역과 베사(VESA) 디스플레이 HDR 트루 블랙 500 인증을 받아 몰입감 높은 시각 경험을 제공한다. 이와 함께 2개의 썬더볼트 4포트, HDMI 2.1, USB 3.2 Gen 1 타입-A 포트, 오디오 콤보 잭을 지원해 높은 연결성은 물론 미군용 등급의 단단한 내구성을 갖췄다. 이외에도 하만 카돈 인증을 받은 돌비 애트모스 오디오 스피커와 양방향 AI 노이즈 캔슬링 기능으로 고품질의 선명한 오디오 사운드를 지원한다.   ▲ 젠북 듀오   14인치 듀얼 스크린 OLED 노트북인 젠북 듀오는 최신 인텔 코어 울트라 9 프로세서 285H와 최대 32GB의 메모리 및 2TB SSD가 탑재됐다. 2개의 16:10 3K 14인치 OLED 나노엣지 베젤 터치스크린은 생생하고 섬세한 비주얼을 구현하며, TUV 라인란드(TÜV Rheinland) 인증을 통해 낮은 블루라이트 레벨로 장시간 사용에도 눈을 보호한다. 이와 함께 탈부착형 블루투스 키보드가 함께 구성돼 다양한 활용성을 갖춘 것이 특징이다. 젠북 듀오는 ▲듀얼 스크린 모드(블루투스 키보드 활용 및 가상 키보드 활용) ▲데스크톱 모드 ▲랩톱 모드 ▲공유 모드 등 5가지 사용 모드를 지원하며, 사용자의 편의에 따라 자유롭게 활용 가능하다. 키보드를 포함해 1.65kg의 가벼운 무게와 1.46cm의 슬림한 두께에도 썬더볼트 4포트 2개, HDMI 2.1, USB 3.2 Gen 1 타입-A 포트, 오디오 잭을 지원해 다양한 기기에 손쉽게 연결 가능하며, 초고속 무선 연결이 가능한 와이파이 7 기능이 포함됐다. 여기에 까다로운 미국 국방성 규격인 밀스펙(MIL-STD 810H) 표준을 충족해 단단한 내구성까지 갖췄다.   ▲ 비보북 S16 OLED   비보북 S16 OLED는 최신 기술과 미니멀한 디자인을 통합한 차세대 AI 컨슈머 노트북이다. 1.39cm 및 1.5kg의 디자인으로 향상된 휴대성은 물론 최대 인텔 코어 울트라 7 프로세서 255H와 전용 AI 엔진을 탑재해 고성능의 효율적인 퍼포먼스를 제공한다. 사용자는 제품에 내장된 ASUS IceCool 열 기술을 통해 무겁고 까다로운 작업도 노트북 성능 저하 및 소음 걱정 없이 사용 가능하다. 이와 함께 인체공학적으로 설계된 에르고센스 키보드는 편안하고 자연스러운 입력감을 지원하며, 가위 키 메커니즘이 적용돼 조용하게 타이핑할 수 있다. 특히 키보드에는 코파일럿 키가 포함돼 간편하고 빠르게 AI 작업을 시작할 수 있는 것이 특징이다. ASUS Lumina OLED가 적용된 3K 16인치의 넓은 디스플레이는 최대 120Hz의 주사율과 0.2ms의 빠른 응답 속도, 압도적인 명암비의 HDR 트루 블랙 600 인증을 통해 풍부한 색 재현력과 부드럽고 몰입감 넘치는 시각 경험을 제공한다.
작성일 : 2025-01-13
벤큐, 4K 프리미엄 27인치/32인치 화이트 모니터 EW2790U 및 EW3290U 출시
벤큐는 프리미엄 엔터테인먼트 모니터 EW2790U와 EW3290U를 출시했다고 밝혔다. 27인치의 EW2790U와 32인치의 EW3290U는 4K UHD(3840×2160) 해상도와 DCI-P3 최대 98%를 지원하는 프리미엄 엔터테인먼트 모니터이다. 벤큐의 AI 콘트라스트(AI Contrast) 기술이 적용되어 이미지의 다른 영역에 영향을 주지 않으면서, 표시되는 콘텐츠에 맞춰 자동으로 명암을 조정할 수 있다. 더불어 밝기의 범위를 실제 눈에 가까운 영역으로 확장시켜 자연스러운 색감과 음영을 구현하는 벤큐의 HDR 기술이 적용되었다. 두 제품 모두 디스플레이 HDR 품질을 지정하는 표준 적합성 인증인 베사 디스플레이 HDR 400(VESA Display HDR 400)을 획득해 더욱 생생한 HDR 영상을 구현한다.     엔터테인먼트를 환경을 위한 다양한 기능도 지원한다. 모니터 하단의 시나리오 핫키를 활용하면 표준 모드, 시네마 HDRi 모드, 게임 모드와 같이 모니터 사용 환경에 따라 최적화된 모니터 설정으로 쉽게 전환할 수 있다. 프리미엄 빌트인 스피커 또한 장점이다. EW3290U는 최적의 사운드 솔루션을 제공하는 2.1채널 스피커(2Wx2, 5W 우퍼)를 탑재하였으며, EW2790U는 2채널 스피커(5Wx2)를 탑재했다. 두 제품 모두 사용자의 다양한 니즈를 고려한 6가지 오디오 시나리오 모드(라이브/팝, 시네마, 대화/음성, 게임, 스튜디오 모니터, 사용자 모드)를 지원하여 영화, 게임, 음악 등 다양한 콘텐츠에 맞는 오디오 경험을 즐길 수 있다. 지원하는 단자 또한 3개의 HDMI(v2.0) 포트와 2개의 USB-C 포트, 3개의 USB-A 포트로 영화, 게임 등 폭 넓은 시청 경험을 위한 다양한 디바이스 연결이 가능하다. 특히 EW3290U는 리모컨을 추가 지원하여 TV처럼 간편한 조작이 가능하다. EW2790U와 EW3290U는 한층 업그레이드된 벤큐 소프트웨어 디스플레이 파일럿2(Display Pilot 2)를 지원한다. 사용자의 모니터 사용 습관을 학습하여 미리 설정된 일정이나 필요에 따른 다양한 시나리오로 전환하거나, 사용자 오디오 모드에서 이퀄라이저를 취향에 맞게 조정하기도 간편하다. 새로운 기능인 집중력과 효율성을 높여주는 뽀모도로(Pomodoro) 타이머 사용 또한 가능하다. 건강한 디지털 환경을 위한 벤큐 디스플레이의 아이케어 기술도 적용되었다. 주변 밝기와 콘텐츠의 밝기를 감지해 자동으로 눈이 가장 편안한 화면을 구현하는 2세대 스마트 밝기 조절(Brightness Intelligence Gen2)과 글로벌 안전 기관 TUV 라인란드에서 인증 받은 플리커프리(Flicker Free) 기술, 청색광을 차단하는 로 블루라이트 플러스(Low Blue Light Plus)를 지원한다. 벤큐코리아 마케팅팀의 이상현 팀장은 “벤큐 EW2790U와 EW3290U는 4K UHD 해상도에 세련된 화이트 컬러와 전면 스피커 디자인, 모든 동작을 지원하는 인체공학적 멀티 스탠드로 책상 위에서 업무뿐만 아니라 게임, 영화 등 다양한 엔터테인먼트를 즐기는 데스크테리어족에게 큰 만족감을 안겨줄 것”이라며, “벤큐의 독자적인 AI 콘트라스트와 HDR 기술, 디스플레이 파일럿 2 소프트웨어로 탁월한 영상 표현력과 다양한 편의성을 고루 갖춘 제품”이라고 전했다.
작성일 : 2025-01-08
언리얼 엔진 5.5 : 애니메이션/가상 프로덕션/모바일 게임 개발 기능 강화
개발 및 공급 : 에픽게임즈 주요 특징 : 고퀄리티 애니메이션 제작 워크플로 지원 기능 향상, 하드웨어 레이 트레이싱 기반 시스템 지원 강화, 버추얼 프로덕션을 위한 인카메라 VFX 툴세트 정식 버전 제공, 모바일 게임 개발 위한 모바일 포워드 렌더러의 기능 추가 등     이번에 출시된 언리얼 엔진 5.5는 애니메이션 제작, 버추얼 프로덕션, 모바일 게임 개발 기능이 크게 향상됐고, 렌더링, 인카메라 VFX, 개발자 반복 작업 등 많은 기능들을 정식 버전으로 제공한다. 또한 메가라이트와 같은 한계를 뛰어넘는 흥미롭고 새로운 혁신도 계속해서 선보였다.   애니메이션 언리얼 엔진 5.5는 에디터에서 고퀄리티 애니메이션 제작 워크플로를 지원하는 신규 및 향상된 기능을 제공하여 상황에 맞는 애니메이션을 제작할 수 있어, DCC 애플리케이션을 오가며 작업할 필요성이 줄어들었다. 또한, 애니메이션 게임플레이 제작 툴세트에도 새로운 기능이 추가되었다.   시퀀서 이번 버전에서는 언리얼 엔진의 비선형 애니메이션 에디터인 시퀀서가 크게 개선되어 직관적인 인터페이스를 제공하며, 더 나은 필터링과 속성을 더 쉽게 사용할 수 있게 됐다. 이를 통해 워크플로 피로도를 줄이고 생산성을 높일 수 있다.  또한, 원본이 훼손되지 않는 애니메이션 레이어가 추가되어 기존 DCC 애플리케이션에서만 볼 수 있었던 추가 제어 기능과 유연성을 제공한다. 이제 애니메이션 레이어의 애디티브 또는 오버라이드를 선택하고, 이 레이어의 가중치도 애니메이션할 수 있어 손쉽게 콘텐츠를 관리할 수 있다.    ▲ 이미지 출처 : 언리얼 엔진 홈페이지 영상 캡처   마지막으로, 인터랙티브 시네마틱 도중 플레이어의 선택에 따른 조건부 상태 변경, 게임플레이 시네마틱 내에서 오브젝트를 보다 섬세하게 제어하는 커스텀 바인딩 등과 같은 기능으로 다양한 다이내믹 시네마틱 시나리오를 작동하도록 설정하는 것이 더 쉬워졌다. 또한, 커브를 사용해 시퀀스의 타이밍을 워프하고, 서브시퀀스 또는 샷의 원점을 재배치할 수도 있다.   애니메이션 디포머 컨트롤 릭에서 애니메이션을 적용할 수 있는 애니메이션 디포머를 만들어 클릭 한 번으로 시퀀서의 캐릭터에 쉽게 적용할 수 있는 기능이 추가되어, 접촉 디포메이션이나 더 나은 카툰 스타일의 스쿼시 앤 스트레치(찌그러짐과 늘어남)같은 더욱 사실적인 애니메이션 이펙트를 제작할 수 있다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지 영상 캡처   또한, 애니메이터 키트 플러그인에는 래티스, 카메라 래티스, 스컬프팅 등 기본 디포머 기능과 함께 바로 사용할 수 있는 다양한 컨트롤 릭이 포함되어 있으며, 애니메이션에 사용하거나 자신만의 릭으로 구동되는 디포머 또는 헬퍼 릭을 제작하는 데 예제로 활용할 수 있는 유틸리티 컨트롤 릭도 제공된다.   모듈형 컨트롤 릭 모듈형 컨트롤 릭(modular control rig)은 다양한 UI 및 UX 개선, 새로운 사족 보행 및 비클 모듈 그리고 기본 이족 스켈레톤 유형에 대한 지원과 함께 베타 버전으로 제공된다. 또한, 스켈레탈 에디터는 이제 더 빠르고 간소화된 페인팅 워크플로 및 가중치 편집 등 다양한 개선 사항과 함께 정식 버전으로 만나볼 수 있다.   메타휴먼 애니메이터 언리얼 엔진용 메타휴먼 플러그인 중 하나인 메타휴먼 애니메이터도 이번 버전에서 대폭 업그레이드됐다. 처음에는 실험 단계 기능으로 도입되었으나, 이제 오디오만으로도 얼굴 상단 부분의 표정 추론을 포함하여 고퀄리티의 페이셜 애니메이션을 생성할 수 있다. 이 로컬 오프라인 설루션은 다양한 음성 및 언어와 함께 작동되며, 다른 메타휴먼 애니메이터 입력과 함께 일괄 처리 및 스크립팅할 수 있다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지   뮤터블 캐릭터 커스터마이제이션 런타임에 동적으로 변경되는 콘텐츠를 개발하는 게임 개발자에게 큰 도움을 제공할 뮤터블(mutable) 캐릭터 커스터마이제이션 시스템이 새롭게 추가됐다. 이 시스템은 캐릭터, 동물, 소품, 무기 등의 다이내믹 스켈레탈 메시, 머티리얼, 텍스처를 생성하는 동시에 메모리 사용량을 최적화하고 셰이더 비용과 드로 콜 수를 줄여준다. 런타임에 콘텐츠를 수정하는 네이티브 툴과는 달리, 뮤터블에서는 많은 파라미터와 텍스처 레이어, 복잡한 메시 상호작용, GPU에 부하가 큰 텍스처 효과 등을 처리할 수 있는 심층적인 커스터마이징을 제공한다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지 영상 캡처   선택기 선택기도 정식 버전으로 제공된다. 복잡한 로직을 작성할 필요 없이 게임 상황에 따라 재생할 애니메이션을 선택할 수 있는 이 프레임워크는 이제 거의 모든 유형의 애셋을 지원하며, 단순한 랜덤 선택기부터 수천 개의 애니메이션을 관리하는 데이터베이스 기반의 로직까지 다양한 수준의 복잡성을 처리할 수 있다. 이러한 기능은 업데이트된 게임 애니메이션 샘플 프로젝트에서 사용해 볼 수 있다.   렌더링 에픽게임즈는 언리얼 엔진 5의 높은 리얼타임 렌더링 퍼포먼스와 퀄리티를 제공하기 위해 지속적으로 노력하고 있다.   루멘 하드웨어 레이 트레이싱(Hardware Ray Tracing, HWRT) 기반 시스템에 많은 향상이 이루어지면서, 이제 하드웨어 지원을 제공하는 플랫폼에서 루멘을 60Hz로 실행할 수 있다. 이러한 개선을 통해 패스 트레이서 및 라이트 베이킹의 퍼포먼스와 기능도 향상될 수 있다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지   패스 트레이서 물리적으로 정확한 DXR 가속 프로그레시브 렌더링 모드인 패스 트레이서는 이제 정식 버전으로 제공되어 비선형 애플리케이션 또는 모든 기능을 갖춘 실사 레퍼런스 이미지의 최종 픽셀을 제작할 때 높은 퀄리티를 제공한다. 이번 버전에서는 퍼포먼스 및 퀄리티 개선, 리눅스 지원, 스카이 애트머스피어 및 볼류메트릭 클라우드 등 다른 모든 정식 버전 기능을 지원한다.   ▲ Audi e-tron GT 모델(이미지 제공 : Audi Business Innovation)   서브스트레이트 언리얼 엔진 5.2에서 실험 단계로 선보인 머티리얼 제작 프레임워크인 서브스트레이트가 베타 버전으로 전환되어, 언리얼 엔진이 지원하는 모든 플랫폼과 기존 머티리얼의 모든 기능이 지원된다. 리얼타임 애플리케이션을 위해 최적화하는 작업이 진행 중이며, 선형 머티리얼 제작에는 정식으로 사용할 수 있다. 룩 개발 아티스트는 이 강력하고 유연한 프레임워크를 활용하여 오브젝트의 룩 앤 필을 더 제어할 수 있다.   무비 렌더 그래프 언리얼 엔진 5.4에서 실험 단계로 도입되었던 무비 렌더 그래프(Movie Render Graph, MRG)도 이번 버전에서 베타 버전으로 전환된다. 그래프 기반의 환경 설정 워크플로에 많은 노력을 통해 커스텀 EXR 메타데이터를 사용하는 기능, 컬렉션의 스포너블 지원과 같은 초기 사용자의 피드백을 기반한 개선점 그리고 오브젝트 ID 지원과 같은 기존 프리셋 구성의 호환성 향상 등을 제공한다. 또한, 이제 MRG의 렌더 레이어 기능에서 반투명 오브젝트, 나이아가라 FX, 불균질 볼륨, 랜드스케이프, 스카이 스피어를 사용할 필요가 없는 스카이 애트머스피어 등을 포함해 모든 애셋 유형을 지원한다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지 영상 캡처   마지막으로, MRG는 신규 실험 단계 기능인 패스 트레이서용 스파시오 템포럴 디노이저(denoiser)를 제공해 선형 시퀀스에 고퀄리티의 결과를 출력할 수 있다.   메가라이트 언리얼 엔진 5.5에서는 새로운 실험 단계 기능인 메가라이트를 미리 만나볼 수 있다. ‘빛의 나나이트’라고 불리는 메가라이트를 사용하면 신에 제약 없이 다이내믹한 그림자를 만드는 수백 개의 라이트를 추가할 수 있다. 이를 통해 라이팅 아티스트는 이제 콘솔과 PC에서 소프트 섀도와 함께 텍스처가 적용된 에어리어 라이트, 라이트 함수, 미디어 텍스처 재생, 볼류메트릭 섀도를 자유롭게 사용해 볼 수 있어 성능보다는 예술적인 부분에 집중할 수 있다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지 영상 캡처   버추얼 프로덕션 언리얼 엔진은 버추얼 프로덕션을 위한 인카메라 VFX(ICVFX) 툴세트를 통해 전 세계 영화, TV, 광고 등 수많은 제작을 지원하고 있다. 언리얼 엔진 5.5는 여러 버전에 걸친 축적된 노력을 통해 ICVFX 툴세트를 정식 버전으로 제공하며, 버추얼 프로덕션 및 시각화를 위한 다른 기능도 향상되었다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지 영상 캡처   SMPTE 2110 언리얼 엔진의 SMPTE 2110 지원이 대표적인 예로, 이번 출시에서는 ICVFX 프로젝트의 요구사항에 맞춰 수많은 안정성 개선, 프레임록 손실 자동 감지 및 복구, 타임코드로 PTP 지원 추가, 2110 미디어에 대한 OCIO 지원, IP 비디오 신호 흐름에 대한 개선이 이뤄졌다.   카메라 캘리브레이션 카메라 캘리브레이션 솔버 역시 언리얼 엔진 5.5에서 정식 버전으로 제공되어, 렌즈 및 카메라 파라미터 추정 정확도가 크게 향상되었다. 이 작업을 바탕으로 이제 모든 카메라에 오버스캔이 내장되어, 렌즈 왜곡을 렌더링하거나 포스트 프로세싱 단계에서 카메라 셰이크 추가 등을 지원한다.    버추얼 스카우팅 언리얼 엔진 5.4에서 처음 도입된 버추얼 스카우팅 툴세트가 정식 버전으로 업데이트됐다. 이제 OpenXR 호환 HMD(오큘러스 및 밸브 인덱스 기본 지원)를 사용해 강력한 경험을 곧바로 활용할 수 있으며, 광범위한 API를 통한 새로운 커스터마이징도 제공한다. 이 툴세트에서는 새로운 VR 콘텐츠 브라우저와 애셋 배치, 블루프린트로 커스터마이징할 수 있는 트랜스폼 기즈모, 색상 보정 뷰파인더 등이 더욱 향상되었다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지 영상 캡처   컬러 그레이딩 패널 이전에는 ICVFX 에디터에서만 제공됐던 컬러 그레이딩 패널이 이제 언리얼 에디터의 일반 기능으로 사용할 수 있게 돼, 모든 언리얼 엔진 신에서 창의적으로 컬러를 보정할 수 있는 풍부하면서도 아티스트 친화적인 인터페이스를 제공한다. nDisplay로 작업하는 사람들만이 아니라 모든 아티스트에게 향상된 컬러 그레이딩 경험을 제공하는 이 패널은 포스트 프로세스 볼륨, 시네 카메라 및 색 보정 영역도 지원한다.    DMX 버추얼 프로덕션뿐만 아니라 방송 및 라이브 이벤트에도 적용할 수 있는 언리얼 엔진의 DMX 테크 스택 또한 정식 버전이 되어 향상된 컨트롤 콘솔, 픽셀 매핑, 컨플릭트 모니터를 제공한다. 또한, 이번 버전에서는 GDTF 규격을 DMX 플러그인에 추가하여 GDTF 및 MVR을 지원하는 제어 장치와 소프트웨어의 지원을 추가하는 등의 다양한 개선 사항을 제공한다.   모바일 게임 개발 언리얼 엔진은 플랫폼 측면에서도 모바일 및 크로스 플랫폼 AAA 게임 개발을 위한 최고의 엔진이 되고자 모바일 지원에 지속적으로 노력을 기울이고 있다. 모바일 포워드 렌더러에는 플랫폼의 비주얼 퀄리티를 높일 수 있는 다양한 신규 기능이 추가되었다. 또한, 이제 D-버퍼 데칼, 렉트 에어리어 라이트, 캡슐 섀도, 포인트 및 스포트라이트용 무버블 IES 텍스처, 볼류메트릭 포그, 나이아가라 파티클 라이트가 지원되며, 모바일 포워드와 디퍼드 렌더러 모두 스크린 스페이스 리플렉션을 사용할 수 있다.    ▲ 이미지 출처 : 언리얼 엔진 홈페이지 영상 캡처   뿐만 아니라 언리얼 엔진 5.4에서 도입된 런타임 자동 PSO(Pipeline State Object) 프리캐싱이 이제 기본 활성화되어, 수동 PSO 수집 워크플로에 대한 쉽고 빠른 대안을 제공한다. 모바일 프리뷰어의 경우 특정 안드로이드 디바이스 프로필을 캡처 및 프리뷰하는 기능과 반정밀도 16비트 플로트 셰이더를 에뮬레이션하여 오류를 쉽게 확인하고 대응할 수 있는 기능 등의 다양한 개선이 이뤄졌다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지   개발자 반복 작업 언리얼 엔진 5.5를 통해 개발자의 빠른 반복 작업과 효율이 더 높은 퀄리티의 결과물을 만든다는 점을 잘 알고 있는 에픽게임즈는 크리에이터 경험의 규모와 비전을 충족하기 위해 언리얼 엔진의 데이터 처리 파이프라인을 지속적으로 발전시키고 있다. 언리얼 엔진 5.4에서 선보인 최적화된 신규 캐시 데이터 스토리지 및 네트워크 커뮤니케이션 아키텍처인 언리얼 젠 서버(Unreal Zen Server)가 이제 정식 버전으로 제공되어 공유 파생 데이터 캐시(Derived Data Cache, DDC)로 사용될 수 있다. 또한, 이번 버전에서는 젠 서버가 PC, 콘솔, 모바일 등의 타깃 플랫폼으로 쿠킹된 데이터의 스트리밍을 지원한다. 실험 단계로 도입된 이 신규 기능으로 개발 중에도 콘솔이나 모바일 등의 타깃 플랫폼에서 게임이 어떻게 보이고 작동하는지 보다 빠르고 쉽게 평가할 수 있다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지   이외에도 에디터 시스템과 쿠킹 프로세스에 최적화된 애셋 로딩 경로를 제공하는 언리얼 젠 로더, 더 빠른 C++ 및 셰이더 컴파일을 제공하는 언리얼 빌드 액셀러레이터(Unreal Build Accelerator, UBA), 더욱 효율적이고 확장 가능한 개발 워크플로를 제공하는 언리얼 호드 지속적 통합(CI) 및 원격 실행 등 다양한 기능을 이번 버전에서 정식 버전으로 제공한다.(UBA는 윈도우 호스트 머신에서 정식 버전으로 제공되며, 타 플랫폼에서는 현재 베타 단계로 제공된다.)   팹 통합 정식으로 출시된 새로운 통합 콘텐츠 마켓플레이스 팹(Fab)이 언리얼 엔진 5.5에 통합되어 퀵셀 메가스캔과 같은 개별 애셋을 신으로 직접 드래그 앤 드롭 할 수 있으며, 팹의 애셋 팩을 콘텐츠 브라우저에 추가할 수도 있다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-01-06
[케이스 스터디] 언리얼 엔진으로 만든 버추얼 아이돌 플레이브
통합 시각화 파이프라인으로 새로운 경험 제공   리얼타임 3D 콘텐츠 제작 기술이 날로 진화함에 따라 버추얼 아티스트, 유튜버 등 디지털 휴먼 시장도 함께 성장하고 있는 가운데, 대한민국에는 데뷔 1년여 만에 실제 아이돌 못지 않은 인기를 누리고 있는 버추얼 아이돌이 있다. 바로 플레이브(PLAVE)다. ■ 자료 제공 : 에픽게임즈   ▲ 이미지 출처 : ‘언리얼 엔진으로 전례 없는 경험을 제공하는 PLAVE’ 영상 캡처   플레이브는 예준, 노아, 밤비, 은호, 하민 등 다섯 명의 멤버가 작사, 작곡 그리고 안무까지 직접 제작하는 버추얼 보이 그룹이다. 2023년 3월 12일 데뷔 이후 버추얼 아이돌 최초로 지상파 음악방송에서 1위를 차지한 것은 물론, 최근에는 잠실 실내체육관에서 양일간 오프라인 단독 라이브 콘서트를 개최해 전석이 매진되는 등 인기를 누리고 있다. 플레이브의 인기 비결에는 여러 요소가 있겠지만 언리얼 엔진의 리얼타임 기술로 자연스러운 비주얼 퀄리티뿐만 아니라, 매주 라이브 방송을 통해 팬들과 소통하며 아티스트의 진면목을 전할 수 있던 점을 꼽을 수 있다. 시네마틱 영상, 라이브 방송 그리고 오프라인 라이브 콘서트까지 어떻게 언리얼 엔진으로 통합 제작 파이프라인을 구축해 아티스트의 본질을 전달할 수 있었는지 살펴보기로 하자.    시네마틱 콘텐츠를 위한 리얼타임 통합 파이프라인   ▲ DCC 툴을 병합한 기존의 시네마틱 콘텐츠 제작 파이프라인(이미지 제공 : 블래스트)    ▲ 언리얼 엔진과 통합한 시네마틱 콘텐츠 제작 파이프라인(이미지 제공 : 블래스트)   플레이브의 소속사인 블래스트는 설립 초창기부터 여러 작품을 통해서 언리얼 엔진의 가능성을 확인했기 때문에, 버추얼 IP 파이프라인이라는 회사의 비전을 바탕으로 시네마틱과 라이브 콘텐츠를 모두 제작할 수 있는 언리얼 엔진 통합 파이프라인을 구축하고자 했다. 플레이브의 첫 뮤직비디오인 ‘기다릴게’를 제작하던 때만 해도 언리얼 엔진 제작 경험이 제한적이었기 때문에 레벨 디자인, 라이팅, 렌더링은 언리얼 엔진으로, 이펙트 및 의상 시뮬레이션, 합성 등은 기존의 DCC 툴을 사용하는 방식을 채택했다. 그렇지만 이러한 제작 방식은 언리얼 엔진의 리얼타임 렌더링의 장점을 극대화하지 못하고 전체적인 콘텐츠 제작 속도를 저하시켰다. 또한, 본래 언리얼 엔진 중심의 통합 파이프라인을 구축하려고 했던 블래스트의 비전과 맞지 않는다는 판단 하에, 파이프라인을 언리얼 엔진으로 완전히 대체하기로 결정했다.     ▲ 플레이브 ‘WAY 4 LUV’ 뮤직비디오 영상   의상 및 헤어 시뮬레이션을 언리얼 엔진의 실시간 시뮬레이션으로 완전히 전환하면서, 이제는 애니메이션이 수정될 때마다 라이브 방송처럼 실시간으로 시뮬레이션되어 임포트 과정이 간소화되었다. 렌더링을 위해 라이브 시뮬레이션을 베이크해야 하는 경우 역시 언리얼 엔진의 테이크 레코더를 사용하면 바로 결과를 확인할 수 있어, 전체적인 작업 과정이 효율적으로 향상되었다. 또한, 이펙트 제작에는 언리얼 엔진의 나이아가라 시스템을 전면 도입하여 룩뎁 아티스트들은 모든 최종 연출 요소를 실시간으로 확인하며 함께 작업할 수 있게 되었다. 애니메이션, 시뮬레이션, 이펙트 등의 모든 최종 연출 요소가 엔진으로 통합되면서, 언리얼 엔진을 컴포지터로까지 활용할 수 있었다. 그 결과 ‘WAY 4 LUV’의 시네마틱 영상부터는 모델링, 애니메이션, 룩뎁 등 각 제작 요소가 통합된 최종 결과물을 언리얼 엔진에서 실시간으로 렌더링할 수 있게 되어, 작업의 효율과 퀄리티를 향상시킬 수 있었다.   고도화된 리얼타임 모션 캡처로 아티스트의 진심을 전한 라이브 방송   ▲ 플레이브의 첫 라이브 방송(이미지 제공 : 블래스트)   ▲ 플레이브의 최근 라이브 방송(이미지 제공 : 블래스트)   라이브 방송은 플레이브의 강력한 팬덤을 구축하는 데 있어 매우 중요한 역할을 하고 있는 만큼, 블래스트는 아티스트의 매력과 진심을 잘 전할 수 있도록 많은 노력을 기울여 왔다. 특히 아티스트의 모든 모션이 자연스럽게 보이도록 하기 위해 언리얼 엔진의 라이브 링크로 스트리밍한 모션 캡처 원시 데이터를 실시간으로 가공할 수 있는 다양한 설루션을 개발하는데 많은 정성을 들였다.   ▲ 실시간 간섭 회피 설루션 전후 비교(이미지 제공 : 블래스트)   개발된 설루션은 다양한 체형 사이에 애니메이션을 이질감 없이 자연스럽게 전환할 수 있는 리타기팅 설루션, 매 촬영 때마다 발생하는 마커의 위치 오차를 모션으로 측정하여 보정하는 캘리브레이션 설루션, 신체 비율 또는 외형 차이에 따른 메시 간섭 문제를 실시간으로 해결하는 간섭 회피 설루션, 정확한 포즈와 자연스러운 주변 환경과의 인터랙션 사이를 상황에 따라 적절하게 전환할 수 있는 Dynamic FK/ IK 설루션, 골반 너비와 신발 밑창 및 볼 너비까지 보정해 지면과 발의 접지를 정교하게 표현하는 Foot IK 설루션 등이다. 이를 통해 기존에는 실시간으로 처리하기 어려워서 라이브 콘텐츠에서 적용할 수 없었던 모션 캡처 데이터의 실시간 가공 기술을 자체적으로 개발하여 언리얼 엔진에 통합했다. 이러한 기술 투자 덕분에 버추얼 아이돌임에도 아티스트의 진심을 잘 전할 수 있는 기술적 기반을 갖추게 되었다.   리얼타임 통합 파이프라인의 화룡점정, 오프라인 라이브 콘서트 플레이브는 시네마틱 영상을 매 앨범 발매 시 제작하고 라이브 방송을 지난 1년 반 동안 매주 4시간씩 진행하면서, 언리얼 엔진 중심의 리얼타임 파이프라인을 고도화할 수 있었다. 그리고 그 과정에서 블래스트가 깨달은 점은 두 파이프라인을 서로 구분할 필요가 없다는 점이었다. 아티스트의 퍼포먼스를 실시간으로 보여 줄 지, 녹화해 두고 퀄리티를 올린 후에 보여 줄 지의 차이만 있을 뿐, 두 파이프라인은 모두 라이브 모션 캡처에서 시작한다는 점에서 근본적으로 동일했기 때문이다. 이러한 깨달음을 바탕으로 블래스트는 모든 콘텐츠가 라이브 모션 캡처로부터 시작되는 통합 파이프라인을 개발하였고, 이를 통해 제작 흐름이 간소화되고 직관적으로 개선되어 작업의 효율을 높일 수 있었다. 무엇보다도 큰 이점은 통합된 파이프라인을 통해 콘서트 제작 및 연출에 필요한 역량을 미리 내재화할 수 있었다는 점이다.   ▲ 시네마틱과 라이브 콘텐츠 제작 파이프라인이 통합된 전체 파이프라인(이미지 제공 : 블래스트)   콘서트는 연출뿐만 아니라 제작 파이프라인에서도 시네마틱과 라이브 콘텐츠의 특성을 모두 가지고 있는 특별한 무대다. 수많은 무대의 동선을 사전에 미리 짜맞추며 연출을 확정해 놓으면서도 리허설 때마다 라이브로 전환해야 하므로, 콘서트 작업에는 녹화와 라이브를 수시로 전환할 수 있는 파이프라인이 필수적이다. 이를 위해서 메타휴먼의 캐릭터 설계에 힌트를 얻어 시네마틱 퀄리티와 라이브 퍼포먼스를 모두 만족하는 유연하고 모듈화된 통합 캐릭터 시스템을 개발했다. 이 시스템은 콘서트에 필요한 모든 상황을 지원하기 위해 스켈레탈 메시를 분리해서 적절한 계층구조로 설계하고, 각각의 스켈레탈 메시 컴포넌트는 시퀀서의 애니메이션 트랙을 재생하는 모드와 라이브 링크 모션 캡처 및 실시간 시뮬레이션을 적용하는 모드 사이를 자유롭게 전환할 수 있도록 구현했다. 또한, 라이브 캐릭터 전용 기능은 모두 별도의 컴포넌트로 모듈화시켜 필요한 기능만 라이브 방송 시나리오에 맞춰 적용할 수 있도록 설계했으며, 추가로 룩뎁 아티스트가 일관적인 퀄리티로 작업할 수 있도록 캐릭터 클래스의 모든 기능이 프리뷰 모드와 플레이 모드에서 동일하게 동작하도록 개발했다. 이런 통합 캐릭터 클래스 설계 덕분에 언제든지 시네마틱과 라이브를 간단하게 전환하면서 작업 효율도 높일 수 있게 되었다.   ▲ 스켈레탈 메시의 계층 구조 및 모듈화된 컴포넌트(왼쪽), 컴포넌트 단위로 두 가지 모드를 자유롭게 전환 가능(오른쪽)(이미지 제공 : 블래스트)   통합 캐릭터 클래스와 더불어 좀 더 파이프라인을 단순화하기 위해 언리얼 엔진의 테이크 레코더 기능을 활용한 새로운 모션 캡처 녹화 파이프라인을 구축했으며, 그 덕분에 이제는 모션 캡처부터 시네마틱까지 모든 과정을 언리얼 엔진 내에서 진행할 수 있게 되었다. 이로써 시네마틱용 애니메이션을 제작하기 위해 여러 소프트웨어를 오갈 필요 없이 언리얼 엔진 하나로 모든 작업이 가능해졌다. 또한, 이 새로운 파이프라인을 사용해 자체적으로 개발한 신체 간섭 회피, 캘리브레이션, 리타기팅 기능을 언리얼 엔진 안에서 바로 녹화할 수 있어, 평소 라이브 방송과 동일한 수준의 모션 캡처 퀄리티를 얻을 수 있게 되었다. 이렇게 테이크 레코더의 기능을 통해 녹화 직후 바로 결과를 확인할 수 있어 작업의 효율이 크게 향상되었고, 특히 현장에서 실시간으로 피드백을 주고받을 수 있게 되면서 기획과 디렉팅 측면에서도 큰 발전을 이룰 수 있었다.   ▲ 기존의 모션 캡처 녹화 파이프라인(이미지 제공 : 블래스트)   ▲ 언리얼 엔진으로 통합 후 테이크 레코더를 활용한 모션 캡처 녹화 파이프라인(이미지 제공 : 블래스트)   시네마틱과 라이브 파이프라인의 통합이 더욱 높은 효과를 내기 위해서는 앞서 언급된 기능의 개발과 함께 현장 오퍼레이팅에 대한 지원도 필요했다. 버추얼 파이프라인에서는 여러 소프트웨어를 함께 사용해야 했기 때문에 언리얼 엔진 설정, 녹화 설정, 심지어 단순한 녹음 작업까지 모두 오퍼레이터와 소통해야 했다. 그래서 작업 과정을 단순화하고 자동화하기 위해 언리얼 엔진 기반의 ‘버추얼 슬레이트’라는 태블릿 애플리케이션을 개발했다. 이 애플리케이션은 스튜디오 내 여러 장치와 소프트웨어를 연결하여 원격으로 동시 제어할 수 있고, 녹화 버튼 하나로 언리얼 엔진의 녹화 기능, 모션 캡처 소프트웨어, 여러 채널의 비디오 및 오디오를 동시에 녹화할 수 있다. 그리고 녹화가 끝나면 자동으로 모든 파일의 이름과 저장 위치를 정리하고, 미리보기 장면을 만들어 준다. 이제는 오퍼레이터가 초기 설정만 도와주면, 콘텐츠 제작자들이 직접 모션 캡처 녹화를 할 수 있어 제작자와 아티스트는 서로 의견을 주고받으며 촬영을 진행할 수 있게 되었다.   ▲ 기존의 오퍼레이팅 소통 방식(이미지 제공 : 블래스트)   ▲ 향상된 오퍼레이팅 소통 방식(이미지 제공 : 블래스트)   한편, 시네마틱과 라이브를 결합한 오프라인 라이브 콘서트는 관객에게 높은 몰입감을 전달하는 것이 매우 중요하다. 그렇기 때문에 현실의 무대에 실존하는 아티스트를 보는 것과 같은 스케일과 원근감을 현실감 있게 잘 반영하는 것도 중요한 과제였다. 이 과제를 풀기 위해서는 LED 스크린에 투사된 결과를 미리 예측할 수 있어야 했는데, 이를 위해 언리얼 엔진 내에 실제 공연장과 동일한 크기의 디지털 트윈 레벨을 제작하고 가상 공연장의 LED 스크린에 최종 이미지를 투사했다. 그런 뒤에 관객의 시점에서 VR로 이를 감상하는 방식으로 관객의 시점을 미리 시뮬레이션하며 스케일과 원근감을 조정해 나갔다. 이러한 방법으로 플레이브의 콘서트는 대형 콘서트장의 어떤 좌석에서도 눈앞의 무대에 멤버들이 실존한다는 현실감을 관객에게 전달할 수 있었다.   ▲ 가상에서의 VR 시뮬레이션(이미지 제공 : 블래스트)   ▲ 실제 무대 연출 장면(이미지 제공 : 블래스트)   LED 그 이상의 무한한 상상력을 담게 해 준 언리얼 엔진 블래스트는 2차원의 LED 스크린 평면을 넘어 공연장 전체라는 3차원의 경험으로 관객의 경험을 확장시켜, 플레이브 콘서트에서만 느낄 수 있는 새로운 경험을 만들어나가기 위해 고민했다. 이러한 고민의 결과로 실존하는 아티스트의 콘서트에서는 불가능한 아이디어와 연출, 예를 들면 탑의 꼭대기처럼 다양한 공간을 이동하며 노래 부르기, 바이크를 탄 채로 무대로 등장하고 연출의 단절 없이 공연 시작하기, 등장이나 퇴장 시에 꽃잎을 흩뿌리면서 나타나고 사라지기 등 그야말로 버추얼 아이돌이기에 가능한 연출을 실현할 수 있었다. 이러한 시각적 효과에서 더 나아가 연기와 같은 실제 무대 장치를 결합하여 일반적인 콘서트에서는 불가능한 특별한 연출을 시도할 수 있었다. 그 중에서도 플레이브의 세계관에 등장하는 큐브로 가득찬 ‘아스테룸’이라는 공간에서 세계관 속 빌런과 벌인 박진감 넘치는 격투 액션 신은 버추얼이 아니었다면 불가능한 무대였을 것이다. 또한, 언리얼 엔진은 LED 스크린 너머의 공간에 원하는 환경을 효율적으로 제작하고 다양한 연출들을 자유롭게 시도할 수 있게 해 주었다. 물리적인 시공간의 제약 속에서 짧은 기간 내에 다수의 조직이 동시 협업해야 하기 때문에 작업 충돌을 피하면서도 변경 사항들을 실시간으로 동기화할 수 있는 파이프라인이 매우 중요한데, 여기에 언리얼 엔진의 레벨 스트리밍과 서브 시퀀스 기능이 큰 도움이 되었다. 레벨 스트리밍 덕분에 레벨 디자인, 애니메이션, 룩뎁 작업을 분리하여 하나의 퍼시스턴트 레벨에 스트리밍하는 방식으로 각 팀의 작업 공간을 분리하면서도 동시에 협업이 가능했다. 또한, 룩뎁 레벨 시퀀스 안에 애니메이션 서브 시퀀스를 적용하여 애니메이터와 룩뎁 아티스트의 작업 시퀀스를 분리하면서도 서로의 변경 사항을 함께 업데이트할 수 있었다.   ▲ 레벨과 시퀀스 구조(이미지 제공 : 블래스트)   콘서트 현장의 분위기를 고조시키는 현란한 DMX 조명 연출 역시 언리얼 엔진의 뛰어난 DMX 연동 지원 덕분에 가능했다. 언리얼 엔진 공연 조명을 전문으로 다루는 메타로켓과 협업하여 언리얼 엔진 내에서 실제 콘서트 현장 조명을 시뮬레이션하면서 현실과 가상의 무대 조명을 완성했다.   ▲ 메타로켓과의 협업으로 완성된 공연장 무대 조명(이미지 제공 : 블래스트)   무엇보다 비주얼 퀄리티까지 보장된 리얼타임 렌더링이라는 언리얼 엔진의 강점이 가장 큰 도움이 되었다. 덕분에 콘서트 2~3일 전까지도 끊임없이 수정하며 퀄리티를 끌어올릴 수 있었고, 콘서트 직전의 리허설까지도 이슈를 확인하고 해결할 수 있었기 때문에 촉박한 시간임에도 완성도 높은 콘서트를 제작할 수 있었다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-01-06
젠하이저, 올인원 무선 마이크 시스템 프로파일 와이어리스 출시
젠하이저가 콘텐츠 크리에이터, 비디오그래퍼, 방송 전문가를 위해 편리함과 유연성을 제공하는 2채널 올인원 무선 마이크 시스템 ‘프로파일 와이어리스(PROFILE WIRELESS)’를 출시한다고 밝혔다. 프로파일 와이어리스는 카메라 및 스마트폰, 노트북 등의 전자기기에 빠른 연결이 가능한 수신기와 2개의 클립온 마이크 송신기 및 상황에 따라 다양한 용도로 활용이 가능한 충전바 등으로 구성되어 있다. 이 제품은 2.4GHz의 무선 연결을 지원하며 최대 245m의 전송 범위를 보장해, 선명하고 끊김이 없는 고품질의 오디오을 담아낸다.     프로파일 와이어리스는 안정적인 콘텐츠 제작을 위해 최대 30시간의 내부 녹음이 가능한 16GB 내장 메모리를 탑재했다. 이를 통해 녹음 신호가 약해질 때 백업 기능을 자동으로 활성화한다. 또 녹음 과정에서 오디오가 신호가 왜곡될 수 있는 클리핑(clipping) 현상을 방지하기 위해 안전 채널 모드를 적용했다. 프로파일 와이어리스 수신기의 왼쪽 채널에서는 설정한 기본 사운드 레벨로 오디오를 출력하며, 오른쪽 채널에서는 더 낮은 레벨로 출력해 클리핑 현상이 발생할 시 대체 오디오를 확보할 수 있다. 프로파일 와이어리스의 다목적 충전바는 송수신기를 보관하고 충전할 수 있으며, 윈드실드를 부착해 인터뷰용 핸드헬드 마이크로 사용할 수도 있다. 또한 콜드 슈 마운트 어댑터를 지원하여 삼각대와 연결해 사용하기에도 편리하며, 3.5 mm TRS 잭을 지원해 라발리에 마이크 등의 추가 장비와도 유연한 활용이 가능하다. 프로파일 와이어리스는 사용자의 편의를 위한 다양한 기능을 포함한다. 이 제품은 자이로 센서 기반 OLED 디스플레이를 적용해 기기 방향에 따라 화면을 자동으로 회전해 편리한 촬영을 지원하며, 오디오 모니터링을 위한 전용 헤드폰 출력이 포함되어 있어 실시간으로 녹음 품질을 확인할 수 있다. 송수신기는 사전에 페어링된 상태로 제공되어 빠르고 간편하게 녹음을 시작할 수 있다. 프로파일 와이어리스의 내장 배터리는 무선 전송 작업 시 약 7시간 동안 작동하며, 녹음만 진행할 때에는 약 14시간 정도 사용이 가능하다. 구성품에 포함된 마운트 클립과 의류 부착용 자석은 발화자가 옷감의 손상 없이 마이크를 편리하게 고정할 수 있도록 해준다. 제품의 가격은 44만 9000원이다. 젠하이저의 헨드릭 밀러 방송 및 영화 제품 관리자는 “제품 개발 초기부터 크리에이터와 전문가의 요구를 면밀히 분석해, 이전보다 더 안정적이고 유연한 오디오 설루션을 개발했다”면서, “프로파일 와이어리스는 크리에이터의 다양한 요구를 충족하는 강력한 도구가 될 것”이라고 전했다.
작성일 : 2025-01-02
구글, ‘제미나이 2.0’ 출시와 함께 ‘에이전트형 시대’ 발표
구글이 새로운 에이전트 시대를 위한 ‘에이전트형(agentic) AI 모델’인 ‘제미나이 2.0’을 출시했다. 제미나이 2.0은 네이티브 이미지 및 오디오 출력, 네이티브 툴 사용 등 향상된 멀티모달 기능을 제공하여 텍스트, 이미지, 동영상, 오디오, 코드 등 다양한 형태의 정보를 자연스럽게 이해하고 처리할 수 있다.  구글은 “제미나이 2.0는 지금까지 선보인 모델 중 가장 뛰어난 성능을 자랑한다”면서, “리서치, 보고서 작업 등 다양한 방면의 복잡한 작업을 수행하는 ‘에이전트’ 기능을 갖춘 AI 시대를 본격적으로 열어갈 것”이라고 밝혔다.  제미나이 2.0은 네이티브 이미지 및 오디오 출력, 네이티브 툴 사용 등 향상된 멀티모달 기능을 바탕으로 이용자 경험을 혁신할 뿐 아니라, 개발자에게도 강력한 AI 기반 애플리케이션을 구축할 수 있는 툴을 제공한다. 전 세계 제미나이 이용자는 데스크톱과 모바일 웹에서 제미나이 2.0을 사용할 수 있다. 데스크톱과 모바일 웹의 모델 드롭다운 메뉴에서 ‘2.0 플래시 실험 버전’을 선택하면 채팅에 최적화된 제미나이 2.0을 바로 사용해 볼 수 있으며, 이는 제미나이 모바일 앱에도 곧 적용될 예정이다.     제미나이 2.0을 기반으로 새롭게 개선된 ‘프로젝트 아스트라(Project Astra)’는 다국어 대화, 구글 툴(구글 검색, 구글 렌즈, 맵스 등) 사용, 최대 10분 동안의 대화를 기억하는 향상된 메모리, 빠른 응답 속도 등의 기능을 제공한다. 구글은 이러한 기능을 구글의 AI 어시스턴트인 제미나이 앱 등 구글 제품은 물론, 다른 폼 팩터에도 도입할 계획이다.  ‘프로젝트 마리너(Project Mariner)’는 웹 브라우저에서 작동하는 에이전트 프로토타입으로, 픽셀 및 텍스트, 코드, 이미지, 양식과 같은 웹 요소를 포함해 브라우저 화면의 정보를 이해하고 추론한 다음, 실험적인 크롬 확장 프로그램(Chrome extension)을 통해 해당 정보를 활용해 작업을 완료한다. 개발자를 위한 AI 에이전트인 ‘줄스(Jules)’는 깃허브(GitHub) 워크플로에 직접 통합돼 개발자의 지시와 감독 하에 이슈를 처리하고, 계획을 세우고 실행하는 기능을 제공한다.  구글은 제미나이 2.0을 사용해 비디오 게임의 가상 세계 탐색을 지원하는 에이전트를 구축했다. 이 에이전트는 화면의 동작만을 기반으로 게임에 대해 추론하고, 실시간 대화를 통해 다음에 무엇을 해야 할지 제안할 수 있다. 가상 게임의 동반자 역할은 물론, 구글 검색을 활용해 웹 상의 풍부한 게임 지식을 제공할 수도 있다. 이 외에도 구글은 제미나이 2.0의 공간 추론 기능을 로봇 공학에 적용해 물리적 세계에서 도움을 줄 수 있는 에이전트를 실험하고 있다. 한편, 구글은 제미나이 2.0가 구글 검색의 AI 개요(AI Overview) 기능에도 적용되어, 고급 수학 방정식, 멀티모달 쿼리, 코딩 등 더욱 복잡한 질문에 대한 답변을 제공하도록 개선될 예정이라고 밝혔다.  전 세계 제미나이 이용자는 데스크톱 및 모바일 웹에서 제미나이 앱을 통해 제미나이 2.0 플래시(Gemini 2.0 Flash) 실험 버전을 AI 어시스턴트로 사용할 수 있다. 제미나이 2.0 플래시 실험 모델은 구글 AI 스튜디오(Google AI Studio) 및 버텍스 AI(Vertex AI)를 통해 모든 개발자가 사용할 수 있다. 개발자들은 제미나이 2.0을 활용하여 텍스트, 오디오 및 이미지를 포함한 통합 응답을 생성하고, 구글 검색 및 코드 실행과 같은 툴을 활용하는 애플리케이션을 구축할 수 있다.
작성일 : 2024-12-12
AWS, 차세대 파운데이션 모델 ‘아마존 노바’ 공개
아마존웹서비스(AWS)는 광범위한 작업에서 최첨단 인텔리전스와 가격 대비 성능을 제공하는 차세대 파운데이션 모델(FM)인 ‘아마존 노바(Amazon Nova)’를 발표했다. 아마존 노바 모델은 아마존 베드록(Amazon Bedrock)에서 사용 가능하며, 빠른 텍스트-텍스트 변환 모델인 아마존 노바 마이크로(Amazon Nova Micro)를 비롯해 아마존 노바 라이트(Amazon Nova Lite), 아마존 노바 프로(Amazon Nova Pro) 그리고 텍스트, 이미지, 비디오를 처리하여 텍스트를 생성하는 멀티모달 모델인 아마존 노바 프리미어(Amazon Nova Premier) 등을 포함한다. 아마존은 또한 두 가지 추가 모델로 스튜디오급 이미지 생성을 위한 아마존 노바 캔버스(Amazon Nova Canvas) 및 스튜디오급 비디오 생성을 위한 아마존 노바 릴(Amazon Nova Reel)을 출시했다. 아마존 노바 마이크로는 낮은 비용으로 빠른 지연 시간의 응답을 제공하는 텍스트 전용 모델이다. 아마존 노바 라이트는 이미지, 비디오, 텍스트 입력 처리가 빠른 저비용 멀티모달 모델이고, 아마존 노바 프로는 광범위한 작업에 대해 정확성, 속도, 비용의 최적의 조합을 제공하는 고성능 멀티모달 모델이다. 그리고 아마존 노바 프리미어는 복잡한 추론 작업과 맞춤형 모델 학습을 위한 최고의 교사 모델로 사용되는 아마존의 가장 강력한 멀티모달 모델이다. 아마존 노바 마이크로, 아마존 노바 라이트, 아마존 노바 프로는 현재 정식 사용 가능하며, 아마존 노바 프리미어는 2025년 1분기에 출시될 예정이다. AWS는 “다양한 업계 표준 벤치마크로 테스트한 결과 아마존 노바 마이크로, 아마존 노바 라이트, 아마존 노바 프로가 각각의 카테고리에서 메타의 라마 3.1, 구글의 제미나이 1.5, 오픈AI의 GPT-4o, 앤스로픽의 클로드 3.5 등 업계 주요 모델과 비교할 때 경쟁력 있는 성능을 보여주었다”고 소개했다. 아마존 노바 마이크로, 라이트, 프로는 200개 이상의 언어를 지원한다. 아마존 노바 마이크로는 128K 입력 토큰의 컨텍스트 길이를 지원하며, 아마존 노바 라이트와 아마존 노바 프로는 300K 토큰 또는 30분의 비디오 처리를 지원하는 컨텍스트 길이를 제공한다. 2025년 초에는 2M 이상의 입력 토큰 컨텍스트 길이를 지원할 예정이다. AWS는 모든 아마존 노바 모델이 빠르고 비용 효율적이며 고객의 시스템 및 데이터와 쉽게 사용할 수 있도록 설계됐다고 설명했다. 모든 아마존 노바 모델은 주요 AI 기업과 아마존의 고성능 파운데이션 모델을 단일 API를 통해 사용할 수 있게 해주는 완전 관리형 서비스인 아마존 베드록과 통합돼 있다. 고객들은 아마존 베드록을 사용하여 아마존 노바 모델과 다른 파운데이션 모델을 쉽게 실험하고 평가하여 애플리케이션에 가장 적합한 모델을 결정할 수 있다. 또한 이 모델들은 맞춤형 미세조정(fine-tuning)을 지원하여, 고객들이 정확도를 높이기 위해 레이블이 지정된 자체 데이터의 예시들을 모델에 지정할 수 있다. 아마존 노바 모델은 고객의 자체 데이터(텍스트, 이미지, 비디오 포함)에서 가장 중요한 것을 학습하고, 그 후 아마존 베드록이 맞춤형 응답을 제공할 수 있는 개인 미세조정 모델을 훈련시킨다. 이미지 생성 모델인 아마존 노바 캔버스는 텍스트나 이미지 프롬프트로부터 전문가급 이미지를 생성한다. 또한 텍스트 입력을 사용한 이미지 편집 기능과 색상 구성 및 레이아웃 조정을 위한 제어 기능을 제공한다. 그리고 이미지의 출처를 추적할 수 있게 하는 워터마크와 잠재적으로 유해한 콘텐츠의 생성을 제한하는 콘텐츠 관리 등 제어 기능을 내장했다. 아마존 노바 릴은 고객이 텍스트와 이미지로부터 쉽게 고품질 비디오를 생성할 수 있게 해주는 비디오 생성 모델이다. 고객은 자연어 프롬프트를 사용하여 카메라 모션, 회전, 확대/축소 등 시각적 스타일과 속도를 제어할 수 있다. 아마존 노바 릴은 현재 6초 길이의 비디오를 생성하며, 향후 몇 개월 내에 최대 2분 길이의 비디오 생성을 지원할 예정이다. 아마존은 2025년 1분기에 아마존 노바 스피치 투 스피치(speech-to-speech) 모델을 출시할 예정이다. 이 모델은 자연어의 스트리밍 음성 입력을 이해하고, 언어적 신호와 톤이나 박자 같은 비언어적 신호를 해석하며, 낮은 지연 시간으로 자연스러운 인간다운 쌍방향 상호작용을 제공함으로써 대화형 AI 애플리케이션을 변화시키도록 설계됐다. 또한 아마존은 텍스트, 이미지, 오디오, 비디오를 입력으로 받아 이러한 모든 형태로 출력을 생성할 수 있는 혁신적인 모델을 개발하고 있다고 전했다. 이 모델은 2025년 중반에 출시될 예정으로, 콘텐츠를 편집/다른 형태로 변환하거나 모든 형태를 이해하고 생성할 수 있는 AI 에이전트를 구동하는 등 다양한 작업을 수행하는 데 동일한 모델을 사용할 수 있는 애플리케이션 개발을 단순화할 것으로 보인다. 아마존의 로힛 프라사드(Rohit Prasad) 인공 일반 지능(AGI) 수석부사장은 “아마존 내부적으로 약 1000개의 생성형 AI 애플리케이션이 진행 중이며, 애플리케이션 개발자가 여전히 고민하고 있는 문제를 전반적으로 파악하고 있다”면서, “새로운 아마존 노바 모델은 내부 및 외부 개발자들의 이러한 과제 해결을 돕고 지연 시간, 비용 효율성, 맞춤화, 검색 증강 생성(RAG), 에이전트 기능에서 의미 있는 진전을 이루면서 강력한 인텔리전스와 콘텐츠 생성을 제공하고자 한다”고 말했다.
작성일 : 2024-12-05