• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "개발자"에 대한 통합 검색 내용이 3,055개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
엔비디아 젠슨 황, CES 2025서 ‘놀라운 속도’로 진보하는 AI 소개
엔비디아 젠슨 황, CES 2025서 ‘놀라운 속도’로 진보하는 AI 소개   CES 2025에서 엔비디아 창립자 겸 CEO 젠슨 황(Jensen Huang)이 AI와 컴퓨팅 기술의 미래를 조망했다.  젠슨 황은 1월 8일 90분간 이어진 연설에서 게이밍, 자율 주행차, 로보틱스, 그리고 에이전틱 AI(agentic AI)의 발전에 기여할 엔비디아의 최신 기술과 제품들을 공개했다. 라스베이거스 미켈롭 울트라 아레나에 6천 명이 넘는 관중이 운집한 가운데, 젠슨 황은 “AI가 놀라운 속도로 진보하고 있다”면서, AI의 발전 과정을 세 단계로 나눠 설명했다. “AI는 처음에 이미지와 단어, 소리를 이해하는 '인식형 AI(Perception AI)'에서 시작됐다. 이후 텍스트, 이미지, 소리를 생성하는 '생성형 AI(Generative AI)'가 등장했다. 그리고 이제 우리는 처리, 추론, 계획, 행동까지 가능한 물리적 AI(Physical AI) 시대에 접어들고 있다.” 젠슨 황은 이 변혁의 중심에 엔비디아 GPU와 플랫폼이 자리 잡고 있다고 강조하며, 엔비디아가 게이밍, 로보틱스, 자율 주행차 등 다양한 산업에서 혁신을 선도할 것이라고 전했다. 이번 기조연설에서는 엔비디아의 신제품과 기술이 공개됐다. 젠슨 황은 이를 통해 AI와 컴퓨팅 기술이 어떻게 미래를 재정의할지 상세히 설명했다. 엔비디아 코스모스(Cosmos) 플랫폼은 로봇과 자율 주행차, 비전 AI를 위해 새롭게 개발된 모델과 영상 데이터 프로세싱 파이프라인을 통해 물리적 AI를 발전시킬 것이다. 새로 출시될 엔비디아 블랙웰(Blackwell) 기반 지포스(GeForce) RTX 50 시리즈 GPU는 놀랍도록 사실적인 비주얼과 전례 없는 성능을 제공한다.  이번 CES에 소개된 RTX PC용 AI 기초 모델에는 디지털 휴먼(digital human)과 팟캐스트, 이미지, 동영상 제작을 도울 엔비디아 NIM 마이크로서비스와 AI 블루프린트가 포함된다. 엔비디아 프로젝트 디지츠(Project DIGITS)는 주머니에 들어가는 소형 크기의 패키지로 개발자의 데스크톱에 엔비디아 그레이스 블랙웰(Grace Blackwell)의 강력한 성능을 제공한다. 엔비디아는 토요타와 협업하면서 엔비디아 드라이브OS(DriveOS) 기반의 엔비디아 드리아브 AGX 차내 컴퓨터로 안전한 차세대 차량 개발에 힘쓰고 있다.   젠슨 황은 30년에 걸친 엔비디아의 여정을 돌아보는 것으로 키노트를 시작했다. 1999년, 엔비디아는 프로그래머블 GPU(programmable GPU)를 개발했다. 그로부터 지금까지 현대적 AI가 컴퓨팅의 작동 방식을 근본적으로 바꿔놨다. “당시 GPU의 테크놀로지 스택 레이어 하나하나가 고작 12년만에 놀라운 혁신을 경험했다.”   지포스 RTX 50 시리즈의 그래픽 혁명 젠슨 황은 “지포스는 AI가 대중에게 다가가는 계기였고, 이제 AI는 지포스의 본진이 되고 있다”고 말했다. 이 같은 평가와 함께 젠슨 황은 지금껏 개발된 제품 중 가장 강력한 지포스 RTX GPU인 엔비디아 지포스 RTX 5090 GPU 를 소개했다. 지포스 RTX 5090은 920억 개의 트랜지스터를 탑재하고 초당 3,352조 개(TOPS)의 연산을 제공한다.  젠슨 황은 “바로 이것이 우리가 처음 선보이는 블랙웰 아키텍처의 지포스 RTX 50 시리즈”라며 소개를 시작했다. 젠슨 황은 검게 처리된 GPU를 높이 들어 보이며, 이 제품이 첨단 AI를 활용해 혁신적인 그래픽을 구현하는 방법을 설명했다. 그는 “이 GPU는 문자 그대로 야수라 할 만하다. 지포스 RTX 5090의 기계적 디자인조차 기적에 가깝다”며, 해당 그래픽 카드에 냉각 팬 두 개가 장착돼 있다고 언급했다.  이번 기조연설에서는 지포스 RTX 5090 시리즈를 변형한 제품들의 출시 소식도 알렸다. 지포스 RTX 5090과 지포스 RTX 5080 데스크톱 GPU가 오는 1월 30일에 공개된다. 지포스 RTX 5070 Ti와 지포스 RTX 5070 데스크톱은 오는 2월부터 만나볼 수 있다. 랩톱 GPU는 올 3월 출시 예정이다.  DLSS 4 는 DLSS 테크놀로지를 활용한 제품군 일체와 함께 작동하는 멀티 프레임 생성(Multi Frame Generation)을 도입해 성능을 최대 8배까지 끌어올린다. 또한 엔비디아는 PC의 레이턴시(latency)를 75%까지 줄여주는 엔비디아 리플렉스(Reflex) 2 도 공개했다.  최신 DLSS의 경우, 우리가 계산하는 프레임마다 세 개의 프레임을 추가로 생성할 수 있다. 젠슨 황은 “그 결과 AI가 담당하는 계산이 크게 줄어들기 때문에 렌더링 성능이 크게 향상된다”고 말했다. RTX 뉴럴 셰 이더(RTX Neural Shaders)는 소형 신경망을 사용해 실시간 게이밍의 텍스처와 머티리얼, 빛을 개선한다. RTX 뉴럴 페이스(RTX Neural Faces)와 RTX 헤어(RTX Hair)는 생성형 AI로 얼굴과 머리카락의 실시간 렌더링을 개선해 더없이 사실적인 디지털 캐릭터를 만들어낸다. RTX 메가 지오메트리(RTX Mega Geometry)는 레이 트레이싱된 트라이앵글(triangle)의 개수를 100배까지 늘려 디테일을 강화한다.    코스모스로 진보하는 물리적 AI 젠슨 황은 그래픽의 발전상과 더불어 엔비디아 코스모스 월드 파운데이션 모델(world foundation model) 플랫폼을 소개하며, 이것이 로보틱스와 산업 AI를 크게 혁신할 것이라고 내다봤다.  그는 AI의 차세대 개척지는 물리적 AI가 될 것이라면서 이 순간을 대규모 언어 모델이 생성형 AI의 혁신에 미쳤던 거대한 영향에 비유하고 “챗GPT(ChatGPT) 같은 혁신의 순간이 로보틱스 분야 전반에 다가온 셈”이라고 설명했다.  젠슨 황은 거대 언어 모델(large language model)과 마찬가지로 월드 파운데이션 모델 또한 로봇과 AV 개발 촉진에 중요한 역할을 하지만, 이를 자체적으로 훈련할 수 있는 전문 지식과 자원을 모든 개발자가 갖추고 있는 것은 아니라고 진단했다.  엔비디아 코스모스는 생성형 모델과 토크나이저(tokenizer), 영상 프로세싱 파이프라인을 통합해 AV와 로봇 등의 물리적 AI 시스템을 강화한다.  엔비디아 코스모스의 목표는 AI 모델에 예측과 멀티버스 시뮬레이션 기능을 지원해 발생 가능한 모든 미래를 시뮬레이션하고 최적의 행위를 선택할 수 있도록 하는 것이다.   젠슨 황의 설명에 따르면 코스모스 모델은 텍스트나 이미지, 비디오 프롬프트를 수집해 가상 월드를 동영상 형태로 생성한다. 그는 “코스모스의 생성 작업은 실제 환경과 빛, 대상 영속성(object permanence) 등 AV와 로보틱스라는 고유한 활용 사례에 필요한 조건들을 최우선으로 고려한다”고 말했다. 1X와 애자일 로봇(Agile Robots), 어질리티(Agility), 피규어 AI(Figure AI), 포어텔릭스(Foretellix), 푸리에(Fourier), 갤봇(Galbot), 힐봇(Hillbot), 인트봇(IntBot), 뉴라 로보틱스(Neura Robotics), 스킬드 AI(Skild AI), 버추얼 인시전(Virtual Incision), 와비(Waabi), 샤오펑(XPENG) 등 로보틱스와 자동차 분야의 선도적인 기업들과 차량 공유 업체 우버(Uber)가 코스모스를 최초 도입했다.  또한 현대자동차 그룹은 엔비디아 AI와 옴니버스(Omniverse) 를 기반으로 더 안전하고 스마트한 차량을 개발하고, 제조를 강화하며, 최첨단 로보틱스의 활용성을 높인다. 코스모스는 오픈 라이선스로 깃허브(GitHub)에서 이용할 수 있다.    AI 기초 모델로 개발자 지원 엔비디아는 로보틱스와 자율 주행차 외에도 AI 기초 모델을 통해 개발자와 크리에이터를 지원한다.  젠슨 황은 디지털 휴먼과 콘텐츠 제작, 생산성과 개발성을 극대화하는 RTX PC용 AI 파운데이션 모델을 소개했다.  그는 “모든 클라우드에서 엔비디아 GPU를 사용할 수 있기 때문에 이 AI 기초 모델들 또한 모든 클라우드에서 실행이 가능하다. 모든 OEM에서 사용이 가능하므로 이 모델들을 가져다 여러분의 소프트웨어 패키지에 통합하고, AI 에이전트를 생성하며, 고객이 소프트웨어 실행을 원하는 어디에나 배포할 수 있다”고 전했다.  이 기초 모델들은 엔비디아 NIM 마이크로서비스로 제공되며, 신형 지포스 RTX 50 시리즈 GPU로 가속된다. 신형 지포스 RTX 50은 모델의 신속 실행에 필요한 기능을 갖추고 있으며, FP4 컴퓨팅 지원을 추가해 AI 추론을 2배까지 향상시킨다. 또한 생성형 AI 모델이 전 세대 하드웨어에 비해 더 적은 메모리 공간에서 로컬로 실행되도록 지원한다.   젠슨 황은 이처럼 새로운 툴이 크리에이터에게 어떤 잠재력을 갖는지 짚었다. 그는 “우리는 우리의 생태계가 활용할 수 있는 다양한 블루프린트를 만들고 있다. 이 모든 게 오픈 소스로 제공되므로 여러분이 블루프린트를 가져다 직접 수정해 사용할 수 있다”고 말했다.  엔비디아는 업계 최고의 PC 제조업체와 시스템 개발자들이 지포스 RTX 50 시리즈 GPU를 탑재하고 NIM을 지원하는 RTX AI PC를 내놓을 예정이다. 젠슨 황은 “AI PC들이 여러분 가까이로 찾아갈 예정”이라고 말했다. 엔비디아는 이처럼 개인 컴퓨팅에 AI 기능을 더하는 툴들을 제공하는 한편, 안전과 인텔리전스가 가장 중요하게 손꼽히는 자율 주행차 산업에서도 AI 기반 솔루션을 발전시키고 있다.   자율 주행 차량의 혁신 젠슨 황 CEO는 엔비디아 AGX 토르(Thor) 시스템 온 칩(SoC)을 기반으로 구축된 엔비디아 드라이브 하이페리온 AV(Hyperion AV) 플랫폼의 출시를 알렸다. 이 플랫폼은 생성형 AI 모델용으로 고안돼 기능 안전성과 자율 주행 기능을 강화한다.  젠슨 황은 “자율 주행차의 혁명이 찾아왔다. 자율 주행차 제작에는 로봇을 만들 때와 마찬가지로 세 대의 컴퓨터가 필요하다. AI 모델 훈련을 위한 엔비디아 DGX, 시험 주행과 합성 데이터 생성을 위한 옴니버스, 차내 슈퍼컴퓨터인 드라이브 AGX가 필요하다”고 말했다.  드라이브 하이페리온은 최초의 엔드-투-엔드(end-to-end) AV 플랫폼으로, 첨단 SoC와 센서, 차세대 차량용 안전 시스템, 센서 제품군과 액티브 세이프티(active safety)와 레벨 2 자율 주행 스택을 통합했다. 이 플랫폼은 메르세데츠 벤츠(Mercedes-Benz)와 JLR, 볼보자동차(Volvo Cars) 등 자동차 안전성 분야를 선도하는 기업들에 채택됐다.  젠슨 황은 자율 주행차의 발전에서 합성 데이터가 중요한 역할을 수행한다고 강조했다. 합성 데이터는 실세계 데이터에 한계가 존재하는 상황에서 자율 주행차 제조 단계에서의 훈련에 필수적이라고 설명했다.  엔비디아 옴니버스 AI 모델과 코스모스를 기반으로 한 이 같은 접근 방식은 “훈련 데이터의 양을 어마어마하게 늘리는 합성 주행 시나리오를 생성”한다.  엔비디아와 코스모스를 사용하는 엔비디아의 AI 데이터 공장은 “수백 개의 주행을 수십억 마일에 달하는 유효 주행으로 확장”함으로써 안전하고 진일보한 자율 주행에 필요한 데이터세트를 획기적으로 늘릴 수 있다.  젠슨 황은 “자율 주행차 훈련에 쓰일 방대한 데이터를 보유하게 될 것”이라고 덧붙였다.  세계 최대 자동차 제조사인 토요타는 안전 인증을 획득한 엔비디아 드라이브OS 운영 체제와 엔비디아 드라이브 AGX 오린(Orin)을 기반으로 차세대 차량을 생산할 것이라고 밝혔다.  젠슨 황은 “컴퓨터 그래픽이 놀라운 속도로 혁신을 이룩했듯 향후 몇 년 동안 AV 발전 속도 또한 엄청나게 빨라질 것으로 예상된다. 이 차량들은 기능 안전성과 진일보한 주행 지원 능력을 제공할 전망”이라고 말했다.    에이전트 AI와 디지털 제조 엔비디아와 협력사들은 효율적인 조사와 영상 검색, 요약을 통해 대용량 영상과 이미지를 분석할 수 있는 PDF 투 팟캐스트(PDF-to-podcast) 등 에이전틱 AI용 AI 블루프린트들을 출시했다. 이를 통해 개발자들이 어디서나 AI 에이전트를 구축, 테스트, 실행할 수 있도록 지원해왔다.  개발자는 AI 블루프린트를 활용해 맞춤형 에이전트를 배포하고 엔터프라이즈 워크플로우를 자동화할 수 있다. 이 새로운 범주의 협력사 블루프린트는 엔비디아 NIM 마이크로서비스나 엔비디아 네모(NeMo) 등의 엔비디아 AI 엔터프라이즈 소프트웨어와 크루AI(CrewAI), 데일리(Daily), 랭체인(LangChain), 라마인덱스(LlamaIndex), 웨이츠 앤 바이어시스(Weights & Biases) 등 선도적인 제공자들의 플랫폼을 통합한다.  이와 더불어 젠슨 황은 라마 네모트론(Llama Nemotron)도 새롭게 발표했다.  개발자는 엔비디아 NIM 마이크로서비스를 활용해 고객 지원과 사기 탐지, 공급망 최적화 작업용 AI 에이전트를 구축할 수 있다.  엔비디아 NIM 마이크로서비스로 제공되는 이 모델들은 가속 시스템 일체에서 AI 에이전트를 가속한다. 엔비디아 NIM 마이크로서비스는 영상 콘텐츠 관리를 간소화해 미디어 업계의 효율성과 시청자 참여도를 높인다. 엔비디아의 신기술은 디지털 분야의 애플리케이션을 넘어 AI가 로보틱스로 물리적 세계를 혁신할 길을 열어주고 있다. 그는 “지금까지 말씀드린 지원 테크놀로지 일체를 바탕으로 우리는 향후 몇 년 동안 로보틱스 전반에서 엄청난 속도의 혁신과 놀라운 변화들을 만들어내게 될 것”이라고 말했다. 제조 분야의 합성 모션 생성을 위한 엔비디아 아이작(Isaac) GR00T 블루프린트는 기하급수적으로 많은 합성 모션 데이터를 생성해 모방 학습을 통한 휴머노이드 훈련에 도움을 줄 것이다. 젠슨 황은 엔비디아 옴니버스로 수백 만 개의 휴머노이드 훈련용 합성 모션을 생성해 로봇을 효율적으로 훈련시키는 것이 중요하다고 강조했다. 메가 블루프린트는 엑센츄어(Accenture)와 키온(KION) 같은 선진 업체들이 창고 자동화를 위해 채택한 로봇들의 대규모 시뮬레이션을 지원한다.  이러한 AI 툴을 바탕으로 엔비디아의 새로운 혁신, 일명 프로젝트 디지츠로 불리는 개인용 AI 슈퍼컴퓨터가 등장했다.                                                                                             엔비디아 프로젝트 디지츠 공개 젠슨 황은 개인 사용자와 개발자 모두에게 엔비디아 그레이스 블랙웰을 쥐여주게 될 엔비디아 프로젝트 디지츠 를 공개했다. 그는 “한 가지 더 보여드리고 싶은 게 있다. 약 10년 전에 시작된 이 놀라운 프로젝트가 아니었다면 이 같은 일은 절대로 불가능했을 것이다. 이는 우리 회사 내부에서 프로젝트 디지츠라 불리던 작업이다. 딥 러닝 GPU 인텔리전스 트레이닝 시스템(deep learning GPU intelligence training system)의 약어다”라며 소개를 시작했다. 그는 2016년 최초의 엔비디아 DGX 시스템이 오픈AI(OpenAI)에 제공되던 당시를 그리며 엔비디아의 AI 슈퍼컴퓨팅 개발을 향한 여정이 남긴 유산을 되새겼다. 그는 “그 덕분에 AI 컴퓨팅의 혁명이 가능했다는 건 분명한 사실”이라고 말했다. 새로 발표된 프로젝트 디지츠는 엔비디아의 슈퍼컴퓨팅 개발 미션을 더욱 발전시켰다. 젠슨 황은 “모든 소프트웨어 엔지니어, 모든 엔지니어, 모든 크리에이티브 아티스트, 오늘날 컴퓨터를 도구로 사용하는 모든 이들에게 AI 슈퍼컴퓨터가 필요해질 것”이라고 전했다. 젠슨 황은 10기가 그레이스 블랙웰 슈퍼칩으로 구동되는 프로젝트 디지츠가 엔비디아의 가장 작지만 가장 강력한 AI 슈퍼컴퓨터라고 밝혔다. 젠슨 황은 “이것이 엔비디아의 최신 AI 슈퍼컴퓨터”라고 설명하며 프로젝트 디지츠를 선보였다. 그는 “이 제품은 엔비디아 AI 스택 전체를 구동한다. 엔비디아 소프트웨어 일체가 여기서 실행된다. DGX 클라우드 또한 마찬가지”라고 말했다.    소형이지만 강력한 프로젝트 디지츠는 오는 5월 출시를 앞두고 있다.    미래를 이끄는 엔비디아의 비전 젠슨 황은 연설을 마무리하며, 엔비디아가 30년간 혁신을 거듭해온 과정을 돌아보고,  “1999년 프로그래머블 GPU를 개발한 이후, 우리는 현대 AI가 컴퓨팅을 근본적으로 변화시키는 과정을 지켜봤다”고 말했다. CES 2025에서 공개된 엔비디아의 혁신들은 AI 기술이 산업 전반에 걸쳐 새로운 가능성을 열어줄 것을 보여줬다. 젠슨 황의 말처럼, AI는 이미 우리의 일상 속 깊숙이 자리 잡았으며, 엔비디아는 그 중심에서 미래를 선도하고 있다.  
작성일 : 2025-01-11
엔비디아 코스모스, 자율주행차 위한 컴퓨터 설루션 강화
엔비디아가 CES 2025서 세 가지 컴퓨터 설루션을 위한 엔비디아 코스모스(NVIDIA Cosmos)를 발표했다. 코스모스는 생성형 월드 파운데이션 모델(World Foundation Model, WFM)과 고급 토크나이저(tokenizer), 가드레일, 가속화를 거친 영상 프로세싱 파이프라인으로 구성된 플랫폼이며, AV와 로봇 등의 물리 AI 시스템 개발을 촉진하고자 구축됐다. 자율주행차(AV)의 개발에는 세 가지 컴퓨터가 필요하다. 데이터센터에서 AI 기반 스택을 훈련하기 위한 엔비디아 DGX 시스템, 시뮬레이션과 합성 데이터 생성을 위해 엔비디아 OVX 시스템에서 구동하는 엔비디아 옴니버스(Omniverse), 안전을 위해 실시간 센서 데이터를 처리하는 차내 컴퓨터인 엔비디아 AGX가 각각 있어야 한다. 이러한 목적으로 특별히 만들어진 풀 스택 시스템은 개발 주기의 지속을 가능하게 하면서, 성능과 안전성의 개선 속도를 높일 수 있다.     세 가지 컴퓨터 설루션에 코스모스가 추가되면서 개발자들은 사람이 운전한 수천 킬로미터의 주행 거리를 수십억 킬로에 달하는 가상 주행 거리로 변환해 훈련 데이터의 품질을 높이는 일종의 데이터 플라이휠(flywheel)을 갖게 됐다. 코스모스 WFM은 허깅 페이스(Hugging Face)와 엔비디아 NGC 카탈로그에서 오픈 모델 라이선스로 사용할 수 있다. 코스모스 모델은 곧 최적화된 엔비디아 NIM 마이크로서비스로 제공될 계획이다. 엔비디아의 산자 피들러(Sanja Fidler) AI 리서치 부문 부사장은 “AV 데이터의 공장이라 할 만한 이 플라이휠은 차량 데이터 수집과 4D의 정확한 재구성, 그리고 AI를 활용해 훈련과 폐순환(closed-loop) 평가에 적합한 장면과 다양한 교통 상황을 생성한다. 엔비디아 옴니버스 플랫폼과 코스모스에 AI 모델을 보조적으로 사용하면 합성 주행 시나리오를 생성해 훈련용 데이터를 크게 증폭시킬 수 있다”고 말했다. 엔비디아의 놈 마크스(Norm Marks) 자동차 부문 부사장은 “물리 AI 모델의 개발은 예로부터 자원 집약적이고 비용이 많이 들었으며, 개발자가 실세계 데이터세트를 확보하고 필터링한 뒤 훈련에 맞춰 큐레이팅과 준비를 거쳐야 했다. 코스모스는 이 과정을 생성형 AI로 가속해 자율주행차와 로보틱스의 AI 모델을 더욱 빠르고 정확하게 개발하게 해 준다”고 전했다.
작성일 : 2025-01-10
DJI, AI 기능 더한 기업용 플래그십 드론 매트리스 4 시리즈 출시
DJI가 새로운 기업용 플래그십 엔터프라이즈 드론 시리즈인 DJI 매트리스 4(DJI Matrice 4) 시리즈를 출시한다고 발표했다. 이번에 새롭게 선보이는 컴팩트 드론 시리즈는 매트리스 4T와 매트리스 4E로 구성되며, 지능형 멀티 센서를 탑재한 스마트 감지 기능 및 레이저 거리 측정기와 같은 첨단 기능을 갖추었다. 이 드론에 탑재된 AI 컴퓨팅 플랫폼과 향상된 탐지 기능은 더욱 안전하고 정확한 비행에 도움을 준다. DJI 매트리스 4 시리즈는 미디엄 망원 카메라와 망원 카메라를 탑재했다. 3배 광학 70mm 미디엄 망원 렌즈로는 10m 거리에서 전선 또는 다리의 나사와 균열을 검사할 수 있으며, 168mm 망원 렌즈로는 최대 250m 장거리에서 세밀한 검사가 가능하다. 또한 레이저 거리 측정기는 1800m 거리까지 측정할 수 있다. DJI 매트리스 4E는 측량, 매핑 및 검사를 위해 설계되었으며, 24mm 기계식 셔터 광각렌즈로 다양한 각도에서 고속 항공 측량이 가능하다. 최고 21m/s의 매핑 비행 속도로 정사 및 경사 사진 모드에서 0.5초 간격으로 고속 촬영을 지원하며, 스마트 3D 캡처 기능을 활용하면 원격 컨트롤러에서 초기 모델을 생성하고 정밀한 매핑 경로를 생성할 수 있다.     DJI 매트리스 4T는 비상 대응과 공공 안전 및 에너지 관리에 이르기까지 다양한 산업 분야에서 지원이 가능하다. 이 드론의 적외선 열화상 카메라는 최대 1280×1024 픽셀의 고해상도 모드를 지원하며, NIR 보조 조명은 최대 100미터 거리까지 조명을 비출 수 있다. 또한, 24mm 광각 렌즈와 IR-CUT 필터를 갖추어 밤낮으로 선명한 화질을 제공한다. DJI는 온보드 컴퓨팅 기능에 접근하는 데 필요한 모델 트레이닝 도구와 타사 개발자 인증 프로세스도 제공하여 새로운 드론 AI 응용 분야를 확장하는 데에도 도움을 주고 있다. 또한, 매트리스 4 시리즈는 내장된 AI 모델을 통해 수색 및 구조 임무에서 제2의 눈 역할을 하며, 까다로운 지형에서도 먼 거리에 있는 차량과 선박을 신속하게 감지할 수 있다. 이외에도 야간 모드가 더욱 커진 조리개와 지능형 저조도 기능으로 향상되어 더욱 뛰어난 저조도 성능을 제공한다.  DJI는 매트리스 4 시리즈의 효율성 및 유연한 사용을 돕는 신규 액세서리를 함께 출시했다. DJI AL1 스포트라이트는 100미터 거리의 장소에 조명을 비출 수 있다. DJI AS1 스피커는 최대 300미터까지 방송이 가능하며 1미터 거리에서 114데시벨에 도달할 수 있다. D-RTK 3 다기능 스테이션은 네트워크 연결이 없는 지역에서도 이미지 전송 범위를 확장할 수 있다. DJI는 높은 수준의 데이터 보안 프로토콜을 지원한다고 소개했다. 사용자는 자신의 데이터 사용을 직접 제어할 수 있으며, 사진 또는 동영상을 DJI와 공유하기 위해 반드시 사전 동의를 해야 한다. 미국 내 사용자의 경우 더 이상 비행 로그를 DJI 서버와 동기화활 수 없다.  보다 강화된 데이터 보안이 필요한 경우 로컬 데이터 모드를 통해 앱의 인터넷 연결을 차단할 수 있다. DJI 케어 엔터프라이즈 플러스(DJI Care Enterprise Plus) 및 공식 연장 보장 서비스는 DJI 매트리스 4 시리즈의 다양한 우발적 손상에 대한 종합적인 보상 서비스 플랜을 제공한다. DJI 매트리스 4 시리즈는 DJI 스토어 및 공인 DJI 엔터프라이즈 판매처에서 다양한 구성으로 구매할 수 있다. DJI의 크리스티나 장(Christina Zhang) 기업 전략 부문 수석 이사는 “매트리스 4 시리즈를 통해 DJI는 지능형 항공 작업의 새로운 시대를 열고 있다”면서, “업계 최고의 산업용 드론에 AI를 탑재함으로써 수색 및 구조 팀은 더 골든타임 내에 생명을 구하는 것이 가능해질 것이다. 또한, 한층 더 발전한 매트리스 4 시리즈의 인텔리전스 기능은 산업용 드론이 여러 복잡한 상황에서 증가하는 항공 작업 관련 요구사항을 보다 잘 해결할 수 있도록 한다”고 밝혔다.
작성일 : 2025-01-09
언리얼 엔진 5.5 : 애니메이션/가상 프로덕션/모바일 게임 개발 기능 강화
개발 및 공급 : 에픽게임즈 주요 특징 : 고퀄리티 애니메이션 제작 워크플로 지원 기능 향상, 하드웨어 레이 트레이싱 기반 시스템 지원 강화, 버추얼 프로덕션을 위한 인카메라 VFX 툴세트 정식 버전 제공, 모바일 게임 개발 위한 모바일 포워드 렌더러의 기능 추가 등     이번에 출시된 언리얼 엔진 5.5는 애니메이션 제작, 버추얼 프로덕션, 모바일 게임 개발 기능이 크게 향상됐고, 렌더링, 인카메라 VFX, 개발자 반복 작업 등 많은 기능들을 정식 버전으로 제공한다. 또한 메가라이트와 같은 한계를 뛰어넘는 흥미롭고 새로운 혁신도 계속해서 선보였다.   애니메이션 언리얼 엔진 5.5는 에디터에서 고퀄리티 애니메이션 제작 워크플로를 지원하는 신규 및 향상된 기능을 제공하여 상황에 맞는 애니메이션을 제작할 수 있어, DCC 애플리케이션을 오가며 작업할 필요성이 줄어들었다. 또한, 애니메이션 게임플레이 제작 툴세트에도 새로운 기능이 추가되었다.   시퀀서 이번 버전에서는 언리얼 엔진의 비선형 애니메이션 에디터인 시퀀서가 크게 개선되어 직관적인 인터페이스를 제공하며, 더 나은 필터링과 속성을 더 쉽게 사용할 수 있게 됐다. 이를 통해 워크플로 피로도를 줄이고 생산성을 높일 수 있다.  또한, 원본이 훼손되지 않는 애니메이션 레이어가 추가되어 기존 DCC 애플리케이션에서만 볼 수 있었던 추가 제어 기능과 유연성을 제공한다. 이제 애니메이션 레이어의 애디티브 또는 오버라이드를 선택하고, 이 레이어의 가중치도 애니메이션할 수 있어 손쉽게 콘텐츠를 관리할 수 있다.    ▲ 이미지 출처 : 언리얼 엔진 홈페이지 영상 캡처   마지막으로, 인터랙티브 시네마틱 도중 플레이어의 선택에 따른 조건부 상태 변경, 게임플레이 시네마틱 내에서 오브젝트를 보다 섬세하게 제어하는 커스텀 바인딩 등과 같은 기능으로 다양한 다이내믹 시네마틱 시나리오를 작동하도록 설정하는 것이 더 쉬워졌다. 또한, 커브를 사용해 시퀀스의 타이밍을 워프하고, 서브시퀀스 또는 샷의 원점을 재배치할 수도 있다.   애니메이션 디포머 컨트롤 릭에서 애니메이션을 적용할 수 있는 애니메이션 디포머를 만들어 클릭 한 번으로 시퀀서의 캐릭터에 쉽게 적용할 수 있는 기능이 추가되어, 접촉 디포메이션이나 더 나은 카툰 스타일의 스쿼시 앤 스트레치(찌그러짐과 늘어남)같은 더욱 사실적인 애니메이션 이펙트를 제작할 수 있다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지 영상 캡처   또한, 애니메이터 키트 플러그인에는 래티스, 카메라 래티스, 스컬프팅 등 기본 디포머 기능과 함께 바로 사용할 수 있는 다양한 컨트롤 릭이 포함되어 있으며, 애니메이션에 사용하거나 자신만의 릭으로 구동되는 디포머 또는 헬퍼 릭을 제작하는 데 예제로 활용할 수 있는 유틸리티 컨트롤 릭도 제공된다.   모듈형 컨트롤 릭 모듈형 컨트롤 릭(modular control rig)은 다양한 UI 및 UX 개선, 새로운 사족 보행 및 비클 모듈 그리고 기본 이족 스켈레톤 유형에 대한 지원과 함께 베타 버전으로 제공된다. 또한, 스켈레탈 에디터는 이제 더 빠르고 간소화된 페인팅 워크플로 및 가중치 편집 등 다양한 개선 사항과 함께 정식 버전으로 만나볼 수 있다.   메타휴먼 애니메이터 언리얼 엔진용 메타휴먼 플러그인 중 하나인 메타휴먼 애니메이터도 이번 버전에서 대폭 업그레이드됐다. 처음에는 실험 단계 기능으로 도입되었으나, 이제 오디오만으로도 얼굴 상단 부분의 표정 추론을 포함하여 고퀄리티의 페이셜 애니메이션을 생성할 수 있다. 이 로컬 오프라인 설루션은 다양한 음성 및 언어와 함께 작동되며, 다른 메타휴먼 애니메이터 입력과 함께 일괄 처리 및 스크립팅할 수 있다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지   뮤터블 캐릭터 커스터마이제이션 런타임에 동적으로 변경되는 콘텐츠를 개발하는 게임 개발자에게 큰 도움을 제공할 뮤터블(mutable) 캐릭터 커스터마이제이션 시스템이 새롭게 추가됐다. 이 시스템은 캐릭터, 동물, 소품, 무기 등의 다이내믹 스켈레탈 메시, 머티리얼, 텍스처를 생성하는 동시에 메모리 사용량을 최적화하고 셰이더 비용과 드로 콜 수를 줄여준다. 런타임에 콘텐츠를 수정하는 네이티브 툴과는 달리, 뮤터블에서는 많은 파라미터와 텍스처 레이어, 복잡한 메시 상호작용, GPU에 부하가 큰 텍스처 효과 등을 처리할 수 있는 심층적인 커스터마이징을 제공한다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지 영상 캡처   선택기 선택기도 정식 버전으로 제공된다. 복잡한 로직을 작성할 필요 없이 게임 상황에 따라 재생할 애니메이션을 선택할 수 있는 이 프레임워크는 이제 거의 모든 유형의 애셋을 지원하며, 단순한 랜덤 선택기부터 수천 개의 애니메이션을 관리하는 데이터베이스 기반의 로직까지 다양한 수준의 복잡성을 처리할 수 있다. 이러한 기능은 업데이트된 게임 애니메이션 샘플 프로젝트에서 사용해 볼 수 있다.   렌더링 에픽게임즈는 언리얼 엔진 5의 높은 리얼타임 렌더링 퍼포먼스와 퀄리티를 제공하기 위해 지속적으로 노력하고 있다.   루멘 하드웨어 레이 트레이싱(Hardware Ray Tracing, HWRT) 기반 시스템에 많은 향상이 이루어지면서, 이제 하드웨어 지원을 제공하는 플랫폼에서 루멘을 60Hz로 실행할 수 있다. 이러한 개선을 통해 패스 트레이서 및 라이트 베이킹의 퍼포먼스와 기능도 향상될 수 있다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지   패스 트레이서 물리적으로 정확한 DXR 가속 프로그레시브 렌더링 모드인 패스 트레이서는 이제 정식 버전으로 제공되어 비선형 애플리케이션 또는 모든 기능을 갖춘 실사 레퍼런스 이미지의 최종 픽셀을 제작할 때 높은 퀄리티를 제공한다. 이번 버전에서는 퍼포먼스 및 퀄리티 개선, 리눅스 지원, 스카이 애트머스피어 및 볼류메트릭 클라우드 등 다른 모든 정식 버전 기능을 지원한다.   ▲ Audi e-tron GT 모델(이미지 제공 : Audi Business Innovation)   서브스트레이트 언리얼 엔진 5.2에서 실험 단계로 선보인 머티리얼 제작 프레임워크인 서브스트레이트가 베타 버전으로 전환되어, 언리얼 엔진이 지원하는 모든 플랫폼과 기존 머티리얼의 모든 기능이 지원된다. 리얼타임 애플리케이션을 위해 최적화하는 작업이 진행 중이며, 선형 머티리얼 제작에는 정식으로 사용할 수 있다. 룩 개발 아티스트는 이 강력하고 유연한 프레임워크를 활용하여 오브젝트의 룩 앤 필을 더 제어할 수 있다.   무비 렌더 그래프 언리얼 엔진 5.4에서 실험 단계로 도입되었던 무비 렌더 그래프(Movie Render Graph, MRG)도 이번 버전에서 베타 버전으로 전환된다. 그래프 기반의 환경 설정 워크플로에 많은 노력을 통해 커스텀 EXR 메타데이터를 사용하는 기능, 컬렉션의 스포너블 지원과 같은 초기 사용자의 피드백을 기반한 개선점 그리고 오브젝트 ID 지원과 같은 기존 프리셋 구성의 호환성 향상 등을 제공한다. 또한, 이제 MRG의 렌더 레이어 기능에서 반투명 오브젝트, 나이아가라 FX, 불균질 볼륨, 랜드스케이프, 스카이 스피어를 사용할 필요가 없는 스카이 애트머스피어 등을 포함해 모든 애셋 유형을 지원한다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지 영상 캡처   마지막으로, MRG는 신규 실험 단계 기능인 패스 트레이서용 스파시오 템포럴 디노이저(denoiser)를 제공해 선형 시퀀스에 고퀄리티의 결과를 출력할 수 있다.   메가라이트 언리얼 엔진 5.5에서는 새로운 실험 단계 기능인 메가라이트를 미리 만나볼 수 있다. ‘빛의 나나이트’라고 불리는 메가라이트를 사용하면 신에 제약 없이 다이내믹한 그림자를 만드는 수백 개의 라이트를 추가할 수 있다. 이를 통해 라이팅 아티스트는 이제 콘솔과 PC에서 소프트 섀도와 함께 텍스처가 적용된 에어리어 라이트, 라이트 함수, 미디어 텍스처 재생, 볼류메트릭 섀도를 자유롭게 사용해 볼 수 있어 성능보다는 예술적인 부분에 집중할 수 있다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지 영상 캡처   버추얼 프로덕션 언리얼 엔진은 버추얼 프로덕션을 위한 인카메라 VFX(ICVFX) 툴세트를 통해 전 세계 영화, TV, 광고 등 수많은 제작을 지원하고 있다. 언리얼 엔진 5.5는 여러 버전에 걸친 축적된 노력을 통해 ICVFX 툴세트를 정식 버전으로 제공하며, 버추얼 프로덕션 및 시각화를 위한 다른 기능도 향상되었다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지 영상 캡처   SMPTE 2110 언리얼 엔진의 SMPTE 2110 지원이 대표적인 예로, 이번 출시에서는 ICVFX 프로젝트의 요구사항에 맞춰 수많은 안정성 개선, 프레임록 손실 자동 감지 및 복구, 타임코드로 PTP 지원 추가, 2110 미디어에 대한 OCIO 지원, IP 비디오 신호 흐름에 대한 개선이 이뤄졌다.   카메라 캘리브레이션 카메라 캘리브레이션 솔버 역시 언리얼 엔진 5.5에서 정식 버전으로 제공되어, 렌즈 및 카메라 파라미터 추정 정확도가 크게 향상되었다. 이 작업을 바탕으로 이제 모든 카메라에 오버스캔이 내장되어, 렌즈 왜곡을 렌더링하거나 포스트 프로세싱 단계에서 카메라 셰이크 추가 등을 지원한다.    버추얼 스카우팅 언리얼 엔진 5.4에서 처음 도입된 버추얼 스카우팅 툴세트가 정식 버전으로 업데이트됐다. 이제 OpenXR 호환 HMD(오큘러스 및 밸브 인덱스 기본 지원)를 사용해 강력한 경험을 곧바로 활용할 수 있으며, 광범위한 API를 통한 새로운 커스터마이징도 제공한다. 이 툴세트에서는 새로운 VR 콘텐츠 브라우저와 애셋 배치, 블루프린트로 커스터마이징할 수 있는 트랜스폼 기즈모, 색상 보정 뷰파인더 등이 더욱 향상되었다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지 영상 캡처   컬러 그레이딩 패널 이전에는 ICVFX 에디터에서만 제공됐던 컬러 그레이딩 패널이 이제 언리얼 에디터의 일반 기능으로 사용할 수 있게 돼, 모든 언리얼 엔진 신에서 창의적으로 컬러를 보정할 수 있는 풍부하면서도 아티스트 친화적인 인터페이스를 제공한다. nDisplay로 작업하는 사람들만이 아니라 모든 아티스트에게 향상된 컬러 그레이딩 경험을 제공하는 이 패널은 포스트 프로세스 볼륨, 시네 카메라 및 색 보정 영역도 지원한다.    DMX 버추얼 프로덕션뿐만 아니라 방송 및 라이브 이벤트에도 적용할 수 있는 언리얼 엔진의 DMX 테크 스택 또한 정식 버전이 되어 향상된 컨트롤 콘솔, 픽셀 매핑, 컨플릭트 모니터를 제공한다. 또한, 이번 버전에서는 GDTF 규격을 DMX 플러그인에 추가하여 GDTF 및 MVR을 지원하는 제어 장치와 소프트웨어의 지원을 추가하는 등의 다양한 개선 사항을 제공한다.   모바일 게임 개발 언리얼 엔진은 플랫폼 측면에서도 모바일 및 크로스 플랫폼 AAA 게임 개발을 위한 최고의 엔진이 되고자 모바일 지원에 지속적으로 노력을 기울이고 있다. 모바일 포워드 렌더러에는 플랫폼의 비주얼 퀄리티를 높일 수 있는 다양한 신규 기능이 추가되었다. 또한, 이제 D-버퍼 데칼, 렉트 에어리어 라이트, 캡슐 섀도, 포인트 및 스포트라이트용 무버블 IES 텍스처, 볼류메트릭 포그, 나이아가라 파티클 라이트가 지원되며, 모바일 포워드와 디퍼드 렌더러 모두 스크린 스페이스 리플렉션을 사용할 수 있다.    ▲ 이미지 출처 : 언리얼 엔진 홈페이지 영상 캡처   뿐만 아니라 언리얼 엔진 5.4에서 도입된 런타임 자동 PSO(Pipeline State Object) 프리캐싱이 이제 기본 활성화되어, 수동 PSO 수집 워크플로에 대한 쉽고 빠른 대안을 제공한다. 모바일 프리뷰어의 경우 특정 안드로이드 디바이스 프로필을 캡처 및 프리뷰하는 기능과 반정밀도 16비트 플로트 셰이더를 에뮬레이션하여 오류를 쉽게 확인하고 대응할 수 있는 기능 등의 다양한 개선이 이뤄졌다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지   개발자 반복 작업 언리얼 엔진 5.5를 통해 개발자의 빠른 반복 작업과 효율이 더 높은 퀄리티의 결과물을 만든다는 점을 잘 알고 있는 에픽게임즈는 크리에이터 경험의 규모와 비전을 충족하기 위해 언리얼 엔진의 데이터 처리 파이프라인을 지속적으로 발전시키고 있다. 언리얼 엔진 5.4에서 선보인 최적화된 신규 캐시 데이터 스토리지 및 네트워크 커뮤니케이션 아키텍처인 언리얼 젠 서버(Unreal Zen Server)가 이제 정식 버전으로 제공되어 공유 파생 데이터 캐시(Derived Data Cache, DDC)로 사용될 수 있다. 또한, 이번 버전에서는 젠 서버가 PC, 콘솔, 모바일 등의 타깃 플랫폼으로 쿠킹된 데이터의 스트리밍을 지원한다. 실험 단계로 도입된 이 신규 기능으로 개발 중에도 콘솔이나 모바일 등의 타깃 플랫폼에서 게임이 어떻게 보이고 작동하는지 보다 빠르고 쉽게 평가할 수 있다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지   이외에도 에디터 시스템과 쿠킹 프로세스에 최적화된 애셋 로딩 경로를 제공하는 언리얼 젠 로더, 더 빠른 C++ 및 셰이더 컴파일을 제공하는 언리얼 빌드 액셀러레이터(Unreal Build Accelerator, UBA), 더욱 효율적이고 확장 가능한 개발 워크플로를 제공하는 언리얼 호드 지속적 통합(CI) 및 원격 실행 등 다양한 기능을 이번 버전에서 정식 버전으로 제공한다.(UBA는 윈도우 호스트 머신에서 정식 버전으로 제공되며, 타 플랫폼에서는 현재 베타 단계로 제공된다.)   팹 통합 정식으로 출시된 새로운 통합 콘텐츠 마켓플레이스 팹(Fab)이 언리얼 엔진 5.5에 통합되어 퀵셀 메가스캔과 같은 개별 애셋을 신으로 직접 드래그 앤 드롭 할 수 있으며, 팹의 애셋 팩을 콘텐츠 브라우저에 추가할 수도 있다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-01-06
[포커스] KOIIA 산업데이터스페이스 기술위원회 발족 세미나 개최
데이터가 핵심 자원인 시대가 도래하면서 AI 기술이나 데이터스페이스는 글로벌 경쟁에서 가장 중요한 무기가 되고 있다. 미국과 중국, 유럽과 일본 등 글로벌 제조 선진국들은 ‘디지털 심화 시대’ 속 데이터 주도권과 주권 확보를 위한 산업지능화 전략을 수립하고 있다. 이러한 글로벌 환경변화에 대응하기 위한 산업데이터스페이스(IDS) 기술위원회의 발족 세미나가 2024년 12월 10일 한국산업지능화협회 협업지원센터에서 개최되었다. ■ 이성숙 기자     ‘데이터 스페이스(Data Space)’는 디지털 경제에서 협력을 가능하게 하고, 진입장벽을 낮추고, 혁신을 촉진하기 위해 개방적이고 투명한 표준을 기반으로 데이터를 공유하는 시스템을 말한다. 한국산업지능화협회(회장 김도훈, 이하 ‘협회’)는 산업 데이터 활용의 새로운 패러다임을 열고 데이터 커뮤니티 중심의 신산업 비즈니스 협력환경을 만들기 위해 결성된 KOIIA 산업데이터스페이스(IDS) 기술위원회(이하 IDS 기술위원회)의 발족 세미나를 열고 본격적인 활동을 예고했다. 이날 세미나에는 산업 데이터를 기반으로 한 디지털 전환(AIX)과 산업 혁신을 촉진하기 위해 공공기관, 대업, 중소·스타트업, 학계 전문가가 한자리에 모였다. 김태환 한국산업지능화협회 부회장은 축사를 통해 “유럽을 비롯한 세계 각국은 개별 기업의 데이터가 아니라 업종, 산업 전체의 데이터를 통합하려는 움직임이 활발하게 일어나고 있다. 이를 통해 공급망의 회복력이나 환경 규제에 대응하기 위한 하나의 설루션으로 데이터 수집과 분석을 지원하는 플랫폼인 데이터스페이스를 활용하고 있다”라며, “AI, 산업데이터에 데이터스페이스를 포함하면 또 다른 생태계가 만들어지고, 새로운 부가가치를 창출할 수 있기 때문에 이러한 변화에 대응하기 위해 IDS 기술위원회를 발족하게 되었다”라고 설명하고, “내년에는 더 많은 기업들이 모여 데이터스페이스 영역 확대에 대응할 설루션을 찾고, 신산업 창출에 기여해 주시길 바란다”라고 당부했다.   ▲ 산업데이터스페이스 기술위 참석자 사진   IDS 기술위원회는 산업 데이터를 통한 디지털 혁신과 국제 협력의 중심으로 자리 잡을 계획이며, 국내 산업데이터계의 새로운 패러다임을 제시할 예정이다. IDS 기술위원회 위원장을 맡은 고려대학교 디지털혁신연구센터장 이영환 교수는 인사말을 통해 “데이터가 미래를 선도하는 시대를 맞아, 국내 산업계의 데이터 서비스 경쟁력을 강화하고, 국제 데이터스페이스 협력에서도 주도적 역할을 수행하기 위해 협회와 함께 산업데이터스페이스 기술위원회 추진에 더욱 내실을 다질 계획”이라고 기술위원회의 향후 활동 계획을 공유했다. 발족식에 이어 IDS 기술위원회는 위원회 운영 방안 소개와 함께 융합데이터 선도형 생태계 조성과 신산업 비즈니스 협력 플랫폼이 될 산업데이터스페이스의 최신 트렌드 공유를 위한 세미나도 진행했다. 첫 번째 연사로 나선 한국인더스트리4.0협회 김인숙 부위원장은 ‘EU 산업데이터 시장동향 및 대응전략 발표’를 주제로 유럽의 데이터스페이스 진출사례와 산업데이터 시장 동향, 커뮤니티 비즈니스 설계 전략에 대해 소개했다. 이어 휴니버스글로벌 이상헌 대표가 의료데이터 활용사례를 소개했으며, IDS기술위원회 간사를 맡고 있는 포엠디엑스 김형국 대표가 모빌리티 산업데이터 사례를 발표했다.   ▲ 한국인더스트리4.0협회 김인숙 부위원장   ▲ 포엠디엑스 김형국 대표   주제발표 이후에는  AI 및 SW 소유자, 데이터 제공자, 인프라 및 서비스 제공자, 데이터 소비자 간 네트워킹이 진행되었다. 한국산업기술진흥원 최태훈 디지털전환PD는 “산업부에서는 산업데이터스페이스라는 용어 대신 산업 데이터 플랫폼 협력 포럼이라는 용어를 사용하고 있는데 국가적 관심 증가로 고무적인 상황”이라면서, “데이터 경제 생태계 구축에는 정책적 지원이 필수적이며, 이는 단일 기업이나 연구기관의 역량을 넘어 국가 차원의 노력이 필요하다”고 밝혔다. 이를 위해서는 IDS 기술위원회의 역할이 중요하며, 지속적인 홍보, 정부의 적극적인 정책 추진, 산업계의 협력 또한 따라주어야 할 것이라고 밝혔다. 한국산업지능화협회 산하 위원회로 정식 출범한 IDS 기술위원회는 산·학·연의 ‘산업데이터스페이스’ 전문가와 협회 회원사 등으로 구성되어 있으며 분야별 전문가(데이터 제공자와 소비자, 인프라 제공자와 개발자 등)를 확보하여 IDS 생태계를 활성화 하는데 집중할 예정이다. 한편, 협회는 설립 초기부터 PLM(Product Lifecycle Management), 디지털혁신 위원회, 디지털트윈위원회, 산업AI 기술위원회 등을 발족하며 회원사와 산업계 간 접점을 확대해 왔다. 이번 IDS 기술위원회는 이를 기반으로 산업 데이터 활용과 융합을 통해 새로운 가치를 창출할 것으로 기대된다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-01-06
Arm, “네오버스 기반의 AWS 그래비톤4 프로세서로 클라우드 혁신 가속화 지원”
Arm은 AWS의 그래비톤4(Graviton4) 프로세서를 통해 개발자와 기업이 클라우드 워크로드의 잠재력을 발휘할 수 있도록 지원하면서, 특수 실리콘 및 컴퓨팅을 제공하고 보다 효율적이고 지속 가능하며 강력한 클라우드를 위한 기반을 마련하고자 AWS와 협력을 진행 중이라고 소개했다. 클라우드 컴퓨팅 환경은 AI의 폭발적인 성장에 힘입어 극적인 변화를 겪고 있다. AI 애플리케이션이 더욱 정교하고 복잡해짐에 따라 강력하며 효율적이고, 비용 효율적인 컴퓨팅 설루션에 대한 필요성이 그 어느 때보다 커지고 있다. 클라우드에 워크로드를 배포하는 고객들은 이러한 최신 워크로드의 요구사항을 충족하기 위해 어떤 인프라가 필요한지 재고하고 있다. 고객들의 요구사항은 성능 향상과 비용 절감부터, 규제 또는 지속 가능성 목표를 위한 에너지 효율성의 새로운 벤치마크 달성까지 다양하다. Arm의 네오버스 V2(Neoverse V2)에 기반한 AWS 그래비톤4 프로세서는 이전 세대인 그래비톤3 프로세서보다 최대 30% 향상된 컴퓨팅 성능, 50% 더 많은 코어, 75% 더 많은 메모리 대역폭을 제공한다. 이러한 장점 덕분에 현재 에코시스템과 고객들이 AWS 프로세서를 많이 채택하고 있다는 것이 Arm의 설명이다. Arm 네오버스 V2 플랫폼에는 고성능 부동 소수점 및 벡터 명령어 지원과 같은 Armv9 아키텍처의 새로운 기능이 포함되어 있으며, SVE/SVE2, Bfloat16 및 Int8 MatMul과 같은 기능은 AI/ML 및 HPC 워크로드에 강력한 성능을 제공한다. AI 워크로드 채택을 더욱 촉진하기 위해 Arm은 2024년 초 선도적인 AI 프레임워크 및 소프트웨어 에코시스템과 협력하여 전체 ML 스택이 Arm에서 즉시 사용 가능한 추론 성능 최적화의 이점을 누릴 수 있도록 Arm Kleidi를 출시했고, 이를 통해 개발자가 별도의 Arm 관련 전문 지식 없이도 워크로드를 구축할 수 있도록 했다. Arm은 파이토치(PyTorch)에서 이러한 최적화를 통해 초당 토큰 수(tokens/sec)와 첫 토큰 생성 시간(time-to-first-token) 지표를 개선하여, AWS 그래비톤4에서 라마(Llama) 3 70B 및 Llama 3.1 8B와 같은 LLM(대규모 언어 모델)을 실행할 수 있는 방법을 선보였다. HPC 워크로드의 경우, 그래비톤4는 코어당 16% 더 많은 메인 메모리 대역폭과 vCPU당 두 배의 L2 캐시를 제공하는 등 그래비톤3E에 비해 성능이 크게 향상되었다. 이는 주로 메모리 대역폭에 제한이 있는 HPC 애플리케이션의 성능에 매우 중요하다. EDA 워크로드의 경우, Arm의 엔지니어링 팀이 프로덕션 실행을 통해 측정한 결과, 그래비톤4는 RTL 시뮬레이션 워크로드에서 그래비톤3보다 최대 37% 더 높은 성능을 제공하는 것으로 나타났다. 한편, Arm은 지난 몇 년 동안 소프트웨어 에코시스템 전반에서 최종 고객이 AWS 그래비톤 프로세서에 다양한 클라우드 워크로드를 배포하면서 도입이 지속적으로 증가했다고 전했다. “고객들은 비용을 절감하고, 더 향상된 성능을 경험하며, 탄소 및 지속 가능성 발자국을 개선하고 있다”는 것이 Arm의 설명이다.
작성일 : 2024-12-23
엔비디아, 생성형 AI의 활용 범위 넓히는 슈퍼컴퓨터 ‘젯슨 오린 나노 슈퍼’ 출시
엔비디아가 소형 생성형 AI 슈퍼컴퓨터 신제품인 ‘젯슨 오린 나노 슈퍼 개발자 키트(Jetson Orin Nano Super Developer Kit)’를 공개했다. 엔비디아는 소프트웨어 업그레이드를 통해 이전 모델에 비해 성능을 높이고 가격은 낮췄다고 밝혔다. 손바닥만한 크기의 새로운 엔비디아 젯슨 오린 나노 슈퍼 개발자 키트는 상업용 AI 개발자부터 취미로 AI를 다루는 사람, 학생에 이르기까지 다양한 사람들에게 생성형 AI 기능과 성능을 제공한다. 가격은 기존의 499달러에서 249달러로 인하됐다. 이 제품은 이전 모델에 비해 생성형 AI 추론 성능이 1.7배 향상됐고, 성능은 67 INT8 TOPS로 70% 증가했으며, 메모리 대역폭은 102GB/s로 50% 증가했다. 젯슨 오린 나노 슈퍼는 검색 증강 생성(RAG) 기반의 대규모 언어 모델(LLM) 챗봇 생성, 시각적 AI 에이전트(AI agent) 구축, AI 기반 로봇 배포 등에 적합한 설루션을 제공한다. 젯슨 오린 나노 슈퍼는 생성형 AI, 로보틱스, 컴퓨터 비전 기술 개발에 관심이 있는 사람들에게 적합하다. AI 세계가 작업별 모델에서 파운데이션 모델로 이동함에 따라 아이디어를 현실로 전환할 수 있는 접근 가능한 플랫폼도 제공한다. 젯슨 오린 나노 슈퍼의 향상된 성능은 모든 인기 있는 생성형 AI 모델과 트랜스포머 기반 컴퓨터 비전을 위한 이점을 제공한다.     개발자 키트는 젯슨 오린 나노 8GB 시스템 온 모듈(SoM)과 레퍼런스 캐리어 보드로 구성돼 에지 AI 애플리케이션 프로토타입에 적합한 플랫폼을 제공한다. 이 SoM은 텐서 코어가 포함된 엔비디아 암페어(Ampere) 아키텍처 GPU와 6코어 Arm CPU를 갖추고 있어, 여러 개의 동시 AI 애플리케이션 파이프라인과 고성능 추론을 용이하게 한다. 또한, 최대 4개의 카메라를 지원할 수 있으며 이전 버전보다 더 높은 해상도와 프레임 속도를 제공한다. 젯슨은 로보틱스를 위한 엔비디아 아이작(Isaac), 비전 AI를 위한 엔비디아 메트로폴리스(Metropolis), 센서 처리를 위한 엔비디아 홀로스캔(Holoscan)을 비롯한 엔비디아 AI 소프트웨어를 실행한다. 합성 데이터 생성을 위한 엔비디아 옴니버스 리플리케이터(Omniverse Replicator)와 NGC 카탈로그에서 사전 훈련된 AI 모델을 미세 조정하기 위한 엔비디아 타오 툴킷(TAO Toolkit)을 사용하면 개발 시간을 단축할 수 있다. 한편, 엔비디아는 새로운 젯슨 오린 나노 슈퍼에 제공되는 소프트웨어 업데이트가 이미 젯슨 오린 나노 개발자 키트를 보유하고 있는 사용자의 생성형 AI 성능도 향상시킨다고 밝혔다. 1.7배의 생성형 AI 성능을 향상시키는 소프트웨어 업데이트는 젯슨 오린 NX와 오린 나노 시리즈 시스템 모듈에서도 사용할 수 있다. 기존 젯슨 오린 나노 개발자 키트 소유자는 지금 바로 젯팩 SDK(JetPack SDK)를 업그레이드해 향상된 성능을 활용할 수 있다. 엔비디아는 “젯슨 생태계 파트너는 추가적인 AI와 시스템 소프트웨어, 개발자 도구, 맞춤형 소프트웨어 개발을 제공한다. 또한, 카메라와 기타 센서, 캐리어 보드, 제품 설루션을 위한 설계 서비스도 지원 가능하다”고 덧붙였다.
작성일 : 2024-12-19
구글, ‘제미나이 2.0’ 출시와 함께 ‘에이전트형 시대’ 발표
구글이 새로운 에이전트 시대를 위한 ‘에이전트형(agentic) AI 모델’인 ‘제미나이 2.0’을 출시했다. 제미나이 2.0은 네이티브 이미지 및 오디오 출력, 네이티브 툴 사용 등 향상된 멀티모달 기능을 제공하여 텍스트, 이미지, 동영상, 오디오, 코드 등 다양한 형태의 정보를 자연스럽게 이해하고 처리할 수 있다.  구글은 “제미나이 2.0는 지금까지 선보인 모델 중 가장 뛰어난 성능을 자랑한다”면서, “리서치, 보고서 작업 등 다양한 방면의 복잡한 작업을 수행하는 ‘에이전트’ 기능을 갖춘 AI 시대를 본격적으로 열어갈 것”이라고 밝혔다.  제미나이 2.0은 네이티브 이미지 및 오디오 출력, 네이티브 툴 사용 등 향상된 멀티모달 기능을 바탕으로 이용자 경험을 혁신할 뿐 아니라, 개발자에게도 강력한 AI 기반 애플리케이션을 구축할 수 있는 툴을 제공한다. 전 세계 제미나이 이용자는 데스크톱과 모바일 웹에서 제미나이 2.0을 사용할 수 있다. 데스크톱과 모바일 웹의 모델 드롭다운 메뉴에서 ‘2.0 플래시 실험 버전’을 선택하면 채팅에 최적화된 제미나이 2.0을 바로 사용해 볼 수 있으며, 이는 제미나이 모바일 앱에도 곧 적용될 예정이다.     제미나이 2.0을 기반으로 새롭게 개선된 ‘프로젝트 아스트라(Project Astra)’는 다국어 대화, 구글 툴(구글 검색, 구글 렌즈, 맵스 등) 사용, 최대 10분 동안의 대화를 기억하는 향상된 메모리, 빠른 응답 속도 등의 기능을 제공한다. 구글은 이러한 기능을 구글의 AI 어시스턴트인 제미나이 앱 등 구글 제품은 물론, 다른 폼 팩터에도 도입할 계획이다.  ‘프로젝트 마리너(Project Mariner)’는 웹 브라우저에서 작동하는 에이전트 프로토타입으로, 픽셀 및 텍스트, 코드, 이미지, 양식과 같은 웹 요소를 포함해 브라우저 화면의 정보를 이해하고 추론한 다음, 실험적인 크롬 확장 프로그램(Chrome extension)을 통해 해당 정보를 활용해 작업을 완료한다. 개발자를 위한 AI 에이전트인 ‘줄스(Jules)’는 깃허브(GitHub) 워크플로에 직접 통합돼 개발자의 지시와 감독 하에 이슈를 처리하고, 계획을 세우고 실행하는 기능을 제공한다.  구글은 제미나이 2.0을 사용해 비디오 게임의 가상 세계 탐색을 지원하는 에이전트를 구축했다. 이 에이전트는 화면의 동작만을 기반으로 게임에 대해 추론하고, 실시간 대화를 통해 다음에 무엇을 해야 할지 제안할 수 있다. 가상 게임의 동반자 역할은 물론, 구글 검색을 활용해 웹 상의 풍부한 게임 지식을 제공할 수도 있다. 이 외에도 구글은 제미나이 2.0의 공간 추론 기능을 로봇 공학에 적용해 물리적 세계에서 도움을 줄 수 있는 에이전트를 실험하고 있다. 한편, 구글은 제미나이 2.0가 구글 검색의 AI 개요(AI Overview) 기능에도 적용되어, 고급 수학 방정식, 멀티모달 쿼리, 코딩 등 더욱 복잡한 질문에 대한 답변을 제공하도록 개선될 예정이라고 밝혔다.  전 세계 제미나이 이용자는 데스크톱 및 모바일 웹에서 제미나이 앱을 통해 제미나이 2.0 플래시(Gemini 2.0 Flash) 실험 버전을 AI 어시스턴트로 사용할 수 있다. 제미나이 2.0 플래시 실험 모델은 구글 AI 스튜디오(Google AI Studio) 및 버텍스 AI(Vertex AI)를 통해 모든 개발자가 사용할 수 있다. 개발자들은 제미나이 2.0을 활용하여 텍스트, 오디오 및 이미지를 포함한 통합 응답을 생성하고, 구글 검색 및 코드 실행과 같은 툴을 활용하는 애플리케이션을 구축할 수 있다.
작성일 : 2024-12-12
한국산업지능화협회, 데이터 커뮤니티 중심 비즈니스 협력 위한 산업데이터스페이스(IDS) 기술위원회 발족
「KOIIA 산업데이터스페이스(IDS) 기술위원회」 발족 세미나 개최 산업 데이터 활용의 새로운 패러다임을 열기 위한 산업데이터스페이스(IDS) 기술위원회가 12월 10일 한국산업지능화협회(이하 ‘협회’)의  협업지원센터에서 발족 세미나를 열고 본격적인 활동에 나섰다. 이 발족 세미나에는 산업 데이터를 기반으로 한 디지털 전환(AIX)과 산업 혁신을 촉진하기 위해 공공기관, 대기업, 중소·스타트업, 학계 전문가가 한자리에 모였다. 협회 산하 위원회로 정식 출범하는 산업데이터스페이스(IDS) 기술위원회는 산학연의‘산업데이터스페이스’전문가와 협회 회원사 등으로 구성되어 있으며 분야별 전문가(데이터 제공자와 소비자, 인프라 제공자와 개발자 등)를 확보하여 IDS 생태계 활성화 하는데 집중할 예정이다. 발족식과 더불어 IDS 기술위원회는 첫 번째 공식 행사로 한다포럼 김인숙 대표의 EU 산업데이터 시장동향 및 대응전략 발표와 휴니버스글로벌 이상헌 대표가 의료데이터 활용사례를 소개했다. 뿐만 아니라, AI 및 SW소유자, 데이터 제공자, 인프라 및 서비스 제공자, 데이터 소비자 간 네트워킹이 진행되었다. IDS기술위원회 위원장인 고려대학교 이영환 교수는 “데이터가 미래를 선도하는 시대를 맞아, 국내 산업계의 데이터 서비스 경쟁력을 강화하고, 국제 데이터스페이스 협력에서도 주도적 역할을 수행하기 위해 협회와 함께 산업데이터스페이스 기술위원회 추진에 더욱 내실을 다질 계획”이라고 밝혔다. 한국산업기술진흥원 최태훈 디지털전환PD는 "산업부에서는 산업데이터스페이스라는 용어 대신 산업 데이터 플랫폼 협력 포럼이라는 용어를 사용하고 있는데 국가적 관심 증가로 고무적인 상황"이라면서, "데이터 경제 생태계 구축에는 정책적 지원이 필수적이며, 이는 단일 기업이나 연구기관의 역량을 넘어 국가 차원의 노력이 필요하다"고 밝혔다. 이를 위해서는 IDS 기술위원회의 역할이 중요하며, 지속적인 홍보, 정부의 적극적인 정책 추진, 산업계의 협력 또한 따라주어야 할 것이라고 밝혔다. 한편, 협회는 설립 초기부터 PLM(Product Lifecycle Management), 디지털혁신 위원회, 디지털트윈위원회, 산업AI 기술위원회 등을 발족하며 회원사와 산업계 간 접점을 확대해 왔다. 이번 IDS 기술위원회는 이를 기반으로 산업 데이터 활용과 융합을 통해 새로운 가치를 창출할 것으로 기대된다. IDS 기술위원회는 산업 데이터를 통한 디지털 혁신과 국제 협력의 중심으로성공사례로 자리 잡으며, 국내 산업데이터계의 새로운 패러다임을 제시할 예정이다.    
작성일 : 2024-12-11
엔비디아, AWS에 엔비디아 NIM 제공 확대해 AI 추론 향상 지원
엔비디아가 아마존웹서비스(AWS)의 AI 서비스 전반에 자사의 NIM 마이크로서비스를 확장한다고 발표하면서, 이를 통해 생성형 AI 애플리케이션을 위한 더 빠른 AI 추론과 짧은 지연 시간을 지원한다고 전했다. 12월 4일 열린 ‘리인벤트(re:Invent)’ 연례 콘퍼런스에서 AWS는 엔비디아와의 협업을 확대해 주요 AWS AI 서비스 전반에 걸쳐 엔비디아 NIM 마이크로서비스를 확장한다고 발표했다.  엔비디아 NIM 마이크로서비스는 이제 AWS 마켓플레이스(Marketplace), 아마존 베드록 마켓플레이스(Bedrock Marketplace), 아마존 세이지메이커 점프스타트(SageMaker JumpStart)에서 직접 제공된다. 이로 인해 개발자가 일반적으로 사용되는 모델에 대해 엔비디아 최적화 추론을 대규모로 배포하는 것이 더욱 쉬워졌다.     엔비디아 NIM은 AWS 마켓플레이스에서 제공되는 엔비디아 AI 엔터프라이즈 소프트웨어 플랫폼의 일부이다. 이는 개발자에게 클라우드, 데이터센터, 워크스테이션 전반에서 고성능 엔터프라이즈급 AI 모델 추론을 안전하고 안정적으로 배포하도록 설계된 사용하기 쉬운 마이크로서비스 세트를 제공한다. 사전 구축된 컨테이너는 엔비디아 트리톤 추론 서버(Triton Inference Server), 엔비디아 텐서RT(TensorRT), 엔비디아 텐서RT-LLM, 파이토치(PyTorch)와 같은 추론 엔진을 기반으로 구축됐다. 아울러 오픈 소스 커뮤니티 모델부터 엔비디아 AI 파운데이션(AI Foundation) 모델, 맞춤형 모델에 이르기까지 광범위한 범위의 AI 모델을 지원한다. NIM 마이크로서비스는 아마존 엘라스틱 컴퓨트 클라우드(Elastic Compute Cloud : EC2), 아마존 엘라스틱 쿠버네티스 서비스(Elastic Kubernetes Service : EKS), 아마존 세이지메이커를 비롯한 다양한 AWS 서비스에 배포할 수 있다. 개발자는 일반적으로 사용되는 모델과 모델 제품군으로 구축된 100개 이상의 NIM 마이크로서비스를 엔비디아 API 카탈로그에서 미리 볼 수 있다. 여기에는 메타의 라마 3(Llama 3), 미스트랄 AI의 미스트랄과 믹스트랄(Mixtral), 엔비디아의 네모트론(Nemotron), 스태빌리티 AI의 SDXL 등이 있다. 가장 일반적으로 사용되는 모델은 AWS 서비스에 배포하기 위한 자체 호스팅에 사용할 수 있으며, AWS의 엔비디아 가속 컴퓨팅 인스턴스에서 실행되도록 최적화돼 있다. 엔비디아는 다양한 산업 분야의 고객과 파트너가 AWS에서 NIM을 활용하며 시장에 더 빨리 진입하고, 생성형 AI 애플리케이션과 데이터의 보안과 제어를 유지하며, 비용을 절감하고 있다고 소개했다. 개발자는 고유한 필요와 요구사항에 따라 AWS에 엔비디아 NIM 마이크로서비스를 배포할 수 있다. 이를 통해 개발자와 기업은 다양한 AWS 서비스 전반에서 엔비디아에 최적화된 추론 컨테이너로 고성능 AI를 구현할 수 있다.
작성일 : 2024-12-06