• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "파운데이션 모델"에 대한 통합 검색 내용이 169개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
엔비디아, 더 강력하고 지능적인 AI 구축을 돕는 ‘스케일링 법칙’ 소개
엔비디아가 더 강력하고 지능적인 AI 구축을 지원하는 ‘스케일링 법칙’을 소개했다. 엔비디아는 이 법칙이 훈련 데이터, 모델 파라미터 또는 컴퓨팅 리소스 크기가 증가함에 따라 AI 시스템 성능이 향상되는 방식을 설명한다고 밝혔다. AI 분야에서 오랫동안 정의된 아이디어 중 하나는 컴퓨팅, 훈련 데이터, 파라미터가 더 많을수록 더 나은 AI 모델이 만들어진다는 것이다. 하지만 이후 AI에는 컴퓨팅 리소스를 다양한 방식으로 적용하는 것이 모델 성능에 어떻게 영향을 미치는지 설명하는 세 가지 법칙이 대두됐다. 이는 사전 훈련 스케일링(pretraining scaling), 사후 훈련 스케일링(post-training scaling), 긴 사고(long thinking)라고도 불리는 테스트 타임 스케일링(test-time scaling)이다. 이들 법칙은 점점 더 복잡해지는 다양한 AI 사용 사례에서 추가 컴퓨팅을 사용하는 기술을 통해 AI 분야가 어떻게 발전해왔는지를 보여준다. 최근 추론 시 더 많은 컴퓨팅을 적용해 정확도를 향상시키는 테스트 타임 스케일링이 부상하면서 AI 추론 모델의 발전을 가능하게 했다. 이 모델은 작업을 해결하는 데 필요한 단계를 설명하면서 복잡한 문제를 해결하기 위해 여러 추론 패스를 수행하는 새로운 종류의 대규모 언어 모델(LLM)이다. 테스트 타임 스케일링은 AI 추론을 지원하기 위해 많은 양의 컴퓨팅 리소스를 필요로 하며, 이는 가속 컴퓨팅에 대한 수요를 더욱 증가시킬 것이다.     사전 훈련 스케일링은 AI 개발의 기본 법칙이다. 이는 훈련 데이터 세트 크기, 모델 파라미터 수, 컴퓨팅 리소스를 늘림으로써 개발자가 모델 지능과 정확도의 예측 가능한 향상을 기대할 수 있음을 입증했다. 한 연구 논문에서 설명한 사전 훈련 스케일링 법칙에 따르면, 규모가 큰 모델에 더 많은 데이터가 공급되면 모델의 전반적인 성능이 향상된다. 이를 실현하려면 개발자는 컴퓨팅을 확장해야 하며, 이 거대한 훈련 워크로드를 실행하기 위해서는 강력한 가속 컴퓨팅 리소스가 필요하다. 사후 훈련 기법은 조직이 원하는 사용 사례에 맞춰 모델의 특이성과 관련성을 더욱 향상시킬 수 있다. 사전 훈련이 AI 모델을 학교에 보내 파운데이션 기술을 배우게 하는 것이라면, 사후 훈련은 목표한 업무에 적용할 수 있는 기술을 갖추도록 모델을 향상시키는 과정이다. 예를 들어, LLM은 감정 분석이나 번역과 같은 작업을 수행하거나 의료, 법률과 같은 특정 분야의 전문 용어를 이해하도록 사후 훈련될 수 있다. 긴 사고라고도 하는 테스트 타임 스케일링은 추론 중에 발생한다. 사용자 프롬프트에 대한 단답형 답변을 빠르게 생성하는 기존 AI 모델과 달리, 이 기술을 사용하는 모델은 추론 중에 추가적인 계산 작업을 할당한다. 이를 통해 여러 가지 잠재적 답변을 추론한 후 최적의 답변에 도달할 수 있도록 한다. 테스트 타임 컴퓨팅의 부상으로 AI는 복잡한 개방형 사용자 쿼리에 대해 합리적이고 유용하며 보다 정확한 답변을 제공하는 능력을 갖추게 됐다. 이러한 기능은 자율 에이전틱 AI와 피지컬 AI(Physical AI) 애플리케이션에서 기대되는 세밀하고 다단계의 추론 작업에 매우 중요하다. 또한, 산업 전반에서 사용자에게 업무 속도를 높일 수 있는 고성능 비서를 제공해 효율성과 생산성을 향상시킬 수 있다. 의료 분야에서는 모델이 테스트 타임 스케일링을 사용해 방대한 양의 데이터를 분석하고 질병이 어떻게 진행될지 추론할 수 있다. 뿐만 아니라, 약물 분자의 화학 구조를 기반으로 새로운 치료법이 불러올 수 있는 잠재적인 합병증을 예측할 수 있다. 소매와 공급망 물류 분야에서는 긴 사고가 단기적인 운영 과제와 장기적인 전략 목표를 해결하는 데 필요한 복잡한 의사 결정을 도와줄 수 있다. 추론 기법은 여러 시나리오를 동시에 예측하고 평가해 기업이 위험을 줄이고 확장성 문제를 해결하는 데 도움이 된다. 이를 통해 보다 정확한 수요 예측, 간소화된 공급망 이동 경로, 조직의 지속 가능성 이니셔티브에 부합하는 소싱 결정을 가능하게 한다. 나아가 글로벌 기업에서는 이 기술을 세부적인 사업 계획 작성, 소프트웨어 디버깅을 위한 복잡한 코드 생성, 배송 트럭과 창고 로봇, 로보택시의 이동 경로 최적화 등에 적용할 수 있다. AI 추론 모델은 빠르게 진화하고 있다. 최근 몇 주 동안 OpenAI(오픈AI) o1-미니(o1-mini)와 o3-미니(o3-mini), 딥시크(DeepSeek) R1, 구글 딥마인드(Google DeepMind) 제미나이 2.0 플래시 씽킹(Gemini 2.0 Flash Thinking)이 소개됐으며, 곧 새로운 모델이 추가로 출시될 예정이다. 이러한 모델은 추론 중에 사고하고, 복잡한 질문에 대한 정답을 생성하기 위해 훨씬 더 많은 컴퓨팅이 필요하다. 따라서 기업은 복잡한 문제 해결, 코딩, 다단계 계획을 지원할 수 있는 차세대 AI 추론 도구를 제공하기 위해 가속 컴퓨팅 리소스를 확장해야 한다.
작성일 : 2025-02-14
엔비디아, 블랙웰 지포스 RTX 50 시리즈 출시
엔비디아가 게이머, 크리에이터, 개발자를 위한 최첨단 소비자용 GPU인 지포스 RTX 50 시리즈 데스크톱과 노트북 GPU(GeForce RTX 50 Series Desktop and Laptop GPU)를 공개했다. 엔비디아 블랙웰(NVIDIA Blackwell) 아키텍처, 5세대 텐서 코어(Tensor Core), 4세대 RT 코어(RT Core)를 기반으로 하는 지포스 RTX 50 시리즈는 뉴럴 셰이더, 디지털 휴먼 기술, 지오메트리, 조명을 포함한 AI 기반 렌더링의 혁신을 제공한다. 엔비디아 창립자 겸 CEO인 젠슨 황(Jensen Huang)은 “PC 게이머, 개발자, 크리에이터를 위한 AI 엔진인 블랙웰이 등장했다. AI 기반의 뉴럴 렌더링과 광선 추적을 융합한 블랙웰은 25년 전 프로그래머블 셰이딩을 도입한 이래 가장 중요한 컴퓨터 그래픽 혁신”이라고 말했다. 현재까지 출시된 지포스 RTX GPU 중 가장 빠른 지포스 RTX 5090 GPU는 920억 개의 트랜지스터를 탑재하고 있으며, 초당 3,352조 이상의 AI 연산(TOPS) 처리 능력을 제공한다. 블랙웰 아키텍처 혁신과 DLSS 4 덕분에 지포스 RTX 5090 GPU는 지포스 RTX 4090 GPU보다 최대 2배 더 우수한 성능을 발휘한다. 지포스 블랙웰은 데스크톱 모델의 모든 기능을 갖춘 노트북에 탑재된다. 이는 탁월한 그래픽 기능과 놀라운 효율성을 포함해 휴대용 컴퓨팅에 상당한 업그레이드를 제공한다. 엔비디아 맥스-Q(Max-Q) 기술의 블랙웰 세대는 배터리 수명을 최대 40%까지 연장하며, 전력이나 성능을 희생하지 않고 세련된 디자인을 유지하는 얇고 가벼운 노트북을 포함한다. 최대 8배의 성능을 향상시키는 엔비디아 DLSS 4 DLSS 4는 렌더링된 프레임당 최대 3개의 프레임을 생성하기 위해 AI를 사용해 프레임 속도를 높이는 멀티 프레임 생성(Multi Frame Generation)을 선보인다. 이 기술은 DLSS 기술 제품군과 함께 작동해 엔비디아 리플렉스(Reflex) 기술로 응답성을 유지하면서 기존 렌더링보다 최대 8배의 성능 향상을 제공한다. 또한 DLSS 4는 그래픽 업계 최초로 트랜스포머 모델 아키텍처를 실시간으로 적용한다. 트랜스포머 기반의 DLSS 레이 리컨스트럭션(Ray Reconstruction)과 슈퍼 레졸루션(Super Resolution) 모델은 2배 더 많은 파라미터와 4배 더 많은 연산을 사용한다. 이를 통해 게임 장면에서 더 큰 안정성, 감소된 고스팅, 더 높은 디테일, 향상된 안티 앨리어싱(anti-aliasing)을 제공한다. DLSS 4는 75개 이상의 게임과 애플리케이션에서 지포스 RTX 50 시리즈 GPU를 통해 지원될 예정이다. 엔비디아 리플렉스 2는 디스플레이로 보내기 직전에 최신 마우스 입력을 기반으로 렌더링된 프레임을 업데이트해 게임의 지연 시간을 줄이는 혁신적인 기술인 프레임 워프(Frame Warp)를 도입한다. 리플렉스 2는 지연 시간을 최대 75%까지 줄일 수 있다. 이를 통해 게이머는 멀티플레이어 게임에서 경쟁 우위를 점할 수 있고 싱글 플레이어 타이틀의 반응성도 향상된다. 블랙웰, 셰이더에 AI 도입 25년 전, 엔비디아는 지포스 3와 프로그래밍 가능한 셰이더를 출시했다. 이 셰이더는 픽셀 셰이딩, 컴퓨트 셰이딩, 실시간 레이 트레이싱에 이르기까지 20년 동안 그래픽 혁신의 발판을 마련했다. 엔비디아는 지포스 RTX 50 시리즈 GPU와 함께 RTX 뉴럴 셰이더(Neural Shader)를 출시한다. 이 셰이더는 작은 AI 네트워크를 프로그래밍 가능한 셰이더에 도입해 실시간 게임에서 영화 수준의 소재, 조명 등을 구현한다. 게임 캐릭터 렌더링은 실시간 그래픽에서 가장 어려운 작업 중 하나다. 사람들이 디지털 휴먼에서 아주 작은 오류나 부작용을 쉽게 발견해내기 때문이다. RTX 뉴럴 페이스(Neural Face)는 단순한 래스터화된 얼굴과 3D 포즈 데이터를 입력으로 받아서, 생성형 AI를 사용해 실시간으로 일시적으로 안정적이고 고품질의 디지털 페이스를 렌더링한다. RTX 뉴럴 페이스는 레이 트레이싱된 머리카락과 피부용으로 새롭게 개발된 RTX 기술로 보완된다. 장면에서 레이 트레이싱 삼각형을 최대 100배까지 늘려주는 새로운 RTX 메가 지오메트리(Mega Geometry)와 함께, 이러한 발전은 게임 캐릭터와 환경의 사실성을 크게 향상시킬 것이다. 뉴럴 렌더링의 힘, DLSS 4, 그리고 새로운 DLSS 트랜스포머 모델은 엔비디아의 획기적인 신기술 데모인 조라(Zorah)를 통해 지포스 RTX 50 시리즈 GPU에서 선보인다. 자율 게임 캐릭터 지포스 RTX 50 시리즈 GPU는 업계 최고의 AI 톱스(TOPS)를 통해 게임 렌더링과 병행해 자율 게임 캐릭터를 구동한다. 엔비디아는 게임 캐릭터가 인간 플레이어처럼 인지하고, 계획하고, 행동할 수 있도록 하는 새로운 엔비디아 에이스(ACE) 기술 제품군을 소개한다. 에이스 기반 자율 캐릭터는 크래프톤(KRAFTON)의 PUBG: 배틀그라운드(PUBG: BATTLEGROUNDS)와 곧 출시될 생활 시뮬레이션 게임인 인조이(InZOI), 그리고 위메이드 넥스트(Wemade Next)의 미르5(MIR5)에 통합되고 있다. PUBG에서는 엔비디아 에이스로 구동되는 동료들이 생존을 위해 휴먼 플레이어와 역동적으로 협력하면서 전략적 행동을 계획하고 실행한다. 인조이에는 삶의 목표와 게임 내 이벤트에 따라 행동을 자율적으로 조정하는 스마트 조이(Smart Zoi) 캐릭터가 등장한다. 미르5에서는 거대 언어 모델(large language model, LLM) 기반 레이드 보스가 플레이어의 행동에 따라 전술을 조정해 더욱 역동적이고 도전적인 만남을 만들어 낸다. RTX AI PC용 AI 파운데이션 모델 엔비디아는 블랙 포레스트 랩스(Black Forest Labs), 메타(Meta), 미스트랄(Mistral), 스태빌리티 AI(Stability AI)와 같은 최고의 모델 개발자들이 만든 NIM 마이크로서비스와 RTX AI PC용 AI 블루프린트(Blueprint) 파이프라인을 출시할 예정이다. 이는 RTX 애호가와 개발자들이 엔비디아 NIM 마이크로서비스를 사용해 AI 에이전트와 어시스턴트를 구축하는 방법을 소개하기 위함이다. 사용 사례는 LLM, 비전 언어 모델, 이미지 생성, 음성, 검색 증강 생성(retrieval-augmented generation, RAG)을 위한 임베딩 모델, PDF 추출, 컴퓨터 비전 등 다양한 분야에 걸쳐 있다. NIM 마이크로서비스에는 PC에서 AI를 실행하는 데 필요한 모든 구성 요소가 포함돼 있으며, 모든 엔비디아 GPU에 배포할 수 있도록 최적화돼 있다. 엔비디아는 애호가들과 개발자들이 NIM을 사용해 AI 에이전트와 어시스턴트를 구축할 수 있는 방법을 보여주기 위해 프로젝트 R2X(Project R2X)를 미리 공개했다. 프로젝트 R2X는 사용자의 손끝에 정보를 제공하고, 데스크톱 앱과 화상 회의 통화를 지원하고, 문서를 읽고 요약하는 등의 기능을 수행할 수 있는 비전 지원 PC 아바타다. 크리에이터를 위한 AI 기반 도구 지포스 RTX 50 시리즈 GPU는 크리에이티브 워크플로우를 강화한다. RTX 50 시리즈 GPU는 FP4 정밀도를 지원하는 최초의 소비자용 GPU이다. 이는 플럭스(FLUX)와 같은 모델의 AI 이미지 생성 성능을 2배 향상시키고, 이전 세대 하드웨어에 비해 더 작은 메모리 공간에서 생성형 AI 모델을 로컬로 실행할 수 있도록 한다. 엔비디아 브로드캐스트(Broadcast) 앱은 라이브 스트리머를 위한 두 가지 AI 기반 베타 기능을 제공한다: 마이크 오디오를 업그레이드하는 스튜디오 보이스(Studio Voice)와 세련된 스트리밍을 위해 얼굴을 다시 비추는 버추얼 키 라이트(Virtual Key Light)이다. 스트림랩스(Streamlabs)는 엔비디아 에이스와 인월드 AI(Inworld AI)를 기반으로 하는 인텔리전트 스트리밍 어시스턴트(Intelligent Streaming Assistant)를 소개한다. 이 기능은 라이브 스트리밍을 향상시키기 위해 공동 진행자, 프로듀서, 기술 보조자의 역할을 한다. 이용 정보 데스크톱 사용자의 경우, 3,352개의 AI 톱스의 지포스 RTX 5090 GPU와 1,801개의 AI 톱스의 지포스 RTX 5080 GPU가 오는 1월 30일에 각각 $1,999와 $999에 출시될 예정이다. 1,406개의 AI 톱스의 지포스 RTX 5070 Ti GPU와 988개의 AI 톱스의 지포스 RTX 5070 GPU는 2월부터 각각 $749와 $549에 판매될 예정이다. 지포스 RTX 5090, RTX 5080, RTX 5070 GPU의 엔비디아 파운더스 에디션(Founders Edition)는 nvidia.com과 전 세계 일부 소매점에서 직접 구매할 수 있다. 에이수스(ASUS), 컬러풀(Colorful), 게인워드(Gainward), 갤럭시(GALAX), 기가바이트(GIGABYTE), 이노3D(INNO3D), KFA2, MSI, 팔릿(Palit), PNY, 조탁(ZOTAC) 등 최고의 애드인 카드 제공업체와 팔콘 노스웨스트(Falcon Northwest), 인피니아크(Infiniarc), 메인기어(MAINGEAR), 미프콤(Mifcom), 오리진 PC(ORIGIN PC), PC 스페셜리스트(PC Specialist), 스캔 컴퓨터스(Scan Computers) 등 데스크탑 제조업체에서 기본 클럭 모델과 공장 오버클럭 모델을 구입할 수 있다.
작성일 : 2025-01-27
엔비디아 젠슨 황, CES 2025서 ‘놀라운 속도’로 진보하는 AI 소개
엔비디아 젠슨 황, CES 2025서 ‘놀라운 속도’로 진보하는 AI 소개   CES 2025에서 엔비디아 창립자 겸 CEO 젠슨 황(Jensen Huang)이 AI와 컴퓨팅 기술의 미래를 조망했다.  젠슨 황은 1월 8일 90분간 이어진 연설에서 게이밍, 자율 주행차, 로보틱스, 그리고 에이전틱 AI(agentic AI)의 발전에 기여할 엔비디아의 최신 기술과 제품들을 공개했다. 라스베이거스 미켈롭 울트라 아레나에 6천 명이 넘는 관중이 운집한 가운데, 젠슨 황은 “AI가 놀라운 속도로 진보하고 있다”면서, AI의 발전 과정을 세 단계로 나눠 설명했다. “AI는 처음에 이미지와 단어, 소리를 이해하는 '인식형 AI(Perception AI)'에서 시작됐다. 이후 텍스트, 이미지, 소리를 생성하는 '생성형 AI(Generative AI)'가 등장했다. 그리고 이제 우리는 처리, 추론, 계획, 행동까지 가능한 물리적 AI(Physical AI) 시대에 접어들고 있다.” 젠슨 황은 이 변혁의 중심에 엔비디아 GPU와 플랫폼이 자리 잡고 있다고 강조하며, 엔비디아가 게이밍, 로보틱스, 자율 주행차 등 다양한 산업에서 혁신을 선도할 것이라고 전했다. 이번 기조연설에서는 엔비디아의 신제품과 기술이 공개됐다. 젠슨 황은 이를 통해 AI와 컴퓨팅 기술이 어떻게 미래를 재정의할지 상세히 설명했다. 엔비디아 코스모스(Cosmos) 플랫폼은 로봇과 자율 주행차, 비전 AI를 위해 새롭게 개발된 모델과 영상 데이터 프로세싱 파이프라인을 통해 물리적 AI를 발전시킬 것이다. 새로 출시될 엔비디아 블랙웰(Blackwell) 기반 지포스(GeForce) RTX 50 시리즈 GPU는 놀랍도록 사실적인 비주얼과 전례 없는 성능을 제공한다.  이번 CES에 소개된 RTX PC용 AI 기초 모델에는 디지털 휴먼(digital human)과 팟캐스트, 이미지, 동영상 제작을 도울 엔비디아 NIM 마이크로서비스와 AI 블루프린트가 포함된다. 엔비디아 프로젝트 디지츠(Project DIGITS)는 주머니에 들어가는 소형 크기의 패키지로 개발자의 데스크톱에 엔비디아 그레이스 블랙웰(Grace Blackwell)의 강력한 성능을 제공한다. 엔비디아는 토요타와 협업하면서 엔비디아 드라이브OS(DriveOS) 기반의 엔비디아 드리아브 AGX 차내 컴퓨터로 안전한 차세대 차량 개발에 힘쓰고 있다.   젠슨 황은 30년에 걸친 엔비디아의 여정을 돌아보는 것으로 키노트를 시작했다. 1999년, 엔비디아는 프로그래머블 GPU(programmable GPU)를 개발했다. 그로부터 지금까지 현대적 AI가 컴퓨팅의 작동 방식을 근본적으로 바꿔놨다. “당시 GPU의 테크놀로지 스택 레이어 하나하나가 고작 12년만에 놀라운 혁신을 경험했다.”   지포스 RTX 50 시리즈의 그래픽 혁명 젠슨 황은 “지포스는 AI가 대중에게 다가가는 계기였고, 이제 AI는 지포스의 본진이 되고 있다”고 말했다. 이 같은 평가와 함께 젠슨 황은 지금껏 개발된 제품 중 가장 강력한 지포스 RTX GPU인 엔비디아 지포스 RTX 5090 GPU 를 소개했다. 지포스 RTX 5090은 920억 개의 트랜지스터를 탑재하고 초당 3,352조 개(TOPS)의 연산을 제공한다.  젠슨 황은 “바로 이것이 우리가 처음 선보이는 블랙웰 아키텍처의 지포스 RTX 50 시리즈”라며 소개를 시작했다. 젠슨 황은 검게 처리된 GPU를 높이 들어 보이며, 이 제품이 첨단 AI를 활용해 혁신적인 그래픽을 구현하는 방법을 설명했다. 그는 “이 GPU는 문자 그대로 야수라 할 만하다. 지포스 RTX 5090의 기계적 디자인조차 기적에 가깝다”며, 해당 그래픽 카드에 냉각 팬 두 개가 장착돼 있다고 언급했다.  이번 기조연설에서는 지포스 RTX 5090 시리즈를 변형한 제품들의 출시 소식도 알렸다. 지포스 RTX 5090과 지포스 RTX 5080 데스크톱 GPU가 오는 1월 30일에 공개된다. 지포스 RTX 5070 Ti와 지포스 RTX 5070 데스크톱은 오는 2월부터 만나볼 수 있다. 랩톱 GPU는 올 3월 출시 예정이다.  DLSS 4 는 DLSS 테크놀로지를 활용한 제품군 일체와 함께 작동하는 멀티 프레임 생성(Multi Frame Generation)을 도입해 성능을 최대 8배까지 끌어올린다. 또한 엔비디아는 PC의 레이턴시(latency)를 75%까지 줄여주는 엔비디아 리플렉스(Reflex) 2 도 공개했다.  최신 DLSS의 경우, 우리가 계산하는 프레임마다 세 개의 프레임을 추가로 생성할 수 있다. 젠슨 황은 “그 결과 AI가 담당하는 계산이 크게 줄어들기 때문에 렌더링 성능이 크게 향상된다”고 말했다. RTX 뉴럴 셰 이더(RTX Neural Shaders)는 소형 신경망을 사용해 실시간 게이밍의 텍스처와 머티리얼, 빛을 개선한다. RTX 뉴럴 페이스(RTX Neural Faces)와 RTX 헤어(RTX Hair)는 생성형 AI로 얼굴과 머리카락의 실시간 렌더링을 개선해 더없이 사실적인 디지털 캐릭터를 만들어낸다. RTX 메가 지오메트리(RTX Mega Geometry)는 레이 트레이싱된 트라이앵글(triangle)의 개수를 100배까지 늘려 디테일을 강화한다.    코스모스로 진보하는 물리적 AI 젠슨 황은 그래픽의 발전상과 더불어 엔비디아 코스모스 월드 파운데이션 모델(world foundation model) 플랫폼을 소개하며, 이것이 로보틱스와 산업 AI를 크게 혁신할 것이라고 내다봤다.  그는 AI의 차세대 개척지는 물리적 AI가 될 것이라면서 이 순간을 대규모 언어 모델이 생성형 AI의 혁신에 미쳤던 거대한 영향에 비유하고 “챗GPT(ChatGPT) 같은 혁신의 순간이 로보틱스 분야 전반에 다가온 셈”이라고 설명했다.  젠슨 황은 거대 언어 모델(large language model)과 마찬가지로 월드 파운데이션 모델 또한 로봇과 AV 개발 촉진에 중요한 역할을 하지만, 이를 자체적으로 훈련할 수 있는 전문 지식과 자원을 모든 개발자가 갖추고 있는 것은 아니라고 진단했다.  엔비디아 코스모스는 생성형 모델과 토크나이저(tokenizer), 영상 프로세싱 파이프라인을 통합해 AV와 로봇 등의 물리적 AI 시스템을 강화한다.  엔비디아 코스모스의 목표는 AI 모델에 예측과 멀티버스 시뮬레이션 기능을 지원해 발생 가능한 모든 미래를 시뮬레이션하고 최적의 행위를 선택할 수 있도록 하는 것이다.   젠슨 황의 설명에 따르면 코스모스 모델은 텍스트나 이미지, 비디오 프롬프트를 수집해 가상 월드를 동영상 형태로 생성한다. 그는 “코스모스의 생성 작업은 실제 환경과 빛, 대상 영속성(object permanence) 등 AV와 로보틱스라는 고유한 활용 사례에 필요한 조건들을 최우선으로 고려한다”고 말했다. 1X와 애자일 로봇(Agile Robots), 어질리티(Agility), 피규어 AI(Figure AI), 포어텔릭스(Foretellix), 푸리에(Fourier), 갤봇(Galbot), 힐봇(Hillbot), 인트봇(IntBot), 뉴라 로보틱스(Neura Robotics), 스킬드 AI(Skild AI), 버추얼 인시전(Virtual Incision), 와비(Waabi), 샤오펑(XPENG) 등 로보틱스와 자동차 분야의 선도적인 기업들과 차량 공유 업체 우버(Uber)가 코스모스를 최초 도입했다.  또한 현대자동차 그룹은 엔비디아 AI와 옴니버스(Omniverse) 를 기반으로 더 안전하고 스마트한 차량을 개발하고, 제조를 강화하며, 최첨단 로보틱스의 활용성을 높인다. 코스모스는 오픈 라이선스로 깃허브(GitHub)에서 이용할 수 있다.    AI 기초 모델로 개발자 지원 엔비디아는 로보틱스와 자율 주행차 외에도 AI 기초 모델을 통해 개발자와 크리에이터를 지원한다.  젠슨 황은 디지털 휴먼과 콘텐츠 제작, 생산성과 개발성을 극대화하는 RTX PC용 AI 파운데이션 모델을 소개했다.  그는 “모든 클라우드에서 엔비디아 GPU를 사용할 수 있기 때문에 이 AI 기초 모델들 또한 모든 클라우드에서 실행이 가능하다. 모든 OEM에서 사용이 가능하므로 이 모델들을 가져다 여러분의 소프트웨어 패키지에 통합하고, AI 에이전트를 생성하며, 고객이 소프트웨어 실행을 원하는 어디에나 배포할 수 있다”고 전했다.  이 기초 모델들은 엔비디아 NIM 마이크로서비스로 제공되며, 신형 지포스 RTX 50 시리즈 GPU로 가속된다. 신형 지포스 RTX 50은 모델의 신속 실행에 필요한 기능을 갖추고 있으며, FP4 컴퓨팅 지원을 추가해 AI 추론을 2배까지 향상시킨다. 또한 생성형 AI 모델이 전 세대 하드웨어에 비해 더 적은 메모리 공간에서 로컬로 실행되도록 지원한다.   젠슨 황은 이처럼 새로운 툴이 크리에이터에게 어떤 잠재력을 갖는지 짚었다. 그는 “우리는 우리의 생태계가 활용할 수 있는 다양한 블루프린트를 만들고 있다. 이 모든 게 오픈 소스로 제공되므로 여러분이 블루프린트를 가져다 직접 수정해 사용할 수 있다”고 말했다.  엔비디아는 업계 최고의 PC 제조업체와 시스템 개발자들이 지포스 RTX 50 시리즈 GPU를 탑재하고 NIM을 지원하는 RTX AI PC를 내놓을 예정이다. 젠슨 황은 “AI PC들이 여러분 가까이로 찾아갈 예정”이라고 말했다. 엔비디아는 이처럼 개인 컴퓨팅에 AI 기능을 더하는 툴들을 제공하는 한편, 안전과 인텔리전스가 가장 중요하게 손꼽히는 자율 주행차 산업에서도 AI 기반 솔루션을 발전시키고 있다.   자율 주행 차량의 혁신 젠슨 황 CEO는 엔비디아 AGX 토르(Thor) 시스템 온 칩(SoC)을 기반으로 구축된 엔비디아 드라이브 하이페리온 AV(Hyperion AV) 플랫폼의 출시를 알렸다. 이 플랫폼은 생성형 AI 모델용으로 고안돼 기능 안전성과 자율 주행 기능을 강화한다.  젠슨 황은 “자율 주행차의 혁명이 찾아왔다. 자율 주행차 제작에는 로봇을 만들 때와 마찬가지로 세 대의 컴퓨터가 필요하다. AI 모델 훈련을 위한 엔비디아 DGX, 시험 주행과 합성 데이터 생성을 위한 옴니버스, 차내 슈퍼컴퓨터인 드라이브 AGX가 필요하다”고 말했다.  드라이브 하이페리온은 최초의 엔드-투-엔드(end-to-end) AV 플랫폼으로, 첨단 SoC와 센서, 차세대 차량용 안전 시스템, 센서 제품군과 액티브 세이프티(active safety)와 레벨 2 자율 주행 스택을 통합했다. 이 플랫폼은 메르세데츠 벤츠(Mercedes-Benz)와 JLR, 볼보자동차(Volvo Cars) 등 자동차 안전성 분야를 선도하는 기업들에 채택됐다.  젠슨 황은 자율 주행차의 발전에서 합성 데이터가 중요한 역할을 수행한다고 강조했다. 합성 데이터는 실세계 데이터에 한계가 존재하는 상황에서 자율 주행차 제조 단계에서의 훈련에 필수적이라고 설명했다.  엔비디아 옴니버스 AI 모델과 코스모스를 기반으로 한 이 같은 접근 방식은 “훈련 데이터의 양을 어마어마하게 늘리는 합성 주행 시나리오를 생성”한다.  엔비디아와 코스모스를 사용하는 엔비디아의 AI 데이터 공장은 “수백 개의 주행을 수십억 마일에 달하는 유효 주행으로 확장”함으로써 안전하고 진일보한 자율 주행에 필요한 데이터세트를 획기적으로 늘릴 수 있다.  젠슨 황은 “자율 주행차 훈련에 쓰일 방대한 데이터를 보유하게 될 것”이라고 덧붙였다.  세계 최대 자동차 제조사인 토요타는 안전 인증을 획득한 엔비디아 드라이브OS 운영 체제와 엔비디아 드라이브 AGX 오린(Orin)을 기반으로 차세대 차량을 생산할 것이라고 밝혔다.  젠슨 황은 “컴퓨터 그래픽이 놀라운 속도로 혁신을 이룩했듯 향후 몇 년 동안 AV 발전 속도 또한 엄청나게 빨라질 것으로 예상된다. 이 차량들은 기능 안전성과 진일보한 주행 지원 능력을 제공할 전망”이라고 말했다.    에이전트 AI와 디지털 제조 엔비디아와 협력사들은 효율적인 조사와 영상 검색, 요약을 통해 대용량 영상과 이미지를 분석할 수 있는 PDF 투 팟캐스트(PDF-to-podcast) 등 에이전틱 AI용 AI 블루프린트들을 출시했다. 이를 통해 개발자들이 어디서나 AI 에이전트를 구축, 테스트, 실행할 수 있도록 지원해왔다.  개발자는 AI 블루프린트를 활용해 맞춤형 에이전트를 배포하고 엔터프라이즈 워크플로우를 자동화할 수 있다. 이 새로운 범주의 협력사 블루프린트는 엔비디아 NIM 마이크로서비스나 엔비디아 네모(NeMo) 등의 엔비디아 AI 엔터프라이즈 소프트웨어와 크루AI(CrewAI), 데일리(Daily), 랭체인(LangChain), 라마인덱스(LlamaIndex), 웨이츠 앤 바이어시스(Weights & Biases) 등 선도적인 제공자들의 플랫폼을 통합한다.  이와 더불어 젠슨 황은 라마 네모트론(Llama Nemotron)도 새롭게 발표했다.  개발자는 엔비디아 NIM 마이크로서비스를 활용해 고객 지원과 사기 탐지, 공급망 최적화 작업용 AI 에이전트를 구축할 수 있다.  엔비디아 NIM 마이크로서비스로 제공되는 이 모델들은 가속 시스템 일체에서 AI 에이전트를 가속한다. 엔비디아 NIM 마이크로서비스는 영상 콘텐츠 관리를 간소화해 미디어 업계의 효율성과 시청자 참여도를 높인다. 엔비디아의 신기술은 디지털 분야의 애플리케이션을 넘어 AI가 로보틱스로 물리적 세계를 혁신할 길을 열어주고 있다. 그는 “지금까지 말씀드린 지원 테크놀로지 일체를 바탕으로 우리는 향후 몇 년 동안 로보틱스 전반에서 엄청난 속도의 혁신과 놀라운 변화들을 만들어내게 될 것”이라고 말했다. 제조 분야의 합성 모션 생성을 위한 엔비디아 아이작(Isaac) GR00T 블루프린트는 기하급수적으로 많은 합성 모션 데이터를 생성해 모방 학습을 통한 휴머노이드 훈련에 도움을 줄 것이다. 젠슨 황은 엔비디아 옴니버스로 수백 만 개의 휴머노이드 훈련용 합성 모션을 생성해 로봇을 효율적으로 훈련시키는 것이 중요하다고 강조했다. 메가 블루프린트는 엑센츄어(Accenture)와 키온(KION) 같은 선진 업체들이 창고 자동화를 위해 채택한 로봇들의 대규모 시뮬레이션을 지원한다.  이러한 AI 툴을 바탕으로 엔비디아의 새로운 혁신, 일명 프로젝트 디지츠로 불리는 개인용 AI 슈퍼컴퓨터가 등장했다.                                                                                             엔비디아 프로젝트 디지츠 공개 젠슨 황은 개인 사용자와 개발자 모두에게 엔비디아 그레이스 블랙웰을 쥐여주게 될 엔비디아 프로젝트 디지츠 를 공개했다. 그는 “한 가지 더 보여드리고 싶은 게 있다. 약 10년 전에 시작된 이 놀라운 프로젝트가 아니었다면 이 같은 일은 절대로 불가능했을 것이다. 이는 우리 회사 내부에서 프로젝트 디지츠라 불리던 작업이다. 딥 러닝 GPU 인텔리전스 트레이닝 시스템(deep learning GPU intelligence training system)의 약어다”라며 소개를 시작했다. 그는 2016년 최초의 엔비디아 DGX 시스템이 오픈AI(OpenAI)에 제공되던 당시를 그리며 엔비디아의 AI 슈퍼컴퓨팅 개발을 향한 여정이 남긴 유산을 되새겼다. 그는 “그 덕분에 AI 컴퓨팅의 혁명이 가능했다는 건 분명한 사실”이라고 말했다. 새로 발표된 프로젝트 디지츠는 엔비디아의 슈퍼컴퓨팅 개발 미션을 더욱 발전시켰다. 젠슨 황은 “모든 소프트웨어 엔지니어, 모든 엔지니어, 모든 크리에이티브 아티스트, 오늘날 컴퓨터를 도구로 사용하는 모든 이들에게 AI 슈퍼컴퓨터가 필요해질 것”이라고 전했다. 젠슨 황은 10기가 그레이스 블랙웰 슈퍼칩으로 구동되는 프로젝트 디지츠가 엔비디아의 가장 작지만 가장 강력한 AI 슈퍼컴퓨터라고 밝혔다. 젠슨 황은 “이것이 엔비디아의 최신 AI 슈퍼컴퓨터”라고 설명하며 프로젝트 디지츠를 선보였다. 그는 “이 제품은 엔비디아 AI 스택 전체를 구동한다. 엔비디아 소프트웨어 일체가 여기서 실행된다. DGX 클라우드 또한 마찬가지”라고 말했다.    소형이지만 강력한 프로젝트 디지츠는 오는 5월 출시를 앞두고 있다.    미래를 이끄는 엔비디아의 비전 젠슨 황은 연설을 마무리하며, 엔비디아가 30년간 혁신을 거듭해온 과정을 돌아보고,  “1999년 프로그래머블 GPU를 개발한 이후, 우리는 현대 AI가 컴퓨팅을 근본적으로 변화시키는 과정을 지켜봤다”고 말했다. CES 2025에서 공개된 엔비디아의 혁신들은 AI 기술이 산업 전반에 걸쳐 새로운 가능성을 열어줄 것을 보여줬다. 젠슨 황의 말처럼, AI는 이미 우리의 일상 속 깊숙이 자리 잡았으며, 엔비디아는 그 중심에서 미래를 선도하고 있다.  
작성일 : 2025-01-11
엔비디아 코스모스, 자율주행차 위한 컴퓨터 설루션 강화
엔비디아가 CES 2025서 세 가지 컴퓨터 설루션을 위한 엔비디아 코스모스(NVIDIA Cosmos)를 발표했다. 코스모스는 생성형 월드 파운데이션 모델(World Foundation Model, WFM)과 고급 토크나이저(tokenizer), 가드레일, 가속화를 거친 영상 프로세싱 파이프라인으로 구성된 플랫폼이며, AV와 로봇 등의 물리 AI 시스템 개발을 촉진하고자 구축됐다. 자율주행차(AV)의 개발에는 세 가지 컴퓨터가 필요하다. 데이터센터에서 AI 기반 스택을 훈련하기 위한 엔비디아 DGX 시스템, 시뮬레이션과 합성 데이터 생성을 위해 엔비디아 OVX 시스템에서 구동하는 엔비디아 옴니버스(Omniverse), 안전을 위해 실시간 센서 데이터를 처리하는 차내 컴퓨터인 엔비디아 AGX가 각각 있어야 한다. 이러한 목적으로 특별히 만들어진 풀 스택 시스템은 개발 주기의 지속을 가능하게 하면서, 성능과 안전성의 개선 속도를 높일 수 있다.     세 가지 컴퓨터 설루션에 코스모스가 추가되면서 개발자들은 사람이 운전한 수천 킬로미터의 주행 거리를 수십억 킬로에 달하는 가상 주행 거리로 변환해 훈련 데이터의 품질을 높이는 일종의 데이터 플라이휠(flywheel)을 갖게 됐다. 코스모스 WFM은 허깅 페이스(Hugging Face)와 엔비디아 NGC 카탈로그에서 오픈 모델 라이선스로 사용할 수 있다. 코스모스 모델은 곧 최적화된 엔비디아 NIM 마이크로서비스로 제공될 계획이다. 엔비디아의 산자 피들러(Sanja Fidler) AI 리서치 부문 부사장은 “AV 데이터의 공장이라 할 만한 이 플라이휠은 차량 데이터 수집과 4D의 정확한 재구성, 그리고 AI를 활용해 훈련과 폐순환(closed-loop) 평가에 적합한 장면과 다양한 교통 상황을 생성한다. 엔비디아 옴니버스 플랫폼과 코스모스에 AI 모델을 보조적으로 사용하면 합성 주행 시나리오를 생성해 훈련용 데이터를 크게 증폭시킬 수 있다”고 말했다. 엔비디아의 놈 마크스(Norm Marks) 자동차 부문 부사장은 “물리 AI 모델의 개발은 예로부터 자원 집약적이고 비용이 많이 들었으며, 개발자가 실세계 데이터세트를 확보하고 필터링한 뒤 훈련에 맞춰 큐레이팅과 준비를 거쳐야 했다. 코스모스는 이 과정을 생성형 AI로 가속해 자율주행차와 로보틱스의 AI 모델을 더욱 빠르고 정확하게 개발하게 해 준다”고 전했다.
작성일 : 2025-01-10
엔비디아, 생성형 AI의 활용 범위 넓히는 슈퍼컴퓨터 ‘젯슨 오린 나노 슈퍼’ 출시
엔비디아가 소형 생성형 AI 슈퍼컴퓨터 신제품인 ‘젯슨 오린 나노 슈퍼 개발자 키트(Jetson Orin Nano Super Developer Kit)’를 공개했다. 엔비디아는 소프트웨어 업그레이드를 통해 이전 모델에 비해 성능을 높이고 가격은 낮췄다고 밝혔다. 손바닥만한 크기의 새로운 엔비디아 젯슨 오린 나노 슈퍼 개발자 키트는 상업용 AI 개발자부터 취미로 AI를 다루는 사람, 학생에 이르기까지 다양한 사람들에게 생성형 AI 기능과 성능을 제공한다. 가격은 기존의 499달러에서 249달러로 인하됐다. 이 제품은 이전 모델에 비해 생성형 AI 추론 성능이 1.7배 향상됐고, 성능은 67 INT8 TOPS로 70% 증가했으며, 메모리 대역폭은 102GB/s로 50% 증가했다. 젯슨 오린 나노 슈퍼는 검색 증강 생성(RAG) 기반의 대규모 언어 모델(LLM) 챗봇 생성, 시각적 AI 에이전트(AI agent) 구축, AI 기반 로봇 배포 등에 적합한 설루션을 제공한다. 젯슨 오린 나노 슈퍼는 생성형 AI, 로보틱스, 컴퓨터 비전 기술 개발에 관심이 있는 사람들에게 적합하다. AI 세계가 작업별 모델에서 파운데이션 모델로 이동함에 따라 아이디어를 현실로 전환할 수 있는 접근 가능한 플랫폼도 제공한다. 젯슨 오린 나노 슈퍼의 향상된 성능은 모든 인기 있는 생성형 AI 모델과 트랜스포머 기반 컴퓨터 비전을 위한 이점을 제공한다.     개발자 키트는 젯슨 오린 나노 8GB 시스템 온 모듈(SoM)과 레퍼런스 캐리어 보드로 구성돼 에지 AI 애플리케이션 프로토타입에 적합한 플랫폼을 제공한다. 이 SoM은 텐서 코어가 포함된 엔비디아 암페어(Ampere) 아키텍처 GPU와 6코어 Arm CPU를 갖추고 있어, 여러 개의 동시 AI 애플리케이션 파이프라인과 고성능 추론을 용이하게 한다. 또한, 최대 4개의 카메라를 지원할 수 있으며 이전 버전보다 더 높은 해상도와 프레임 속도를 제공한다. 젯슨은 로보틱스를 위한 엔비디아 아이작(Isaac), 비전 AI를 위한 엔비디아 메트로폴리스(Metropolis), 센서 처리를 위한 엔비디아 홀로스캔(Holoscan)을 비롯한 엔비디아 AI 소프트웨어를 실행한다. 합성 데이터 생성을 위한 엔비디아 옴니버스 리플리케이터(Omniverse Replicator)와 NGC 카탈로그에서 사전 훈련된 AI 모델을 미세 조정하기 위한 엔비디아 타오 툴킷(TAO Toolkit)을 사용하면 개발 시간을 단축할 수 있다. 한편, 엔비디아는 새로운 젯슨 오린 나노 슈퍼에 제공되는 소프트웨어 업데이트가 이미 젯슨 오린 나노 개발자 키트를 보유하고 있는 사용자의 생성형 AI 성능도 향상시킨다고 밝혔다. 1.7배의 생성형 AI 성능을 향상시키는 소프트웨어 업데이트는 젯슨 오린 NX와 오린 나노 시리즈 시스템 모듈에서도 사용할 수 있다. 기존 젯슨 오린 나노 개발자 키트 소유자는 지금 바로 젯팩 SDK(JetPack SDK)를 업그레이드해 향상된 성능을 활용할 수 있다. 엔비디아는 “젯슨 생태계 파트너는 추가적인 AI와 시스템 소프트웨어, 개발자 도구, 맞춤형 소프트웨어 개발을 제공한다. 또한, 카메라와 기타 센서, 캐리어 보드, 제품 설루션을 위한 설계 서비스도 지원 가능하다”고 덧붙였다.
작성일 : 2024-12-19
엔비디아, AWS에 엔비디아 NIM 제공 확대해 AI 추론 향상 지원
엔비디아가 아마존웹서비스(AWS)의 AI 서비스 전반에 자사의 NIM 마이크로서비스를 확장한다고 발표하면서, 이를 통해 생성형 AI 애플리케이션을 위한 더 빠른 AI 추론과 짧은 지연 시간을 지원한다고 전했다. 12월 4일 열린 ‘리인벤트(re:Invent)’ 연례 콘퍼런스에서 AWS는 엔비디아와의 협업을 확대해 주요 AWS AI 서비스 전반에 걸쳐 엔비디아 NIM 마이크로서비스를 확장한다고 발표했다.  엔비디아 NIM 마이크로서비스는 이제 AWS 마켓플레이스(Marketplace), 아마존 베드록 마켓플레이스(Bedrock Marketplace), 아마존 세이지메이커 점프스타트(SageMaker JumpStart)에서 직접 제공된다. 이로 인해 개발자가 일반적으로 사용되는 모델에 대해 엔비디아 최적화 추론을 대규모로 배포하는 것이 더욱 쉬워졌다.     엔비디아 NIM은 AWS 마켓플레이스에서 제공되는 엔비디아 AI 엔터프라이즈 소프트웨어 플랫폼의 일부이다. 이는 개발자에게 클라우드, 데이터센터, 워크스테이션 전반에서 고성능 엔터프라이즈급 AI 모델 추론을 안전하고 안정적으로 배포하도록 설계된 사용하기 쉬운 마이크로서비스 세트를 제공한다. 사전 구축된 컨테이너는 엔비디아 트리톤 추론 서버(Triton Inference Server), 엔비디아 텐서RT(TensorRT), 엔비디아 텐서RT-LLM, 파이토치(PyTorch)와 같은 추론 엔진을 기반으로 구축됐다. 아울러 오픈 소스 커뮤니티 모델부터 엔비디아 AI 파운데이션(AI Foundation) 모델, 맞춤형 모델에 이르기까지 광범위한 범위의 AI 모델을 지원한다. NIM 마이크로서비스는 아마존 엘라스틱 컴퓨트 클라우드(Elastic Compute Cloud : EC2), 아마존 엘라스틱 쿠버네티스 서비스(Elastic Kubernetes Service : EKS), 아마존 세이지메이커를 비롯한 다양한 AWS 서비스에 배포할 수 있다. 개발자는 일반적으로 사용되는 모델과 모델 제품군으로 구축된 100개 이상의 NIM 마이크로서비스를 엔비디아 API 카탈로그에서 미리 볼 수 있다. 여기에는 메타의 라마 3(Llama 3), 미스트랄 AI의 미스트랄과 믹스트랄(Mixtral), 엔비디아의 네모트론(Nemotron), 스태빌리티 AI의 SDXL 등이 있다. 가장 일반적으로 사용되는 모델은 AWS 서비스에 배포하기 위한 자체 호스팅에 사용할 수 있으며, AWS의 엔비디아 가속 컴퓨팅 인스턴스에서 실행되도록 최적화돼 있다. 엔비디아는 다양한 산업 분야의 고객과 파트너가 AWS에서 NIM을 활용하며 시장에 더 빨리 진입하고, 생성형 AI 애플리케이션과 데이터의 보안과 제어를 유지하며, 비용을 절감하고 있다고 소개했다. 개발자는 고유한 필요와 요구사항에 따라 AWS에 엔비디아 NIM 마이크로서비스를 배포할 수 있다. 이를 통해 개발자와 기업은 다양한 AWS 서비스 전반에서 엔비디아에 최적화된 추론 컨테이너로 고성능 AI를 구현할 수 있다.
작성일 : 2024-12-06
AWS, 차세대 파운데이션 모델 ‘아마존 노바’ 공개
아마존웹서비스(AWS)는 광범위한 작업에서 최첨단 인텔리전스와 가격 대비 성능을 제공하는 차세대 파운데이션 모델(FM)인 ‘아마존 노바(Amazon Nova)’를 발표했다. 아마존 노바 모델은 아마존 베드록(Amazon Bedrock)에서 사용 가능하며, 빠른 텍스트-텍스트 변환 모델인 아마존 노바 마이크로(Amazon Nova Micro)를 비롯해 아마존 노바 라이트(Amazon Nova Lite), 아마존 노바 프로(Amazon Nova Pro) 그리고 텍스트, 이미지, 비디오를 처리하여 텍스트를 생성하는 멀티모달 모델인 아마존 노바 프리미어(Amazon Nova Premier) 등을 포함한다. 아마존은 또한 두 가지 추가 모델로 스튜디오급 이미지 생성을 위한 아마존 노바 캔버스(Amazon Nova Canvas) 및 스튜디오급 비디오 생성을 위한 아마존 노바 릴(Amazon Nova Reel)을 출시했다. 아마존 노바 마이크로는 낮은 비용으로 빠른 지연 시간의 응답을 제공하는 텍스트 전용 모델이다. 아마존 노바 라이트는 이미지, 비디오, 텍스트 입력 처리가 빠른 저비용 멀티모달 모델이고, 아마존 노바 프로는 광범위한 작업에 대해 정확성, 속도, 비용의 최적의 조합을 제공하는 고성능 멀티모달 모델이다. 그리고 아마존 노바 프리미어는 복잡한 추론 작업과 맞춤형 모델 학습을 위한 최고의 교사 모델로 사용되는 아마존의 가장 강력한 멀티모달 모델이다. 아마존 노바 마이크로, 아마존 노바 라이트, 아마존 노바 프로는 현재 정식 사용 가능하며, 아마존 노바 프리미어는 2025년 1분기에 출시될 예정이다. AWS는 “다양한 업계 표준 벤치마크로 테스트한 결과 아마존 노바 마이크로, 아마존 노바 라이트, 아마존 노바 프로가 각각의 카테고리에서 메타의 라마 3.1, 구글의 제미나이 1.5, 오픈AI의 GPT-4o, 앤스로픽의 클로드 3.5 등 업계 주요 모델과 비교할 때 경쟁력 있는 성능을 보여주었다”고 소개했다. 아마존 노바 마이크로, 라이트, 프로는 200개 이상의 언어를 지원한다. 아마존 노바 마이크로는 128K 입력 토큰의 컨텍스트 길이를 지원하며, 아마존 노바 라이트와 아마존 노바 프로는 300K 토큰 또는 30분의 비디오 처리를 지원하는 컨텍스트 길이를 제공한다. 2025년 초에는 2M 이상의 입력 토큰 컨텍스트 길이를 지원할 예정이다. AWS는 모든 아마존 노바 모델이 빠르고 비용 효율적이며 고객의 시스템 및 데이터와 쉽게 사용할 수 있도록 설계됐다고 설명했다. 모든 아마존 노바 모델은 주요 AI 기업과 아마존의 고성능 파운데이션 모델을 단일 API를 통해 사용할 수 있게 해주는 완전 관리형 서비스인 아마존 베드록과 통합돼 있다. 고객들은 아마존 베드록을 사용하여 아마존 노바 모델과 다른 파운데이션 모델을 쉽게 실험하고 평가하여 애플리케이션에 가장 적합한 모델을 결정할 수 있다. 또한 이 모델들은 맞춤형 미세조정(fine-tuning)을 지원하여, 고객들이 정확도를 높이기 위해 레이블이 지정된 자체 데이터의 예시들을 모델에 지정할 수 있다. 아마존 노바 모델은 고객의 자체 데이터(텍스트, 이미지, 비디오 포함)에서 가장 중요한 것을 학습하고, 그 후 아마존 베드록이 맞춤형 응답을 제공할 수 있는 개인 미세조정 모델을 훈련시킨다. 이미지 생성 모델인 아마존 노바 캔버스는 텍스트나 이미지 프롬프트로부터 전문가급 이미지를 생성한다. 또한 텍스트 입력을 사용한 이미지 편집 기능과 색상 구성 및 레이아웃 조정을 위한 제어 기능을 제공한다. 그리고 이미지의 출처를 추적할 수 있게 하는 워터마크와 잠재적으로 유해한 콘텐츠의 생성을 제한하는 콘텐츠 관리 등 제어 기능을 내장했다. 아마존 노바 릴은 고객이 텍스트와 이미지로부터 쉽게 고품질 비디오를 생성할 수 있게 해주는 비디오 생성 모델이다. 고객은 자연어 프롬프트를 사용하여 카메라 모션, 회전, 확대/축소 등 시각적 스타일과 속도를 제어할 수 있다. 아마존 노바 릴은 현재 6초 길이의 비디오를 생성하며, 향후 몇 개월 내에 최대 2분 길이의 비디오 생성을 지원할 예정이다. 아마존은 2025년 1분기에 아마존 노바 스피치 투 스피치(speech-to-speech) 모델을 출시할 예정이다. 이 모델은 자연어의 스트리밍 음성 입력을 이해하고, 언어적 신호와 톤이나 박자 같은 비언어적 신호를 해석하며, 낮은 지연 시간으로 자연스러운 인간다운 쌍방향 상호작용을 제공함으로써 대화형 AI 애플리케이션을 변화시키도록 설계됐다. 또한 아마존은 텍스트, 이미지, 오디오, 비디오를 입력으로 받아 이러한 모든 형태로 출력을 생성할 수 있는 혁신적인 모델을 개발하고 있다고 전했다. 이 모델은 2025년 중반에 출시될 예정으로, 콘텐츠를 편집/다른 형태로 변환하거나 모든 형태를 이해하고 생성할 수 있는 AI 에이전트를 구동하는 등 다양한 작업을 수행하는 데 동일한 모델을 사용할 수 있는 애플리케이션 개발을 단순화할 것으로 보인다. 아마존의 로힛 프라사드(Rohit Prasad) 인공 일반 지능(AGI) 수석부사장은 “아마존 내부적으로 약 1000개의 생성형 AI 애플리케이션이 진행 중이며, 애플리케이션 개발자가 여전히 고민하고 있는 문제를 전반적으로 파악하고 있다”면서, “새로운 아마존 노바 모델은 내부 및 외부 개발자들의 이러한 과제 해결을 돕고 지연 시간, 비용 효율성, 맞춤화, 검색 증강 생성(RAG), 에이전트 기능에서 의미 있는 진전을 이루면서 강력한 인텔리전스와 콘텐츠 생성을 제공하고자 한다”고 말했다.
작성일 : 2024-12-05
안료 데이터베이스
문화유산 분야의 이미지 데이터베이스와 활용 사례 (12)   지난 호에서는 1920년대에 발견되어 재활용 참기름병으로 사용되었던 백자가 1997년에 조선을 대표하는 국보가 된 ‘백자청화철채동채초충문병’의 화려한 외출 과정을 소개하였다. 개인의 경험을 바탕으로 한 안목감정에 의한 축적되기 어려운 도자기에 관한 정보를 어떻게 검증하고 체계적으로 정리해 나가야 할 것인가에 관해서 생각해 보았다. 도자기의 분류, 명명법, 각종 분석법의 원리와 한계에 관해서 소개하였다. 도자기 제작 시대, 지역, 재료, 제작방법 등 다양한 관점에서 데이터베이스에 담아내야 할 것인가에 대해서도 고민해 보았다. 이번 호에서는 올해의 주제였던 문화유산 분야의 이미지 데이터베이스와 활용 사례에 관한 기고를 마무리하면서 마지막 분야로 단청, 불화, 초상화, 등에 사용된 전통 안료에 관해서 살펴보고, 안료의 색상을 어떻게 안료 데이터베이스로 표현하고 기록할 것인가에 관해서 살펴보도록 한다.   ■ 연재순서 제1회 이미지 데이터와 데이터베이스의 중요성 제2회 서화, 낙관, 탁본 데이터베이스 제3회 옛 사진 데이터베이스 제4회 한지 데이터베이스 제5회 고지도 데이터베이스  제6회 고서 자형 데이터베이스 제7회 필사본 고서 데이터베이스  제8회 목판본 고서 데이터베이스  제9회 금속활자본 고서 데이터베이스  제10회 근대 서지 데이터베이스  제11회 도자기 데이터베이스 제12회 안료 데이터베이스   ■ 유우식 웨이퍼마스터스의 사장 겸 CTO이다. 동국대학교 전자공학과, 일본 교토대학 대학원과 미국 브라운대학교를 거쳐 미국 내 다수의 반도체 재료 및 생산설비분야 기업에서 반도체를 포함한 전자재료, 공정, 물성, 소재분석, 이미지 해석 및 프로그램 개발과 관련한 연구를 진행하고 있다. 경북대학교 인문학술원 객원연구원, 국민대학교 산림과학연구소 상임연구위원, 문화유산회복재단 학술위원이다. 홈페이지 | www.wafermasters.com   그림 1. 2008년 2월 10일의 화재 후에 재건된 광화문의 낮과 밤의 모습(2014년 촬영). 단청으로 채색된 광화문의 야경은 조명과 어우러져 어둠 속에서 화려한 색상으로 재탄생한다.   색 색(色)이라는 단어를 사전에서 찾아보면 다음과 같이 정의하고 있다.  빛을 흡수하고 반사하는 결과로 나타나는 사물의 밝고 어두움이나 빨강, 파랑, 노랑 따위의 물리적 현상. 또는 그것을 나타내는 물감 따위의 안료. 일반인이 이해하기 쉽게 간단 명료하게 잘 정리되어 있지만, 빛에 대한 개념이 사람마다 다를 것이므로 같은 문장의 설명을 읽고도 각자 다른 생각을 할 수도 있다. 빛의 밝기와 파장 분포에 관한 정보가 없는 상태에서 빛이라고 하면 각자의 경험에 바탕을 두고 생각하게 되기 때문이다. 같은 옷을 입어도 아침, 점심, 저녁, 밤, 실내, 실내, 날씨, 조명 상태에 따라서 우리 눈에 비치는 색은 전혀 다르게 보이기 때문이다. 만약 형광 성분이 있는 물체라면 우리의 상상을 초월한 색으로 나타날 수도 있다.  <그림 1>에 2008년에 화재로 전소된 숭례문(남대문)을 재건한 것을 2014년의 어느 날 낮과 밤에 촬영한 사진을 소개하였다. 숭례문에는 화려한 색상의 단청이 입혀져 있다. 일반 상식으로 생각하면 낮에 단청이 더 멋지게 보일 것 같지만, 주변이 밝고 햇빛이 위에서 아래로 비추기 때문에 지붕에 가려진 단청은 지붕의 그늘에 가려지기도 하고 햇빛의 간접 조명 효과로 인하여 그다지 화려하게 보이지 않는다. 이와는 반대로 야간에는 주변이 어둡고 조명이 아래에서 위쪽으로 비추고 있어 지붕 아래쪽의 단청이 화려하게 나타난다. 물론 조명의 광원을 다르게 하여 광원의 파장 분포가 달라지면 겉으로 드러나는 색상도 달라지게 된다. 이렇게 조명 조건에 따라서 나타나는 색상이 달라진다면 색을 어떻게 정의해야 할까? 큰 건물의 넓은 면적에 단청을 칠할 때 어떻게 단청 색을 균일하게 칠할 수 있을까? 단청이 마르기 전과 마른 후의 색상은 다르기 마련인데, 경험적으로 마르기 전과 마른 후의 색상 차이를 터득하고 건물 천체를 수 개월간 칠해서 완성한 단청의 색상이 비교적 균일하게 보이는 것도 대단한 기술이라 하겠다.  낮에 촬영한 사진은 석축에 지붕의 그림자가 드리우고 있지만, 밤에는 아래쪽에서 조명이 이루어져 지붕의 그림자는 사라진다. 화재 후 복원된 석축은 오래된 돌과 새로 끼워 놓은 돌이 섞여 있어 얼룩 무늬가 나타난다. 낮에 촬영한 사진과 밤에 촬영한 사진을 비교해 보면 조명 조건에 따른 색상의 영향을 쉽게 이해할 수 있다. 지붕 없이 단청이 자외선이 강한 햇빛에 장시간 노출되면 단청이 변색되고 단청의 수명도 짧아지게 된다. 단청이 오래 유지되는 것은 광물성 천연 안료를 사용한 것 외에도 높은 에너지의 자외선을 포함한 직사 태양광이 지붕에 의해서 가려져 있기 때문이다.    안료 물체는 그 자체가 빛을 흡수, 반사, 산란하면서 빛의 종류에 따라 고유의 색을 띄게 된다. 고유의 색을 다르게 보이게 하기 위하여 다른 색상을 띄게 하는 물질을 덧씌우기 위한 것이 안료이다. 마치 화장품과도 같은 역할을 하는 물체이다.  다음에 안료의 정의와 화학적 특징에 따른 분류를 정리해 보았다. 안료는 크게 무기안료와 유기안료로 구별할 수 있다. 분자 구조에 탄소 원자가 없는 광물이나 금속, 금속 산화물 또는 금속염이 무기안료이고, 색상 범위에 제한이 있으나 안정성과 안전성이 뛰어나다. 유기안료는 탄소, 수소 및 산소 원자를 포함하는 탄소화합물로, 천연 또는 합성 원료에서 추출하게 되며 물감이나 페인트처럼 넓은 범위의 색상을 얻을 수 있다. 유기안료는 무기안료에 비해서 안정성이 낮고 안전성이 문제가 되기도 한다.  안료는 화학 구조에 따른 분류 이외에 색상, 형태, 용도에 따라 분류하기도 한다. 여성이 사용하는 화장품의 종류만 보아도 안료가 색상, 형태, 용도, 효과에 따라서 분류되어 일상생활에서 구별되고 있는지 쉽게 알 수 있다. 여성용 색조 화장품을 예로 들면 BB크림, 파운데이션, 파우더, 컨실러, 립스틱, 아이섀도, 아이브로, 아이라이너, 마스카라, 불러셔 등 다양한 안료를 사용한 제품이 있다.      ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2024-12-05
AWS, 딥러닝 및 생성형 AI를 위한 트레이니움2 인스턴스 출시
아마존웹서비스(AWS)는 ‘AWS 리인벤트’ 행사에서 AWS 트레이니움2(AWS Trainium2) 칩 기반의 아마존 EC2(Amazon EC2) 인스턴스를 공식 출시했다고 발표했다. 또한, AWS는 대규모 언어 모델(LLM) 및 파운데이션 모델(FM)의 학습과 추론을 지원하는 트레이니움2 울트라서버(Trn2 UltraServers)와 차세대 트레이니움3(Trainium3) 칩도 함께 공개했다. Trn2 인스턴스는 16개의 트레이니움2 칩을 탑재하여 최대 20.8 페타플롭스(PF)의 연산 성능을 제공한다. 이는 수십억 개의 매개변수를 가진 LLM의 학습 및 배포에 적합하다. Trn2 인스턴스는 동일한 비용으로 기존 GPU 기반 EC2 P5e 및 P5en 인스턴스 대비 30~40% 더 나은 가격 대비 성능을 제공하며, 메모리 대역폭도 개선되어 비용 효율성이 높다는 것이 AWS의 설명이다. Trn2 울트라서버는 새로운 EC2 제품군으로, 초고속 뉴런링크(NeuronLink) 기술을 사용해 64개의 트레이니움2 칩을 연결하여 최대 83.2 피크 페타플롭스의 연산 성능을 제공한다. 이는 단일 Trn2 인스턴스 대비 연산, 메모리, 네트워킹 성능을 각각 4배로 확장해 대규모의 모델 학습과 배포를 가능하게 한다. Trn2 인스턴스는 현재 미국 동부(오하이오) AWS 리전에서 사용 가능하며, 추가 리전에서도 곧 제공될 예정이다. Trn2 울트라서버는 현재 프리뷰 상태로 제공되고 있다. 한편, AWS는 앤스로픽(Anthropic)과 협력해 수십만 개의 트레이니움2 칩을 포함하는 EC2 울트라클러스터(UltraClusters)를 구축하고 있다고 밝혔다. 이 프로젝트는 ‘프로젝트 레이니어(Project Rainier)’로 명명되었으며, 현재 세대의 최첨단 AI 모델 훈련에 사용된 엑사플롭스의 5배 이상의 성능을 갖출 것으로 기대된다. 이외에도 AWS는 차세대 AI 학습 칩인 트레이니움3를 공개했다. 트레이니움3는 트레이니움2 대비 최대 2배 성능과 40% 개선된 에너지 효율성을 제공하며, 이를 통해 고객은 더 큰 모델을 더 빠르게 구축하고 실시간 성능을 극대화할 수 있다. AWS의 데이비드 브라운(David Brown) 컴퓨팅 및 네트워킹 부문 부사장은 “트레이니움2는 AWS가 개발한 칩 중 가장 강력한 성능을 자랑하며, 대규모 및 최첨단 생성형 AI 워크로드를 지원하기 위해 설계되었다. 이 칩은 학습과 추론 모두에서 최고의 가격 대비 성능을 제공한다”면서, “매개변수가 수조 개에 달하는 모델이 등장하면서, 고객들에게 대규모 모델을 효율적으로 학습하고 운영할 수 있는 새로운 접근 방식이 필요해졌다. Trn2 울트라서버는 AWS에서 가장 빠른 학습 및 추론 성능을 제공하며, 모든 규모의 조직이 세계 최대 모델을 더 빠르고 비용 효율적으로 학습하고 배포할 수 있도록 돕는다”고 전했다.
작성일 : 2024-12-04
레드햇, 애저에서 RHEL AI의 AI 모델 개발 및 배포 간소화 지원
레드햇은 클라우드에서의 인공지능(AI) 및 생성형 AI 배포를 간소화하고 확장하기 위해 마이크로소프트와의 협력을 확대한다고 발표했다. 이번 협력을 통해 레드햇 엔터프라이즈 리눅스 AI(RHEL AI)는 마이크로소프트 애저 환경에서 실행 가능하도록 최적화되고 검증된 파운데이션 모델 플랫폼으로써 제공되며, 애저 마켓플레이스(Azure Marketplace)를 통해 BYOS(Bring-Your-Own-Subscription) 제품으로 제공될 예정이다. 파괴적 혁신이 끊임없이 일어나는 산업 환경에서 조직이 새로운 기능을 신속하게 통합하고 지원할 수 있는 적응형 기술 스택을 도입하고 유지하는 것은 매우 중요하다. 이는 특히 애플리케이션과 데이터, 플랫폼, 인프라를 아우르는 AI 지원 기술을 필요로 하는 AI 기반 비즈니스로 전환하는 조직에 더욱 중요하다. MS 애저용 RHEL AI는 조직이 하이브리드 클라우드 환경에서 생성형 AI 모델을 더욱 원활하게 구축, 테스트, 배포하는 데 필요한 일관성과 확장성을 제공한다. RHEL AI는 엔터프라이즈급 오픈소스 라이선스 그래니트(Granite) 모델로 생성형 AI 혁신을 지원하는 파운데이션 모델 플랫폼으로, 인스트럭트랩(InstructLab) 도구를 통해 기업의 프라이빗 데이터와 사용 사례에 맞춘 모델 조정을 간소화한다. 또한 RHEL AI는 동일한 도구와 개념을 사용하여 이러한 모델을 대규모로 조정(tuning)하고 서비스할 수 있도록 레드햇 오픈시프트 AI(Red Hat OpenShift AI)로 바로 이동 가능한 경로를 제공한다. MS 애저에서의 RHEL AI 제공은 조직이 비즈니스 요구 사항을 충족하기 위해 오픈소스의 힘을 활용할 수 있도록 돕는 레드햇과 MS 간의 오랜 협력 관계를 기반으로 한다. RHEL AI는 양사가 공동으로 개발하고 지원하는 완전 관리형 턴키 애플리케이션 플랫폼인 레드햇 오픈시프트 AI 및 애저 레드햇 오픈시프트(Azure Red Hat OpenShift) 등 다른 제품들처럼 MS 애저에서 사용 가능한 최신 AI 최적화 레드햇 제품이다.
작성일 : 2024-11-22