• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "쿼리"에 대한 통합 검색 내용이 238개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
세일즈포스, AI 에이전트 플랫폼에 구글 제미나이 도입 
세일즈포스가 구글 클라우드와 전략적 파트너십을 확장한다고 발표했다. 세일즈포스는 구글의 AI 모델과 클라우드 인프라를 기반으로 기업이 비즈니스 환경에 최적화된 AI 모델을 자유롭게 선택하고, AI 에이전트를 안전하게 구축할 수 있도록 지원 역량을 지속 강화해 나갈 계획이다. 2024년 9월 구글과의 전략적 파트너십을 발표한 세일즈포스는 이번 파트너십 확장을 통해 자사의 AI 에이전트 플랫폼 ‘에이전트포스’에 구글의 최신 AI 모델인 ‘제미나이(Gemini)’를 도입한다. 또한, 에이전트포스, 데이터 클라우드, 커스터머 360 등 주요 AI 서비스를 구글 클라우드에서 운영할 수 있도록 지원하여, 기업이 특정 AI 모델에 종속되지 않고 비즈니스 목표에 맞는 최적의 AI 모델을 선택할 수 있는 환경을 마련했다. 제미나이의 도입으로 에이전트포스는 이미지, 오디오 및 비디오 데이터를 모두 처리할 수 있는 멀티모달 기능을 구현할 수 있으며, 제미나이의 200만 ‘토큰 컨텍스트 윈도우(Two-million-token Context Windows)’를 활용해 더욱 복잡한 잡업을 처리할 수 있게 된다. 또한, 구글의 ‘버텍스 AI(Vertex AI)’와의 연동으로 실시간 검색 및 분석 기능이 한층 강화되어 보다 신뢰할 수 있는 답변 제공이 가능해진다. 세일즈포스는 제미나이가 포함된 에이전트포스를 각 산업군별 현업 환경에서 다양한 방식으로 활용할 수 있다고 소개했다. 보험 업계에서는 사고 현장 사진과 음성 증언을 AI가 자동 분석해 보험금 청구의 타당성을 즉시 평가하고, 음성 합성 기술을 활용해 고객에게 결과를 전달할 수 있다. 공급망 관리(SCM) 분야에서는 AI가 커머스 클라우드의 배송 추적 데이터와 구글 검색의 실시간 기상 정보, 항구 혼잡도 등을 종합 분석해 잠재적인 위험을 사전에 파악할 수 있도록 지원한다.     세일즈포스는 이번 파트너십을 통해 AI 보안과 신뢰도 강화에도 주력할 계획이다. 세일즈포스의 고객은 이제 세일즈포스의 ‘통합 플랫폼(Unified Platform)’을 구글 클라우드의 AI 최적화 인프라에서 운영할 수 있으며, 세일즈포스의 ‘아인슈타인 트러스트 레이어(Einstein Trust Layer)’로부터 제공되는 ▲다이나믹 그라운딩 ▲제로 데이터 리텐션 ▲독성검사 등의 기능을 바탕으로 엔터프라이즈급 보안 환경을 경험할 수 있다. 또한 이후 세일즈포스의 제품이 구글 클라우드에 출시될 경우, 고객은 구글 클라우드 마켓플레이스에서 세일즈포스의 각종 설루션을 구매할 수 있다. 이번 파트너십 확대는 고객 서비스 부문에도 변화를 가져온다. 세일즈포스는 서비스 클라우드와 구글의 ‘고객 인게이지먼트 제품군(Customer Engagement Suite)’의 통합으로 AI 기반의 실시간 음성 번역, 상담원 간 지능형 업무 전환, 맞춤형 상담 가이드 등 고도화된 컨택센터 기능을 제공할 것이라고 밝혔다. 이를 통해 기업은 모든 고객접점 채널에서 일관된 AI 기반 상담 서비스를 제공할 수 있으며, 고객 문의의 특성에 따라 효율적인 상담원 연계가 가능해진다. 이외에도 세일즈포스는 AI 기반 지능형 생산성 플랫폼 슬랙(Slack)과 구글 워크스페이스의 통합을 기반으로 협업 환경을 한층 강화할 것이라고 밝혔다. 세일즈포스에 따르면 슬랙에서 구글 드라이브 파일을 검색 및 활용하는 기능과 지메일(Gmail)과 슬랙 간의 연동 등의 기능을 포함한다. 데이터 분석 환경 역시 한층 고도화될 예정이다. 세일즈포스는 데이터 클라우드와 구글의 빅쿼리(BigQuery), 코텍스 프레임워크(Cortex Framework) 간의 연결성을 강화하여, 기업이 조직 내 데이터 전반에 걸쳐 AI 에이전트를 안전하고 손쉽게 구축할 수 있게 될 것이라고 밝혔다. 이에 더해 세일즈포스의 지능형 데이터 분석 플랫폼, 태블로(Tableau)와 구글의 루커(Looker) 및 빅쿼리 간의 통합을 바탕으로 모든 플랫폼상의 비즈니스 데이터를 단일 플랫폼 내에서 분석 및 시각화할 수 있는 데이터 분석 환경을 제공할 것이라고 전했다. 세일즈포스의 스리니 탈라프라가다(Srini Tallapragada) 최고 엔지니어링 및 고객 성공 책임자는 “세일즈포스와 구글 클라우드는 고객이 최적의 AI 모델과 애플리케이션을 자유롭게 선택하고 활용할 수 있는 개방적이고 유연한 환경을 만들어 나가고 있다”면서, “세일즈포스는 엔터프라이즈급 AI 에이전트 플랫폼을 통해 기업의 신속한 AI 도입과 비즈니스 가치 창출을 지원하고 있으며, ‘디지털 레이버(Digital Labor)’ 플랫폼으로서 구글 클라우드와 함께 전 세계 기업의 AI 혁신 가속화를 견인할 것”이라고 밝혔다. 세일즈포스 코리아의 손부한 대표는 “구글 클라우드와의 이번 파트너십을 기점으로, 국내 기업들 또한 AI 기술을 보다 안전하고 유연한 환경에서 도입 및 활용할 수 있게 될 것으로 기대한다”면서, “이미 국내 시장에서도 대기업을 필두로 AI 에이전트 기반의 혁신을 가속화하고 있으며, 그 중심에서 세일즈포스는 신뢰할 수 있는 파트너로서 인간과 AI 에이전트가 함께 협업하는 새로운 미래를 만들어 나가기 위한 지원을 아끼지 않을 것”이라고 전했다.
작성일 : 2025-02-26
스노우플레이크, 거버넌스 준수하고 정확도 높인 AI 에이전트 ‘코텍스 에이전트’ 출시
스노우플레이크가 정형 혹은 비정형 데이터에 액세스해 자동으로 업무를 실행하는 AI 에이전트인 ‘코텍스 에이전트(Cortex Agents)’를 출시했다. 이를 통해 기업은 데이터 전문가 없이도 데이터를 검색, 분석해 엔터프라이즈 데이터를 더욱 효과적으로 관리할 수 있게 되었다. 코텍스 에이전트는 퍼블릭 프리뷰로 제공되며, 코텍스 애널리스트(Cortex Analyst)와 코텍스 서치(Cortex Search) 기능을 강화해 자동으로 데이터를 통합, 검색하고, 복잡한 쿼리를 분석해 정확한 답변을 생성한다. 이 과정에서 기업들은 정확성, 효율성 및 거버넌스를 실현할 수 있다, 코텍스 애널리스트는 정형화된 SQL 데이터를 분석하며, 앤스로픽(Anthropic)의 클로드 3.5 소넷(Claude 3.5 Sonnet)을 활용해 텍스트를 SQL로 변환하는 데 정확도를 높였다. 사용자가 자연어로 데이터를 조회하고 인사이트를 도출할 수 있으며 복잡한 추론, 코드 생성, 멀티모달 데이터 분석을 수행할 수 있는 엔터프라이즈급 AI 기능을 제공한다. 코텍스 서치는 텍스트, 오디오, 이미지, 비디오 등 비정형 데이터의 검색 정확도를 높인다. 스노우플레이크는 “오픈AI 임베딩 모델 대비 최소 11% 높은 정확도를 기록하며 다양한 벤치마크 테스트에서 우수한 성능을 입증했다”고 밝혔으며, 이 외에도 대규모 데이터 인덱싱, 맞춤형 벡터 임베딩 모델 선택 기능이 추가됐다.     정확한 데이터 분석, 보안 유지 및 거버넌스 준수는 AI 에이전트가 기업 환경에서 효과적으로 확장되기 위한 필수 요소다. 코텍스 에이전트는 다양한 데이터 소스를 검색하고, 보안 정책을 준수하며 신뢰할 수 있는 결과를 제공하도록 설계됐다. 배포 이후에도 성능과 동작을 지속적으로 모니터링하고 개선할 수 있어, 기업이 AI 에이전트를 안전하게 확장하면서 보안과 컴플라이언스를 유지할 수 있도록 돕는다. 예를 들어, 재무 분석가는 정형 데이터인 수익 데이터와 비정형 데이터인 재무 보고서 및 시장 데이터와 결합해야 하는 경우가 많다. 엔드 투 엔드 거버넌스를 통해 안전하게 AI에 정보를 제공하는 것이 필요한데, 이 때 코텍스 에이전트를 활용하면 된다. 코텍스 에이전트는 두 데이터 소스의 통합, 검색 및 처리를 단순하게 해 기업들은 쉽게 대규모로 고품질 에이전트를 구축할 수 있도록 지원한다.  스노우플레이크의 크리스티안 클레이너만(Christian Kleinerman) 제품 담당 수석 부사장은 “AI 전략은 데이터 전략 없이는 존재할 수 없다”면서, “많은 고객이 AI 가치를 극대화하기 위해 데이터를 체계적으로 관리하고 거버넌스를 구축하는데 어려움을 겪고 있다. 스노우플레이크는 코텍스 에이전트를 통해 고객들이 데이터 전문가가 아니더라도 더욱 쉽게 데이터를 관리하고 실질적인 성과를 얻을 수 있도록 지원하고 있다”고 강조했다.
작성일 : 2025-02-21
엔비디아, 더 강력하고 지능적인 AI 구축을 돕는 ‘스케일링 법칙’ 소개
엔비디아가 더 강력하고 지능적인 AI 구축을 지원하는 ‘스케일링 법칙’을 소개했다. 엔비디아는 이 법칙이 훈련 데이터, 모델 파라미터 또는 컴퓨팅 리소스 크기가 증가함에 따라 AI 시스템 성능이 향상되는 방식을 설명한다고 밝혔다. AI 분야에서 오랫동안 정의된 아이디어 중 하나는 컴퓨팅, 훈련 데이터, 파라미터가 더 많을수록 더 나은 AI 모델이 만들어진다는 것이다. 하지만 이후 AI에는 컴퓨팅 리소스를 다양한 방식으로 적용하는 것이 모델 성능에 어떻게 영향을 미치는지 설명하는 세 가지 법칙이 대두됐다. 이는 사전 훈련 스케일링(pretraining scaling), 사후 훈련 스케일링(post-training scaling), 긴 사고(long thinking)라고도 불리는 테스트 타임 스케일링(test-time scaling)이다. 이들 법칙은 점점 더 복잡해지는 다양한 AI 사용 사례에서 추가 컴퓨팅을 사용하는 기술을 통해 AI 분야가 어떻게 발전해왔는지를 보여준다. 최근 추론 시 더 많은 컴퓨팅을 적용해 정확도를 향상시키는 테스트 타임 스케일링이 부상하면서 AI 추론 모델의 발전을 가능하게 했다. 이 모델은 작업을 해결하는 데 필요한 단계를 설명하면서 복잡한 문제를 해결하기 위해 여러 추론 패스를 수행하는 새로운 종류의 대규모 언어 모델(LLM)이다. 테스트 타임 스케일링은 AI 추론을 지원하기 위해 많은 양의 컴퓨팅 리소스를 필요로 하며, 이는 가속 컴퓨팅에 대한 수요를 더욱 증가시킬 것이다.     사전 훈련 스케일링은 AI 개발의 기본 법칙이다. 이는 훈련 데이터 세트 크기, 모델 파라미터 수, 컴퓨팅 리소스를 늘림으로써 개발자가 모델 지능과 정확도의 예측 가능한 향상을 기대할 수 있음을 입증했다. 한 연구 논문에서 설명한 사전 훈련 스케일링 법칙에 따르면, 규모가 큰 모델에 더 많은 데이터가 공급되면 모델의 전반적인 성능이 향상된다. 이를 실현하려면 개발자는 컴퓨팅을 확장해야 하며, 이 거대한 훈련 워크로드를 실행하기 위해서는 강력한 가속 컴퓨팅 리소스가 필요하다. 사후 훈련 기법은 조직이 원하는 사용 사례에 맞춰 모델의 특이성과 관련성을 더욱 향상시킬 수 있다. 사전 훈련이 AI 모델을 학교에 보내 파운데이션 기술을 배우게 하는 것이라면, 사후 훈련은 목표한 업무에 적용할 수 있는 기술을 갖추도록 모델을 향상시키는 과정이다. 예를 들어, LLM은 감정 분석이나 번역과 같은 작업을 수행하거나 의료, 법률과 같은 특정 분야의 전문 용어를 이해하도록 사후 훈련될 수 있다. 긴 사고라고도 하는 테스트 타임 스케일링은 추론 중에 발생한다. 사용자 프롬프트에 대한 단답형 답변을 빠르게 생성하는 기존 AI 모델과 달리, 이 기술을 사용하는 모델은 추론 중에 추가적인 계산 작업을 할당한다. 이를 통해 여러 가지 잠재적 답변을 추론한 후 최적의 답변에 도달할 수 있도록 한다. 테스트 타임 컴퓨팅의 부상으로 AI는 복잡한 개방형 사용자 쿼리에 대해 합리적이고 유용하며 보다 정확한 답변을 제공하는 능력을 갖추게 됐다. 이러한 기능은 자율 에이전틱 AI와 피지컬 AI(Physical AI) 애플리케이션에서 기대되는 세밀하고 다단계의 추론 작업에 매우 중요하다. 또한, 산업 전반에서 사용자에게 업무 속도를 높일 수 있는 고성능 비서를 제공해 효율성과 생산성을 향상시킬 수 있다. 의료 분야에서는 모델이 테스트 타임 스케일링을 사용해 방대한 양의 데이터를 분석하고 질병이 어떻게 진행될지 추론할 수 있다. 뿐만 아니라, 약물 분자의 화학 구조를 기반으로 새로운 치료법이 불러올 수 있는 잠재적인 합병증을 예측할 수 있다. 소매와 공급망 물류 분야에서는 긴 사고가 단기적인 운영 과제와 장기적인 전략 목표를 해결하는 데 필요한 복잡한 의사 결정을 도와줄 수 있다. 추론 기법은 여러 시나리오를 동시에 예측하고 평가해 기업이 위험을 줄이고 확장성 문제를 해결하는 데 도움이 된다. 이를 통해 보다 정확한 수요 예측, 간소화된 공급망 이동 경로, 조직의 지속 가능성 이니셔티브에 부합하는 소싱 결정을 가능하게 한다. 나아가 글로벌 기업에서는 이 기술을 세부적인 사업 계획 작성, 소프트웨어 디버깅을 위한 복잡한 코드 생성, 배송 트럭과 창고 로봇, 로보택시의 이동 경로 최적화 등에 적용할 수 있다. AI 추론 모델은 빠르게 진화하고 있다. 최근 몇 주 동안 OpenAI(오픈AI) o1-미니(o1-mini)와 o3-미니(o3-mini), 딥시크(DeepSeek) R1, 구글 딥마인드(Google DeepMind) 제미나이 2.0 플래시 씽킹(Gemini 2.0 Flash Thinking)이 소개됐으며, 곧 새로운 모델이 추가로 출시될 예정이다. 이러한 모델은 추론 중에 사고하고, 복잡한 질문에 대한 정답을 생성하기 위해 훨씬 더 많은 컴퓨팅이 필요하다. 따라서 기업은 복잡한 문제 해결, 코딩, 다단계 계획을 지원할 수 있는 차세대 AI 추론 도구를 제공하기 위해 가속 컴퓨팅 리소스를 확장해야 한다.
작성일 : 2025-02-14
엔비디아, NIM에서 딥시크-R1 지원 시작
엔비디아는 개발자가 활용할 수 있도록 딥시크-R1(DeepSeek-R1) 모델을 엔비디아 NIM 마이크로서비스 프리뷰로 제공한다고 밝혔다. 개발자들은 딥시크-R1 모델을 활용해 애플리케이션 프로그래밍 인터페이스(API)를 테스트하고 실험할 수 있으며, 이는 엔비디아 AI 엔터프라이즈(AI Enterprise) 소프트웨어 플랫폼의 일부인 NIM 마이크로서비스로 제공될 예정이다. 딥시크-R1은 최첨단 추론 기능을 갖춘 오픈 모델이다. 딥시크-R1과 같은 추론 모델은 직접적인 답변을 제공하는 대신 쿼리에 대해 여러 번의 추론 패스(inference passes)를 수행해 연쇄 사고, 합의, 검색 방법을 거쳐 최상의 답변을 생성한다. R1은 논리적 추론, 사고, 수학, 코딩, 언어 이해 등이 필요한 작업에 대해 높은 정확도와 추론 효율을 제공한다. 이러한 일련의 추론 패스를 수행해 최적의 답변에 도달하기 위해 추론을 사용하는 것을 테스트 타임 스케일링(test-time scaling)이라고 한다. 모델이 문제를 반복적으로 ‘사고’할 수 있게 되면 더 많은 출력 토큰과 더 긴 생성 주기가 생성되므로 모델 품질이 계속 확장된다. 딥시크-R1과 같은 추론 모델에서 실시간 추론과 고품질 응답을 모두 구현하려면 상당한 테스트 타임 컴퓨팅이 중요하므로 더 큰 규모의 추론 배포가 필요하다.     딥시크-R1 NIM 마이크로서비스는 단일 엔비디아 HGX H200 시스템에서 초당 최대 3872개의 토큰을 전송할 수 있다. 딥시크-R1 NIM 마이크로서비스는 업계 표준 API를 지원해 배포를 간소화한다. 기업은 가속 컴퓨팅 인프라에서 NIM 마이크로서비스를 실행해 보안과 데이터 프라이버시를 극대화할 수 있다. 또한, 기업은 엔비디아 네모(NeMo) 소프트웨어와 함께 엔비디아 AI 파운드리(AI Foundry)를 사용해 AI 에이전트를 위한 맞춤형 딥시크-R1 NIM 마이크로서비스를 생성할 수 있다. 딥시크-R1은 거대 전문가 조합 방식(Mixture-Of-Experts, MoE) 모델이다. 다른 인기 있는 오픈 소스 대규모 언어 모델(LLM)보다 10배 많은 6710억 개의 파라미터를 통합해 12만 8000개의 토큰이라는 인풋 컨텍스트 길이(input context length)를 지원한다. 또한 이 모델은 레이어당 많은 전문가를 활용한다. R1의 각 레이어에는 256명의 전문가가 있으며, 각 토큰은 평가를 위해 8명의 별도 전문가에게 병렬로 라우팅된다. R1에서 실시간 답변을 제공하려면 추론을 위해 모든 전문가에게 신속한 토큰을 라우팅하기 위해 높은 대역폭과 짧은 지연 시간의 통신으로 연결된 높은 컴퓨팅 성능을 갖춘 많은 GPU가 필요하다. 엔비디아 NIM 마이크로서비스에서 제공되는 소프트웨어 최적화와 결합해 NV링크(NVLink)와 NV링크 스위치(Switch)를 사용해 연결된 8개의 H200 GPU가 장착된 단일 서버는 초당 최대 3872개의 토큰으로 6710억 개의 파라미터로 구성된 전체 딥시크-R1 모델을 실행할 수 있다. 이러한 처리량은 모든 레이어에서 엔비디아 호퍼(Hopper) 아키텍처의 FP8 트랜스포머 엔진과 MoE 전문가 통신을 위한 900GB/s의 NV링크 대역폭을 사용함으로써 가능하다. 실시간 추론에는 GPU에서 모든 초당 부동 소수점 연산(FLOPS)의 성능을 끌어내는 것이 중요하다. 엔비디아는 “차세대 엔비디아 블랙웰(Blackwell) 아키텍처는 최대 20페타플롭의 피크 FP4 컴퓨팅 성능을 제공할 수 있는 5세대 텐서 코어(Tensor Core)와 추론에 특별히 최적화된 72-GPU NV링크 도메인을 통해 딥시크-R1과 같은 추론 모델의 테스트 시간 확장을 크게 향상시킬 것”이라고 전했다.
작성일 : 2025-02-05
[포커스] 오라클, 엑사데이터 X11M 통해 AI 시대의 DB 성능 기준 제시
오라클이 최신 데이터베이스 플랫폼인 ‘엑사데이터 X11M(Oracle Exadata X11M)’을 공개하며 데이터 중심 워크로드에서 성능과 효율성을 극대화하는 설루션을 선보였다. 이번 발표는 엑사데이터의 13번째 세대에 해당하며, AI 분석, OLTP(온라인 트랜잭션 처리), 대규모 애널리틱스 등 다양한 기업 데이터베이스 애플리케이션에서 향상된 성능과 확장성을 이전 세대와 동일한 가격으로 제공하는 것이 특징이다. ■ 정수진 편집장   데이터에 최적화된 하드웨어와 혁신 소프트웨어의 결합 엑사데이터 X11M은 데이터베이스 워크로드를 위해 최적화된 하드웨어와 데이터 지능형 소프트웨어를 결합한 플랫폼이다. 오라클은 엑사데이터 X11M이 고성능과 효율을 동시에 제공할 수 있는 아키텍처로 개발됐다는 점을 내세운다. 이번 신제품은 데이터베이스 서버, 네트워크, 스토리지에 걸쳐 데이터에 최적화된 하드웨어 구성을 제공한다. 데이터베이스 서버는 수평 확장이 가능한 2소켓 서버로, 96코어의 최신 AMD 에픽(EPYC) 프로세서와 최신의 고속 메모리를 결합했다. 엑사데이터 X11M에 탑재된 100Gb/s의 RDMA(Remote Direct Memory Access) 네트워크는 데이터 서버와 스토리지 서버를 연결하는 초고속/저지연성 네트워크로 구성됐다. 스토리지 서버도 강화됐는데, 최신/초고속의 플래시 스토리지와 엑사데이터 RDMA 메모리 및 에픽 프로세서를 탑재했다. 오라클의 아쉬시 레이(Ashish Ray) 미션 크리티컬 데이터베이스 기술 부문 부사장은 “오라클의 독창적인 데이터 인텔리전트 소프트웨어는 하드웨어 성능을 최적화하면서 압도적인 성능을 제공할 수 있도록 기여한다”면서, 오라클 데이터베이스가 제공할 수 있는 세 가지 주요 워크로드인 AI 검색, OLTP, 데이터 분석 등에서 향상된 성능을 제공한다고 소개했다.     벡터 검색 기술로 AI 워크로드 성능 강화 엑사데이터 X11M은 AI 중심의 기업 데이터베이스 워크로드를 처리하는 데 있어 특히 강점을 보인다. AI 벡터 검색 기술은 정형 데이터와 비정형 데이터를 하나의 데이터베이스에 통합하고 검색 및 처리하는 데 최적화되어 있으며, 이를 통해 다른 플랫폼 대비 더욱 빠른 AI 쿼리 처리 속도를 제공한다. 레이 부사장은 “영구 벡터 인덱스(IVF) 검색 속도는 최대 55%, 인메모리 벡터 인덱스 쿼리(HNSW)는 최대 43% 더 빨라졌으며, 모든 엑사데이터 플랫폼에서 제공되는 새로운 소프트웨어 최적화 기능은 스토리지 서버에서 4.7배 향상된 데이터 필터링과 32배 빨라진 바이너리 벡터 검색을 통해 AI 검색 성능을 강화했다”면서, “이를 통해 기업은 더 많은 비즈니스 데이터를 결합하여 정교한 벡터 검색을 더욱 빠르게 수행할 수 있으며, 생성형 AI 모델의 정확성과 안정성을 향상시키는 동시에 전체 비용을 절감할 수 있다”고 설명했다.   OLTP와 애널리틱스에서의 향상된 성능 엑사데이터 X11M은 OLTP 및 데이터 분석 워크로드에서도 향상된 성능을 제공한다. 오라클에 따르면, OLTP의 경우 직렬 트랜잭션 처리 속도가 25%, 동시 처리량이 최대 25% 개선됐으며, SQL 8K I/O 읽기 지연시간이 최대 21% 감소하여 14마이크로초(us)로 단축됐다. “이런 성능 개선은 기업이 더 많은 트랜잭션을 보다 적은 데이터베이스 시스템으로 더 빠르게 처리하며 비용을 절감할 수 있다는 뜻”이라고 레이 부사장은 덧붙였다. 애널리틱스 영역에서는 분석 쿼리 처리 속도가 최대 25% 빨라지고, 스토리지 서버에서 분석 I/O(입출력) 속도가 최대 2.2배 향상되었으며, 데이터베이스 인메모리 스캔 속도가 최대 500GB/초 증가했다. 오라클은 대규모 데이터 처리에 최적화된 독자 기술을 통해 기업이 트랜잭션 데이터를 실시간으로 분석하고, 테라바이트에서 페타바이트에 이르는 규모의 데이터 웨어하우스를 보다 빠르게 스캔하여 중요한 비즈니스 인사이트를 확보할 수 있다고 전했다.   운영 효율과 비용 절감 지원 엑사데이터 X11M은 운영 효율을 높여 고객의 비용을 절감할 수 있도록 했다. 무엇보다 성능이 높아져서 더 적은 수의 시스템에서 데이터베이스 워크로드를 실행함으로써 인프라와 전력 및 냉각, 데이터센터 공간을 줄일 수 있다. 그리고, 더 많은 워크로드를 더 작은 규모의 시스템에 통합할 수 있어 활용 효율을 높인다. 엑사데이터 X11M에 내장된 지능형 전력 관리 기능은 사용하지 않는 CPU 코어를 비활성화하거나 전력 소비를 제한하고, 사용량이 적은 기간 동안 전력 활용을 최적화한다. 또한, 오라클 자율운영 데이터베이스(Oracle Autonomous Database)에 내장된 자동화 기능은 수동 데이터베이스 관리 작업과 인적 오류 발생의 가능성을 제거할 수 있다. 한편, 오라클은 엑사데이터 X11M이 멀티 클라우드 지원을 강화해 고객의 배포 선택권을 넓힌다고 설명했다. 엑사데이터 X11M은 온프레미스, 하이브리드 클라우드(엑사데이터 클라우드앳커스터머), 퍼블릭 클라우드(OCI)를 모두 지원한다. 또한 구글 클라우드, AWS, 마이크로소프트 애저와 같은 멀티 클라우드 환경에서도 구축 및 운영이 가능하다. 레이 부사장은 “오라클 데이터베이스는 모든 배포 환경에서 100% 호환되기 때문에, 기업은 애플리케이션 변경 없이 필요한 곳 어디에서나 워크로드를 실행할 수 있다”고 덧붙였다.   ▲ 엑사데이터 X11M의 혁신을 소개한 오라클 아쉬시 레이 부사장   AI 시대를 위한 클라우드 데이터베이스 제시 오라클은 엑사데이터 X11M을 통해 클라우드 데이터베이스 시장에서 입지를 더욱 강화할 계획이다. 레이 부사장은 “오라클은 2008년 첫 출시 이후 하드웨어와 소프트웨어 모두에 걸쳐 엑사데이터의 데이터 인텔리전스 성능 및 효율을 혁신해 왔다. 엑사데이터 X11M은 성능 개선의 전통을 이어가면서 가격을 동일하게 유지함으로써, 고객은 가격 대비 성능의 향상 폭을 체감할 수 있을 것”이라고 전했다. 오라클은 기존 엑사데이터 고객이 다운타임 없이 X11M으로 업그레이드할 수 있으며, 애플리케이션 수정이 필요하지 않기 때문에 전환 과정에서의 부담을 최소화할 수 있다고 전했다. 오라클은 클라우드 기반의 엑사데이터 서비스를 통해 고객이 새로운 성능과 확장성을 체험하고 데이터 현대화 여정을 이어갈 수 있도록 지원할 예정이다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-02-04
오라클, 데이터 분석·AI 성능과 효율 높인 엑사데이터 X11M 출시
오라클이 오라클 엑사데이터(Oracle Exadata) 플랫폼의 최신 세대인 오라클 엑사데이터 X11M(Oracle Exadata X11M)을 발표했다.  이전 세대와 동일한 가격으로 시작하는 엑사데이터 X11M은 AI, 분석, 온라인 트랜잭션 처리(OLTP) 전반에 걸쳐 향상된 성능을 제공한다. 지능형 전력 관리와 함께 기업의 미션 크리티컬 워크로드를 더 빠르고 적은 시스템에서 실행할 수 있는 기능을 결합해 에너지 효율성 및 지속가능성 목표를 달성할 수 있도록 지원한다. 또한, 퍼블릭 클라우드와 멀티 클라우드, 온프레미스 환경 전반에서 동일한 기능이 제공되어 기업은 애플리케이션 변경 없이 오라클 데이터베이스 워크로드를 어디에서나 배포 및 실행할 수 있는 유연성을 확보할 수 있다. 오라클은 최신 AMD 에픽(EPYC) 프로세서에 최적화된 엑사데이터 X11M이 경쟁사의 데이터베이스 시스템 대비 더 높은 수준의 성능을 제공한다고 전했다. 엑사데이터 X11M의 성능은 모든 워크로드 전반에서 개선되었으며, AI를 위한 더 빠른 벡터 검색과 트랜잭션 처리에서 더욱 빨라진 초당입출력속도(IOPS)와 짧은 지연 시간, 그리고 분석을 위한 더 빠른 데이터 스캔 및 쿼리 처리량을 제공한다. 엑사데이터 X11M은 플래시 및 엑사데이터 RDMA 메모리(XRMEM)에서 데이터를 스캔할 수 있는 기능을 통해 큰 규모의 분석 처리량을 달성할 수 있다. 이와 같이 향상된 성능이 이전 세대인 엑사데이터 X10M과 동일한 가격으로 제공되며, 기업이 동일한 규모의 플랫폼에서 더 많은 작업을 수행할 수 있도록 지원하여 비용 절감을 가능하게 한다.     엑사데이터 X11M은 X10M 플랫폼 대비 AI 벡터 검색, OLTP, 분석 등에서 성능을 개선했다. 지능형 엑사데이터 스토리지로의 투명한 오프로딩을 통해 영구(persistent) 벡터 인덱스(IVF) 검색 속도가 최대 55% 향상됐다. 인메모리 벡터 인덱스 쿼리(HNSW)는 최대 43% 더 빨라졌으며, 모든 엑사데이터 플랫폼에서 제공되는 새로운 소프트웨어 최적화 기능은 스토리지 서버에서 4.7배 향상된 데이터 필터링과 32배 빨라진 바이너리 벡터 검색을 통해 AI 검색 성능을 강화했다. 이를 통해 기업은 더 많은 비즈니스 데이터를 결합하여 정교한 벡터 검색을 더욱 빠르게 수행할 수 있으며, 생성형 AI 모델의 정확성과 안정성을 향상시키는 동시에 전체 비용을 절감할 수 있다. 엑사데이터 X11M은 직렬 트랜잭션 처리 속도가 최대 25% 향상되고 동시 처리량이 최대 25% 개선됐으며, SQL 8K I/O 읽기 지연시간이 최대 21% 감소하여 14마이크로초(us)로 단축됐다. 이를 통해 기업은 더 많은 트랜잭션을 보다 적은 데이터베이스 시스템으로 더 빠르게 처리하며 비용을 절감할 수 있다. 또한 분석 쿼리 처리 속도가 최대 25% 빨라지고, 스토리지 서버에서 분석 I/O(입출력) 속도가 최대 2.2배 향상되었으며, 데이터베이스 인메모리 스캔 속도가 최대 500GB/초 증가했다. 이와 같은 개선 사항을 다른 엑사데이터 혁신 기술과 결합해 기업은 트랜잭션 데이터를 실시간으로 분석하고, 테라바이트에서 페타바이트에 이르는 규모의 데이터 웨어하우스를 보다 빠르게 스캔하여 중요한 비즈니스 인사이트를 확보할 수 있다. 오라클은 엑사데이터 X11M을 활용해 기업이 4가지 방식으로 전력 사용량 및 비용을 대폭 절감할 수 있다고 설명했다. 첫째, 엑사데이터 X11M은 높은 성능으로 기업이 데이터베이스 워크로드 포트폴리오를 더 적은 수의 시스템에서 실행할 수 있게 해 인프라와 전력 및 냉각, 데이터센터 공간을 절약할 수 있다. 둘째, 엑사데이터 X11M은 더 많은 워크로드를 더 작은 규모의 시스템에 통합할 수 있도록 해 활용 효율성이 향상된다. 셋째, 엑사데이터 X11M에는 지능형 전력 관리 기능이 내장되어 있어 기업은 사용하지 않는 CPU 코어를 비활성화하거나 전력 소비를 제한하고, 사용량이 적은 기간 동안 전력 활용을 최적화하여 에너지 효율성과 지속가능성 목표를 달성할 수 있다. 마지막으로 오라클 자율운영 데이터베이스(Oracle Autonomous Database)에 내장된 자동화 기능을 통해 수동 데이터베이스 관리 작업과 인적 오류 발생 가능성을 제거할 수 있다. 엑사데이터 X11M은 온프레미스, 엑사데이터 클라우드앳커스터머(Exadata Cloud@Customer)의 엑사데이터 데이터베이스 서비스(Exadata Database Service) 및 자율운영 데이터베이스(Autonomous Database), OCI 및 멀티클라우드 환경에서 배포될 수 있다. 기업은 이러한 환경 전반에서 동일한 엑사데이터 아키텍처에서 실행되는 동일한 오라클 데이터베이스 및 기능을 사용할 수 있다. 오라클 데이터베이스는 모든 배포 환경에서 100% 호환되기 때문에 기업은 애플리케이션 변경 없이 필요한 곳 어디에서나 워크로드를 실행할 수 있다. 멀티클라우드 배포 환경에서 오라클 데이터베이스는 OCI, AWS, 구글 클라우드, 마이크로소프트 애저 데이터센터의 엑사데이터 X11M에서 실행된다. 이 옵션을 통해 기업은 오라클 리얼 애플리케이션 클러스터(Oracle Real Application Clusters)를 포함한 모든 오라클 데이터베이스 기능에 액세스할 수 있으며, 이는 계획된 다운타임과 계획되지 않은 다운타임 동안 확장성과 높은 가용성을 제공한다. 또한, 기업은 AWS, 구글 클라우드, 마이크로소프트 애저의 애플리케이션, AI 모델 또는 분석 도구를 저지연 네트워크 연결을 통해 오라클 데이터베이스 내 데이터와 결합할 수 있다. 오라클의 코탄다 우마마지스와란(Kothanda Umamageswaran) 엑사데이터 및 수평 확장 기술 담당 수석 부사장은 “엑사데이터 X11M을 통해 오라클은 탁월한 확장성, 성능, 비즈니스 가치를 제공하며 퍼블릭 클라우드와 멀티 클라우드, 온프레미스 등 고객이 원하는 곳 어디에서나 배포할 수 있는 선택지와 유연성을 지속적으로 제공하고 있다. 실제로 OCI를 포함해 모든 주요 클라우드에서 엑사데이터 X11M이 실행될 예정”이라면서, “기존 시스템을 업그레이드하든 엑사데이터 X11M에 새로운 애플리케이션을 배포하든 기업은 하드웨어, 전력 및 냉각, 데이터센터 공간에서의 절감 효과와 함께 차별화된 가격 대비 성능과 통합성, 효율성의 이점을 누릴 수 있다”고 설명했다.
작성일 : 2025-01-14
생성형 AI 기반 BIM 전문가 시스템 개발해 보기
BIM 칼럼니스트 강태욱의 이슈 & 토크   이번 호에서는 지난 연재를 통해 설명한 생성형 AI 기술을 바탕으로 BIM(건설 정보 모델링) 전문가 시스템을 개발하는 방법을 간단히 알아보도록 한다.    ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   이 글에서는 LLM(대규모 언어 모델)과 RAG(검색 증강 생성) 기술을 적용하여 BIM IFC(Industry Foundation Classes) 데이터의 정보를 검색하고, 이를 바탕으로 BIM 지식 전문가 에이전트를 개발하는 방법을 소개한다. 이런 에이전트는 자연어 기반의 사용자 쿼리를 통해 필요한 정보를 신속하고 정확하게 제공하며, 건설 프로젝트의 전반적인 효율성을 높일 수 있다. 이 글에서 소개하는 방법은 RAG를 이용해 전문가 시스템을 개발하는 여러 가지 대안 중 하나임을 미리 밝힌다. IFC와 같은 포맷을 이용한 RAG와 LLM 사용 기법은 목적에 따라 구현 방법의 차이가 다양하다.    LLM RAG 기반 BIM 전문가 시스템 프로세스 현재 대중적인 목적으로 개발된 LLM 기술인 ChatGPT(오픈AI), Gemini(구글), Llama(메타), Phi(마이크로소프트)는 BIM의 일반적인 지식, 예를 들어 BIM 관련 웹사이트에서 공개된 일반적인 개념 설명, PDF에 포함된 텍스트를 학습한 모델을 제공하고 있다. 다만, 이들 LLM 도구는 BIM 모델링 정보를 담고 있는 IFC와 같은 특수한 데이터셋 파일은 인식하지 않는다. 현재는 PDF같은 일반적인 파일 형식만 검색 증강 생성을 지원하는 RAG 기술을 이용해, 도메인에 특화된 지식 생성을 지원한다. 이는 특정 도메인 지식을 훈련하기 위해 필요한 비용이 너무 과대하며, 도메인 지식을 모델 학습에 맞게 데이터베이스화하는 방법도 쉽지 않기 때문이다. 예를 들어, ChatGPT-4 모델을 훈련할 때 필요한 GPU 수는 엔비디아 A100×25,000개로 알려져 있으며, 학습에 100일이 걸렸다. A100 가격이 수천 만원 수준인 것을 감안하면, 사용된 GPU 비용만 천문학적인 금액이 소모된 것을 알 수 있다.  이런 이유로, LLM 모델을 전체 학습하지 않고 모델 중 작은 일부 가중치만 갱신하는 파인튜닝(fine-tuning), 범용 LLM는 운영체제처럼 사용하여 정보 생성에 필요한 내용을 미리 검색한 후 컨텍스트 프롬프트 정보로서 LLM에 입력해 정보를 생성하는 검색 증강 생성 기술인 RAG이 주목받고 있다. RAG는 <그림 1>과 같은 순서로 사용자 질문에 대한 답변을 생성한다.   그림 1. RAG 기반 BIM 전문가 시스템 작업 흐름(한국BIM학회, 2024)   RAG는 LLM에 입력하는 템플릿에 답변과 관련된 참고 콘텐츠를 프롬프트에 추가하여 원하는 답을 생성하는 기술이다. 이런 이유로, 답변에 포함된 콘텐츠를 처리하고, 검색하는 것이 매우 중요하다. LLM은 입력 프롬프트에 생성에 참고할 콘텐츠를 추가하지 못하면 환각 문제가 발생되는 단점이 있다. 각 RAG 단계는 검색이 가능하도록 데이터셋을 청크(chunk) 단위로 분할(split)하고, 데이터는 임베딩(embedding)을 통해 검색 연산이 가능한 벡터 형식으로 변환된다. 이 벡터는 저장 및 검색 기능을 가진 벡터 데이터베이스(vector database)에 저장된다. 사용자의 질문은 검색 알고리즘을 통해 벡터 데이터베이스에서 가장 근사한 정보를 포함하는 콘텐츠를 얻고, 프롬프트에 추가된 후 LLM에 입력된다. 그 결과 LLM은 원하는 답변을 출력한다. 이를 통해 학습하지 않은 전문 분야의 토큰을 인식하지 못하는 LLM이 원하는 결과를 생성할 수 있도록 한다.   BIM IFC 콘텐츠 데이터 구조 분석 앞서 살펴본 바와 같이 RAG 성능은 입력되는 데이터셋의 특징과 검색 알고리즘에 큰 영향을 받는다. 그러므로, 개방형 BIM 데이터 형식으로 사용되는 IFC의 특징을 분석하여 BIM RAG를 위한 데이터 처리 시 이를 고려한다. IFC 파일 구조는 STEP(ISO 10303), XML 스키마 형식을 준용한다. IFC는 객체지향 모델링과 그래프 모델 구조의 영향을 많이 받았다. 확장성을 고려해 BIM을 구성하고 있는 건축 객체의 부재들, 관계, 속성집합에 Instance ID 및 GUID(Globally 2025/1 Unique IDentifier)와 같은 해시값(hash)을 할당하고, 이들 간의 관계를 해시번호로 참조하여, 거대한 온톨로지 그래프 구조를 정의한다. <그림 2~3>은 이를 보여준다.   그림 2. IFC 객체 그래프 구조(Wall instance)   그림 3. IFC 그래프 구조 표현(강태욱, 2022)     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-01-06
구글, ‘제미나이 2.0’ 출시와 함께 ‘에이전트형 시대’ 발표
구글이 새로운 에이전트 시대를 위한 ‘에이전트형(agentic) AI 모델’인 ‘제미나이 2.0’을 출시했다. 제미나이 2.0은 네이티브 이미지 및 오디오 출력, 네이티브 툴 사용 등 향상된 멀티모달 기능을 제공하여 텍스트, 이미지, 동영상, 오디오, 코드 등 다양한 형태의 정보를 자연스럽게 이해하고 처리할 수 있다.  구글은 “제미나이 2.0는 지금까지 선보인 모델 중 가장 뛰어난 성능을 자랑한다”면서, “리서치, 보고서 작업 등 다양한 방면의 복잡한 작업을 수행하는 ‘에이전트’ 기능을 갖춘 AI 시대를 본격적으로 열어갈 것”이라고 밝혔다.  제미나이 2.0은 네이티브 이미지 및 오디오 출력, 네이티브 툴 사용 등 향상된 멀티모달 기능을 바탕으로 이용자 경험을 혁신할 뿐 아니라, 개발자에게도 강력한 AI 기반 애플리케이션을 구축할 수 있는 툴을 제공한다. 전 세계 제미나이 이용자는 데스크톱과 모바일 웹에서 제미나이 2.0을 사용할 수 있다. 데스크톱과 모바일 웹의 모델 드롭다운 메뉴에서 ‘2.0 플래시 실험 버전’을 선택하면 채팅에 최적화된 제미나이 2.0을 바로 사용해 볼 수 있으며, 이는 제미나이 모바일 앱에도 곧 적용될 예정이다.     제미나이 2.0을 기반으로 새롭게 개선된 ‘프로젝트 아스트라(Project Astra)’는 다국어 대화, 구글 툴(구글 검색, 구글 렌즈, 맵스 등) 사용, 최대 10분 동안의 대화를 기억하는 향상된 메모리, 빠른 응답 속도 등의 기능을 제공한다. 구글은 이러한 기능을 구글의 AI 어시스턴트인 제미나이 앱 등 구글 제품은 물론, 다른 폼 팩터에도 도입할 계획이다.  ‘프로젝트 마리너(Project Mariner)’는 웹 브라우저에서 작동하는 에이전트 프로토타입으로, 픽셀 및 텍스트, 코드, 이미지, 양식과 같은 웹 요소를 포함해 브라우저 화면의 정보를 이해하고 추론한 다음, 실험적인 크롬 확장 프로그램(Chrome extension)을 통해 해당 정보를 활용해 작업을 완료한다. 개발자를 위한 AI 에이전트인 ‘줄스(Jules)’는 깃허브(GitHub) 워크플로에 직접 통합돼 개발자의 지시와 감독 하에 이슈를 처리하고, 계획을 세우고 실행하는 기능을 제공한다.  구글은 제미나이 2.0을 사용해 비디오 게임의 가상 세계 탐색을 지원하는 에이전트를 구축했다. 이 에이전트는 화면의 동작만을 기반으로 게임에 대해 추론하고, 실시간 대화를 통해 다음에 무엇을 해야 할지 제안할 수 있다. 가상 게임의 동반자 역할은 물론, 구글 검색을 활용해 웹 상의 풍부한 게임 지식을 제공할 수도 있다. 이 외에도 구글은 제미나이 2.0의 공간 추론 기능을 로봇 공학에 적용해 물리적 세계에서 도움을 줄 수 있는 에이전트를 실험하고 있다. 한편, 구글은 제미나이 2.0가 구글 검색의 AI 개요(AI Overview) 기능에도 적용되어, 고급 수학 방정식, 멀티모달 쿼리, 코딩 등 더욱 복잡한 질문에 대한 답변을 제공하도록 개선될 예정이라고 밝혔다.  전 세계 제미나이 이용자는 데스크톱 및 모바일 웹에서 제미나이 앱을 통해 제미나이 2.0 플래시(Gemini 2.0 Flash) 실험 버전을 AI 어시스턴트로 사용할 수 있다. 제미나이 2.0 플래시 실험 모델은 구글 AI 스튜디오(Google AI Studio) 및 버텍스 AI(Vertex AI)를 통해 모든 개발자가 사용할 수 있다. 개발자들은 제미나이 2.0을 활용하여 텍스트, 오디오 및 이미지를 포함한 통합 응답을 생성하고, 구글 검색 및 코드 실행과 같은 툴을 활용하는 애플리케이션을 구축할 수 있다.
작성일 : 2024-12-12
엔비디아, 2025년 AI 핵심 인사이트 공유… "건설/엔지니어링/디자인 혁신에 AI 활용 확대 전망"
엔비디아가 2025년 AI가 가져올 각 산업 분야의 혁신에 대해 전망했다. 엔비디아의 전문가들은 멀티모달 모델이 업계의 혁신과 효율성을 가속화할 것이라고 예측했다. 생성형 AI는 올해 조직의 모든 분야에서 큰 주목을 받았다. 이에 따라 산업 전반에서 이를 활용해 혁신과 창의성을 증진하고, 고객 서비스를 개선하며, 제품 개발을 변화시키고, 의사소통을 강화하는 방법에 대한 논의가 활발히 이루어졌다. IDC에 따르면, 전 세계 기업은 내년에 AI 설루션에 3070억 달러를 지출할 것으로 예상된다. 또한, 이는 2028년까지 연평균 29.0%의 성장률로 6320억 달러까지 증가할 것으로 보인다. IDC는 AI가 2030년까지 전 세계 누적 경제에 19조 9000억 달러의 영향을 미칠 것이며, 2030년 전 세계 GDP의 3.5%를 견인할 것이라고 예측했다. 그러나 AI의 빠른 발전에도 불구하고 일부 기업과 스타트업은 여전히 실험과 사일로화된 프로젝트에 집착하며 AI 도입에 느리게 대응하고 있다. 이는 AI의 혜택이 기업, 사용 사례, 투자 수준에 따라 다르기 때문이다. 하지만 신중한 접근 방식은 낙관적인 태도로 전환되고 있다. 포레스터 리서치(Forrester Research)의 2024 AI 현황 설문조사에 참여한 응답자의 3분의 2는 조직의 AI 이니셔티브가 성공하려면 투자 수익률이 50% 미만이어야 한다고 답했다. 다음으로 주목할 만한 것은 에이전틱 AI이다. 이는 자율적이거나 ‘추론’하는 형태의 AI로, 다양한 언어 모델, 정교한 검색 증강 생성(RAG) 스택, 고급 데이터 아키텍처를 사용해야 한다.     엔비디아는 2025년 주목할 만한 AI 트렌드로 ▲효율적인 추론 설루션에 대한 수요도 증가 ▲양자 컴퓨팅의 오류 수정 및 양자 하드웨어 성능 향상 ▲AI의 창의성과 다양성 강화 ▲산업 인프라와 도시 계획의 재검토 ▲AI 에이전트의 효율을 극대화하는 AI 오케스트레이터의 증가 ▲기업의 데이터를 탐색 방식을 바꾸는 AI 쿼리 엔진 ▲기업에게 고성능 추론을 필수로 만드는 에이전틱 AI ▲데이터를 인텔리전스로 처리하기 위한 AI 팩토리 확장 등을 꼽았다. 엔비디아는 에이전틱AI(agentic AI)의 시대가 열리면서, 여러 모델로 구성된 복잡한 시스템에서 거의 즉각적인 응답에 대한 수요가 증가할 것으로 전망했다. 이에 따라 고성능 추론은 고성능 훈련 인프라만큼이나 중요해질 전망이다. 그리고 IT 리더는 실시간 의사 결정을 위한 성능을 제공하기 위해, 에이전틱 AI의 수요에 맞추어 확장 가능하고 특수 목적에 맞게 구축되고 최적화된 가속 컴퓨팅 인프라를 필요로 할 것이다. AI를 통한 건설, 엔지니어링, 디자인 혁신도 보다 활발히 진행될 전망이다. 엔비디아는 건설, 엔지니어링, 디자인 산업에 맞춤화된 생성형 AI 모델이 증가할 것이며, 이는 효율성을 높이고 혁신을 가속화할 것이라고 보았다. 건설 분야에서는 에이전틱 AI가 현장 센서와 카메라에서 수집한 방대한 양의 건설 데이터를 해석해 더 효율적인 프로젝트 일정과 예산 관리로 이어지는 인사이트를 제공한다. AI는 24시간 현실 캡처 데이터(라이다, 사진 측량, 레디언스 필드)를 평가하고 품질, 안전, 규정 준수에 대한 중요한 인사이트를 도출해 오류와 작업장 부상을 줄일 수 있다. 엔지니어의 경우, 물리 정보 신경망에 기반한 예측 물리학은 홍수 예측, 구조 엔지니어링, 건물 내 개별 방이나 층에 맞춘 공기 흐름 설루션을 위한 전산유체역학(CFD)을 가속화해 설계 반복을 단축한다. 디자인 분야에서는 RAG(검색증강생성)를 통해 건물 디자인과 시공을 위한 정보 모델링이 현지 건축법을 준수하는지 확인할 수 있다. 이는 디자인 초기 단계에서 규정을 준수할 수 있도록 한다. 확산 AI 모델은 건축가와 디자이너가 키워드 프롬프트와 대략적인 스케치를 결합해 고객 프레젠테이션을 위한 풍부하고 상세한 개념 이미지를 생성할 수 있게 해 개념 설계와 부지 계획을 가속화한다. 이로써 연구와 디자인에 집중할 수 있는 시간을 확보할 수 있다. 엔비디아는 거의 모든 산업에서 AI를 사용해 사람들의 생활과 여가를 즐기는 방식을 향상시키고 개선할 준비를 하고 있다고 보고 있다. 농업 분야에서는 AI를 사용해 식품 공급망을 최적화하고 식량 공급을 개선할 것이다. 예를 들어, AI는 개별 농장의 다양한 작물에서 발생하는 온실가스 배출량을 예측하는 데 사용될 수 있다. 이러한 분석은 공급망에서 온실가스를 줄이는데 도움이 되는 설계 전략을 수립하는 데 도움이 된다. 한편, 교육 분야의 AI 에이전트는 개인의 모국어로 말하고 특정 과목의 교육 수준에 따라 질문하거나 답변하는 등 학습 경험을 개인화할 수 있다. 엔비디아는 국가와 산업계에서 AI가 경제의 다양한 측면을 자동화해 세계 인구가 감소하는 가운데서도 현재의 생활 수준을 유지하는 방법을 모색하기 시작할 것으로 보았다. 이러한 노력은 지속 가능성과 기후 변화에도 도움이 될 수 있다. 예를 들어, 농업 산업은 밭을 관리하고 해충과 잡초를 기계적으로 제거할 수 있는 자율 로봇에 투자하기 시작할 것이다. 이는 살충제와 제초제의 필요성을 줄여 지구를 더 건강하게 유지하고, 다른 의미 있는 기여를 위한 인적 자본을 확보할 수 있다. 도시 계획 사무소에서 자율주행차를 고려하고 교통 관리를 개선하기 위한 새로운 사고 방식을 기대할 수도 있다. 장기적으로는 AI가 전 세계의 시급한 과제인 탄소 배출량 감축과 탄소 저장을 위한 설루션을 찾는 데에 도움을 줄 수 있을 것으로 보인다. 기업의 AI 팩토리(AI factory)는 원시 데이터를 비즈니스 인텔리전스로 변환한다. 2025년에는 기업이 이러한 AI 팩토리를 확장해 방대한 양의 과거, 합성 데이터를 활용할 것이다. 이를 통해 소비자 행동과 공급망 최적화부터 금융 시장의 움직임, 공장과 물류창고의 디지털 트윈에 이르기까지 모든 것에 대한 예측과 시뮬레이션을 생성할 것이다. AI 팩토리는 초기 채택자들이 미래 시나리오에 대응하는데 그치지 않고 이를 예측하고 구체화하는 데 도움이 되는 핵심 경쟁 우위로 자리 잡을 것이다.
작성일 : 2024-12-11
델, AI 팩토리 포트폴리오에 최신 기술 적용한 서버/랙 시스템/전문 서비스 추가
델 테크놀로지스는 자사의 AI 설루션 포트폴리오인 ‘델 AI 팩토리(Dell AI Factory)’에 AI 구축 간소화를 위한 신규 인프라 설루션과 전문 서비스를 추가했다고 밝혔다. 델은 확장된 라인업을 통해 기업 및 기관이 AI 워크로드를 가속하고 데이터 관리를 효율화할 수 있도록 지원할 계획이다. 올해 새롭게 공개된 통합 랙 스케일러블 시스템인 ‘델 IRSS(Integrated Rack Scalable Systems)’는 플러그 앤 플레이 방식의 랙 스케일 시스템을 제공하는 공장 통합형 턴키 프로그램으로, 델 스마트 쿨링(Dell Smart Cooling) 기술이 적용되어 있다. IRSS는 전체 랙에 대한 원콜 서비스 및 지원 옵션을 통해 에너지 효율적인 AI 인프라스트럭처 구축을 더욱 간소화한다. 설치가 완료되면 델에서 패키징 폐기물 및 재활용을 처리하고 기존 노후 하드웨어의 재활용까지 지원한다. 표준 19인치 모델인 ‘델 IR5000(Dell Integrated Rack 5000)’에 탑재되는 서버로 ‘델 파워엣지 XE9685L(Dell PowerEdge XE9685L)’ 및 ‘델 파워엣지 XE7740(Dell PowerEdge XE7740)’이 추가됐다. 델 IR5000은 공간 효율적인 폼 팩터로 고집적 애플리케이션을 위해 설계되었으며, 고성능을 제공하는 동시에 에너지 효율을 유지한다.  델 파워엣지 XE9685L은 AI, 머신러닝, 고성능 컴퓨팅(HPC) 및 기타 데이터 집약적인 워크로드를 위해 설계된 고집적 4U 수랭식 서버이다. 최대 12개의 PCIe 젠 5.0 슬롯과 함께 엔비디아 HGX (NVIDIA HGX) H200 및 B200 GPU와 페어링된 듀얼 AMD 5세대 에픽(EPYC) CPU는 특정 컴퓨팅 요구 사항을 충족하는 맞춤형 구성, 최적화된 스토리지 연결 및 까다로운 워크로드를 위한 최대 IO 처리량을 지원한다. 이 플랫폼은 랙당 최대 96개의 엔비디아 GPU를 탑재할 수 있어 업계 최고 수준의 GPU 집적도를 제공한다.   ▲ 델 파워엣지 XE7740 서버   델 파워엣지 XE7740은 공랭식의 4U 모델로 2개의 인텔 제온 6(Intel Xeon) P-코어 프로세서와 인텔 가우디(Intel Gaudi) 3 PCIe 가속기 또는 엔비디아 H200 NVL 등 최대 8개의 더블 와이드 가속기, 또는 엔비디아 L4 텐서 코어(Tensor Core) GPU 등의 최대 16개의 싱글 와이드 가속기를 사용할 수 있다. 델은 “다양한 선택의 폭이 제공되는 만큼 생성형 AI 모델의 미세 조정이나 추론에서부터 대규모 데이터 세트에 대한 가치 추출에 이르기까지 규모에 맞게 서버 구성의 적절히 조정할 수 있다”고 설명했다.   델은 곧 출시될 엔비디아 GB200 그레이스 블랙웰 NVL4 슈퍼칩(Grace Blackwell NVL4 Superchip)을 델 IR7000용으로 설계된 새로운 델 파워엣지 XE 서버를 통해 50OU 표준 랙에서 랙당 최대 144개의 GPU를 지원할 계획이다. IR7000 랙은 100%에 가까운 열 포집 능력으로 고전력 및 액체 냉각을 필요로 하는 대규모 HPC 및 AI 워크로드를 지원한다. 또한, 델 테크놀로지스는 AI 작업을 위해 데이터를 효율적으로 관리하고 분석할 수 있는 최신 아키텍처 수요에 대응하게 위해 ‘델 데이터 레이크하우스(Dell Data Lakehouse)’도 업데이트 했다. 이 플랫폼은 AI에 최적화된 하드웨어와 풀 스택 소프트웨어 제품군을 기반으로 구축되었으며, 향후 대규모 분산 데이터 처리를 위한 아파치 스파크(Apache Spark)를 포함하도록 확장될 예정이다. 대량의 데이터를 관리하는 기업의 경우, 이를 통해 데이터 애널리틱스와 관리 및 처리에 이르기까지 통합된 접근 방식을 확보함으로써 효율성을 높이고 보다 신속하게 실행 가능한 인사이트를 얻을 수 있다. 한편, 델은 AI 에코시스템 전반의 파트너와 협력하여 AI 구축을 강화하고 간소화하는데 노력하고 있다고 전했다. 엔비디아 기반 델 AI 팩토리(Dell AI Factory with NVIDIA)는 AI 운영 및 활용 사례 구축을 위해 성능을 보다 가속화한다. 새로운 엔비디아 HGX H200 및 H100NVL 지원 옵션은 엔비디아 HGX H100 대비 최대 1.9배 더 높은 성능을 제공한다. 엔비디아 기반 델 AI 팩토리의 일부인 ‘엔비디아 기반 델 에이전틱 RAG(Dell Agentic RAG with NVIDIA)’를 통해 고객은 복잡한 쿼리를 수행하고 검색 증강 생성(RAG) 작업을 가속할 수 있다. 대규모 데이터 세트를 보유한 조직에서는 델의 이 설계를 기반으로 AI 에이전트를 사용하여 RAG 워크플로 성능을 개선하고, 복잡한 쿼리를 처리하며, 더 높은 품질의 결과를 제공할 수 있다. 이 설루션은 델 파워엣지와 델 파워스케일(Dell PowerScale)을 비롯해 니모 리트리버(NeMo Retriever) 마이크로서비스, 멀티모달 PDF 데이터 추출을 위한 ‘엔비디아 AI 블루프린트(NVIDIA AI Blueprint)’ 등 엔비디아 AI 엔터프라이즈(NVIDIA AI Enterprise) 소프트웨어를 활용한다. AI PC를 위한 델 검증 설계(Dell Validated Designs for AI PCs)는 NPU 기술이 탑재된 델 AI PC에서 AI 애플리케이션 개발을 촉진하기 위해 설계된 오픈 소스 가이드이다. 개발자는 모듈식 설계를 쉽게 맞춤화하여 LLM, 비전, 텍스트 및 음성 등의 기능을 애플리케이션에 통합할 수 있다. 또한 다양한 프로세서 종류나 플랫폼에 걸쳐 AI 애플리케이션을 배포할 수 있다. 이러한 확장 가능한 접근 방식을 통해 온디바이스 AI에서 일상적인 프로세스를 자동화하고 시간과 비용을 절감하고 데이터 보안을 개선할 수 있다. 델 프로페셔널 서비스(Dell Professional Services)는 AI 관련 전략 개발이나 구현에 어려움을 겪는 기업과 기관들이 AI 목표를 보다 효율적으로 달성할 수 있도록 지원한다. ‘지속 가능한 데이터 센터를 위한 자문 및 구현 서비스(Advisory and Implementation Services for Sustainable Data Centers)’는 지능형 전력 및 냉각 관리를 통해 저탄소, 에너지 효율적인 데이터 센터를 위한 전략을 수립하고 구현하는데 필요한 전문 지식을 제공한다. ‘데이터 관리 서비스(Data Management Services)’는 데이터를 검색, 분류, 정제하여 AI-레디 카탈로그를 제공하고 체계화된 고품질 데이터에 대한 안정적이고 간소화된 액세스를 보장한다. ‘AI 네트워킹을 위한 설계 서비스(Design Services for AI Networking)’는 더 빠른 속도, 지연 시간 단축, 향상된 확장성을 통해 AI 워크로드에 최적화된 네트워크 설계를 제공한다. ‘서비스나우 나우 어시스트를 위한 구현 서비스(Implementation Services for ServiceNow Now Assist)’는 AI 기반 요약을 통해 콘텐츠 수집을 간소화하여 결과를 자동화하고 생산성을 향상시키는 ‘나우 어시스트’를 통해 서비스 관리 워크플로에 생성형 AI 기능을 통합한다. 한국 델 테크놀로지스의 김경진 총괄사장은 “여러 고객들이 AI를 구축하고 실행하기까지 점점 더 다양한 도전과제에 직면하게 된다”면서, “델은 계속해서 진일보한 AI 오퍼링을 선보임으로써 고객이 AI를 통해 보다 스마트하고 유연하게 대응할 수 있는 미래를 만들어갈 수 있도록 하는데 집중하고 있다”고 밝혔다. 델 파워엣지 XE9685L과 델 파워엣지 XE7740은 2025년 1분기에 전 세계에 출시될 예정이며, 델 데이터 레이크하우스 업데이트는 현재 전세계에서 이용 가능하다. AI PC를 위한 델 검증 설계는 현재 전 세계에서 이용 가능하며, 엔비디아 기반의 델 생성형 AI 설루션의 GPU 업데이트는 올해 내에 제공될 예정이고, 엔터프라이즈 RAG 업데이트는 현재 이용이 가능하다. ‘델 데이터 관리 서비스’와 ‘지속 가능한 데이터 센터를 위한 델 서비스,’ ‘AI 네트워킹을 위한 델 설계 서비스,’ ‘서비스나우 나우 어시스트를 위한 델 구현 서비스’는 현재 일부 국가에서 제공되고 있다.
작성일 : 2024-11-19