• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "스노우플레이크"에 대한 통합 검색 내용이 41개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
스노우플레이크, “제조업체의 데이터 협업 플랫폼 도입 2년 간 4배 이상 증가”
스노우플레이크는 자사의 ‘제조 산업을 위한 AI 데이터 클라우드(AI Data Cloud for Manufacturing)’가 자동차 산업에 특화된 설루션을 중심으로 확장하며 높은 성장세를 보이고 있다고 발표했다. 스노우플레이크에 따르면, 2023년 4월을 기준으로 2년간 전 세계 제조 산업군에서 데이터 애플리케이션 및 협업을 위해 스노우플레이크의 플랫폼을 도입한 비율은 416% 증가했고, 데이터 분석을 위해서는 185%, 고급 예측 모델링 및 AI 앱과 같은 데이터 사이언스 목적으로는 188% 늘었다.  이와 같은 제조업체의 데이터 기반 비즈니스 인사이트 확보에 대한 높은 수요에 따라, 스노우플레이크는 AI 데이터 클라우드를 자동차 산업의 특수한 요구사항을 충족할 수 있도록 정밀하게 조정하며 글로벌 제조업체의 디지털 전환 및 AI 혁신을 뒷받침하고 있다고 전했다. 커넥티드 및 소프트웨어 정의 차량(Software Defined Vehicle : SDV), 자율주행, 전기차, 인더스트리 4.0 등 자동차 산업 트렌드에 맞춰 스노우플레이크는 데이터 공유 및 AI 지원 기능으로 완성차 제조업체(OEM), 부품업체, 유통 및 서비스업체 전반의 협업과 생산 공정을 최적화하고 있다.     특히 스노우플레이크를 활용하는 자동차 관련 기업은 차량 설계부터 생산, 서비스, 보증에 이르는 전체 라이프사이클 데이터를 통합하고 사일로를 제거할 수 있게 된다. 이를 통해 운영 효율을 높이고 고객 경험을 향상시킨다. 또한 스노우플레이크 아키텍처로 SDV와 자율주행차에서 생성되는 방대한 커넥티드 데이터를 안정적으로 활용하고 확장할 수도 있다. 누적된 데이터는 스노우플레이크 마켓플레이스에서 판매할 수 있어 신규 수익원이 되기도 한다. 스노우플레이크 데이터 플랫폼은 조직 전반에서 AI·ML 기능을 손쉽게 활용할 수 있도록 해, 예측 모델 개발시간을 단축하고 차량 설계 및 유지보수의 새로운 패러다임을 주도할 수 있다. 공급망 전반의 실시간 가시성도 제공한다. 수요 예측의 정확도를 높이고 재고 관리와 비용 효율성을 높여 데이터 기반의 의사결정을 현실화할 수 있다. 스노우플레이크의 팀 롱(Tim Long) 제조 산업 부문 글로벌 총괄은 “커넥티드 및 자율주행 등 최신 차량은 방대한 데이터를 생성하고 있으며, 자동차 업계는 이를 효과적으로 처리하면서도 신뢰할 수 있는 AI 설루션이 필요해졌다”면서, “스노우플레이크의 자동차 산업 설루션은 제조 전문성을 바탕으로 자동차 기업이 데이터를 통합하고 커넥티드 차량 개발 계획을 확장하며, 시장 변화에 빠르게 대응할 수 있도록 지원한다”고 말했다. 지멘스와 같은 글로벌 기술 및 제조 기업은 스노우플레이크를 활용해 AI와 고급 분석으로 전사적 운영을 혁신하는 동시에 엄격한 보안 및 거버넌스 기준을 유지하고 있다. 전 세계 주요 완성차 제조업체(OEM)의 약 80%가 스노우플레이크 플랫폼을 활용 중이며, 닛산, 카맥스(CarMax), 콕스 오토모티브(Cox Automotive), 펜스케 로지스틱스(Penske Logistics) 등은 실시간 커넥티드 차량의 인사이트와 안전한 데이터 협업으로 운영 효율을 높이고 있다. 스노우플레이크는 이외에도 액센츄어, 아마존웹서비스, 딜로이트, EY 등 글로벌 파트너와 함께 자동차 산업에 특화된 AI 및 데이터 설루션을 확장하고 있으며, 지멘스 디지털 인더스트리 소프트웨어, 블루욘더(Blue Yonder), 랜딩AI(LandingAI), 멘딕스(Mendix), 시그마(Sigma) 등 다양한 파트너사가 스노우플레이크 플랫폼에서 SDV 개발, AI 기반 품질 관리, 공급망 최적화 등 전문 설루션을 개발하며 생태계를 확장하고 있다고 밝혔다.
작성일 : 2025-05-07
스노우플레이크, “AI 조기 도입한 기업의 92%가 투자 대비 수익 실현”
스노우플레이크가 ‘생성형 AI의 혁신적 ROI(Radical ROI of Generative AI)’ 보고서를 발표했다. 이번 보고서는 글로벌 시장 조사 기관 ESG(Enterprise Strategy Group)와 공동으로 AI를 실제 사용 중인 9개국 1900명의 비즈니스 및 IT 리더를 대상으로 진행한 설문조사 결과를 담았다. 보고서에 따르면 AI를 도입한 기업의 92%가 이미 AI 투자를 통해 실질적 ROI(투자수익률)를 달성했고, 응답자의 98%는 올해 AI에 대한 투자를 더욱 늘릴 계획인 것으로 나타났다. 전 세계 기업의 AI 도입이 빨라지면서 데이터 기반이 성공적인 AI 구현의 핵심 요소로 떠오르고 있다. 그러나 많은 기업이 여전히 자사 데이터를 AI에 적합한 형태로 준비하는 데 어려움을 겪는 것으로 파악됐다.  전반적으로 기업들은 AI 초기 투자에서 성과를 거두고 있는 것으로 나타났다. 93%의 응답자는 자사의 AI 활용 전략이 ‘매우’ 또는 ‘대부분’ 성공적이라고 답했다. 특히 전체 응답자의 3분의 2는 생성형 AI 투자에 따른 ROI를 측정하고 있고, 1달러 투자당 평균 1.41달러의 수익을 올리며 ROI를 높이고 있는 것으로 집계됐다.  또한 국가별 AI 성숙도에 따라 기업이 AI 역량을 주력하는 분야가 달랐으며, 이는 지역별 ROI 성과와 밀접한 연관이 있는 것으로 드러났다. 미국은 AI 투자 ROI가 43%로 AI 운영 최적화 측면에서 가장 앞서 있었다. 뿐만 아니라 자사의 AI를 실제 비즈니스 목표 달성에 ‘매우 성공적’으로 활용하고 있다고 답한 비율이 52%로 전체 응답국 중 가장 높았다. 한국의 경우 AI 투자 ROI는 41%로 나타났다. 보고서에 따르면 한국 기업은 AI 성숙도가 높은 편으로 오픈소스 모델 활용, RAG(검색증강생성) 방식을 활용해 모델을 훈련 및 보강하는 비율이 각각 79%, 82%로 글로벌 평균인 65%, 71%를 웃돌았다.  특히 한국 기업들은 기술 및 데이터 활용에 있어 높은 실행 의지를 보이고 있는 것으로 나타났다. 오픈소스 모델 활용(79%), RAG 방식의 모델 훈련 및 보강(82%), 파인튜닝 모델 내재화(81%), 텍스트 투 SQL(Text to SQL, 자연어로 작성한 질문을 SQL 쿼리로 자동 변환하는 기술) 서비스 활용(74%) 등 고급 AI 기술을 활용한다고 답변한 비율이 글로벌 평균을 크게 웃돌았다. 이러한 데이터 활용 역량은 비정형 데이터 관리 전문성(35%)과 AI 최적화 데이터 보유 비율(20%)에서도 확인된다. 이런 성과에 비해 아직도 전략적 의사결정에 AI 활용하는 데에는 어려움을 겪고 있는 모습도 나타났다. 조사 결과에 따르면 응답자의 71%는 ‘제한된 자원에 대비해 추진할 수 있는 AI 활용 분야가 매우 다양하고, 잘못된 의사결정이 시장 경쟁력에 부정적 영향을 미칠 수 있다’고 답했다. 또한 응답자의 54%는 ‘비용, 사업 효과, 실행 가능성 등 객관적 기준에 따라 최적의 도입 분야를 결정하는 데 어려움을 겪고 있다’고 밝혔다. 59%는 ‘잘못된 선택이 개인의 직무 안정성까지 위협할 수 있다’고 우려했다. 한국 기업의 경우, 기술적 복잡성(39%), 활용 사례 부족(26%), 조직 내 협업 문제(31%) 등의 어려움을 겪고 있다고 답하며 아직 다양한 비즈니스 영역으로의 AI 확대는 더딘 것으로 나타났다. 그럼에도 향후 12개월 내 ‘다수의 대규모 언어 모델(LLM)을 적극적으로 도입’하고 ‘대규모 데이터를 활용할 계획’이라고 답한 기업은 각각 32%와 30%로, AI 도입 확대에 관한 강한 의지를 드러냈다. 설문에 응답한 전체 기업의 80%는 ‘자체 데이터를 활용한 모델 파인튜닝을 진행 중’이고 71%는 ‘효과적인 모델 학습을 위해 수 테라바이트의 대규모 데이터가 필요하다’고 답하며, AI의 효과를 극대화하기 위해 자사 데이터를 적극 활용하고 있는 것으로 나타났다. 그러나 여전히 많은 기업들이 데이터를 AI에 적합한 형태로 준비하는 과정에서 어려움을 겪기도 했다. 데이터 준비 과정에서 겪는 주요 과제로 ▲데이터 사일로 해소(64%) ▲데이터 거버넌스 적용(59%) ▲데이터 품질 관리(59%) ▲데이터 준비 작업 통합(58%) ▲스토리지 및 컴퓨팅 자원의 효율적 확장(54%) 등을 꼽았다. 스노우플레이크의 바리스 굴테킨(Baris Gultekin) AI 총괄은 “AI가 기업들에게 실질적인 가치를 보여주기 시작했다”면서, “평균 일주일에 4000개 이상의 고객이 스노우플레이크 플랫폼에서 AI 및 머신러닝을 활용하고 있고 이를 통해 조직 전반의 효율성과 생산성을 높이고 있다”고 강조했다.  스노우플레이크의 아르틴 아바네스(Artin Avanes) 코어 데이터 플랫폼 총괄은 “AI의 발전과 함께 조직 내 데이터 통합 관리의 필요성이 더욱 커지고 있다”면서, “스노우플레이크처럼 사용이 쉽고 상호 운용 가능하며 신뢰할 수 있는 단일 데이터 플랫폼은 단순히 빠른 ROI 달성을 돕는 것을 넘어, 사용자가 전문적인 기술 없이도 안전하고 규정을 준수하며 AI 애플리케이션을 쉽게 확장할 수 있도록 견고한 기반을 마련해 준다”고 말했다. 
작성일 : 2025-04-16
스노우플레이크, 데이터와 AI로 비즈니스 혁신 이끈다
스노우플레이크(Snowflake) 코리아 최기영 지사장은 3월 25일 광화문 포시즌호텔에서 열린 스노우플레이크 공동창립자 방한 행사(Snowflake Founders Tour - Korea)에서 AI 시대에 맞춘 데이터 활용 혁신 방안을 발표했다. 또한 기업들이 급변하는 디지털 환경 속에서 데이터를 더 효율적으로 사용하고 AI 기술을 접목해 경쟁 우위를 점할 수 있는 방안들을 소개했다. ▲ 스노우플레이크코리아 최기영 지사장   이날 스노우플레이크는 엔터프라이즈 데이터 아키텍처가 단순 데이터 처리에서 AI 기반의 소비 중심 구조로 진화하고 있음을 강조했다. 특히, 데이터의 상호운용성을 높이고 정형 데이터와 비정형 데이터를 결합하여 AI 활용성을 극대화할 것을 제안했다. 스노우플레이크의 주요 혁신 포인트는 첫째, 데이터 상호운용성으로, 오픈 테이블 형식과 카탈로그 기술을 통해 다양한 데이터 엔진 간의 원활한 데이터 공유를 지원하는 것이다. 둘째, AI 기반 소비로, 기업 데이터의 대부분이 온라인으로 전환된 환경에서, AI를 통해 데이터를 전략적으로 활용할 수 있도록 지원하는 것이다.  또한 최 지사장은 스노우플레이크가 데이터 레이크, 데이터 웨어하우스, 데이터 메시 등의 다양한 데이터 아키텍처를 연결하여 데이터 사일로 문제를 해결하는 적응형 아키텍처에 대해 소개했다. 이를 통해 기업들이 보다 유연하고 효율적으로 데이터를 관리하고 AI 기반의 혁신을 이루도록 지원하고 있다고 강조했다. 스노우플레이크 AI 데이터 클라우드 플랫폼의 강점은 편의성, 연결성, 신뢰성에 있다. 우선 편의성은 자동 성능 개선 및 즉각적인 확장성, 관리 자동화와 비용 효율성을 제공한다. 연결성은 클라우드 환경 간 데이터 공유를 간편하게 만들어 데이터 활용의 유연성을 높여 준다. 신뢰성은 데이터 보안과 개인정보 보호, 재해 복구 기능 등으로 기업이 안전하게 데이터를 활용하도록 돕는다. 스노우플레이크의 AI 데이터 클라우드는 멀티 클라우드 환경을 완벽하게 지원하며, 이미 전 세계 10,600개 이상의 기업 고객과 포브스 글로벌 2,000대 기업 중 754개 기업에서 사용 중입니다. 이를 통해 기업들은 데이터 기반의 혁신을 통한 경쟁력 확보에 성공하고 있다. 최 지사장은 "스노우플레이크의 비전은 명확하다. 데이터와 AI를 통해 차세대 혁신을 구축하고, 이를 활용하여 기업들이 지속 가능한 성장을 이루도록 돕는 것이다"라며, "앞으로 더 많은 기업들이 스노우플레이크의 데이터 혁신을 경험하게 될 것으로 기대한다"고 말했다. ▲ 스노우플레이크 공동창립자인 티에리 크루아네스와 베뉴아 다쥬빌, 그리고 스노우플레이크코리아 최기영 지사장 (왼쪽부터) 한편, 이날 최기영 지사장의 브리핑 이후, 이번 행사 참여를 위해 방한한 스노우플레이크 공동창립자이자 제품 부문 사장인 베누아 다쥬빌(Benoit Dgeville)과 스노우플레이크 공동창립자이자 전 최고기술책임자인 티에리 크루아네스(Tierry Cruanes)는 기자들과 만나 질의 내용에 답했다. 몇 가지 내용을 추려서 소개한다. [기자간담회 Q&A]  Q. 데이터 상호운용성과 AI가 스노우플레이크 전략의 핵심이 된 이유는? A. 데이터의 유연한 공유와 AI 적용은 고객의 디지털 전환을 가속화하고, 실질적인 비즈니스 가치를 창출하기 때문이다. Q. 소비 기반 비즈니스 모델을 도입한 이유는? A. 고객이 실제 사용한 만큼만 비용을 지불하도록 하여 효율적인 비용 관리와 유연한 확장을 가능하게 하기 위함이다. Q. 데이터 상호운용성과 AI가 스노우플레이크 전략의 핵심이 된 이유는? A. 데이터의 유연한 공유와 AI 적용은 고객의 디지털 전환을 가속화하고, 실질적인 비즈니스 가치를 창출하기 때문이다. Q. 제품 전략과 로드맵의 차별화된 경쟁력은? A. 멀티클라우드 지원, AI/ML 통합, 오픈 스탠다드 지원으로 확장성과 유연성을 확보하는 것이다. Q. 스노우플레이크 플랫폼의 향후 진화 방향은? A. AI 통합 강화, 멀티모달 데이터 지원 확대, 에이전트 기반 자동화 플랫폼으로 진화하는 것이다. Q. 한국 시장에서 AI 데이터 클라우드는 어떻게 확장될까? A. 규제 대응 능력과 로컬 파트너십을 강화해 산업 전반으로 확산이 가속될 전망이다.
작성일 : 2025-03-25
스노우플레이크, 거버넌스 준수하고 정확도 높인 AI 에이전트 ‘코텍스 에이전트’ 출시
스노우플레이크가 정형 혹은 비정형 데이터에 액세스해 자동으로 업무를 실행하는 AI 에이전트인 ‘코텍스 에이전트(Cortex Agents)’를 출시했다. 이를 통해 기업은 데이터 전문가 없이도 데이터를 검색, 분석해 엔터프라이즈 데이터를 더욱 효과적으로 관리할 수 있게 되었다. 코텍스 에이전트는 퍼블릭 프리뷰로 제공되며, 코텍스 애널리스트(Cortex Analyst)와 코텍스 서치(Cortex Search) 기능을 강화해 자동으로 데이터를 통합, 검색하고, 복잡한 쿼리를 분석해 정확한 답변을 생성한다. 이 과정에서 기업들은 정확성, 효율성 및 거버넌스를 실현할 수 있다, 코텍스 애널리스트는 정형화된 SQL 데이터를 분석하며, 앤스로픽(Anthropic)의 클로드 3.5 소넷(Claude 3.5 Sonnet)을 활용해 텍스트를 SQL로 변환하는 데 정확도를 높였다. 사용자가 자연어로 데이터를 조회하고 인사이트를 도출할 수 있으며 복잡한 추론, 코드 생성, 멀티모달 데이터 분석을 수행할 수 있는 엔터프라이즈급 AI 기능을 제공한다. 코텍스 서치는 텍스트, 오디오, 이미지, 비디오 등 비정형 데이터의 검색 정확도를 높인다. 스노우플레이크는 “오픈AI 임베딩 모델 대비 최소 11% 높은 정확도를 기록하며 다양한 벤치마크 테스트에서 우수한 성능을 입증했다”고 밝혔으며, 이 외에도 대규모 데이터 인덱싱, 맞춤형 벡터 임베딩 모델 선택 기능이 추가됐다.     정확한 데이터 분석, 보안 유지 및 거버넌스 준수는 AI 에이전트가 기업 환경에서 효과적으로 확장되기 위한 필수 요소다. 코텍스 에이전트는 다양한 데이터 소스를 검색하고, 보안 정책을 준수하며 신뢰할 수 있는 결과를 제공하도록 설계됐다. 배포 이후에도 성능과 동작을 지속적으로 모니터링하고 개선할 수 있어, 기업이 AI 에이전트를 안전하게 확장하면서 보안과 컴플라이언스를 유지할 수 있도록 돕는다. 예를 들어, 재무 분석가는 정형 데이터인 수익 데이터와 비정형 데이터인 재무 보고서 및 시장 데이터와 결합해야 하는 경우가 많다. 엔드 투 엔드 거버넌스를 통해 안전하게 AI에 정보를 제공하는 것이 필요한데, 이 때 코텍스 에이전트를 활용하면 된다. 코텍스 에이전트는 두 데이터 소스의 통합, 검색 및 처리를 단순하게 해 기업들은 쉽게 대규모로 고품질 에이전트를 구축할 수 있도록 지원한다.  스노우플레이크의 크리스티안 클레이너만(Christian Kleinerman) 제품 담당 수석 부사장은 “AI 전략은 데이터 전략 없이는 존재할 수 없다”면서, “많은 고객이 AI 가치를 극대화하기 위해 데이터를 체계적으로 관리하고 거버넌스를 구축하는데 어려움을 겪고 있다. 스노우플레이크는 코텍스 에이전트를 통해 고객들이 데이터 전문가가 아니더라도 더욱 쉽게 데이터를 관리하고 실질적인 성과를 얻을 수 있도록 지원하고 있다”고 강조했다.
작성일 : 2025-02-21
스노우플레이크, 앱 성성 도구에서 딥시크-R1 프리뷰 지원
스노우플레이크가 자사의 생성형 AI 기반 애플리케이션 생성 도구인 ‘코텍스 AI(Cortex AI)’에서 ‘딥시크-R1(DeepSeek-R1)’ 모델을 지원한다고 밝혔다. 딥시크-R1은 지도학습(SFT) 없이 대규모 강화학습(RL)만으로 훈련된 오픈소스 모델로 자체검증, 스스로 답을 찾는 추론하는 사고체계(CoT), 추론 생성 등이 가능하다. 딥시크-R1은 스노우플레이크 코텍스 AI를 통해 서버리스 추론에 사용할 수 있는 비공개 프리뷰 형태로 제공된다. 배치(SQL 함수)와 대화형(파이썬 및 REST API) 모두를 통해 액세스할 수 있어 기존 데이터 파이프라인, 애플리케이션 및 통합 개발 환경(IDE)에 통합된다. 코텍스 AI는 고객이 코텍스 가드(Cortex Guard)를 활성화할 수 있도록 해 잠재적으로 유해한 콘텐츠를 필터링하고, 고객이 생성형 AI 애플리케이션을 대규모로 안전하게 배포할 수 있도록 한다. 스노우플레이크는 모델이 안전한 서비스 범위 내에서만 작동하고 고객 데이터가 모델 제공자와 공유되지 않도록 보장한다고 소개했다. 또한, 모델이 정식 출시되면 고객은 역할 기반 액세스 제어(RBAC)를 통해 딥시크-R1에 대한 접근을 설정해 거버넌스를 관리할 수 있다고 덧붙였다. 현재 미국 내 고객의 스노우플레이크 계정에서 사용할 수 있다. 스노우플레이크 코텍스 AI는 대규모 언어 모델(LLM) 추론, 파인튜닝, 검색 기반 생성(RAG) 기능을 포함한 종합 툴 세트를 제공하고 있다. 이를 통해 정형 및 비정형 데이터를 함께 분석하고 AI 기반 애플리케이션을 쉽게 구축할 수 있다. 메타, 미스트랄, 스노우플레이크를 포함한 주요 오픈소스 및 폐쇄형 LLM 모두 지원함으로써 간편하게 AI를 통합할 수 있게 한다. 스노우플레이크 AI 연구팀은 “딥시크-R1의 추론 비용을 추가로 절감해 고객에게 더 큰 비용 대비 성능 효율성을 제공할 계획”이라면서, “딥시크-R1을 통해 기업은 최첨단 AI 기술을 기반으로 한 생성형 AI 애플리케이션을 보다 빠르게 제공함으로써 생태계에서 혁신의 새로운 표준을 제시하게 될 것”이라고 말했다.
작성일 : 2025-02-05
스노우플레이크, 데이터 AI 역량 강화 학습 프로그램 론칭
  스노우플레이크(Snowflake)가 '원 밀리언 마인즈+원 플랫폼(One Million Minds+One Platform)' 프로그램을 발표했다. 스노우플레이크 AI 데이터 클라우드에서 무료 프로그램을 제공하는 교육 프로그램으로 2027년까지 10만 명,  2029년까지 100만 명의 데이터 및 AI 전문 인재를 양성하는 것을 목표로 하고 있다. 이를 위해 스노우플레이크는 2000만 달러를 투자해 전 세계에서 성장 잠재력이 높은 신흥 시장의 학생 및 직장인에게 맞춤형 교육과 수료 과정을 제공할 계획이다. 또, 직장인과 관련 교육 종사자에게는 커리큘럼 자료와 스노우플레이크 플랫폼을 사용할 수 있는 크레딧을 제공해 차세대 비즈니스 및 기술 인재가 AI 관련 기술을 업그레이드하고 경쟁력을 강화할 수 있도록 지원한다. 슈리다 라마스워미(Sridhar Ramaswamy) 스노우플레이크 CEO는 “2024년 갤럽 여론조사에 따르면, 직장인의 22%가 생성형 AI와 같은 기술 발전으로 자신의 직업이 없어질 수 있다고 우려하는 것으로 나타났으며, 포춘 500대 기업 최고인사책임자(CHRO)의 72%는 향후 3년 내에 조직 내 일부 직무가 AI로 대체될 것으로 전망했다”며 “빠르게 변화하는 디지털 시대에서 성공하기 위해서는 모든 직원이 데이터와 AI 중심의 환경에서 기여할 수 있는 역량과 경쟁력을 갖추어야 한다”고 말했다. 그는 이어 “이를 위해 AI는 누구나 쉽게 활용할 수 있어야 하며, 사용자가 데이터의 생성부터 활용까지 전 과정을 이해하고 이를 효과적으로 사용할 수 있는 지식과 능력을 갖추는 것이 필요하다”며 “스노우플레이크는 이번 투자를 통해 전 세계의 교육 기관과 직장인에게 학습 도구와 커리큘럼을 제공함으로써 미래의 IT 전문가이자 기업가로서 성장할 수 있도록 지원하고 있다”고 덧붙였다. '원 밀리언 마인즈+원 플랫폼' 프로그램은 '스노우플레이크 교육자 양성'과 '개인의 데이터 활용 역량 강화'라는 두 가지 핵심 목표를 중심으로 운영된다. 스노우플레이크의 폭넓은 교육 및 역량 강화 전략의 일부인 이 프로그램은 스노우플레이크 AI 데이터 클라우드 플랫폼을 활용해 학생과 직장인들이 실무 역량을 강화하고 전문 인증을 취득할 수 있도록 지원한다. 스노우플레이크 유니버시티(Snowflake University)를 통해 강사가 이끄는 수업, 온디맨드 강의, 자율 학습 과정을 제공하며, 수십만 명의 데이터 전문가들이 초기 학습 단계부터 고급 데이터 프로젝트까지 수행하도록 데이터 역량 강화를 돕고 있다. 스노우플레이크 포 아카데미아 (Snowflake for Academia) '스노우플레이크 포 아카데미아' 프로그램은 교육자를 대상으로 스노우플레이크 플랫폼 인증 과정을 포함한 강의 준비 과정을 제공한다. 인증 자격을 취득한 교육자는 기본 과정부터 고급 자율 학습 튜토리얼까지 다양한 교수 커리큘럼 자료 다운로드는 물론, 학기 동안 ‘아카데미아 랩’에 무료 접속이 가능하다. 스노우플레이크는 향후 1년 이내 스노우플레이크 플랫폼을 활용해 학생들을 교육하고 전문 인력으로 양성할 교육자와 교육 기관의 참여를 두 배 이상 확대할 계획이다. 성장 잠재력이 높은 지역을 위한 스노우플레이크 교육 스노우플레이크스노우플레이크 플랫폼 사용 경험이 적거나 없는 개인이 AI 데이터 클라우드에 대한 지식을 빠르게 확장할 수 있도록 돕는 새로운 교육 과정을 제공할 예정이다. 이 과정은 한국을 비롯해 아세안(ASEAN), 캐나다, 독일, 인도, 중남미(LATAM), 사우디아라비아 등 다양한 지역의 직장인과 학생을 대상으로 진행된다. 스노우플레이크 인증 강사가 진행하는 이 플랫폼 교육은 단계별로 구성된 실시간 무료 입문 과정으로, 사용자가 데이터 전환 과정의 첫걸음을 내딛을 수 있도록 지원한다. 교육 과정을 수료한 참가자는 2025년 2월부터 시작되는 스노우프로(SnowPro) 플랫폼 어소시에이트 인증 자격 시험에 응시해 다양한 기술 인증을 취득할 수 있다.
작성일 : 2025-02-01
스노우플레이크, “2025년 상반기 국내서 애저 클라우드 지원 계획”
AI 데이터 클라우드 기업인 스노우플레이크가 2025년 상반기부터 국내 기업에게도 마이크로소프트 애저(Microsoft Azure)를 지원한다고 밝혔다.  스노우플레이크는 현재까지 한국에서는 아마존웹서비스(AWS) 기반으로 AI 데이터 클라우드 서비스의 운영을 지원해왔다. 2025년에는 애저 환경으로 서비스 지원이 확장됨에 따라, 스노우플레이크는 더 많은 국내 고객에게 통합적이고 안전한 데이터 관리 경험을 제공할 수 있게 될 것으로 보고 있다.  또한, 스노우플레이크는 여러 클라우드에 구축된 데이터를 하나의 통합된 플랫폼에서 분석할 수 있는 크로스 클라우드(cross-cloud) 서비스도 제공할 예정이다. 고객은 스노우플레이크의 클라우드 간 기술 레이어인 ‘스노우그리드(Snowgrid)’를 통해 여러 지역과 클라우드 플랫폼에 걸쳐 데이터를 복제할 수 있다. 애플리케이션 및 서비스도 쉽게 공유하고 협업할 수 있어 데이터 사일로 없는 비즈니스 운영 환경을 확보함과 동시에, 예상치 못한 장애와 변화하는 규제에 유연하게 대응할 수 있다.  스노우플레이크는 컴플라이언스, 보안 및 프라이버시 기능을 하나의 플랫폼에 통합한 거버넌스 모델인 ‘스노우플레이크 호라이즌(Snowflake Horizon)’을 통해서도 클라우드 간 유연성과 협업을 지원한다. 스노우플레이크 호라이즌은 데이터 혹은 사용자의 위치에 상관없이 일관된 거버넌스와 상호운용성을 제공해 고객이 데이터를 안전하게 관리하도록 돕는다.  한국에서 마이크로소프트와의 협업을 확장하면서, 스노우플레이크는 국내 고객의 데이터를 서비스 리전 내에 저장할 수 있게 된다. 이를 통해 데이터의 물리적 위치를 더 가깝게 함으로써 지연시간을 줄이고 주요 작업 성능을 최적화할 수 있다는 것이 스노우플레이크의 설명이다. 또한, 효율적인 데이터 활용 방법이나 AI(인공지능)/ML(머신러닝) 모델을 개발하며 데이터 기반 애플리케이션의 대규모 구축 방법을 모색하는 기업에게 더 많은 선택지를 제공할 수 있다. 스노우플레이크는 멀티 클라우드 전략을 채택하는 기업에게 즉각적인 확장성을 통해 비즈니스 성장을 가속화할 수 있는 기반을 제공할 계획이다.  스노우플레이크 코리아의 최기영 지사장은 “스노우플레이크 AI 데이터 클라우드 설루션의 접근성과 확장성을 향상시켜 고객이 여러 클라우드에서 데이터를 통합 관리할 수 있는 생태계를 제공할 수 있게 돼 기쁘다”면서, “앞으로도 안정적이고 유연한 AI 데이터 클라우드를 통해 고객에게 극대화된 데이터의 가치와 다양한 분석 워크로드 실행 환경을 제공할 것”이라고 말했다.  한국마이크로소프트의 조원우 대표는 “마이크로소프트 애저 환경에서도 스노우플레이크의 AI 데이터 클라우드 설루션을 제공함으로써, 국내 기업은 보다 폭넓은 클라우드 선택지에서 데이터 전략을 구성할 수 있게 됐다”면서, “애저의 글로벌 네트워크와 강력한 보안 체계로 고객이 더욱 안전한 디지털 전환을 이루고 데이터를 효율적으로 활용할 수 있도록 협력을 이어가겠다”고 말했다.
작성일 : 2024-12-03
스노우플레이크, “코텍스 AI에서 라마 3.1 호스팅 개시”
스노우플레이크는 기업이 강력한 AI 애플리케이션을 대규모로 쉽게 활용 및 구축할 수 있도록 스노우플레이크 코텍스 AI(Snowflake Cortex AI)에서 메타의 라마 3.1에 대한 호스팅을 개시한다고 발표했다. 라마 3.1은 다중 언어 오픈소스 대규모 언어 모델(LLM)의 컬렉션이다. 이번에 출시한 서비스에는 메타에서 가장 큰 규모이자 강력한 성능의 오픈소스 LLM인 라마 3.1 405B가 제공된다. 스노우플레이크는 실시간의 고처리량 추론을 구현함은 물론 강력한 자연어 처리 및 생성 애플리케이션의 보편화를 증진하는 추론 시스템 스택을 개발하고 오픈 소싱한다. 스노우플레이크의 AI 리서치팀은 추론 및 파인튜닝에 대해 라마 3.1 405B를 최적화함으로써 서비스 개시 첫날부터 거대한 128K 컨텍스트 윈도를 지원한다. 동시에 기존 오픈소스 솔루션에 비해 엔드 투 엔드 지연시간은 최대 3분의 1로 낮아지고 처리량은 1.4배 높아진 실시간 추론을 구현한다. 또한, 코텍스 AI에서 하나의 GPU 노드만을 사용해 거대 모델을 미세 조정할 수 있어 개발자와 사용자 모두에게 비용과 복잡성을 완화해준다. 메타와 협력을 통해 스노우플레이크 고객은 AI 데이터 클라우드에서 메타의 최신 모델에 원활하게 액세스하고 파인튜닝하여 배포할 수 있다. 스노우플레이크는 사용이 간편하고 효율성 및 신뢰도 높은 방법은 물론, 기본적으로 내장된 신뢰도 및 안전성에 대한 포괄적인 접근방식을 제공한다.     스노우플레이크 AI 리서치팀은 AI 커뮤니티에 정기적으로 기여하고 최첨단 LLM 기술 구축 방식에 대한 투명성을 높여 오픈소스 혁신의 한계를 넓혀가고 있다. 또한, 라마 3.1 405B의 출시와 더불어 딥스피드(DeepSpeed), 허깅페이스(HuggingFace), vLLM 및 보다 폭넓은 AI 커뮤니티와의 협업을 통해 자사의 초거대 LLM 추론 및 파인튜닝 시스템 최적화 스택을 오픈 소스화하고 있다. 이러한 혁신을 통해 수천억 개의 매개변수 모델에 대한 오픈소스 추론 및 파인튜닝 시스템에 필요한 새로운 최첨단 솔루션을 구축한다. 초거대 모델의 규모 및 메모리에 대한 요구사항은 실시간 유스케이스에 요구되는 저지연성 추론과 비용 효율을 위한 높은 처리량, 그리고 다양한 엔터프라이즈급 생성형 AI 유스케이스에 필요한 긴 컨텍스트 지원을 실현하고자 하는 사용자에게 있어 상당한 도전 과제다. 모델 및 활성 상태 저장에 대한 메모리 요구사항도 파인튜닝을 어렵게 하며, 훈련을 위한 모델의 상태에 맞춰야 하는 대규모 GPU 클러스터에 데이터 과학자가 액세스할 수 없는 경우도 빈번하다. 스노우플레이크는 초거대 LLM 추론 및 파인튜닝 시스템 최적화 스택은 고급 병렬화 기술과 메모리 최적화를 통해 복잡하고 고비용의 인프라가 없어도 효율적인 AI 처리가 가능하다고 설명했다. 라마 3.1 405B의 경우 스노우플레이크의 시스템 스택은 단일 GPU 노드 하나로도 실시간의 고처리량 성능을 발휘하고 다중 노드 설정 전반에 걸쳐 128k 개의 거대한 컨텍스트 윈도를 지원한다. 이러한 유연성은 차세대 하드웨어와 레거시 하드웨어 모두에 유효해, 보다 광범위한 기업들이 이용할 수 있다. 또한 데이터 과학자들이 전보다 적은 개수의 GPU 상에서 복합 정밀 기술을 사용해 라마 3.1 405B를 파인튜닝할 수 있으므로 대규모 GPU 클러스터에 대한 필요성이 사라진다. 이에 따라 기업들은 강력한 엔터프라이즈급 생성형 AI 애플리케이션을 보다 편리하고 효율적이며 안전하게 채택하고 배포할 수 있다. 스노우플레이크의 AI 리서치팀은 기업들이 이러한 유스케이스를 코텍스 AI에서 쉽게 적용할 수 있도록 모델 증류, 안전 가드레일, 검색 증강 생성(RAG), 합성 데이터 생성 등 파인튜닝에 최적화된 인프라도 개발했다. 한편, 스노우플레이크는 코텍스 AI에 구축된 모든 LLM 애플리케이션 및 자산을 유해한 콘텐츠로부터 더욱 강도 높게 보호하기 위해 업계 선도 기업과 협업하고 있다고 전했다. 메타의 모델 또는 AI21 랩스(AI21 Labs), 구글, 미스트랄 AI(Mistral AI), 레카(Reka) 및 스노우플레이크 등이 제공하는 LLM을 통해 스노우플레이크 코텍스 가드를 일반인들이 이용할 수 있도록 공개하고 있다는 것이다. 스노우플레이크의 비벡 라구나단(Vivek Raghunathan) AI 엔지니어링 부사장은 “스노우플레이크의 AI 리서치팀은 기업과 오픈 소스 커뮤니티가 라마 3.1 405B 등의 최첨단 오픈 모델을 적극 활용해 효율 극대화를 위한 추론 및 파인튜닝을 가능하게 한다”면서, “스노우플레이크는 메타의 첨단 모델을 스노우플레이크 코텍스 AI를 통해 고객에게 직접 제공할 뿐만 아니라, 더 폭넓은 생태계에서 AI를 고도화하기 위해 128K 컨텍스트 윈도와 다중노드 추론, 파이프라인 병렬화, 8비트 부동 소수점 양자화 등을 지원하는 새로운 연구 및 오픈소스 코드로 기업과 AI 커뮤니티의 역량을 강화하고 있다”고 말했다.
작성일 : 2024-09-09
스노우플레이크, AI 데이터 클라우드 콘퍼런스 ‘스노우플레이크 월드 투어 서울’ 개최
스노우플레이크가 오는 9월 10일 삼성동 코엑스 컨벤션센터에서 AI 데이터 클라우드 콘퍼런스인 ‘스노우플레이크 월드 투어(Snowflake World Tour) 서울’을 개최한다고 밝혔다. 한국에서 3회차를 맞이한 이번 행사는 스노우플레이크 전문가와 고객, 파트너가 참여해 스노우플레이크 AI 데이터 클라우드의 최신 기술을 소개하고 교보문고, 넥슨코리아, 삼성전자 등 국내외 우수 고객 사례를 공유할 예정이다. 또한 스노우플레이크 교육 및 자격증 맛보기 세션과 업계 동료들과 직접 인사이트를 나눌 수 있는 다양한 프로그램도 스노우플레이크, 스트림릿(Streamlit), 아파치 에어플로우(Apache Airflow), 디비티랩스(dbt labs) 커뮤니티 존에 마련했다. 기조연설에는 크리스티안 클레이너만(Christian Kleinerman) 제품 담당 수석부사장, 제프 홀란(Jeff Hollan) 애플리케이션 및 개발자 플랫폼 부문장과 최기영 한국 지사장이 나선다. 이번 행사는 데이터 엔지니어, 데이터 분석가, 기술 및 비즈니스 리더 등을 대상으로 기업의 전략에 필요한 엔터프라이즈 AI를 제대로 활용해 비즈니스 프로세스를 혁신하고, 새로운 인사이트를 발굴하도록 지원하는 AI 데이터 클라우드를 소개할 예정이다.       이번 행사에서는 완전 관리형 서비스 ‘스노우플레이크 코텍스(Cortex)’와 오픈소스로 공개한 ‘폴라리스 카탈로그(Polaris Catalog)’, ‘스노우플레이크 코파일럿(Snowflake Copilot)’, 기업용 대규모 언어 모델(LLM) 등 업그레이드된 AI 기술에 대한 자세한 내용을 공개한다. 또한, 스노우플레이크의 통합된 서비스와 완전 관리형 플랫폼이 가진 아키텍처의 차별점도 만나볼 수 있다. 특히, 업그레이드된 스노우플레이크 AI 데이터 클라우드는 여러 종류의 데이터를 한 곳에 모아 조직원들이 안전한 환경 내에서 쉽고 빠르게 데이터를 활용해 새로운 비즈니스 인사이트를 발굴하도록 지원하는 엔터프라이즈 AI 솔루션이다. 스노우플레이크의 이러한 아키텍처는 데이터의 종류나 위치에 종속되지 않는 상호운용성을 제공하고, 유연한 컴퓨팅 엔진으로 효율적인 AI 워크로드를 지원한다. 또한 스노우플레이크 호라이즌을 통해 조직 내외부의 데이터를 안전하게 관리하며, 손쉬운 데이터 공유 및 협업으로 기업의 비즈니스 혁신을 가속한다.  오후부터 트랙별로 나눠 진행되는 세션에서는 스노우플레이크 AI 데이터 클라우드로 기업의 데이터 기반을 강화하고 가치를 창출한 다양한 고객 사례를 소개한다. 네페스(NEPES), F&F, 리만코리아(Riman Korea)와 스타트업 베슬에이아이(Vessl.ai), 발트루스트(Waldlust) 등과 더불어 블룸버그(Bloomberg), 캔바(CANVA), 팩트세트(FactSet) 등 글로벌 기업의 엔터프라이즈 AI 여정도 함께 공유할 예정이다. 스노우플레이크코리아의 최기영 지사장은 “스노우플레이크는 고객이 안전하고 강력한 데이터 거버넌스를 확립해 비즈니스 성공을 위한 엔터프라이즈 AI 전략을 수립할 수 있도록 지원한다”며, “이번 행사를 통해 스노우플레이크의 혁신 기술과 고객 사례를 소개하고, 데이터 전문가들이 서로 교류할 수 있는 장을 마련함으로써, 데이터 활용에 어려움을 겪는 기업들은 필요한 레퍼런스와 해결책을 찾을 수 있을 것”이라고 전했다.
작성일 : 2024-08-21
[포커스] 오라클, 오픈소스 DB에서 생성형 AI의 활용 위한 서비스 발표
오라클은 트랜잭션 및 레이크하우스 규모 분석을 위한 오픈소스 기반의 MySQL 데이터베이스 처리 서비스인 히트웨이브(HeatWave)를 제공하고 있다. 여기에 생성형 AI를 통합한 서비스가 히트웨이브 생성형 AI(HeatWave GenAI)이다. 히트웨이브 생성형 AI는 인-데이터베이스(in-database) 대규모 언어 모델(LLM), 자동화된 인-데이터베이스 벡터 저장소, 확장 벡터 처리 및 비정형 콘텐츠 기반의 맥락화된 자연어 대화 기능 등을 제공한다. ■ 정수진 편집장   오라클의 니푼 아가르왈(Nipun Agarwal) MySQL & 히트웨이브 개발 수석부사장은 “히트웨이브는 완전 관리형 데이터베이스 처리 서비스로서 멀티 클라우드 환경에서 제공된다. 초기에는 MySQL 기반의 OLTP(온라인 트랜잭션 처리) 서비스로 제공되었고, 이후 꾸준히 기능을 강화해 왔다. 이번에 생성형 AI 및 벡터 저장소 기능을 포함하게 되면서, 단일 서버 위에서 더욱 다양한 기능을 제공하게 되었다”고 설명했다. 히트웨이브 생성형 AI는 인-데이터베이스 자동 백터 저장소, 인-데이터베이스 LLM, 확장형 벡터 처리, 히트웨이브 챗(HeatWave Chat) 등 네 가지의 새로운 기능을 선보였다.   ▲ 오라클은 데이터베이스에서 생성형 AI를 활용하기 위한 서비스를 선보였다.   기업의 비정형 콘텐츠에 LLM의 강점을 결합 벡터 저장소는 비정형 콘텐츠에 LLM을 활용하도록 지원함으로써, 기업의 내부 콘텐츠에 LLM의 강점을 적용할 수 있게 돕는다. 히트웨이브에 인-데이터베이스 자동 벡터 저장소를 추가함으로써 비정형 데이터에 대한 시맨틱 검색을 지원하는 등 전통적인 데이터 처리와 다른 방식을 구현한다는 것이 오라클의 설명이다. 아가르왈 수석부사장은 “오브젝트 스토리지의 데이터를 생성형 AI가 히트웨이브 내부에서 처리함으로써 생성형 AI의 강점을 데이터베이스 내부로 가져올 수 있는 독보적인 아키텍처를 구현했다”면서, “데이터 처리 작업 과정을 히트웨이브 내에서 진행함으로써 스토리지의 비용을 줄이고, 확장성과 안정성을 높은 수준으로 구현할 수 있다”고 설명했다. 오라클 인-데이터베이스 벡터 저장소는 벡터 저장소의 생성 과정을 단순화하고 자동화함으로써, 벡터 저장소 생성의 퍼포먼스를 높이고 비용을 줄일 수 있도록 했다. 생성형 AI 앱의 개발은 먼저 벡터 스토어를 구성한 뒤 LLM을 활용해 이 벡터 스토어를 적용하는 과정으로 진행된다. 오라클은 이 두 단계를 합치고 단계별로 하나의 호출 커맨드만으로 처리할 수 있다면서, 앱이 생성형 AI를 활용하는 방식을 단순화할 수 있다고 설명했다. 또한 데이터가 데이터베이스 밖으로 나가지 않기 때문에 보안도 강화할 수 있다.   LLM 활용의 비용은 줄이고 속도는 높인다 히트웨이브 생성형 AI는 데이터베이스 내부에서 CPU를 사용해 LLM을 구동할 수 있도록 했다. LLM을 구축 및 활용하기 위해 GPU 서비스를 추가로 사용하지 않아도 된다는 것이다. 아가르왈 수석부사장은 인-데이터베이스 LLM의 이점으로 단순화, 저비용, 유연성, 보안/퍼포먼스 등을 꼽았다. 추가 클라우드 서비스나 GPU가 필요 없고, 동일한 서비스를 여러 클라우드에서 사용할 수 있으며, 데이터가 데이터베이스 밖으로 나가지 않기 때문이다. 아가르왈 부사장은 “물론 외부 LLM을 적용하는 것도 가능하다. 오라클 클라우드 인프라스트럭처(OCI)에서 제공하는 GPU 기반의 생성형 AI 서비스를 활용할 수 있지만, 전력 소비 등에서 CPU 기반 인-데이터베이스 LLM의 이점이 크다고 본다”고 전했다. 인-데이터베이스 LLM의 또 다른 이점은 히트웨이브를 사용할 수 있는 모든 클라우드 환경에서 LLM을 사용할 수 있으며, 히트웨이브의 오토ML과 연동해 LLM을 활용한 쿼리 정확도 및 성능의 향상이 가능하다는 점이다. 오라클은 오토ML이 인풋 데이터의 양을 줄여줘서 LLM 호출 비용을 줄일 수 있다는 설명도 덧붙였다. 또한, 히트웨이브 내에서 벡터 프로세싱 지원이 추가됐다. 히트웨이브 MySQL에서 신규 벡터 데이터타입을 지원해 MySQL의 쿼리를 효율적으로 사용할 수 있게 됐다. 아가르왈 수석부사장은 “인 메모리 프로세싱이 가능해지면서 여러 노드에서 확장이 용이해졌고, 낮은 비용으로 빠른 벡터 처리를 지원할 수 있게 됐다. 스노우플레이크, 데이터브릭스, 구글 빅쿼리 등과 쿼리 처리 성능을 비교한 자체 테스트에서는 15~30배 높은 속도를 보였다”고 전했다. 이번에 함께 선보인 히트웨이브 챗(HeatWave Chat)은 SQL 또는 자연어를 기반으로 히트웨이브와 시각적으로 상호작용하는 인터페이스를 제공한다. 이는 히트웨이브 생성형 AI에 기반한 여러 앱 중 하나로 서버 내 채팅 이력, 인용 내용, LLM 옵션 등을 저장하고, 히트웨이브 환경 내에서 자유롭게 챗을 사용할 수 있게 한다.   ▲ 오라클의 니푼 아가르왈 수석부사장은 히트웨이브 생성형 AI를 추기 비용 없이 사용할 수 있다고 소개했다.   자동화, 단순화, 안전성 등을 강점으로 내세워 오라클은 히트웨이브 생성형 AI가 인-데이터베이스에서 통합된 자동화 솔루션으로 높은 안전성과 앱 개발의 단순성을 제공한다고 설명했다. 이를 통해 앱 개발 비용을 줄이면서 보안도 강화할 수 있다는 것이다. 비용과 관련해 아가르왈 수석부사장은 “히트웨이브는 완전 관리형 서비스로 제공되며 라이선스 단위로 관리하지 않기 때문에, 히트웨이브 내에서 생성형 AI를 활용하기 위한 추가 비용이 없다”면서, “다른 업체는 머신러닝, OLTP, 생성형 AI 등을 별도의 서비스로 구성하고 있지만, 오라클은 모든 고객이 모든 데이터에 AI를 사용할 수 있도록 하기 위해 데이터 처리 플랫폼에 생성형 AI 기능을 내장했으며, 유료화나 가격 인상 계획 또한 없다”고 설명했다. 오라클은 보안 관점에서 인-데이터베이스 벡터 저장소가 유용하다는 점도 강조했다. 많은 LLM이 공개된 콘텐츠를 활용하지만, 기업 내부 콘텐츠에 LLM을 적용하고자 하는 요구도 있다. 오라클은 기업 데이터를 기반으로 LLM을 추가 생성할 필요가 없이, 벡터 저장소의 결과값을 LLM의 입력값으로 피딩하면 기업 데이터의 유출 없이 LLM을 사용할 수 있다는 점을 내세운다. 기업 데이터의 이력을 저장하지 않고 입력값으로만 사용하기 때문에 데이터 보호 수준이 높다는 것이다.  아가르왈 수석부사장은 “인-메모리 데이터베이스 안에서 모든 데이터를 스캔해 결과를 도출하기 때문에 정확한 벡터 처리 결과값을 얻을 수 있다. 여기에 RAG(검색 증강 생성)를 사용한다면 공개 데이터를 사용하는 것과 다르게 LLM의 문제로 꼽히는 환각현상을 줄일 수 있다”고 전했다. 한편, 한국어 지원에 대해서는 “현재 히트웨이브 생성형 AI는 메타의 라마 3(Llama 3)를 기반 LLM 모델로 사용하는데, 영어만큼 정확도가 높지는 않지만, 기술이 빠르게 발전하고 있어 수개월 내에 한국어의 정확도가 더욱 높아질 것으로 본다”고 밝혔다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-08-02