• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "검색"에 대한 통합 검색 내용이 1,696개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
스노우플레이크, 엔터프라이즈급 LLM ‘아크틱’ 출시
데이터 클라우드 기업 스노우플레이크가 높은 개방성과 성능을 내세운 엔터프라이즈급 대규모 언어 모델(LLM)인 ‘스노우플레이크 아크틱(Snowflake Arctic)’을 출시했다. 스노우플레이크의 전문가혼합(MoE) 방식으로 설계된 아크틱은 기업의 복잡한 요구사항 처리에도 최적화되어 SQL 코드 생성, 명령 이행 등 다양한 기준에서 최고 조건을 충족한다. 특히 아크틱은 무료로 상업적 이용까지 가능한 아파치 2.0 라이선스로, 스노우플레이크는 AI 학습 방법에 대한 연구의 자세한 사항을 공개하며 엔터프라이즈급 AI 기술에 대한 개방 표준을 제안했다. 또한 아크틱 LLM은 스노우플레이크 아크틱 모델군(Snowflake Arctic model family)의 일부로, 검색 사용을 위한 텍스트 임베딩 모델도 포함됐다. 오픈소스 모델인 아크틱은 코드 템플릿과 함께 추론과 학습방식을 선택할 수 있는 유연성도 제공한다. 사용자는 엔비디아 NIM, 텐서RT-LLM(TensorRT-LLM), vLLM, 허깅페이스(Hugging Face) 등 기업이 선호하는 프레임워크로 아크틱을 사용하고 커스터마이징할 수 있다. 스노우플레이크 코텍스(Snowflake Cortex)에서는 서버리스 추론을 통해 아크틱을 즉시 사용할 수도 있다. 스노우플레이크 코텍스는 완전 관리형 서비스로, 허깅페이스, 라미니(Lamini), 마이크로소프트 애저, 엔비디아 API 카탈로그, 퍼플렉시티(Perplexity), 투게더 AI(Together AI) 등 다양한 모델 목록과 함께 데이터 클라우드에서 머신러닝 및 AI 솔루션을 제공한다. 아마존웹서비스(AWS)에서도 아크틱 사용이 가능해질 예정이다.     스노우플레이크는 기업이 각자의 데이터를 활용해 실용적인 AI/머신러닝 앱 제작에 필요한 데이터 기반과 최첨단 AI 빌딩 블록을 제공한다. 고객이 스노우플레이크 코텍스를 통해 아크틱을 사용할 경우 데이터 클라우드의 보안 및 거버넌스 범위 내에서 프로덕션급 AI 앱을 적정 규모로 구축하는 것이 더욱 쉬워진다.  아크틱 LLM이 포함된 스노우플레이크 아크틱 모델군에는 스노우플레이크가 최근 출시한 최첨단 텍스트 임베딩 모델 중 하나인 아크틱 임베드(Arctic embed)도 포함된다. 이 제품은 아파치 2.0 라이선스로 오픈소스 커뮤니티에서 무료로 사용할 수 있다. 5가지 모델로 구성된 이 제품군은 허깅페이스에서 바로 사용할 수 있으며, 스노우플레이크 코텍스에 내장돼 프라이빗 프리뷰 형태로 공개될 예정이다. 유사 모델의 약 3분의 1 크기인 이 임베딩 모델은 높은 검색 성능을 발휘하도록 최적화되어, 기업들이 검색증강생성(RAG) 또는 시맨틱 검색 서비스의 일부로 고유의 데이터 세트를 LLM과 결합할 때 효과적이고 경제적인 솔루션을 제공한다. 스노우플레이크의 슈리다 라마스워미(Sridhar Ramaswamy) CEO는 “스노우플레이크 AI 연구팀은 AI 분야 최전방에서 혁신을 이끌며 자사에 중요한 전환점을 마련했다”면서, “스노우플레이크는 오픈소스로 업계 최고 성능과 효율을 AI 커뮤니티에 공개하면서 오픈소스 AI가 지닌 가능성의 영역을 넓혀가고 있다. 고객에게 유능하면서도 믿을 수 있는 AI 모델을 제공할 수 있는 스노우플레이크의 AI 역량도 높아지고 있다”고 말했다.
작성일 : 2024-04-25
[신간] 된다! 네이버 블로그 상위 노출 – 전면 개정판
황윤정 지음 / 18,000원 / 이지스퍼블리싱     부제: 블로그 만들기부터 인플루언서 되기까지!   인공지능 시대에도 흔들리지 않는 블로그 운영법! 기획이 탄탄한 블로그는 절대 죽지 않는다! 네이버 블로그를 만드는 방법은 아주 간단하다. 하지만 무턱대고 블로그를 시작했다가는 헤매기 쉽다. 게다가 요즘은 인공지능, 생성형 AI들이 등장하면서 블로그 운영을 어떻게 해야 할까 고민하는 경우도 많다. 이 책에서는 이런 고민의 해결 방법으로 ‘블로그 기획’을 강조한다. 블로그의 목적(why), 목표(what), 대상(who)을 바로 세워야 운영하면서 길을 잃지 않고, 나만의 고유한 블로그를 만들 수 있기 때문이다. 네이버 알고리즘이 상위로 올리는 글에는 공통점이 있다. 이 책에서는 마케팅 전문 기업의 대표인 저자가 오랜 기간에 걸쳐 완성한 ‘상위 노출 글쓰기 원칙’을 배울 수 있다. 특히 도대체 어떻게 글을 써서 올려야 할지 막막한 분들을 위해 글쓰기 계획을 세우는 방법까지도 알려준다. 키워드 분석 방법과 글의 주제를 선정하는 방법, 제목 짓는 방법은 검색 상위 노출에 효과적이다. 그리고 보너스 코너에서는 하루에 한 개씩 쓰면 좋을 주제 100개까지 소개한다. 세계적인 디지털 마케팅 컨설팅 회사 백링코(backlinko.com)에서 사용하는 10가지 글쓰기 방법도 소개한다. 마케팅 실무자라면 놓치기 아까운, 노출이 잘 되는 활용 팁까지 확인해 볼 수 있다. 중소기업인이나 이제 막 매장을 연 소상공인은 시장에서 자리 잡기 어렵다. 하지만 네이버 블로그에서는 기업의 규모와 상관없이 대기업과 어깨를 나란히 할 수 있다. 이 책은 온라인 공간에서 브랜드를 효과 있게 홍보하는 방법을 꼼꼼하게 짚어 준다.  모든 SNS는 서로 연결되어 있다. ‘공유’와 ‘링크’를 타고 인스타그램의 사진이 블로그로, 블로그에서 인스타그램으로, 인스타그램에서 페이스북으로 쉬지 않고 흐른다. 이 흐름 자체가 곧 강력한 홍보 역할을 한다. 블로그를 중심으로 다양한 SNS를 얼기설기 엮으면 더 많은 방문자를 모아서 소통할 수 있다. 물론 모든 SNS 채널을 다 운영할 필요는 없다. 이 책에서 소개하는 소셜 미디어별 특징과 활용법을 이해하고 자신에게 맞는 SNS부터 시작하면 된다. 파워블로거도 모르는 서치 어드바이저 활용법 공개! 네이버에서 운영하는 서비스 외에 자신이 운영하는 웹 사이트나 SNS 채널을 서치 어드바이저에 등록하면 네이버 검색에 반영된다. 또한 등록한 웹 사이트와 SNS 채널이 잘 검색되는지 검색 현황을 관리할 수도 있다. 유튜브, 페이스북, 개인 홈페이지, 워드프레스 등 다양한 웹 사이트를 한꺼번에 운영하고 있다면  이 책의 안내에 따라 서치 어드바이저에 웹 사이트를 등록하기 바란다. ‘애드포스트’를 간단하게 설정하면 방문자 수, 조회 수에 따라 광고 수익을 낼 수 있다. 또한 자영업자가 운영하면 좋은 ‘스마트스토어’도 담았다. 사업자등록, 통신판매업신고 방법까지 친절하게 다루었으니 블로그로 수익을 내는 방법이 궁금하다면 잘 살펴보기 바란다.  
작성일 : 2024-04-22
[신간] AUTODESK INVENTOR 오토데스크 인벤터 2024 To Fast Track
서윤원. 김다애 지음 / 35,000원 / 도서출판 청담북스   이 책은 인벤터에서 제공하는 지침서나 도움말과 같이 활용할 수 있는 이론과 함께 사용자들로부터 요청이 많았던 ‘조립품 관련 기능들과 활용 방법’에 대해 좀 더 다양하게 다루었다. 또한 성향이 다르거나 관심사항이 다른 독자들도 모두 공통으로 볼 수 있고 도움이 될 만한 내용으로 구성하였다. 이 책을 통해 인벤터를 배우고자 하는 분들에게 도움이 되고자 몇 가지 인벤터 학습 가이드를 제시하고 있다. 첫째, 이 책에서 제안 드리는 방법은 항상 정답이 아니다. 필자가 생각하는 최선의 방법일 뿐이며 시간이 지나고 나중에 다시 더 좋은 방법이 보일 수 있으며 다른 시각을 갖고 있는 사용자분들이 더 좋은 방법을 발견할 수도 있다. 그러므로 책을 통한 학습이 끝나더라도 항상 새롭게 업데이트 되는 신기능들과 기술자료에 관심을 가지는 것이 좋다. 둘째, 여러 가지 다양한 기능을 쓰는 것보다는 간단한 기능이 현실적으로 도움이 된다. 어느 자습서든 할 수 있는 많은 기능을 소개하고 있다. 모델을 작성할 때 돌출 피쳐로 작성이 가능한 간단한 부분을 굳이 스윕, 로프트를 사용할 필요는 없다. 이는 작업 시간뿐만 아니라 이후 후속조치나 설계 변경 시 많은 수정 시간을 초래한다. 그러므로 모델을 ‘어떻게 하면 쉽게 만들 것인가’와 나중에 수정될 내용까지 고려하는 것이 좋다. 셋째, 여러분은 생각보다 인벤터를 잘 다루고 있지 않다. 인벤터 사용에 문제가 없고 실무에 크게 문제가 없다고 인벤터를 잘 사용하는 것은 아니다. 하나의 동일한 모델을 서로 다른 사람이 작업했을 때, 결과는 같지만 과정이 다르기 때문에 후속 작업에서 차이가 발생하기 시작한다. 어려운 기능을 쓰고 복잡하게 만든 모델도 쉬운 기능으로 대체하고 단순한 방법으로 적용해가는 과정으로 모델을 개선시킬 수 도 있다. 많은 분들이 매번 쓰던 기능만 쓰게 되고 활용하는 기능은 전체의 10%도 안 된다는 이야기를 자주 듣는다. 인벤터를 잘 사용하는 실무자들도 책을 봐야 하고 교육을 받아야 하는 이유이다. 넷째, 설계는 도면 관리를 함께 했을 때 완성된다. 도면 관리에 대한 이야기를 꺼냈을 때 불과 10년 전만 해도 개념부터 설명해야 했지만 지금은 대부분의 사용자들이 이에 대해 알고 있으며 시급한 업무 상황 또는 오랫동안 자신만의 방식으로 사용했던 습관 때문에 시도하지 못하는 경우가 많다. 인벤터를 사용하는 이들에게 PDM이라는 것은 더 이상 낯선 단어가 아니다. PDM을 사용하면 인벤터에서는 제공하지 않는 설계 복사와 같은 강력한 기능과 새로운 검색을 경험할 수 있다. 결국 우리는 제품 생산을 위한 도면을 만들기 위해 3D CAD를 사용하므로 도면 관리와 함께 해야 인벤터를 활용을 극대화 시켜 완벽히 사용할 수 있다. * PDM : Product Data Management의 약자로 설계 업무에서 도면과 같이 수반되는 모든 데이터를 관리 할 수 있는 시스템 이렇게 제시해드린 네 가지 가이드는 교재를 모두 학습한 이후부터 더욱 더 체감하고 진가를 느끼게 될 것이다.
작성일 : 2024-04-19
알테어, '데이터 패브릭' 전문 기업 케임브리지 시맨틱스 인수
알테어가 기업 내 분산된 다양한 데이터를 통합하고 관리하는 ‘데이터 패브릭’ 솔루션과 데이터를 그래프 형태로 모델링하는 ‘그래프 데이터베이스’ 기술을 보유한 전문 기업 ‘케임브리지 시맨틱스(Cambridge Semantics)’를 인수했다고 발표했다. 케임브리지 시맨틱스는 2007년 IBM 첨단기술그룹 출신의 혁신/엔지니어링 팀이 설립한 기업이다. 이번 인수로 알테어는 IBM 네티자(IBM Netezza)와 아마존 레드시프트(Amazon Redshift) 데이터웨어하우스 개발에 핵심적인 역할을 한 케임브리지 시맨틱스의 기술 인력도 영입하게 됐다.  알테어의 샘 마할링감 최고기술책임자(CTO)는 “이번 인수로 알테어의 분석/데이터 사이언스 팀에 탁월한 데이터웨어하우징 전문성을 보유하게 됐다”면서, “데이터 생성에서 실제 비즈니스 영향까지, 전체 데이터 라이프사이클을 완벽히 이해하는 엔지니어링 그룹을 갖추게 됐다”고 설명했다. 케임브리지 시맨틱스의 지식 그래프, 데이터 거버넌스, 가상화, 검색 기술은 알테어의 데이터 분석 플랫폼인 ‘래피드마이너’에 통합돼 기존 데이터 준비, ETL, 데이터 사이언스, BI, MLOps, 워크로드 관리 등의 기능과 시너지를 낼 예정이다. 알테어의 짐 스카파 CEO는 “지식그래프는 데이터 패브릭의 핵심 요소로서 기업의 분산 데이터를 통합해 통찰력 있는 의사결정과 혁신적 데이터 활용을 가능케 한다”면서, “케임브리지 시맨틱스 인수로 대규모 데이터와 복잡한 질의 처리, 비즈니스 컨텍스트를 제공하여 AI의 단점인 할루시네이션(hallucination : 환각현상) 문제의 해결이 가능한 최고 수준의 지식 그래프 기술을 확보했다”고 밝혔다.  
작성일 : 2024-04-19
나문희 배우와 함께하는 AI 브랜디드 콘텐츠 '나문희의 첫사랑' 공개
AI로 구현한 나문희 배우(좌)와 영문희(우) 국민 대(大)배우 나문희씨가 영화 ‘수상한 그녀‘처럼 20대 리즈 시절로 돌아갔다. 인공지능(AI)을 통해서다. AI 엔터테인먼트 기술 분야의 선두주자인 엠씨에이(이하 MCA)는 한국마사회와의 협업으로  'AI 나문희 배우'와 함께 하는 흥미로운 브랜디드 콘텐츠를 선보였다고 밝혔다.  '나문희의 첫사랑'이라는 제목으로 공개된 이번 영상은 AI로 구현한 현재의 나문희 배우와 젊어진 나문희 배우가  동시에 등장하여, 스타가 할 수 없는 것을 가능하게 하고 대중들에게 새로운 경험을 선사한다.  이번 MCA의 첫 번째 프로젝트는 나문희 배우의 AI 캐릭터 '영문희'로, 다양한 SNS 플랫폼에서 대중들에게  공개돼 큰 인기를 얻고 있다. 이를 통해 MCA는 스타를 영화나 드라마 같은 대형 미디어만이 아니라 SNS 영상에 지속적으로 등장시켜  대중의 일상 속으로 다가가 친근감을 높이고, 엔터테인먼트 산업에 새로운 지평을 제시하고자 했다.  MCA가 생성형 AI 기술을 사용하여 제작한 이번 브랜디드 콘텐츠는 한국마사회와 협업을 통해 나문희 배우의  '디지털 더블(Digital Double)'을 구현하고, 나문희 배우의 영상과 목소리를 만들어낸 MCA의 혁신적인 능력을  보여주었다는 점에서 의미가 크다. 특히 이번 브랜디드 콘텐츠는 기존 가상인간들보다 훨씬 유명하고 파급력 있는 스타를 활용했다는 점에서  한 차원 높은 콘텐츠라는 평가를 받고 있는데, 대중들에게 스타급 유명 배우가 등장해 보다 친근한 엔터테인먼트  경험을 제공함으로써 브랜디드 콘텐츠의 효과도 배가시켜줄 것으로 예상된다.  지금까지는 대다수 가상 인간이 무명인이나 무명 배우였으나 이번에 국민 대배우로 평가받는 나문희 배우를  대상으로 진행하였기 때문이다. 이와 함께 이번 AI 캐릭터 '영문희'는 단발성 광고가 아니라 지속적인 활용도 가능하다. MCA의 기술로 인해  합리적인 비용으로 대기업 뿐만 아니라 중소·벤처기업들도 유명인을 모델로 활용할 수 있게 된 것이다. 기존에는 대기업들이 주로 유명 배우나 모델을 사용할 수 있었지만 MCA의 기술로 중견·중소·벤처기업 및  스타트업들도 유명인을 모델로 기용해 자사 제품이나 기업홍보를 할 수 있게 됐다. MCA는 중견·중소기업 및 스타트업에서 합리적인 가격에 광고를 제작할 수 있도록 스타 배우들의 라이선스를  계약하고 있다. 이번 나문희 배우는 MCA와 10년 계약을 체결했다. 이번 동영상은 한국마사회 경마방송 KRBC 유튜브, 틱톡의 '나문희 채널 (문희41)'에서 볼 수 있으며 네이버  클립에서 '수상한 문희'를 검색해도 시청가능하다. 박재수 MCA 대표이사는 "이번 프로젝트에서 사용한 고급 AI 휴먼 기술과 AI 보이스 기술, 그리고 생성형 AI는  AI 관련 기술들이 급속도로 발전하고 있는 상황에서 이를 실제로 적용하고 활용한 사례"라며 "이러한 최첨단  AI 기술들이 막상 현실에 적용하기 어려울 뿐만 아니라, 일회성 사례로 그치는 경우가 많았다. 그러나 MCA는  이번 영상에서 최신 AI 기술들을 총동원하여 현실에 필요한 영상 콘텐츠를 만들어 AI 기술이 세상에 널리  도움을 줄 수 있다는 걸 보여주고자 했다"고 전했다. 이어 "MCA는 향후에도 계속해서 스타가 등장하는 친근한 영상들을 빠르게 제작하고, 지속적으로 제공할  예정"이라고 덧붙였다. 한편, MCA는 영화 산업 전문가들과 AI 기술 전문가들이 함께 모여 설립한 회사로, 스타의 AI 캐릭터를 영화,  드라마, 광고, 교육영상, AI 친구 등 다양한 분야에 편리하게 활용할 수 있게 하여 스타와 기업, 대중 모두를  이롭게 하는 것을 목표로 하는 기업이다.   나문희 배우  
작성일 : 2024-04-09
로컬 호스트 LLM 오픈소스 기반 BIM 전문가 챗봇 서비스 만들어보기
BIM 칼럼니스트 강태욱의 이슈 & 토크   요즘 LLM 모델을 사용하는 방법이 점차 간편해지고 있어 자체적으로 LLM을 구축해 챗봇, 전문가 시스템 등을 자신의 서버에서 제공하는 경우가 많아지고 있다. 이번 호에서는 GPU가 있는 PC에서 직접 실행해 볼 수 있도록, 로컬 호스트 LLM(대규모 언어 모델) 오픈소스 기반의 BIM 전문가 챗봇 서비스를 간단히 개발해 본다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 이메일 | laputa99999@gmail.com 페이스북 | www.facebook.com/laputa999 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | http://www.facebook.com/groups/digestpodcast   이번 호에서는 기존의 BIM PDF 파일을 검색해 학습하고, LLM에 RAG(Retrieval-augmented generation) 증강 학습한 후, 이를 간단한 UI로 웹 서비스하는 과정을 간략히 따라해 본다. 이번 호의 내용은 로컬 LLM의 편한 개발을 지원하는 올라마(Ollama), LLM 프롬프트 엔지니어링 프레임워크인 랭체인(LangChain), 텍스트 임베딩 벡터 데이터베이스 크로마(Chroma), 손쉬운 웹 앱 개발 지원 도구인 스트림릿(Streamlit)을 사용한다. 이를 이용해 간단하게 BIM 전문 지식을 PDF로 학습한 챗봇을 개발한다.   그림 1. 로컬 호스트 LLM 챗봇 아키텍처   그림 2. 구현된 BIM 지식 챗봇 서비스   LLM에 관련된 깊은 내용은 다음의 링크를 참고한다. 이 글은 여러 참고 자료를 이용해 작성된 것이다. 상세 내용은 레퍼런스를 참고하기 바란다. Facebook LLAMA-2 paper : https://daddynkidsmakers.blogspot.com/2024/02/llama-2.html Facebook LLAMA-2 installation : https://daddynkidsmakers.blogspot.com/2023/09/llama2.html LLM은 빅테크 업체 간 경쟁이 심한 분야이다. 이와 관련해서 젬마(Gemma), MPT-7B과 같은 LLM 모델이 오픈소스로 공개되고 있어 선택지가 많아지고 있다. 이와 관련해서는 다음을 참고한다.  Google Gemma : https://github.com/google/gemma_pytorch Blooom : https://huggingface.co/bigscience/bloom   설치 설치를 위해서는 엔비디아 드라이버, CUDA, 텐서플로(TensorFlow), 파이토치(PyTorch) 등 기본 딥러닝 개발 환경이 설치되어 있어야 한다.(최소 구동을 위한 GPU RAM은 6GB이다.) TensorFlow 설치 : https://www.tensorflow.org/install/pip?hl=ko#windows-native_1 Start Locally | PyTorch 설치 : https://pytorch.org/get-started/locally/ 설치 순서는 다음과 같다.  1. 기본 패키지를 설치한다. LLM 모델 기반 서비스 개발 지원 라이브러리 랭체인, 웹 앱 UI 개발을 지원하는 스트림릿, 텍스트 임베딩 벡터 데이터베이스 크로마 DB 등을 설치한다. pip install langchain streamlit streamlit_chat pypdf fastembed chardet pip install chromadb==0.4.15   그림 3. 다양한 LLM 모델을 이용한 서비스 개발을 지원하는 랭체인 패키지   그림 4. 간단한 코드로 웹 앱 개발을 지원하는 UI 라이브러리 패키지 streamlit.io   혹은 pip와 유사한 패키지 설치 관리자인 poetry를 설치한 후, 다음 사용 패키지들을 pyproject.toml 이름으로 저장하고 설치한다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2024-04-01
엔비디아, 산업 자동화 위해 디지털 트윈과 실시간 AI 결합 소개
엔비디아가 디지털 트윈으로 실시간 AI를 시뮬레이션해 산업 자동화에 큰 발전을 이룰 수 있다고 소개했다. 엔비디아 창립자 겸 CEO 젠슨 황(Jensen Huang)은 GTC 기조연설에서 개발자가 디지털 트윈(digital twin)을 사용해 대규모 실시간 AI를 산업 인프라에 적용하기 전, 이 전체를 먼저 시뮬레이션 한 후에 개발, 검증하고 개선한다면 상당한 시간과 비용을 절감할 수 있다는 것을 시연을 통해 보여줬다. 실시간(Real-Time) AI는 제조, 공장 물류, 로보틱스 분야의 중대한 작업을 처리하는 데 큰 도움을 주고 있다. 시뮬레이션을 우선으로 실시하는 접근방식은 부피가 큰 제품, 고가의 장비, 협동 로봇 코봇(cobot) 환경, 복잡한 물류 시설을 다루는 산업에서 자동화 기술의 발전을 한 단계 끌어올리고 있다. 엔비디아 옴니버스(Omniverse), 메트로폴리스(Metropolis), 아이작(Isaac)과 cuOpt 플랫폼이 서로 상호작용하는 AI 훈련장(gym)에서, 개발자들은 인간과 로봇이 예측 불가능한 복잡한 상황을 탐색할 수 있도록 AI 에이전트(Agent)를 훈련시킬 수 있다. 데모 영상은 오픈USD(OpenUSD) 앱 개발과 연결을 위해 엔비디아 옴니버스 플랫폼으로 만들어진 10만 평방 피트 규모의 창고 디지털 트윈을 보여준다. 이는 수십의 디지털 작업자와 다수의 자율주행로봇(autonomous mobile robot, AMR), 비전 AI 에이전트와 센서를 위한 시뮬레이션 환경으로 활용되고 있다. 엔비디아 아이작 퍼셉터(Isaac Perceptor) 멀티-센서 스택을 실행하는 각각의 자율주행로봇은 모두 디지털 트윈에서 시뮬레이션한 6개의 센서로 시각 정보를 처리한다. 동시에 비전 AI용 엔비디아 메트로폴리스 플랫폼은 전체 창고에서 작업자 활동에 대한 단일 중앙집중식 지도를 생성해 천장에 장착된 100개의 시뮬레이션 카메라 스트림과 멀티 카메라 추적을 융합한다. 이 중앙집중식 점유 지도(occupancy map)는 복잡한 라우팅 문제를 해결하기 위해 엔비디아 cuOpt 엔진이 계산한 자율주행로봇의 최적 경로를 알려준다. AI 기반 최고의 최적화 마이크로서비스인 cuOpt는 GPU 가속 진화 알고리즘을 사용해 여러 제약 조건이 있는 복잡한 라우팅 문제를 해결한다. 이 모든 과정은 실시간으로 이루어지며, 아이작 미션 컨트롤(Isaac Mission Control) 은 cuOpt의 지도 데이터와 경로 그래프로 모든 자율주행로봇을 조정해 명령을 전송하고 실행하게 한다. 산업 디지털화를 위한 AI 훈련장 AI 에이전트는 공장에서 다수의 로봇을 관리하거나 공급망 유통 센터에서 인간과 로봇의 협업을 위해 간소화된 구성을 파악하는 등 대규모 산업 환경을 지원한다. 이러한 복잡한 에이전트를 구축하려면 개발자는 AI 평가, 시뮬레이션과 훈련을 위해 물리적으로 정확하게 구현된 AI 훈련장과 같은 디지털 트윈 환경이 필요하다. AI 에이전트와 자율주행로봇은 소프트웨어 인 더 루프(software-in-the-loop, SIL) AI 테스트를 통해 예측하기 힘든 실제 환경에 적응할 수 있다. 위의 데모에서는 자율주행로봇이 계획한 경로 중간에 사고가 발생해 경로가 차단되고 로봇은 화물 운반대를 픽업하지 못한다. 그러면 엔비디아 메트로폴리스는 점유 그리드(occupancy grid)를 업데이트해 모든 사람, 로봇, 물체가 한 눈에 보이도록 매핑한다. 그 다음, 자율주행로봇은 cuOpt가 계획한 최적 경로에 따라 대응해 가동 중단 시간을 최소화한다. 메트로폴리스 비전 파운데이션 모델이 엔비디아 비전 인사이트 에이전트(Visual Insight Agent, VIA) 프레임워크를 구동함으로써, AI 에이전트는 "공장의 3번 통로에서 어떤 상황이 발생했습니까?"와 같은 운영 팀의 질문에 "오후 3시 30분에 선반에서 상자가 떨어져 통로를 막았습니다"와 같이 바로 통찰력 있는 답변을 제공할 수 있다. 개발자는 비전 인사이트 에이전트 프레임워크를 통해 엣지와 클라우드 비전에 배포된 언어 모델을 사용, 대량의 실시간 혹은 보관된 영상과 이미지를 처리할 수 있는 AI 에이전트를 구축할 수 있다. 이 차세대 비전 AI 에이전트는 자연어를 사용하는 영상에서 요약, 검색, 그리고 실행가능한 인사이트를 추출함으로써 거의 모든 산업에 도움이 될 수 있을 것으로 기대된다. 이러한 모든 AI 기능은 지속적인 시뮬레이션 기반 훈련을 통해 향상되며, 모듈식 엔비디아 NIM 추론 마이크로서비스로 배포된다.      
작성일 : 2024-03-31
HPE, 생성형 AI용 엔드 투 엔드 AI 네이티브 포트폴리오 출시
HPE는 엔비디아 GTC에서 생성형 AI, 딥러닝, 머신러닝 애플리케이션의 운영 고급화를 위한 통합 AI 네이티브 포트폴리오를 새롭게 업데이트했다고 발표했다. 이번에 발표된 업데이트는 ▲HPE와 엔비디아가 공동 엔지니어링한 풀스택 생성형 AI 솔루션 ▲HPE 머신러닝 추론 소프트웨어 프리뷰 버전 ▲엔터프라이즈급 검생증강생성(RAG : Retrieval-augmented generation) 레퍼런스 아키텍처 ▲신규 엔비디아 블랙웰(NVIDIA Blackwell) 플랫폼 기반 제품 개발 지원 등을 포함한다. 대규모 AI 모델의 개발 및 훈련을 위해 사전 구성 및 테스트된 풀스택 솔루션을 원하는 기업을 위해 생성형 AI용 HPE 슈퍼컴퓨팅 솔루션도 출시됐다. 고객들이 생성형 AI 및 딥러닝 프로젝트 개발을 가속할 수 있도록 목적 기반의 턴키 솔루션은 엔비디아 칩으로 구동되며 최대 168개의 엔비디아 GH200 그레이스 호퍼 슈퍼칩(GH Grace Hopper Superchip)이 제공된다. 이 솔루션은 대기업, 연구소 및 정부 기관들이 인공지능 및 머신러닝 소프트웨어 스택을 활용한 모델 개발 과정을 더욱 단순화할 수 있도록 지원한다. 이러한 소프트웨어 스택은 고객들이 대규모 언어 모델(LLM), 추천 시스템, 벡터 데이터 베이스 등 생성형 AI와 딥러닝 프로젝트를 더욱 빠르게 추진할 수 있도록 한다. 설치에서부터 모든 서비스가 제공되는 턴키 솔루션을 이용해 AI 연구 센터와 대기업은 가치 창출까지의 시간을 더욱 단축하고 훈련은 2~3배 더욱 신속히 진행할 수 있다.     HPE의 생성형 AI용 엔터프라이즈 컴퓨팅 솔루션은 유연하고 확장 가능한 사용량 기반 과금 모델을 제공하는 HPE 그린레이크(HPE GreenLake)를 통해 이용할 수 있다. 엔비디아와 공동 엔지니어링하여 사전 구성된 미세 조정(fine-tuning) 및 추론 솔루션은 생성형 AI 애플리케이션을 제작하기 위해 필요한 정확한 컴퓨팅, 스토리지, 소프트웨어, 네트워킹 및 컨설팅 서비스를 제공함으로써 소요 시간과 비용을 절감해 준다. 이러한 AI 네이티브 풀스택 솔루션은 프라이빗 데이터 기반의 파운데이셔널 모델을 제작하기 위해 필요한 속도, 규모, 관리 기능을 제공하고 하이브리드 클라우드 모델 내 생성형 AI 애플리케이션을 배포할 수 있도록 지원한다. HPE와 엔비디아의 고성능 AI 컴퓨팅 클러스터 및 소프트웨어를 기반으로 하는 이 솔루션은 경량 모델 미세조정, RAG, 대규모 추론 등에 이상적이다. 이 솔루션을 실행하는 700억 개의 파라미터를 가진 라마 2(Llama 2) 모델의 미세 조정 시간은 노드 수에 따라 선형적으로 감소하여 16노드 시스템에서는 6분이 소요된다. 이러한 속도와 성능 덕분에 고객은 버추얼 어시스턴트, 지능형 챗봇, 기업용 검색과 같은 AI 애플리케이션으로 비즈니스 생산성을 개선하여 가치 실현을 더욱 빠르게 달성할 수 있다. 또한, 해당 솔루션은 HPE 프로라이언트 DL380a Gen11 서버(HPE ProLiant DL380a Server)를 기반으로 엔비디아 GPU, 엔비디아 스펙트럼-X 이더넷(NVIDIA Spectrum-X Ethernet) 네트워킹 플랫폼, 엔비디아 블루필드-3 DPU(NVIDIA BlueField-3 DPU)으로 사전 구성되어 있다. 이에 더해 HPE의 머신러닝 플랫폼과 애널리틱스 소프트웨어, 생성형 AI 모델 추론용으로 최적화된 엔디비아 NIM 마이크로서비스가 제공되는 엔비디아 AI 엔터프라이즈 5.0 소프트웨어뿐만 아니라 엔비디아 네모 리트리버(NeMo Retriever) 및 기타 데이터 사이언스와 AI 라이브러리를 이용할 수 있다. HPE의 안토니오 네리(Antonio Neri) CEO는 “생성형 AI의 미래를 실현하고 AI 생명주기 전반을 다루기 위한 솔루션은 설계부터 하이브리드로 제작되어야 한다. AI는 하이브리드 클라우드 환경이 필요한 워크로드로, 온프레미스나 코로케이션 시설, 퍼블릭 클라우드에서 AI 모델을 훈련하는 것부터 에지에서의 추론 작업까지 모든 환경에 걸쳐 진행된다”면서, “HPE와 엔비디아는 공동 설계한 AI 소프트웨어 및 하드웨어 솔루션을 지속적으로 선보이며, 고객들이 기획에서부터 제작까지 생성형 AI를 가속해서 개발하고 배포할 수 있도록 도와줄 것”이라고 말했다. 엔비디아의 젠슨 황(Jensen Huang) CEO는 “생성형 AI는 커넥티드 디바이스, 데이터 센터 및 클라우드 내 데이터에서 인사이트를 도출해내며 전 산업의 혁신을 일으킬 수 있다. 엔비디아와 HPE의 협력 확대를 통해 기업들은 데이터를 활용하여 새로운 AI 애플리케이션을 개발 및 배포함으로써 전례 없는 생산성 향상을 경험하고 비즈니스를 새롭게 전환할 수 있을 것”이라고 말했다.
작성일 : 2024-03-26
스노우플레이크, “데이터 클라우드 플랫폼으로 AI 기술의 생산성 높인다”
데이터 클라우드 기업 스노우플레이크의 마이크 스카펠리(Mike Scarpelli) 최고재무책임자(CFO)가 한국을 방문해 “AI 시대에 발맞춰 고객이 애플리케이션 전략을 구축하고 실행하는 과정에 스노우플레이크 데이터 클라우드 플랫폼에서 AI 및 LLM 기술로 생산성을 높일 수 있도록 지속적으로 지원할 것”이라고 강조했다. 스노우플레이크는 3월 13일 국내 주요 기업 임원들을 초청해 이그젝큐티브 라운드테이블 고객 세미나를 진행했다. 이 행사에서 마이크 스카펠리 CFO와 존 로버슨(Jon Robertson) APJ 세일즈 총괄, 크리스 차일드(Chris Child) 스노우플레이크 제품 시니어 디렉터가 데이터 및 AI 전략과 전망을 공유했다. 또한 스노우플레이크 코리아 최기영 사장과 한국 딜로이트 그룹 김우성 전무를 비롯해 CJ프레시웨이, BC카드, LG유플러스 등의 고객사가 연사로 참여해 데이터 및 생성형 AI 등에 대한 인사이트와 경험을 전했다. 스카펠리 CFO는 AI 검색 엔진 니바(Neeva) 인수, AI 솔루션 제공업체 미스트랄 AI(Mistral AI) 파트너십 등 AI 지원을 가속화하기 위한 스노우플레이크의 노력을 설명했다. 그는 “전략적인 인수합병과 시의적절한 투자를 통해 고객에게 민주화된 AI 경험을 제공할 수 있게 되었다”며, “고객이 보안과 거버넌스가 보장된 스노우플레이크 플랫폼에서 AI 및 LLM을 활용해 쉽고 비용 효율적으로 애플리케이션을 구축하고, 이를 기반으로 혁신적인 AI 성공 사례를 만들어 나가기를 바란다”고 말했다. 차일드 시니어 디렉터는 2023년 인수한 데이터 앱 개발 플랫폼 스트림릿(Streamlit)에 대해 “스트림릿은 고객이 데이터 분석을 통해 유의미한 인사이트를 빠르게 확보하고 대화형 애플리케이션 구축 기능을 활용해 쉽게 풀스택 AI 앱을 개발할 수 있도록 한다”며, “이처럼 스노우플레이크는 통합된 데이터를 보다 효과적으로 활용하고 새로운 비즈니스 모델을 창출할 수 있도록 지원한다”고 말했다. 한국 딜로이트 그룹의 김우성 전무는 ‘AI 시대의 엔터프라이즈 데이터 관리 방안’을 주제로 한 발표에서 “정제되지 않은 데이터로 생성형 AI를 더 잘 활용할 수 있도록 ▲통합 ▲분석 ▲관리 및 표준화 ▲거버넌스 수립이 가능한 시스템 요건을 갖춘 유연한 데이터 플랫폼을 선택해야 한다”고 언급하며, “스노우플레이크는 4가지 요건을 모두 충족하는 데이터 플랫폼 기업”이라고 설명했다. 패널 토크에서는 CJ프레시웨이 김종호 디지털 혁신 담당과 BC카드 데이터 사업본부 오성수 본부장, LG유플러스 데이터 전략 및 관리 총괄 조연호 책임이 각사에서 데이터 클라우드 플랫폼을 활용하는 사례와 효과에 대해 설명했다. CJ프레시웨이 김종호 디지털 혁신 담당은 “데이터를 활용해 새로운 비즈니스 기회를 창출하면서 동시에 기업의 생산성을 높이기 위해 클라우드 전환을 고려하게 되었다”며, “클라우드 전환으로 데이터를 IT부서에서 받아 활용하는 것이 아니라 현업 직원들이 직접 공유하고 분석할 수 있게 되었다”고 전했다. LG유플러스 마이데이터 서비스를 총괄하고 있는 조연호 책임은 스노우플레이크를 도입하게 된 이유에 대해 “마이데이터 서비스는 고객의 신용정보와 같이 민감한 개인정보를 다루는 만큼 안전한 데이터 관리를 위한 보안 환경 구축이 필수”라며, “스노우플레이크는 금융보안원의 클라우드 서비스 공급자(CSP) 안정성 평가를 완료했을 뿐 아니라 강력한 보안성과 일관된 거버넌스를 제공해 개인화된 데이터 시대에 적합하다”고 설명했다. 또한 스노우플레이크의 데이터 거래 플랫폼 마켓플레이스에서 데이터 세트를 제공하고 있는 BC카드 데이터 사업본부 오성수 본부장은 데이터 기반 솔루션 제공업체로서 데이터를 통한 수익화 모델을 성공적으로 구축한 경험을 소개했다. 그는 “스노우플레이크 마켓플레이스는 자사가 보유한 유의미한 데이터를 더 많은 잠재 고객에게 도달해 공유할 수 있는 기회를 제공했다”며, “마켓플레이스는 기업이 민감한 정보는 철저히 보호하면서도 데이터 비즈니스를 확장하고 경쟁력을 향상하는 데에 적합한 플랫폼”이라고 말했다.
작성일 : 2024-03-20
델, 엔비디아 기반의 ‘AI 팩토리 솔루션’ 선보여
델 테크놀로지스가 엔비디아와 엔터프라이즈 AI 적용 확산을 위해 전략적 협력을 강화하면서, 신규 솔루션인 ‘델 AI 팩토리 위드 엔비디아(Dell AI Factory with NVIDIA)’를 비롯해 ‘델 생성형 AI 솔루션(Dell Generative AI Solutions)’ 포트폴리오를 확대한다고 밝혔다. 이는 기업과 기관이 자체 보유한 데이터와 AI 툴, 그리고 온프레미스 인프라를 보다 안전하고 빠르게 통합하여 생성형 AI 투자 효과를 극대화하도록 돕는 것이 핵심이다. 델과 엔비디아는 델의 엔드-투-엔드 생성형 AI 솔루션 포트폴리오를 강화하고, 고객들이 비즈니스 혁신을 가속화하는 한편 생산성을 높일 수 있도록 지원할 계획이다. ‘델 AI 팩토리 위드 엔비디아’는 델의 서버, 스토리지, 클라이언트 디바이스, 소프트웨어 및 서비스와 엔비디아의 AI 인프라 및 소프트웨어 팩키지를 결합한 엔드-투-엔드 솔루션으로 고속 네트워크 패브릭을 기반으로 구성된다. 엄격한 테스트와 검증을 거친 랙 단위 설계가 가능하며, 이를 통해 데이터로부터 가치 있는 통찰력과 성과를 이끌어낼 수 있도록 돕는다. 이 솔루션은 또한 엔터프라이즈 데이터 보안 분야의 기존 오퍼링들을 비롯해 보안 및 개인 정보 보호를 위한 델의 서비스 오퍼링과 함께 활용할 수 있다.      ‘델 AI 팩토리 위드 엔비디아’는 모델 생성 및 튜닝에서부터 증강, 그리고 추론에 이르는 생성형 AI의 전체 수명주기에 걸쳐 다양한 AI 활용 사례와 애플리케이션을 지원한다. 델이 제공하는 프로페셔널 서비스를 활용해 조직에서는 전략을 세우고, 데이터를 준비하여 구현하고 적용하기 까지의 과정을 가속할 수 있으며, 조직 전반의 AI 역량을 향상시킬 수 있다. 이 솔루션은 기존의 채널 파트너를 통해 구매하거나, ‘델 에이펙스(Dell APEX)’ 구독형 모델을 통해 도입할 수 있다. 델 파워엣지 XE9680(Dell PowerEdge XE9680) 서버는 ‘엔비디아 B200 텐서 코어 GPU’를 포함한 신규 엔비디아 GPU 모델을 지원할 예정이며, 이를 통해 최대 15배 높은 AI 추론 성능과 TCO 절감을 기대할 수 있다. 또한 델 파워엣지 서버는 엔비디아 블랙웰 아키텍처 기반의 다른 여러 GPU와 H200 텐서 코어 GPU, 엔비디아 퀀텀-2 인피니밴드(NVIDIA Quantum-2 InfiniBand) 및 스펙트럼-X 이더넷(Spectrum-X Ethernet) 네트워킹 플랫폼도 지원할 예정이다. ‘검색 증강 생성을 위한 델과 엔비디아의 생성형 AI 솔루션(Dell Generative AI Solutions with NVIDIA - Retrieval-Augmented Generation)’은 ‘엔비디아 AI 엔터프라이즈(NVIDIA AI Enterprise)’의 새로운 마이크로서비스를 활용하여 사전 검증된 풀스택 솔루션을 제공함으로써 RAG(검색 증강 생성) 기술 도입을 가속한다. 자체 보유한 고유 데이터 및 지식 베이스와 같이 사실에 근거한 새로운 데이터 세트를 통해 생성형 AI 모델 품질을 개선하고 결과 정확도를 높일 수 있다. ‘모델 훈련을 위한 델과 엔비디아의 생성형 AI 솔루션(Dell Generative AI Solutions with NVIDIA - Model Training)은 자체적으로 도메인 맞춤형 AI 모델을 구축하려는 기업 및 기관들을 위해 사전 검증된 풀스택 솔루션을 제공한다. 이와 함께 ‘생성형 AI를 위한 델 프로페셔널 서비스(Dell Professional Services for GenAI)’는 포트폴리오 전반에 대한 통합, 관리, 보호를 지원하여 비즈니스 성과를 더 빠르게 달성할 수 있게끔 돕는다. 델 구현 서비스(Dell Implementation Services)에는 델의 신규 RAG 솔루션 및 모델 훈련을 비롯해 보안 위험을 평가하고 영향을 최소화하도록 돕는 ‘생성형 AI 데이터 보호를 위한 자문 서비스(Advisory Services for GenAI Data Security)’ 등이 포함된다. 엔비디아의 젠슨 황(Jensen Huang) CEO는 “AI 팩토리는 향후 산업군 별로 인텔리전스를 창출하는 핵심 역할을 할 것”이라고 전망하며, “엔비디아와 델은 함께 기업이 AI 팩토리를 통해 기업들이 자체 보유한 고유의 데이터를 강력한 인사이트로 전환할 수 있도록 지원하고 있다”고 말했다. 한국 델 테크놀로지스의 김경진 총괄 사장은 “엔터프라이즈 고객들은 복잡한 AI 요구에 대응하고 이를 빠르게 해결할 수 있는 솔루션을 갈망하고 있다. 델과 엔비디아가 협력하는 이유도 여기에 있다”고 설명하며 “양사의 노력으로 탄생한 턴키 솔루션은 데이터와 사용 사례를 원활하게 통합하고, 맞춤형 생성 AI 모델 개발을 간소화한다”고 덧붙였다.
작성일 : 2024-03-19