• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "ERP"에 대한 통합 검색 내용이 2,402개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
인텔, 최신 LLM 라마 3.1 최적화 업데이트 지원
인텔은 메타(Meta)의 최신 LLM(대규모 언어 모델)인 라마 3.1(Llama 3.1)에 데이터센터, 에지 및 클라이언트 AI 제품 전반에 걸친 성능 데이터 및 최적화를 제공한다고 밝혔다. 인텔은 ‘AI 에브리웨어’ 전략을 위해 AI 소프트웨어 생태계에 지속적으로 투자하고 있으며, 새로운 모델이 인텔의 AI 하드웨어에 최적화되도록 보장하고 있다. 메타는 지난 4월 라마 3 출시에 이어, 7월에는 현재까지 가장 성능이 뛰어난 모델인 라마 3.1을 출시했다. 라마 3.1은 공개적으로 사용 가능한 가장 큰 파운데이션 모델인 라마 3.1 405B(4천 50억개 모델)를 포함해 다양한 규모와 기능에서 여러 새로운 업데이트 모델을 제공한다. 이 새로운 모델들은 파이토치(PyTorch) 및 인텔 파이토치 익스텐션(Intel Extension for PyTorch), 딥스피드(DeepSpeed), 허깅 페이스 옵티멈 라이브러리(Hugging Face* Optimum libraries), vLLM 등 개방형 생태계 소프트웨어를 통해 인텔 AI 제품에서 활성화 및 최적화된다. 또한 생태계 전반에서 최고의 혁신을 활용하는 개방형, 멀티 벤더, 강력하고 컴포저블한 생성형 AI 솔루션을 만들기 위한 LF AI 및 데이터 재단(LF AI & Data Foundation)의 새로운 오픈 플랫폼 프로젝트인 OPEA(Open Platform for EntERPrise AI) 역시 이 모델들을 지원한다. 라마 3.1 다국어 LLM 컬렉션은 8B, 70B, 405B 크기(텍스트 인/텍스트 아웃)의 사전 학습 및 조정(인스트럭션 튜닝)된 생성 모델 컬렉션으로, 모든 모델은 8개 구술어에 걸쳐 긴 컨텍스트 길이(128k)를 지원한다. 라마 3.1 405B는 일반 지식, 조작성, 수학, 도구 사용 및 다국어 번역에 있어 최첨단 기능을 갖추고 있다. 이를 통해 커뮤니티는 합성 데이터 생성 및 모델 증류(model distillation)와 같은 새로운 기능을 활용할 수 있게 될 것이다. 한편, 인텔은 생성형 AI 및 대형 언어 모델(LLM)의 고성능 가속을 위한 가우디(Intel Gaudi) 가속기 및 일반 컴퓨팅의 유비쿼터스 백본 역할을 하는 인텔 제온(Intel Xeon) 프로세서, 클라이언트와 에지에서 높은 온디바이스 AI 추론 성능을 제공하는 인텔 코어 울트라(Intel Core Ultra) 프로세서 및 인텔 아크(Intel Arc) 그래픽이 탑재된 AI PC를 포함해 인텔 AI 제품 포트폴리오 상에서의 라마 3.1 모델 초기 성능 측정 결과를 소개했다.   ▲ 16대의 인텔 가우디 가속기 상에서의 라마 3.1 405B 추론 결과   ▲ 5세대 인텔 제온 스케일러블 프로세서 상에서의 라마 3.1 추론 지연 시간   ▲ 인텔 아크 GPU가 내장된 인텔 코어 울트라 7 165H 기반의 AI PC에서 라마 3.1 추론 다음 토큰 대기 시간
작성일 : 2024-07-26
엔비디아 AI 파운드리, 메타 라마 3.1 활용해 기업 맞춤형 AI 강화
엔비디아가 메타(Meta)의 오픈소스 AI 모델 컬렉션인 라마 3.1(Llama 3.1)을 통해 전 세계 기업의 생성형 AI를 강화하는 엔비디아 AI 파운드리(NVIDIA AI Foundry) 서비스와 엔비디아 NIM 추론 마이크로서비스를 발표했다. 이를 통해 기업과 국가는 엔비디아 AI 파운드리를 통해 라마 3.1과 엔비디아 소프트웨어, 컴퓨팅, 전문성을 활용해 도메인별 산업 사용 사례에 맞는 맞춤형 ‘슈퍼모델’을 만들 수 있다. 기업은 자체 데이터는 물론, 라마 3.1 405B와 엔비디아 네모트론(Nemotron) 리워드 모델에서 생성된 합성 데이터로 이러한 슈퍼모델을 훈련할 수 있다. 엔비디아 AI 파운드리는 높은 수준의 퍼블릭 클라우드와 공동 설계된 엔비디아 DGX 클라우드(DGX Cloud) AI 플랫폼으로 구동된다. 이를 통해 AI 수요 변화에 따라 쉽게 확장할 수 있는 방대한 컴퓨팅 리소스를 기업에게 제공한다. 새로운 서비스는 기업뿐만 아니라 독자적인 AI 전략을 개발 중인 국가들의 맞춤형 대규모 언어 모델(LLM) 구축을 지원한다. 이들은 고유한 비즈니스나 문화를 반영하는 생성형 AI 애플리케이션을 위해 도메인별 지식을 갖춘 맞춤형 LLM을 구축하고자 한다. 엔비디아는 프로덕션 AI용 라마 3.1 모델의 엔터프라이즈 배포를 강화하기 위해 라마 3.1 모델용 엔비디아 NIM 추론 마이크로서비스를 다운로드할 수 있도록 제공한다. NIM 마이크로서비스는 프로덕션 환경에서 라마 3.1 모델을 배포하는 빠른 방법이며, NIM 없이 추론을 실행하는 것보다 최대 2.5배 더 높은 처리량을 제공한다. 기업은 라마 3.1 NIM 마이크로서비스를 새로운 엔비디아 네모 리트리버(NeMo Retriever) NIM 마이크로서비스와 결합해 AI 코파일럿, 어시스턴트, 디지털 휴먼 아바타를 위한 최첨단 검색 파이프라인을 구축할 수 있다.     엔비디아 AI 파운드리는 맞춤형 슈퍼모델을 빠르게 구축할 수 있는 엔드투엔드 서비스를 제공한다. 이는 엔비디아 소프트웨어, 인프라, 전문성 등을 개방형 커뮤니티 모델, 기술, 엔비디아 AI 에코시스템의 지원에 결합한다. 기업은 엔비디아 AI 파운드리를 통해 라마 3.1 모델과 엔비디아 네모(NeMo) 플랫폼을 사용해 맞춤형 모델을 만들 수 있다. 여기에는 허깅 페이스 리워드 벤치(Hugging Face RewardBench)에서 1위를 차지한 엔비디아 네모트론-4 340B 리워드 모델이 포함된다. 맞춤형 모델이 생성되면, 기업은 선호하는 클라우드 플랫폼과 글로벌 서버 제조업체의 엔비디아 인증 시스템(Certified Systems)에서 원하는 MLOps와 AIOps 플랫폼을 사용할 수 있다. 이를 통해 프로덕션 환경에서 실행할 수 있는 엔비디아 NIM 추론 마이크로서비스를 생성한다. 엔비디아 AI 엔터프라이즈(AI EntERPrise) 전문가와 글로벌 시스템 통합 파트너는 AI 파운드리 고객과 협력해 개발부터 배포에 이르는 전체 프로세스를 가속화한다. 도메인별 모델을 만들기 위해 추가 훈련 데이터가 필요한 기업은 맞춤형 라마 슈퍼모델을 만들 때 라마 3.1 405B와 네모트론-4 340B를 함께 사용해 합성 데이터를 생성하면 모델 정확도를 높일 수 있다. 자체 훈련 데이터를 보유한 고객은 도메인 적응형 사전 훈련(DAPT)을 위해 엔비디아 네모로 라마 3.1 모델을 맞춤화해 모델 정확도를 더욱 높일 수 있다. 또한, 엔비디아와 메타는 개발자가 생성형 AI 애플리케이션을 위한 소규모 맞춤형 라마 3.1 모델을 구축하는 데 사용할 수 있는 라마 3.1의 증류 레시피를 제공하기 위해 협력하고 있다. 이를 통해 기업은 AI 워크스테이션과 노트북 같은 광범위한 가속 인프라에서 라마 기반 AI 애플리케이션을 실행할 수 있다. 엔비디아의 젠슨 황(Jensen Huang) CEO는 “메타의 오픈소스 모델인 라마 3.1은 전 세계 기업에서 생성형 AI 채택하는 데 있어 중요한 순간이다. 라마 3.1은 모든 기업과 업계가 최첨단 생성형 AI 애플리케이션을 구축할 수 있는 문을 열었다. 엔비디아 AI 파운드리는 라마 3.1을 전체적으로 통합했으며, 기업이 맞춤형 라마 슈퍼모델을 구축하고 배포할 수 있도록 지원할 준비가 돼 있다”고 말했다. 메타의 마크 저커버그(Mark Zuckerberg) CEO는 “새로운 라마 3.1 모델은 오픈소스 AI에 있어 매우 중요한 단계이다. 기업들은 엔비디아 AI 파운드리를 통해 사람들이 원하는 최첨단 AI 서비스를 쉽게 만들고 맞춤화하며, 엔비디아 NIM을 통해 배포할 수 있다. 이러한 서비스를 사람들에게 제공할 수 있게 돼 기쁘다”고 말했다.
작성일 : 2024-07-26
[답변] 오토캐드 attout 추출 시 좌표 연동 방법이 궁금합니다.
table { border: 1px solid #c4c7c5; border-radius: 4px; font-size: 16px; } th { padding: 18px 16px; text-align: left; } td { padding: 16px; border-top: 1px solid #c4c7c5; } .katex-mathml{ display: block; text-align: center; } .katex-html { display: none; } table { border: 1px solid #c4c7c5; border-radius: 4px; font-size: 16px; } th { padding: 18px 16px; text-align: left; } td { padding: 16px; border-top: 1px solid #c4c7c5; } .katex-mathml{ display: block; text-align: center; } .katex-html { display: none; } AutoCAD에서 ATTOUT 명령어를 사용하여 속성값뿐만 아니라 좌표를 함께 추출하려면 다음 단계를 따라보세요: 포인트 입력: 좌표를 추출할 위치에 포인트를 입력합니다. 명령어 PO를 사용하여 포인트를 찍습니다. 포인트 스타일 변경: PTYPE 명령어를 사용하여 포인트 스타일을 변경할 수 있습니다. 데이터 추출: 메뉴 탭에서 주석 > 데이터 추출을 클릭합니다. 객체 선택: 데이터 추출 창에서 새 데이터 추출 작성을 선택하고, 도면에서 객체를 선택합니다. 이때 포인트와 속성값이 있는 객체를 모두 선택합니다. 특성 선택: 데이터 추출 과정에서 형상 범주를 선택하고, 위치 X, 위치 Y, 위치 Z를 선택합니다. 엑셀로 내보내기: 마지막 단계에서 데이터를 엑셀 파일로 내보냅니다12. 이 과정을 통해 속성값과 함께 좌표를 추출할 수 있습니다.  1: 오토캐드 좌표 추출 방법 2: CAD 좌표추출 방법   출처 : 코파일럿
작성일 : 2024-07-24
지멘스, 설계, 검증 및 제조를 위한 통합 콕핏 솔루션 '이노베이터3D IC' 출시
  지멘스 디지털 인더스트리 소프트웨어, 지멘스 EDA 사업부는 진보된 최신 반도체 패키징 2.5D 및 3D 기술과 기판을 사용하여 ASIC 및 칩렛의 계획 및 이기종 통합을 위한 빠르고 예측 가능한 경로를 제공하는 소프트웨어인 이노베이터3D IC (Innovator3D IC)를 발표했다.  지멘스의 Innovator3D IC는 설계 계획, 프로토타이핑 및 예측 분석을 위한 통합 데이터 모델을 갖춘 전체 반도체 패키지 어셈블리의 디지털 트윈을 구축하기 위한 통합 콕핏(consolidated cockpit)을 제공한다. 이 콕핏은 물리적 설계, 다중 물리 분석, 기구 설계, 테스트, 사인오프, 제조 출시까지 모든 과정을 지원한다. 지멘스의 Innovator3D IC는 전력과 신호, 열, 기계적 응력 분석 도구를 통합함으로써 세부 설계 구현 전에 문제를 식별, 방지, 해결하는 동시에 신속한 '가정(what-if)' 탐색을 가능하게 한다. 이러한 전환적 접근 방식은 비용과 시간이 많이 소요되는 다운스트림 재작업이나 최적이 아닌 결과를 방지할 수 있다. 지멘스 디지털 인더스트리 소프트웨어의 AJ 인코르바이아(AJ Incorvaia)전자 보드 시스템(Electronic Board Systems) 부문 수석 부사장은 "지멘스는 이미 지멘스 엑셀러레이터의 일부로 가장 포괄적인 반도체 패키징 관련 기술 포트폴리오를 보유하고 있었다"라고 말하며, "이러한 기술을 Innovator3D IC와 결합함으로써 고객은 무어(Moore) 이상을 실현할 수 있다"라고 말했다. Innovator3D IC는 지멘스의 Aprisa 소프트웨어 디지털 IC 배치 및 경로 기술, XpeditionPackage Designer 소프트웨어, Calibre 3DThermal 소프트웨어, 기구 설계용 NX™ 소프트웨어, Tessent 테스트 소프트웨어, 인터칩렛 DRC, LVS 및 테이프아웃 사인오프용 Calibre 3DSTACK 소프트웨어를 사용하여 ASIC, 칩렛 및 인터포저(IntERPoser) 구현을 지원한다. Innovator3D IC는 계층적 디바이스 계획 방식을 사용하여 수백만 개의 핀이 포함된 고급 2.5D/3D 통합 설계의 엄청난 복잡성을 처리한다. 설계는 정교함과 구현 방법을 제어하는 속성을 가진 기하학적으로 분할된 영역으로 표현된다. 이를 통해 중요한 업데이트를 신속하게 구현하는 동시에 특정 영역에 분석 기법을 일치시켜 실행 시간이 지나치게 길어지는 것을 방지할 수 있다. 계층적 인터페이스 배선 경로 계획은 칩렛 인터페이스와 핀 할당을 더욱 최적화한다. Innovator3D IC는 산업용 소프트웨어인 지멘스 엑셀러레이터 포트폴리오와 통합되어 있지만 개방형 아키텍처를 통해 타사 포인트 솔루션과의 통합도 지원한다. Innovator3D IC의 핵심 요소는 3Dblox, LEF/DEF, Oasis 및 인터페이스 IP 프로토콜(예: UCIe 및 BoW)과 같은 산업 표준 형식을 지원한다. ‘Open Compute Projects Chiplet Design Exchange’ 워킹 그룹(OCP CDX)에 적극적으로 참여하여 새로운 상용 칩렛 에코시스템에서 제공할 표준화된 칩렛 모델을 직접 사용할 수 있다. Innovator3D IC는 2.5D 및 3D 통합에 국한되지 않고 인터포저(유기, 실리콘 또는 유리), ABF 빌드업, RDL 기반의 칩 퍼스트 또는 라스트 등 모든 선도적이고 새로운 반도체 통합 방법론과 플랫폼을 계획하고 프로토타입을 제작할 수 있으며, ‘Deca Technologies’ 회사의 적응형 패터닝 프로세스(adaptive patterning process)에 대한 지원도 포함한다. 또한 패널 레벨 패키징(PLP), 임베디드 또는 레이즈드 실리콘 브리지, 시스템 인 패키지(SiP) 및 모듈에 대한 인증도 받았다.   Innovator3D IC 솔루션은 IMEC가 개발한 시스템 기술 공동 최적화(STCO) 방법론 프로세스를 기반으로 설계되었으며 프로토타이핑 및 계획, 설계, 승인/제조 핸드오프 전반에 걸쳐 활용되며 종합적인 검증 및 신뢰성 평가로 마무리된다. 지멘스는 5백만 개 이상의 핀 설계에서 최적의 용량과 성능을 달성하기 위해 광범위한 멀티스레딩 및 멀티코어 기능을 사용하는 차세대 전자 시스템 설계(NGESD) AI 기반 사용자 경험(UX) 기술을 사용하여 Innovator3D IC를 개발했다. 인텔 파운드리의 석 리(Suk Lee) 에코시스템 기술실(Ecosystem Technology Office) 부사장 겸 GM은 "EMIB와 같은 고급 이기종 통합 플랫폼의 경우 예측 분석 기능을 갖춘 통합 플로어플래닝 및 프로토타이핑 콕핏이 필수적이다"라고 말하며, "지멘스 EDA와의 협력을 통해 우리는 Innovator3D IC를 고급 통합 플랫폼의 중요한 설계 기술 구성 요소로 보고 있다"라고 말했다. Innovator3D IC는 2024년 후반에 출시될 예정이다. 지멘스의 Innovator3D IC 소프트웨어에 대한 자세한 내용은 홈페이지에서 확인할 수 있다.
작성일 : 2024-07-06
현대오토에버, 핵심 리더 영입으로 보안·SW 경쟁력 강화
현대오토에버 신규 임원진(왼쪽부터 최원혁 보안총괄임원(CISO) 상무, 지두현 SW개발센터장 상무, 심민정 법무실장 상무)  현대오토에버가 네이버와 쏘카 등 주요 IT 기업에서 주목받는 리더급 핵심 임원 2명을 영입하며 사이버 보안·소프트웨어(SW) 사업 경쟁력 강화에 박차를 가한다. 현대오토에버는 네이버 클라우드 출신 최원혁 상무와 쏘카 지두현 상무를 영입해 각각 보안총괄임원(CISO)과 SW개발센터장에 임명했다. 심민정 법무실장은 상무로 승진하며 현대오토에버 최초의 여성 임원 자리에 올랐다. 보안총괄임원(CISO)에 선임된 최원혁 상무는 22년 동안 정보·데이터 보호 분야에서 혁신적인 시도로 수많은 ‘업계 최초’ 기록을 써내려 온 보안 전문가다. 국내 IT 기업이 글로벌 무대로 서비스를 확장할 때마다 보안 업무를 지휘하는 대표 선수 역할을 맡았다. 네이버의 퍼블릭 클라우드 사업이 시작될 단계부터 클라우드 보안 총괄 및 최고보안책임자(CPO), 데이터보호책임자(DPO) 등 핵심 직책을 역임했고, 라인(LINE)이 대만과 일본에서 선보인 ‘라인 뱅크’, ‘라인 페이’ 등 글로벌 금융 플랫폼의 보안도 책임졌다. 최 상무는 네이버 클라우드 재직 시절 국내 클라우드 제공사 중 처음으로 제로트러스트 기반 보안 서비스를 출시하며 업계의 주목을 받았다. 미국 연방정부와 구글 등이 채택 중인 제로트러스트 기반 서비스는 모든 사용자와 네트워크의 신뢰 수준을 확인하는 최상급 보안 시스템으로, 구현 난이도가 매우 높다. 또한 최 상무는 네이버 클라우드가 국내 최초로 루트CA(RootCA) 사업자 인증을 획득해 고객에 자체적인 암호화 기반 통신 서비스를 제공하는 데 기여하기도 했다. 현대오토에버는 현대자동차그룹에 보안 서비스를 제공하는 ‘데이터 파수꾼’ 역할을 맡은 만큼 괄목할 능력을 인정받은 최 상무가 보안 총괄에 적임자라고 판단했다. 차량의 SDV 전환으로 사이버 위협이 증가하는 상황에서 현대오토에버는 최 상무의 경험을 활용해 융합 보안 역량을 끌어올리고 정보 보호, 해킹 대응 등 그룹 전반의 데이터 보호 수준을 강화할 방침이다. 최 상무는 “모빌리티 혁신을 주도하는 현대오토에버의 사이버 보안을 담당하게 돼 영광”이라며 “보안 수준을 높여 회사의 사업 경쟁력 강화에 기여하겠다”고 포부를 밝혔다. 지두현 쏘카 서비스 엔지니어링 본부장은 현대오토에버 SW개발센터장으로 임명됐다. 지 상무는 네이버, 라이엇게임즈 코리아, 쏘카 등 IT 기업에서 25년 이상 경력을 쌓으며 개발팀장과 본부장 등 주요 직책을 역임한 베테랑이다. 지 상무는 카이스트(KAIST) 컴퓨터공학부에서 학사, 석사를 거쳐 개발자 경력을 시작했다. 네이버에서 웹툰&웹소설 Cell 수석으로 재직하며 네이버웹툰을 콘텐츠 서비스 선도 기업으로 성장시키는 데 중요한 역할을 했고, 리그 오브 레전드(LOL)를 개발한 라이엇게임즈의 한국 법인에서도 다양한 프로젝트를 주도하며 신규 게임 출시를 성공적으로 이끌었다. 쏘카에서는 서비스 엔지니어링 본부장으로서 모빌리티 서비스 개발을 총괄했다. 현대오토에버는 이번 영입이 회사의 소프트웨어 개발 역량을 끌어올리는 계기가 될 것으로 기대하고 있다. 지 상무는 인공지능(AI), 빅데이터 분석, 클라우드 컴퓨팅 등 최신 기술 트렌드를 깊이 이해하고 있는 데다 백엔드부터 프론트엔드까지 아우르는 풀스택 설계와 구현 능력, 지속 가능한 소프트웨어 관리체계의 이해 등 기술적 역량을 겸비하고 있다. 또한 지 상무는 일하기 좋은 조직의 중요성을 강조해왔고, 실제로 쏘카에서 자율과 책임에 기반한 협업 문화를 조성한 경험이 있어 현대오토에버의 개발 문화 혁신에도 기여할 것으로 예상된다. 지 상무는 “지속 가능한 서비스와 플랫폼 전략을 현대오토에버 구성원들과 함께 실행하는 기회를 얻게 돼 기대되고 흥분된다”고 말했다. 심민정 법무실장은 상무로 승진하며 현대오토에버 최초의 여성 임원이 됐다. 검사(사법연수원 35기)로 일한 심 상무는 2015년 현대오토에버 법무지원팀에 합류해 10년 가까이 사내 법무 이슈 관리와 컴플라이언스(법규 준수·준법 감시·내부 통제) 활동을 수행한 전문가다. 특히 IT 산업에 대한 높은 이해도를 갖춘 것으로 평가받는다. 이번 인사로 현대오토에버는 ICT와 SW 산업에서의 지적재산권 관리, 글로벌 리스크 관리 역량을 강화하며 회사의 지속적인 성장과 발전을 위한 기반을 공고히 할 수 있을 것으로 전망된다. 현대오토에버는 최근 리더급 임원을 대거 영입하며 핵심인재 수혈과 조직 체질 개선에 속도를 내고 있다. 지난 3월 쏘카 최고기술책임자(CTO) 출신의 류석문 상무를 소프트웨어 개발 및 품질 부문 사업부장으로 영입한 데 이어 4월에는 삼성전자 출신 ERP 전문가 김선우 상무를 신설 ERP센터장으로 영입했다. 류 상무는 현대오토에버의 개발자 문화 혁신을 주도하고 있으며, 김 상무는 새롭게 설립된 ERP센터가 디지털 전환에 필요한 기능을 한데 모아 글로벌 최고 수준의 서비스를 제공할 수 있도록 힘쓰고 있다. 현대오토에버의 연이은 인재 영입은 김윤구 사장이 전략적으로 추진하고 있는 경쟁력 강화 작업의 일환이다. 앞서 김 사장은 현대오토에버가 최고의 기술을 기반으로 대체 불가능한 서비스와 상품을 제공하기 위해 조직 전반의 체질을 개선하고 핵심인재 확보에 나서겠다는 포부를 밝힌 바 있다. 김 사장은 현대자동차그룹 인사실장을 역임하며 IT 비즈니스를 포함한 그룹 전반의 사업에 대한 이해도가 높고 인재 등용 전략에도 정통하다. 현대오토에버가 SW, ERP, 보안업계의 저명한 리더급 전문가를 대거 영입한 성과 역시 김 사장의 추진력과 전략이 있었기에 가능했다는 평가가 나온다. 현대오토에버는 현대차그룹의 중장기 소프트웨어 전략 실현을 앞당기기 위해 디지털 전환(DX) 역량을 질적·양적 측면에서 강화할 계획이다. 향후에도 전략적 관점에서 우수한 인적 자원을 확보하며 ‘S급’ 리더 영입이 실무자급 핵심인재 영입으로 이어지는 선순환 구조를 구축할 방침이다. 동시에 회사의 지속 가능성을 높이기 위해 조직 개편, 오픈 이노베이션을 추진해 혁신의 고삐를 쥘 것으로 예상된다.  
작성일 : 2024-07-06
GPT 시대의 슬기로운 AI 생활을 위해
GPT 시대의 교육과 학습   이 글은 라인테크시스템에서 지난 5월 30일 진행한 ‘BIM Shift 2024 세미나’에서 한국디지털교육원 김진만 원장이 발표한 'BIM Education in New ERA'의 발표자료를 AI의 General Purpose Technology 관점에서 재구성하였다.   ■ 양승규  캐드앤그래픽스 전문 필진으로, MOT를 공부하며 엔지니어와 직장인으로 살아가는 방법에 대해 탐구한다. 건축과 CAD를 좋아한다. 홈페이지 | yangkoon.com   그림 1. 라인테크시스템 BIM Shift 2024 세미나   한국디지털교육원 한국디지털교육원은 라인테크시스템에서 2018년 1월에 개설한 교육원으로, 건설 산업 전반의 설계, 시공, 운영 시 사용되는 플랫폼 소프트웨어의 교육과 컨설팅을 전문으로 하는 기관이다. 단순한 소프트웨어 사용법 교육 외에 실용적으로 할 수 있는 교육을 목표로 운영 중이며, 2024년 현재까지 약 500명의 수강생을 배출하였다. 협회, 학교, 설계사, 건설사, IT 기업 등 다양한 분야와 상호 업무 협약을 체결하였다. 빌딩스마트협회의 BIM 자격시험, 오토데스크 인증 자격제도인 ACU(AutoCAD Certified User) 관련 교육도 운영하고 있다. 최근에는 건설 AI 전문 해외 기관과 협업하여 관련 기술과 지식을 국내에 전파하려고 노력 중이다.   그림 2. 한국디지털교육원(출처 : 한국디지털교육원 김진만 원장)   범용 인공지능 시대의 개막 오픈AI(OpenAI)의 챗GPT(ChatGPT)가 세상에 나오고 5000만 명이 이용하는데 걸린 시간은 단 2달에 불과했다. 비슷한 사용자 규모에 이르는데 인터넷이 7년, 유튜브가 4년이 걸린 것에 비하면 정말 빠른 시간에 확산되었다고 볼 수 있다. 범용 인공지능을 목표로 만들어진 AI 모델인 GPT(Generative Pre-Trained Transformer)를 필두로 한 AI 기술이 우리 삶에 매우 빠르게 스며들었다. 인터넷 포털을 이용한 검색 활동이 GPT AI를 통한 프롬프트 활동으로 변화되고 있는 것이 대표적인 AI 범용 기술 사용의 사례이다. 건설 분야에서도 관련 AI 프로그램이 1000개가 있다고 하니 건설 분야도 예외는 아니다.   그림 3. 범용 인공지능 시대의 개막(출처 : 한국디지털교육원 김진만 원장)   대표적인 범용 AI AI는 이미지 생성, 정보 검색, 연구자료 탐색 등 우리 삶에 밀접한 부분에서 매우 유용하게 사용되고 있다. 대표적인 AI 솔루션은 다음과 같다. Midjourney : 텍스트로 된 설명문으로 이미지를 생성하는 AI OpenArt : 텍스트로 이미지를 생성하는 AI PERPlexity : 정보 검색 및 공유에 특화된 AI SCISPACE : 연구논문을 탐색하고 이해를 도와주는 AI CONNECTED PAPERS : 학술 논문을 시각적으로 탐색하고 판별할 수 있는 AI draw.io : 다양한 유형의 다이어그램을 작성해주는 AI   그림 4. 범용 AI 솔루션(출처 : 한국디지털교육원 김진만 원장)   건설 분야 AI 건설 분야에도 다양한 AI 기술이 있으며 대표적인 것은 다음과 같다. Codesign : 스케치로 디자인을 발전시켜 생성형 AI로 확장시키는 앱 Skema : 기존 워크플로와 원활하게 통합시켜 생산성을 향상 TogaLl.AI : 도면에서 공간과 기능을 자동으로 감지, 측정, 비교, 라벨링 CodeComply.AI : 도면을 위한 맞춤형 데이터 구조를 생성하여 규정 미준수 항목을 자동으로 생성 CONIX.AI : Zoning 계획, 2D 평면 계획, 가구 배치 계획, MEP 계획, 입면 및 3D 모델 대안 생성 KREOD : DfMA 원리와 첨단 지능형 자동화를 결합한 첨단 기술 솔루션 InspectMind : 휴대폰으로 현장 정보를 캡처하고 AI가 검사 보고서를 생성 Kolega : 디자인으로 매스 콘셉트 디자인 및 환경 분석 Designbotic : 시선 추적 장치를 사용한 디자인, 공간 분석의 맥락에서 뇌파 측정 방법 개발   그림 5. 건설 AI 솔루션(출처 : 한국디지털교육원 김진만 원장)   일자리의 변화 새로운 기술이 등장하면 그에 따라 새로운 일자리가 생겨나고, 기존의 기술이 새로운 기술로 대체되면서 기존의 일자리가 사라진다. 세계 경제 포럼의 ‘일자리의 미래’ 보고서(Future of Jobs, 2023)에 따르면 AI 기술로 인해 8300만 개의 일자리 소멸되고 6200개가 생성된다고 한다.  KIET(산업연구원)의 ‘AI시대 본격화에 대비한 산업인력양성 과제 : 인공지능 시대 일자리 미래와 인재양성 전략’ 보고서(2024)에 따르면 인공지능 도입으로 대체될 일자리는 327만 개로 추정된다. 보고서는 특히 제조업, 건설업 등 국내 주요 산업에서 일자리 소멸 위험이 클 것으로 전망했으며, 인공지능이 대체 가능한 일자리는 2022년 기준 327만 개로 추정했다. 산업 비중이 높은 건설업과 같은 분야에서 일자리 소멸 문제가 심각할 것이라는 예측이다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2024-07-04
[포커스] 미르, 물류/자재 관리 혁신 위한 자율이동로봇 기술 소개
자율이동로봇 제조업체인 미르(MiR)가 국내 첫 기자간담회를 진행하면서, 자사의 최신 자율이동로봇(AMR) 포트폴리오 및 이 분야의 최근 동향과 비전을 소개했다. 미르는 AMR이 노동력 부족 등 제조산업의 이슈에 효과적으로 대응할 수 있을 것으로 보고 자동화와 통합 관리, 인공지능(AI), 5G 등 기술을 결합한 AMR 솔루션을 내놓는다는 전략을 선보이고 있다. ■ 정수진 편집장   생산 현장에 적용 가능한 자율이동로봇 자율이동로봇(AMR : Autonomous Mobile Robot)은 생산 현장의 내부 물류 관리를 자동화하고, 자재 관리를 최적화하는 데에 쓰이는 운송 로봇으로, 이름처럼 스스로 움직이고 작업을 할 수 있도록 한 것이 특징이다. 미르는 AMR이 팔레트나 박스 운반. 자재 카트 운반, 컨베이어 벨트 등의 워크플로를 개선할 수 있으며, AMR와 비슷하지만 경로가 고정되어 유연성이 낮은 AGV(Automated Guided Vehicle)를 대체할 수도 있다는 점을 내세운다. 미르는 소형 부품의 운송부터 무거운 하중의 이송까지 250~1350kg의 탑재량을 갖춘 AMR 제품군을 공급하는 기업으로, 창고나 생산라인 등에서 기업의 내부 워크플로를 혁신할 수 있는 AMR 개발에 주력하고 있다. 현재 반도체 테스트 장비 기업인 테라다인(Teradyne)의 자회사인데, 테라다인은 미르뿐 아니라 협동로봇 개발사 유니버설 로봇(Universal Robots), 고하중 AMR 개발사 오토가이드(AutoGuide), 모션 제어 소프트웨어 개발사 에너지드(Energid) 등을 인수하면서 산업용 로봇 산업을 강화하고 있다. 미르의 포이 퉁 탕(Poi Toong Tang) 아시아 태평양 세일즈 부사장은 “미르는 중소형 화물 운반용 AMR과 무거운 화물 및 팔레트 운반을 위한 AMR을 개발하고 있다. 또한 AMR의 상단에 결합해 다양한 고객 요구에 대응할 수 있는 모듈과 액세서리, 로봇의 작동에 필요한 충전/합동 운영 관리/상태 모니터링 등 소프트웨어도 제공한다”고 소개했다.   ▲ AI 기능을 탑재한 미르 1200 팔레트 잭   AI, 협동로봇, 플릿 운용 등 기술 강화 미르는 최근 출시한 ‘미르 1200 팔레트 잭(MiR 1200 Pallet Jack)’ 및 유니버설 로봇과 함께 개발한 ‘모바일 코봇(Mobile Cobot)’ 등의 신제품을 비중 있게 소개했다. 미르 1200 팔레트 잭은 엔비디아 젯슨 AGX 오린(NVIDIA Jetson AGX Orin)을 탑재해, AI 기반으로 팔레트를 자동 인식할 수 있는 것이 특징이다. 컨베이어 벨트에서 팔레트를 바로 들어올릴 수 있으며, 관리 소프트웨어를 통해 다른 로봇과 협업이 수월하다. 미르의 케빈 뒤마(Kevin Dumas) 제품 담당 부사장은 “AMR이 물체를 감지해 회피하는 것뿐 아니라 팔레트와 상호작용하는 데에도 AI를 적용해 가치를 높일 수 있다고 본다”면서, “향후 미르의 다른 제품에도 AI를 적용할 수 있을 것”이라고 전했다. 모바일 코봇은 미르의 AMR과 유니버설 로봇의 협동로봇(코봇)을 결합한 형태로, 다관절 로봇팔의 협업 기능과 AMR의 이동성을 결합했다. 한편, 미르는 대규모 AMR의 운용과 관리를 위한 소프트웨어 투자도 강화하고 있다. 2024년 말에 출시 예정인 ‘미르 플릿 엔터프라이즈(MiR Fleet EntERPrise)’ 버전은 기존 관리 소프트웨어인 미르 플릿을 수백 대의 로봇을 운용할 수 있도록 확장한 제품이 될 전망이다. 뒤마 부사장은 “미르 플릿 엔터프라이즈는 다양한 인터페이스를 제공하면서, 사이버 보안에 대한 요구에도 대응하는 제품”이라고 설명했다.   ▲ AMR와 협동로봇을 결합한 모바일 코봇   AMR 시장 확대에 대응해 성장 폭 늘릴 계획 미르는 AMR 시장이 성숙되고 있으며, 무중단 작업에 로봇을 활용하려는 요구가 높아진다고 보고 있다. 이에 대응해 AMR의 신뢰성, 편의성, 유연성을 높이고 이를 통해 미션 크리티컬한 작업에 AMR을 적용할 수 있도록 지원한다는 전략을 밝혔다. 뒤마 부사장은 “5G 통신은 산업용으로는 아직 초기 단계지만 향후 시장의 판도를 바꿀 수 있늘 것으로 보고 있다. 이에 따라 어댑터로 5G에 대응할 수 있는 기술을 제공할 것”이라고 소개했다. 또한, 인공지능에 대해서는 로보틱스 전반의 성능을 높일 수 있는 중요한 요소로 보고 “클라우드에 연결된 로봇의 작동/환경 데이터를 수집하고, 이 데이터를 AI와 접목해 로봇의 최적 움직임과 예측 정비 등을 구현하는 기술 연구를 진행 중”이라고 전했다. 미르의 국내 비즈니스를 총괄하는 이주연 이사는 “전 세계뿐 아니라 우리나라에서도 노동력 부족에 대한 이슈는 커지고 있으며, 이는 코로나19 팬데믹 이후 더욱 가속화되고 있다. 노동 인구가 고령화되고 젊은 인력이 부족해지면서 생산 경쟁력을 위해 자동화를 고민하는 기업이 늘고 있는데, AMR은 이를 위한 좋은 대안이 될 것”이라고 설명했다. 미르는 글로벌 비즈니스에서 한국 시장의 비중이 높다면서 자동차, 전자 등 산업을 중심으로 다수의 고객을 확보하면서 두 자리 수의 성장을 거두고 있다고 소개했다. 이주연 이사는 “우리나라는 자동화 및 로봇의 사용률이 높은 시장으로 미르의 최우선 시장 중 하나”라면서, “유니버설 로봇과 미르의 제품을 함께 공급하는 대리점이 많아서 고객의 요구에 효과적으로 대응할 수 있다”고 전했다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-07-03
HPE-엔비디아, “생성형 AI 산업 혁명 가속화 위한 컴퓨팅 포트폴리오 출시”
HPE는 미국 라스베이거스에서 개최한 연례행사 ‘HPE 디스커버 2024’에서 새로운 ‘HPE 기반 엔비디아 AI 컴퓨팅(NVIDIA AI Computing by HPE) 포트폴리오’를 출시했다. 이는 HPE가 기업 고객들이 생성형 AI의 도입을 가속화할 수 있도록 엔비디아와 협력해 공동 개발한 AI 솔루션 및 고투마켓(Go-to-market) 포트폴리오다. 이 포트폴리오가 제공하는 주요 서비스 중 하나는 HPE 프라이빗 클라우드 AI(HPE Private Cloud AI)이다. HPE 프라이빗 클라우드 AI는 엔비디아의 AI 컴퓨팅, 네트워킹과 소프트웨어를 HPE의 AI 스토리지, 컴퓨팅, 및 HPE 그린레이크 클라우드(HPE GreenLake Cloud)와 견고하게 통합한 솔루션으로, 모든 규모의 기업이 에너지 효율적이고 빠르며 유연한 방식으로 생성형 AI 애플리케이션을 지속 가능하게 개발하고 배포할 수 있도록 한다. 새로운 옵스램프 AI 코파일럿(OpsRamp AI copilot)을 통해 IT 운영이 워크로드 및 IT 효율성을 향상시킬 수 있도록 지원하는 HPE 프라이빗 클라우드(HPE Private Cloud AI)는 전체 수명주기 관리를 포함한 셀프 서비스 클라우드 경험을 제공하며, 다양한 AI 워크로드와 사용 사례를 지원하기 위해 4가지 사이즈의 다른 구성으로 제공된다. HPE 프라이빗 클라우드 AI 솔루션은 ▲고유 데이터(proprietary data)를 활용한 추론, 미세 조정 및 RAG AI 워크로드 지원 ▲데이터 프라이버시, 보안, 투명성, 거버넌스 요건을 위한 엔터프라이즈급 제어 기능 ▲생산성 향상을 위한 ITOps 및 AIOps 기능이 포함된 클라우드 경험 ▲미래의 AI 기회와 성장을 충족하기 위한 유연한 소비 경로 등을 제공한다.     AI 및 데이터 소프트웨어 스택의 기반은 엔비디아 NIM 추론 마이크로 서비스(NVIDIA NIM inference microservice)를 포함한 엔비디아 AI 엔터프라이즈(NVIDIA AI EntERPrise) 소프트웨어 플랫폼으로 시작된다. 엔비디아 AI 엔터프라이즈는 데이터 사이언스 파이프라인을 가속화하고, 프로덕션급 코파일럿 및 기타 생성형 AI 애플리케이션의 개발 및 배포를 간소화한다. 엔비디아 AI 엔터프라이즈에 포함된 엔비디아 NIM은 최적화된 AI 모델 추론을 위한 사용하기 쉬운 마이크로서비스를 제공하여 다양한 사용 사례에 대해 프로토타입에서 안전한 AI 모델 배포로 원활하게 전환할 수 있도록 한다. 엔비디아 AI 엔터프라이즈 및 엔비디아 NIM을 보완하는 HPE AI 에센셜(HPE AI Essentials) 소프트웨어는 적응형 솔루션, 지속적인 기업 지원, 안전한 AI 서비스를 제공하는 통합 컨트롤 플레인(control plane)을 갖춘 준비된(curate) AI 및 데이터 기반 툴 세트를 제공하며, 이를 통해 데이터 및 모델 준수, 확장 가능한 기능 등 AI 수명 주기 전반에 걸쳐, AI 파이프라인이 규정을 준수하는 동시에 설명 및 재현이 가능하도록 보장한다. AI 및 데이터 소프트웨어 스택에 최적의 성능을 제공하기 위해, HPE 프라이빗 클라우드 AI는 엔비디아 스펙트럼-X 이더넷(NVIDIA Specturm-X Ethernet) 네트워킹, HPE Alletra MP File 스토리지, 엔비디아 L40S, 엔비디아 H100 NVL 텐서 코어 GPU, 엔비디아 GH200 NVL2 플랫폼을 지원하는 HPE 프로라이언트(ProLiant) 서버가 포함된 완전 통합형 AI 인프라 스택을 제공한다. HPE가 제공하는 모든 엔비디아 AI 컴퓨팅 제품 및 서비스는 양사의 공통 고투마켓 전략을 기반으로 제공된다. 이 전략에는 판매팀 및 채널 파트너, 교육, 그리고 딜로이트, HCL테크, 인포시스, TCS 및 위프로 등의 SI 업체를 아우르는 글로벌 네트워크가 포함되어, 이를 통해 다양한 분야의 기업이 복잡한 AI 워크로드를 실행할 수 있도록 돕게 될 것이다. HPE의 안토니오 네리(Antonio Neri) CEO는 “생성형 AI는 기업 혁신을 위한 엄청난 잠재력을 가지고 있지만, 단편화된 AI 기술의 복잡성은 대규모 기업의 AI 기술 도입을 어렵게 하는 많은 리스크와 장애물을 포함하고 있으며, 기업의 가장 가치 있는 자산인 고유 데이터를 위험에 처하게 할 수 있다”면서, “HPE와 엔비디아는 기업에서 생성형 AI의 엄청난 잠재력을 발휘할 수 있도록 하기 위해 AI를 위한 포괄적인 턴키 프라이빗 클라우드를 공동 개발하였고, 기업이 생산성을 높이고 새로운 수익원을 창출할 수 있는 새로운 AI 사용 사례 개발에 자원을 집중할 수 있도록 했다”고 말했다. 엔비디아의 젠슨 황(Jensen Huang) CEO는 “생성형 AI와 가속 컴퓨팅은 모든 산업이 산업 혁명에 동참하기 위해 경쟁하면서 근본적인 변화를 일으키고 있다. 엔비디아와 HPE는 우리의 기술을 이렇게 깊게 통합한 적이 없었으며, 엔비디아의 전체 AI 컴퓨팅 스택과 HPE의 프라이빗 클라우드 기술을 결합하여 기업 고객과 AI 전문가들에게 AI의 경계를 확장할 수 있는 가장 진보된 컴퓨팅 인프라와 서비스를 제공할 계획”이라고 말했다.
작성일 : 2024-06-19
SAP 코리아, 연암공과대학교와 DX 분야 인재 양성을 위한 MOU 체결
SAP 코리아는 연암공과대학교와 DX(디지털 전환) 분야 우수 인재 양성을 위한 업무협약(MOU)을 체결했다고 밝혔다.  양 기관은 이번 협약 체결을 통해 DX 분야 교육 과정 개발 및 SAP 교과목 설계 및 운영에 대해 상호 협력하여 인재 양성에 나선다. SAP는 연암공과대학교의 SAP 교과목 운영 및 SAP 국제 공인 자격증 취득을 위한 교육 커리큘럼을 제공하며, 나아가 대학의 우수 인재, SAP 국제 공인 자격증 취득 학생 등을 대상으로 적극적인 취업 연계 지원에도 나설 예정이다. 이에 발맞춰 연암공과대학교는 SAP 교과목을 개설하고, 운영에 필요한 인프라를 구비해 지원한다. 아울러 SAP와 연암공과대학교는 이번 협약을 토대로 지역사회 기여에도 나선다. 양 기관은 경남 지역에 거주하는 학생 대상으로 DX 부문 교육 과정 개발과 운영에 나서며, 차세대 ERP 고도화 프로젝트 투입 및 미래 비즈니스 환경에 대응하는 우수 인재를 양성할 계획이다.     SAP 코리아의 신은영 대표는 “SAP 코리아가 보유한 기술과 우수 인재 양성 경험을 바탕으로, 연암공과대학교와 손잡고 경남 지역의 DX 부문 인재 및 SAP 전문가 양성에 힘쓸 것”이라며, “추후 많은 학생들이 기업의 경쟁력 강화, 새로운 가치 창출에 기여하는 전문가로 성장할 수 있도록 적극적으로 지원할 예정”이라고 밝혔다. 연암공과대학교의 안승권 총장은 “이번 업무 협약은 4차 산업혁명 시대의 변화에 따라 맞춤형 인재를 배출하고자 교육과정을 변화하려는 노력의 일환”이라며, “올 초 SAP 전공을 신설한데 이어, 다양한 경험과 노하우를 보유한 SAP와의 협력으로 DX 분야 교육을 다각화할 수 있어 더욱 뜻깊다”고 전했다. 한편, SAP 코리아는 지속적으로 다양한 인재 양성 사업을 진행하며 실제 실무에 투입 가능한 전문가 양성에 힘쓰고 있다고 밝혔다. 지난 2월에는 충청남도교육청, 건양대학교와 ‘SAP 분야 인재 양성을 위한 업무협약’을 체결해 고등학생 대상까지 교육 지원 범위를 확대했으며, 지난해 ‘SAP 영 넥스트 클라우드’ 아카데미, 서울시와 함께 ‘기업용 클라우드 기반 재무 애플리케이션 개발자 양성 과정’ 등을 진행하며 소프트웨어 부문 혁신 인재 양성에도 기여했다.
작성일 : 2024-06-17
스노우플레이크-엔비디아, 맞춤형 AI 앱 구축 위한 협력 강화
스노우플레이크가 미국 샌프란시스코에서 열린 ‘스노우플레이크 서밋 2024’에서 기업들이 자사 플랫폼에서 엔비디아 AI를 기반으로 맞춤형 AI 데이터 애플리케이션을 구축할 수 있도록 엔비디아와의 협력을 강화한다고 발표했다.  스노우플레이크와 엔비디아는 양사의 AI 기반 애플리케이션, 모델 및 하드웨어를 통합해 고객이 비즈니스 전반에 걸쳐 쉽고 효율적이며 안전하게 엔터프라이즈 AI를 도입할 수 있도록 지원할 계획이다. 스노우플레이크는 엔비디아 AI 엔터프라이즈(NVIDIA AI EntERPrise) 소프트웨어를 적용해, 네모 리트리버(NeMo Retriever) 마이크로서비스를 완전 관리형 LLM(대규모 언어 모델) 및 벡터 검색 서비스인 스노우플레이크 코텍스 AI(Snowflake Cortex AI)에 통합했다. 이를 통해 고객들은 맞춤형 모델을 다양한 비즈니스 데이터에 원활히 연결하고 정확한 응답을 제공할 수 있게 된다.  개방성을 특징으로 내세우는 엔터프라이즈급 LLM인 스노우플레이크 아크틱(Snowflake Arctic)은 엔비디아 텐서RT-LLM(TRT-LLM) 소프트웨어를 지원해 최적화된 성능을 제공한다. 또한, 엔비디아 NIM(NVIDIA Inference Microservice) 추론 마이크로서비스로도 사용할 수 있게 돼 더 많은 개발자가 아크틱에서 인사이트를 얻을 수 있다.     기업들은 AI를 적용할 수 있는 다양한 방법들을 모색하고 있고, 맞춤화된 모델을 생성하기 위해 데이터 활용은 더욱 중요해졌다. 스노우플레이크와 엔비디아는 기업이 맞춤형 사례별 AI 솔루션을 빠른 속도로 구축하고, 엔터프라이즈 AI의 잠재력을 실현할 수 있도록 돕는다는 비전을 밝혔다. 스노우플레이크와 엔비디아는 네모 리트리버와 같은 엔비디아의 AI 엔터프라이즈(NVIDIA AI EntERPrise) 소프트웨어 제품군의 핵심 기술을 코텍스 AI에 통합하기 위해 협력하고 있다. 이를 통해 기업들은 AI 투자를 극대화하는 맞춤형 AI 기반 애플리케이션을 효율적으로 구축하고 활용할 수 있게 된다.  또한, 양사의 협력을 통해 고객들은 엔비디아 AI 소프트웨어 기반의 AI 솔루션 NIM을 스노우파크 컨테이너 서비스(Snowpark Container Services)에 네이티브 앱의 형태로 배포해 사용할 수 있다. 이를 통해 기업은 스노우플레이크 내 일련의 파운데이션 모델을 쉽게 배포할 수 있게 된다.  지난 4월 출시된 스노우플레이크 아크틱은 엔비디아 H100 텐서 코어 GPUs(H100 Tensor Core GPUs)를 통해 학습되었으며, 엔비디아 NIM에 통합돼 사용할 수 있어 몇 초 만에 시작할 수 있다. 엔비디아가 호스팅하는 아크틱 NIM은 엔비디아 AI 카탈로그(AI Catalog)를 통해 실시간으로 제공돼 개발자가 무료 크레딧을 사용하여 선호하는 인프라를 선택해 개방성이 높은 기업용 LLM을 배포할 수 있도록 지원한다.  스노우플레이크의 슈리다 라마스워미(Sridhar Ramaswamy) CEO는 “엔비디아의 풀스택 가속 컴퓨팅 및 소프트웨어와 스노우플레이크의 최신 AI 기능을 코텍스 AI에 통합시키는 것은 시장 판도를 바꿀 것”이라며, “양사는 모든 산업과 모든 기술 수준의 고객이 쉽고 효율적이며 안전하게 맞춤형 AI 애플리케이션을 기업 데이터에 구축할 수 있는 AI 의 새로운 시대를 열고자 노력하고 있다”고 강조했다.  엔비디아의 젠슨 황(Jensen Huang) CEO는 “데이터는 AI 산업 혁명의 필수재다. 두 기업의 협력으로 고객이 기업 고유의 데이터를 정제하고 가치 있는 생성형 AI로 전환할 수 있도록 지원할 것”이라고 말했다.
작성일 : 2024-06-04