• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "학습"에 대한 통합 검색 내용이 2,106개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
앤시스, 다국어 AI 가상 어시스턴트 ‘앤시스GPT’ 출시
앤시스코리아는 다국어 AI 가상 어시스턴트인 ‘앤시스GPT(AnsysGPT)’를 출시했다고 밝혔다. 챗GPT(ChatGPT) 기반으로 구축된 앤시스GPT는 앤시스 엔지니어의 전문 지식 및 AI를 융합해 연중무휴로 신속하게 고객을 지원하는 범용 도구다. 이 가상 어시스턴트는 앤시스 데이터를 기반으로 훈련되어 고객의 가장 시급한 엔지니어링 관련 질문에 유용한 답변을 즉각적으로 제공할 전망이다. 앤시스GPT는 고객이 앤시스 제품, 관련 물리학 및 기타 복잡한 엔지니어링 질문을 할 수 있도록 연중무휴로 가상 어시스턴트에 대한 접근성을 제공한다. 안전하고 사용하기 쉬운 인터페이스를 통해 설계자와 엔지니어가 다양한 공통 언어로 실시간 응답을 받아 시뮬레이션 설정을 간소화하고 관련 학습 기회를 탐색할 수 있도록 지원한다. 최신 버전의 앤시스GPT는 응답 정확성, 성능 및 데이터 규정 준수에 대한 테스트를 거쳐 개발됐다. 앤시스GPT는 제품 설명서, 제품 및 엔지니어링 관련 교육 자료, 자주 묻는 질문(FAQ), 기술 마케팅 자료, 앤시스 학습 포럼 등을 포함한 새로운 퍼블릭 소스로부터 지식을 습득한다. 앤시스는 강화된 인프라를 통해 수천 명의 사용자를 수용할 수 있도록 향상된 보안과 확장성을 제공할 계획이다.     콘티넨탈 오토모티브 루마니아의 유겐 딘카(Eugen Dinca) 열 시뮬레이션 수석 엔지니어는 “복잡한 시뮬레이션은 초보자와 숙련된 엔지니어 모두에게 설정하기 어려울 수 있기에 앤시스GPT의 유용성은 더욱 빛을 발할 것”이라며, “앤시스GPT는 사용하기 쉽고 신뢰할 수 있으며 관련성이 높고 정확한 정보가 빠르게 표시된다는 장점이 있다. 예를 들어, 내가 질문하면 필요한 모든 정보와 관련 문서로의 링크가 포함된 답변을 받게 되는 것”이라고 전했다. 앤시스의 앤소니 더슨(Anthony Dawson) 고객 우수성 부문 부사장은 “앤시스GPT의 출시는 앤시스 고객을 위한 혁신적인 AI 기반 기술 지원 수단의 가용성을 나타낼 것”이라며, “앤시스GPT는 고객이 복잡한 질문에 대한 답변을 스스로 찾을 수 있도록 돕는 보조 도구다. 이번에 출시된 버전은 사용자를 위한 응답 정확도, 성능, 데이터 보안 및 준수성이 향상되어 사용자의 가장 중요한 엔지니어링 질문에 정확하고 신속한 답변을 제공한다”고 밝혔다.
작성일 : 2024-04-17
효성인포메이션시스템, ‘AI EXPO KOREA 2024’에서 비즈니스 혁신 위한 AI 플랫폼 전략 제시
효성인포메이션시스템이 ‘AI EXPO KOREA(국제인공지능대전) 2024’ 전시에 참가해, 고성능 AI 연산 환경부터 고성능 데이터 처리까지 지원하는 AI 플랫폼 전략 및 비즈니스 혁신을 위한 솔루션을 제시한다고 전했다. 한국인공지능협회와 서울메쎄가 주최하는 AI EXPO KOREA 2024는 5월 1일~3일 서울 코엑스 D홀에서 진행된다. 올해 7회를 맞는 이 행사는 약 300개사 500부스가 참가할 전망이다. 효성인포메이션시스템은 AI 비즈니스를 위해 필요한 GPU 서버부터 초고성능 스토리지, 네트워크를 사전 설계해 통합한 ‘효성 AI 플랫폼’을 체험할 수 있는 공간을 마련했다. AI 도입을 고민하는 관람객을 위한 전문가 컨설팅과 함께 다양한 프로모션도 진행한다. 최근 인간과 유사한 지능과 자가 학습 능력을 갖춘 AGI(일반인공지능)가 등장하며 AI 비즈니스에도 큰 변화가 일고 있다.  AGI의 등장은 더 큰 데이터 세트와 복잡한 AI 모델이 필요함을 의미하며, 이에 따라 GPU 시스템 및 데이터 처리 효율이 보다 중요해졌다. 효성인포메이션시스템은 AI 연산 환경부터 고성능 데이터 처리, AI솔루션까지 고객의 AI 전환을 위한 핵심 경쟁력을 제공한다. 고성능 AI 연산 환경을 위해 슈퍼마이크로와 협업하여 GPU 서버를 시장에 공급하고, 고성능 병렬파일 스토리지 ‘HCSF’를 통해 GPU 성능을 뒷받침하는 고성능 데이터 처리를 지원한다. 또한, AI/ML옵스 솔루션, GPU 데이터베이스, 인메모리 데이터베이스, 고속 네트워크 등 국내외 다양한 파트너사와 연계 및 확장 제안을 통해 고객에게 AI 인프라 구현을 위한 솔루션을 제시한다. 효성인포메이션시스템은 AI 시스템 설계 관련해 기획 단계부터 컨설팅이 가능한 전문 인력과 기술 노하우를 보유하고 있으며, 2023년부터 국내 은행권, 공공기관, 유통 대기업, 연구기관, 의료기업 등을 중심으로 AI/GPU 인프라, 빅데이터 플랫폼 구축 사업에서 성공사례를 확보했다고 밝혔다. 효성인포메이션시스템의 양정규 대표이사는 “많은 기업들이 AI 도입을 검토하고 있지만 최적화된 AI 시스템 설계를 위해서는 기획 단계부터 풍부한 경험의 파트너를 만나는 것이 중요하다”면서, ”AI 인프라 구현은 효성인포메이션시스템에 맡기고, 고객은 비즈니스 혁신에만 집중할 수 있도록 당사의 모든 기술력과 노하우를 제공할 것”이라고 전했다.  
작성일 : 2024-04-15
엔비디아, AI 개발 가속화 위해 구글 클라우드와 협력
엔비디아가 구글 클라우드와 협력을 통해 전 세계 스타트업의 생성형 AI 애플리케이션과 서비스 개발 가속화를 지원한다고 발표했다. 양사의 이번 협력은 다양한 규모의 기업이 생성형 AI 애플리케이션을 개발하는데 드는 비용을 절감하고 장벽을 완화하기 위해 공개된 일련의 발표들 중 가장 최근에 이뤄진 것이다.  특히 스타트업은 AI 투자에 대한 높은 비용으로 인해 많은 제약을 받고 있다. 이번 협업으로 엔비디아와 구글 클라우드는 클라우드 크레딧, 시장 진출 지원, 그리고 기술 전문 지식에 대한 접촉 기회 확대를 통해 고객에게 더 빠르게 스타트업의 가치를 제공하도록 지원한다. 1만 8000개 이상의 스타트업을 지원하는 엔비디아 인셉션 글로벌 프로그램의 회원은 특히 AI에 중점을 둔 스타트업의 경우 최대 35만 달러의 구글 클라우드 크레딧을 제공받고 구글 클라우드 인프라 사용 가속화 경로를 확보할 수 있다. 구글 포 스타트업 클라우드 프로그램 멤버는 엔비디아 인셉션에 가입해 기술 전문 지식, 엔비디아 딥 러닝 인스티튜트(Deep Learning Institute) 과정 크레딧, 엔비디아 하드웨어와 소프트웨어 등을 이용할 수 있다. 또한 구글 포 스타트업 클라우드 프로그램의 스타트업 회원은 해당 분야에 관심이 있는 벤처 투자 기관에 노출될 기회를 주는 엔비디아 인셉션 캐피탈 커넥트(Inception Capital Connect) 플랫폼에 참여할 수 있다. 두 프로그램 모두에서 급성장한 신생 소프트웨어 제조업체는 구글 클라우드 마켓플레이스(Marketplace) 등록해 공동 마케팅, 제품 개발 가속화 지원을 우선적으로 받을 수 있다.     구글 딥마인드(DeepMind)는 지난 2월 최첨단 개방형 모델 제품군 젬마(Gemma)를 공개했는데,  엔비디아는 최근 구글과 협력해 모든 젬마 전용 엔비디아 AI 플랫폼에 대한 최적화를 실시했다. 젬마는 구글 딥마인드의 가장 뛰어난 모델인 제미나이(Gemini) 제작에 사용된 동일한 연구와 기술로 구축됐다. 양사의 긴밀한 협력으로 거대 언어 모델(LLM) 추론 최적화를 위한 오픈 소스 라이브러리 엔비디아 텐서RT-LLM(TensorRT-LLM)을 통해 엔비디아 GPU로 젬마를 실행, 젬마의 성능을 발전시켰다. 젬마 7B(Gemma 7B), 리커런트젬마(RecurrentGemma), 코드젬마(CodeGemma)를 포함한 젬마 모델 제품군은 엔비디아 API 카탈로그에서 사용 가능하며, 사용자는 이를 브라우저에서 사용하거나, API 엔드포인트로 프로토타입을 제작하거나, NIM을 통한 셀프 호스팅을 할 수 있다. 구글 클라우드를 사용하면 GKE와 구글 클라우드 HPC 툴킷으로 플랫폼 전반에 엔비디아 네모(NeMo) 프레임워크를 배포하기 쉬워진다. 이를 통해 개발자는 생성형 AI 모델의 훈련과 제공을 확장하고 자동화할 수 있으며, 개발 과정에 빠르게 착수하는 맞춤형 청사진을 통해 턴키 환경을 신속히 구축할 수 있다. 엔비디아 AI 엔터프라이즈의 일부인 엔비디아 네모는 구글 클라우드 마켓플레이스에서도 이용 가능하다. 이를 통해 고객들은 네모 및 기타 프레임워크에 쉽게 액세스해 AI 개발을 가속할 수 있다. 구글 클라우드는 엔비디아 생성형 AI 가속 컴퓨팅의 가용성 확대를 위해 5월 A3 메가(Mega)의 정식 출시를 발표했다. 이 인스턴스는 엔비디아 H100 텐서 코어(H100 Tensor Core) GPU로 구동되는 A3 가상 머신(VM) 제품군의 확장으로, A3 VM에서 GPU 대 GPU 네트워크 대역폭이 두 배로 늘었다. A3에 탑재된 구글 클라우드의 새로운 컨피덴셜(Confidential) VM에는 컨피덴셜 컴퓨팅에 대한 지원도 포함돼 있어, 고객이 H100 GPU 가속에 액세스하는 동안 코드를 변경하지 않고도 민감 데이터의 기밀성과 무결성을 보호하고 학습과 추론 도중 애플리케이션과 AI 워크로드를 보호할 수 있다. 이 GPU 기반 컨피덴셜 VM은 올해 미리보기로 제공될 예정이다. 한편, 블랙웰(Blackwell) 플랫폼에 기반한 엔비디아의 최신 GPU는 2025년 초에 엔비디아 HGX B200과 엔비디아 GB200 NVL72 등 두 가지 버전으로 구글 클라우드에 출시될 예정이다. HGX B200은 가장 까다로운 AI, 데이터 분석 그리고 고성능 컴퓨팅 워크로드를 위해 설계됐으며, GB200 NVL72는 차세대, 대규모, 조 단위의 매개변수 모델 학습과 실시간 추론을 위해 설계됐다. 엔비디아 GB200 NVL72는 각각 2개의 엔비디아 블랙웰 GPU와 엔비디아 그레이스 CPU(Grace CPU)가 결합된 36개의 그레이스 블랙웰 슈퍼칩을 900GB/s의 칩투칩(chip-to-chip) 인터커넥트를 통해 연결한다. 이는 하나의 엔비디아 NV링크(NVLink) 도메인에서 최대 72개의 블랙웰 GPU와 130TB/s의 대역폭을 지원한다. 통신 병목 현상을 극복하고 단일 GPU처럼 작동해 이전 세대 대비 30배 빠른 실시간 LLM 추론과 4배 빠른 트레이닝을 제공한다. 엔비디아는 지난 3월 생성형 AI의 요구사항에 최적화된 엔터프라이즈 개발자용 AI 플랫폼인 엔비디아 DGX 클라우드를 H100 GPU 기반의 A3 VM에서 사용할 수 있다고 발표했다. GB200 NVL72가 탑재된 DGX 클라우드는 2025년 구글 클라우드에서도 제공될 예정이다.
작성일 : 2024-04-12
인텔, 기업용 AI를 위한 ‘가우디 3’ 및 AI 개방형 시스템 전략 발표
인텔은 연례 고객 및 파트너 콘퍼런스인 ‘인텔 비전 2024’에서 기업용 생성형 AI를 위한 성능, 개방성 및 선택권을 제공할 인텔 가우디 3(Intel Gaudi 3) 가속기를 공개했다. 그리고 이와 함께 생성형 AI 도입 가속화를 위한 새로운 개방형 스케일러블 시스템 스위트, 차세대 제품 및 전략적 협력도 발표했다.  인텔 가우디 3 AI 가속기는 공통 표준을 따르는 이더넷을 통해 최대 수만 개의 가속기를 연결해 AI 시스템을 구동한다. 인텔 가우디 3는 BF16에 대해 4배 더 많은 AI 컴퓨팅 및 기존 모델 대비 1.5배 커진 메모리 대역폭을 지원한다. 인텔은 “이 가속기는 생성형 AI를 대규모로 배포하려는 글로벌 기업에게 AI 학습 및 추론 분야에서 획기적인 도약을 지원할 수 있다”고 설명했다.   ▲ 인텔 팻 겔싱어 CEO   인텔은 가우디 3가 70억 개 및 130억 개의 매개변수가 있는 라마2(Llama2) 모델과 GPT-3 1750억개 매개변수 모델 전체에서 엔비디아 H100보다 평균 50% 더 빠른 학습 시간을 제공할 것으로 예상하고 있다. 또한 인텔 가우디 3 가속기 추론 처리량은 평균적으로 H100보다 50%, 전력 효율성의 경우 라마(Llama) 70억 개 및 700억 개 매개변수와 팔콘(Falcon) 1800억 개 매개변수 모델에서 평균 40% 더 우수할 것으로 예상한다. 인텔 가우디 3는 개방형 커뮤니티 기반 소프트웨어와 업계 표준 이더넷 네트워킹을 제공한다. 또한 기업은 싱글 노드에서 클러스터, 슈퍼 클러스터, 수천 개의 노드가 있는 메가 클러스터로 유연하게 확장할 수 있으며, 최대 규모의 추론, 미세 조정 및 학습을 지원한다. 인텔 가우디 3는 2024년 2분기에 델 테크놀로지스, HPE, 레노버, 슈퍼마이크로를 비롯한 OEM 시스템에 탑재될 예정이다. 또한 인텔은 하드웨어, 소프트웨어, 프레임워크, 툴 등을 포함한 개방형 스케일러블 AI 시스템에 대한 전략을 제시했다. 인텔의 이러한 접근법은 기업별 생성형 AI 요구 사항을 충족하는 솔루션을 제공하기 위한 것으로, 다양하고 개방적인 AI 생태계를 가능케 한다. 여기에는 장비 제조업체, 데이터베이스 공급자, 시스템 통합업체, 소프트웨어 및 서비스 공급자 등이 포함된다. 또한, 기업 고객이 이미 알고 신뢰하는 생태계 파트너 및 솔루션을 활용할 수 있는 부분도 장점으로 꼽힌다. 인텔은 다양한 업계의 기업 고객 및 파트너들과 새롭고 혁신적인 생성형 AI 응용 프로그램을 개발하기 위해 인텔 가우디를 활용해 협력하고 있다고 밝혔다. 예를 들어, 네이버는 클라우드에서부터 온디바이스까지 첨단 AI 서비스를 전세계에 배포하기 위해 강력한 LLM 모델을 개발하고 있는데, 대규모 트랜스포머 아키텍처 기반 모델의 컴퓨팅 작업을 뛰어난 와트 당 퍼포먼스로 실행하기 위해 인텔 가우디를 사용한다. 보쉬는 자사 기반 모델 개발을 포함한 스마트 제조의 가능성을 모색하고 있으며, 합성 데이터 세트 생성과 더불어 자동 광학 검사와 같은 견고하고 분산된 트레이닝 세트 제공한다. 이에 더해 구글 클라우드, 탈레스, 코히시티(Cohesity)가 클라우드 환경에서 기밀 컴퓨팅 역량을 활용할 수 있도록 인텔과의 협력을 발표했다.    인텔은 인텔 가우디 3 가속기 외에도 엔터프라이즈 AI의 모든 부문에 걸쳐 차세대 제품 및 서비스에 대한 업데이트를 발표했다. 새로운 인텔 제온 6 프로세서는 폐쇄적 데이터를 사용하여 비즈니스에 특화된 결과를 생성하는 RAG를 포함한 최신 생성형 AI 솔루션을 실행할 수 있다. 2024년 출시될 차세대 인텔 코어 울트라 클라이언트 프로세서 제품군(코드명 루나레이크)은 차세대 AI PC를 위해 플랫폼 기준 100 TOPS 이상, NPU에서 45TOPS 이상을 제공할 예정이다. 인텔은 울트라 이더넷 컨소시엄(UEC)을 통해 AI 패브릭을 위한 개방형 이더넷 네트워킹을 선도하며 다양한 AI 최적화 이더넷 솔루션을 선보이고 있다.  인텔의 팻 겔싱어(Pat Gelsinger) CEO는 “혁신은 전례 없는 속도로 발전하고 있으며, 반도체가 이 모든 것을 가능하게 한다. 또한 모든 기업이 빠르게 AI 기업으로 거듭나고 있다”면서, “인텔은 PC부터 데이터센터, 에지에 이르기까지 기업 전반의 모든 곳에 AI를 가능하게 하고 있다. 인텔의 최신 가우디, 제온 및 코어 Ultra 플랫폼은 변화하는 고객과 파트너의 요구를 충족하고 앞으로의 엄청난 기회를 활용할 수 있도록  유연한 솔루션 세트를 제공하고 있다”고 밝혔다.
작성일 : 2024-04-11
인텔, 기업용 AI를 위한 가우디 3 및 AI 개방형 시스템 전략, 네이버와 협력 발표
인텔코리아가 4월 11일 여의도 FKI타워(전경련회관)에서 기자간담회를 열고, 미국 애리조나에서 4월 8일~9일(현지시간) 진행된 '인텔 비전 2024'에서 발표된 주요 내용들을 소개했다. 특히 올해 하반기에 새롭게 출시 예정인 기업용 AI를 위한 가우디 3에 대해 자세히 소개하는 시간을 마련했다. 한편 인텔은 네이버가 AI 서비스 개발을 위해 인텔의 가우디 2를 테스트베드로 사용하는데 협력하기로 했다고 전했다. ▲ 인텔 비전 2024을 소개한 국내 기자간담회 현장모습 먼저 인텔의 연례 고객 및 파트너 컨퍼런스인 인텔 비전 2024(Intel Vision 2024)에서 인텔은 기업용 생성형 AI(GenAI)를 위한 성능, 개방성 및 선택권을 제공할 인텔 가우디 3(Intel Gaudi 3) 가속기와 함께 생성형 AI 도입 가속화를 위한 새로운 개방형 스케일러블 시스템 스위트, 차세대 제품 및 전략적 협력을 발표했다.  인텔 CEO 팻 겔싱어(Pat Gelsinger)는 “혁신은 전례없는 속도로 발전하고 있으며, 반도체가 이 모든 것을 가능하게 한다. 또한 모든 기업이 빠르게 AI 기업으로 거듭나고 있다”라며 “인텔은 PC부터 데이터센터, 엣지에 이르기까지 기업 전반의 모든 곳에 AI를 가능하게 하고 있다. 인텔의 최신 가우디, 제온 및 코어 Ultra 플랫폼은 변화하는 고객과 파트너의 요구를 충족하고 앞으로의 엄청난 기회를 활용할 수 있도록  유연한 솔루션 세트를 제공하고 있다”고 밝혔다. ▲ 인텔 비전 2024에서 인텔의 새로운 비전을 소개한 인텔 팻 겔싱어(Pat Gelsinger) CEO  인텔은 기업이 생성형 AI를 파일럿 단계에서 업무에 적용하는 것으로 확장하고자 한다고 전했다. 이를 위해서는 복잡성, 단편화, 데이터 보안 및 규정 준수 요구 사항을 해결하면서 인텔 가우디 3(Intel Gaudi 3) AI 가속기와 같이 성능, 비용 및 전력 효율성이 뛰어난 프로세서를 기반으로 구축된 즉시 도입 가능한 솔루션이 필요하다고 소개했다. 인텔 가우디 3 AI 가속기는 공통 표준을 따르는 이더넷을 통해 최대 수만 개의 가속기를 연결해 AI 시스템을 구동한다. 인텔 가우디 3는 BF16에 대해 4배 더 많은 AI 컴퓨팅 및 기존 모델 대비 1.5배 커진 메모리 대역폭을 지원한다. 이 가속기는 생성형 AI를 대규모로 배포하려는 글로벌 기업에게 AI 학습 및 추론 분야에서 획기적인 도약을 지원할 수 있다. 엔비디아 H100과 비교하여 인텔 가우디 3는 70억개 및 130억개의 매개변수가 있는 라마2(Llama2) 모델과 GPT-3 1750억개 매개변수 모델 전체에서 평균3 50% 더 빠른 학습 시간을 제공할 것으로 예상한다. 또한 인텔 가우디 3 가속기 추론 처리량은 평균적으로 H100보다 50%1, 전력 효율성의 경우 라마(Llama) 70억개 및 700억개 매개변수와 팔콘(Falcon) 1800억개 매개변수 모델에서 평균 40% 더 우수할 것으로 예상한다. 인텔 가우디 3는 개방형 커뮤니티 기반 소프트웨어와 업계 표준 이더넷 네트워킹을 제공한다. 또한 기업은 싱글 노드에서 클러스터, 슈퍼 클러스터, 수천 개의 노드가 있는 메가 클러스터로 유연하게 확장할 수 있으며, 최대 규모의 추론, 미세 조정 및 학습을 지원한다. 인텔 가우디 3는 2024년 2분기에 델 테크놀로지스(Dell Technologies), HPE, 레노버(Lenovo), 슈퍼마이크로(Supermicro)를 비롯한 OEM 시스템에 탑재될 예정이다. 한편 인텔코리아 나승주 상무는 인텔 비전 2024에서 발표된 내용들을 간략히 정리해 소개하는 브리핑을 진행했다. 나승주 상무는 인텔은 기업용 AI 활성화를 위해 개방형 생태계의 힘을 적극적으로 활용할 계획이라며, 가우디 3 AI 가속기는 생성형 AI를 위한 선택권을 제공한다고 설명했다. 기업용 AI는 확장 가능한 개방형 시스템이 될 전망이라고 말했다. 또한 고객 및 파트너 모멘텀으로 네이버 등과 협력하고 있다. 또한 차세대 제품 및 서비스를 위해 가우디 3 등 제품 개발에 힘쓸 계획이라고 밝혔다. ▲ 인텔코리아 나승주 상무 이번 브리핑에 앞서 진행된 네이버와의 협력에 대해서 특별 게스트로 네이버클라우드 이동수 박사(하이퍼스케일 AI담당이사)가 온라인 참석해 협력 관계애 대한 설명과 함께 질의응답에 참여했다. 네이버클라우드 이동주 박사는 AI 반도체 평가와 분석하는 과정에서 인텔 가우디 3의 성능이 뛰어나다는 것을 알게 됐다며, AI 서비스를 지원하기 위해서는 AI 개발을 좀 더 손쉽게 하기 위해서는 소프트웨어 작업들을 많이 하고 있다고 밝혔다. 단기간에 그칠 것이 아니라 국내 스타트업들이 함께 AI 협력을 기대하고 있다고 소개했다. ▲ 네이버클라우드 이동수 박사(하이퍼스케일 AI담당이사) 
작성일 : 2024-04-11
알테어, 국내 제조 기업의 AI 기술 도입 위한 'AI 워크숍' 개최
알테어가 지난 4월 4일 서울 역삼동 포스코타워에서 ‘AI(인공지능) 워크숍’을 진행했다고 밝혔다. ‘AI for Engineers(엔지니어를 위한 AI)’를 주제를 내건 이번 워크숍은 AI 기술 도입 전략 및 산업 동향을 공유하는 자리로 마련됐다. 현장에는 주요 제조업체 실무진 및 오피니언 리더 300여 명이 참석했다. 알테어의 문성수 아시아태평양 수석부사장은 환영사에서 “제조업체가 AI 기술을 도입할 때에는 그들의 도메인 전문성을 바탕으로 AI 기술을 누구나 활용할 수 있는 환경을 마련해야 한다”면서, “알테어는 데이터 비전공자도 쉽게 활용할 수 있는 로코드/노코드 기반 데이터 분석 및 AI 시뮬레이션 소프트웨어를 제공하여 국내 업체들의 고민을 해소하고자 한다”고 전했다. 첫 번째 발표자로 나선 알테어의 수디르 파다키 글로벌 데이터 분석 디렉터는 “최근 제조업계는 전통적인 시뮬레이션 데이터 활용에서 데이터 기반의 AI 활용으로 전환하는 추세이다. 이를 위해 알테어는 자사 데이터 분석 소프트웨어 래피드마이너에 ‘CAE 커넥터’를 추가해, CAE 결과 파일을 바로 읽어들여 코딩 없이 다양한 변수에 따른 해석 결과를 얻을 수 있도록 했다”고 소개했다. 이어 “요즘 기업에서 생성형 AI 시스템 구축에 많은 관심을 보이고 있는데, 래피드마이너에 내장된 생성형 AI 기능을 활용하면 채팅창에서 데이터 분석 요구사항을 쉽게 요청할 수 있다. 한국어 자연어 처리도 지원해 한국 사용자에게도 편리할 것”이라고 말했다. 한국알테어의 이승훈 기술 총괄 본부장은 “해석 결과를 얻는 과정은 제품 개발 단계에서 상당한 시간을 차지한다. 하지만 AI 기술을 적용해 해석 결과를 학습하고 적용하니 3시간 이상 걸리던 작업도 단 3초 만에 해석 결과를 얻을 수 있게 되었다. AI 기술 도입은 제품 개발 단계를 대폭 단축시키며, 빠른 예측 결과를 통해 효율성을 극대화할 수 있다.”고 말했다.     알테어의 이번 워크숍에서는 산학연 영역의 여러 연사가 다양한 전문 분야와 관련된 AI 트렌드를 다뤘다. 황보현우 하나은행 자문위원이 ‘AI 시대의 경쟁 우위 전략’, 현대자동차 한용하 연구위원이 ‘자동차 CAE 부문에서의 AI 적용 사례 소개’, 계명대학교 김양석 교수는 ‘AI 시대의 셀프서비스 분석’을 주제로 최신 연구 결과와 산업 동향을 소개했다. 또한 ‘엔지니어링 분야에서의 AI 적용: 엔지니어들의 기회와 도전’ 를 주제로 진행한 패널 토론에는 LG전자,  현대자동차, 계명대학교에서 참가해 AI 기술 적용에 대한 의견과 경험을 공유하는 시간을 가졌다. 알테어의 라비 쿤주 최고제품및전략책임자(CPSO)는 “다양한 전문성을 갖추지 않고는 AI 기술을 효과적으로 도입하고 활용하는 것이 어렵다”며, “알테어는 시뮬레이션과 AI, HPC 기술과 자원을 통합한 ‘알테어원’ 플랫폼을 통해 기업들의 AI 기술 도입 부담을 줄이고 현실적으로 구현할 수 있도록 지원하겠다”고 전했다.
작성일 : 2024-04-05
에픽게임즈, 언리얼 엔진 초심자를 위한 무료 웨비나 진행
에픽게임즈 코리아는 언리얼 엔진 초심자들이 쉽게 배울 수 있는 온라인 세미나 ‘시작해요 언리얼 2024’의 무료 사전 등록을 시작한다고 밝혔다.  ‘시작해요 언리얼 2024’는 언리얼 엔진이 처음이거나 아직 익숙하게 다루지 못하는 초심자를 위한 튜토리얼 형식의 웨비나이다. 오는 5월 2일부터 5월 30일까지 한 달 동안 매주 목요일 오후 2시에 언리얼 엔진 코리아 유튜브 채널에서 진행된다. 이번 ‘시작해요 언리얼 2024’는 언리얼 엔진으로 애니메이션 및 이펙트 등의 다양한 인터랙티브 요소가 포함된 시네마틱 영상을 제작하는 것을 목표로, 시네마틱 영상 제작의 기본 개념과 워크플로 전반에 대한 강연이 진행된다. ▲1주 차에는 ‘레벨 제작하기’를 주제로, 언리얼 엔진 학습 방법에 대해 알아보고, 언리얼 엔진에서 레벨 구성하기, 퀵셀 메가스캔/마켓플레이스 애셋 활용하기에 대해 설명한다. ▲2주 차에는 '라이트 세팅 및 시퀀서 추가하기'를 통해 언리얼 엔진의 라이팅, 실내외 라이트 세팅하기, 시퀀서로 라이트 애니메이션하기에 대해 설명한다. ▲3주 차 '캐릭터 애니메이션 작업하기' 시간에는 엔진으로 애니메이션 클립 가져오기, 시퀀서에서 캐릭터 애니메이션 적용하기, 애디티브 트랙으로 애니메이션 수정하기에 대한 학습이 진행된다. ▲4주 차에는 '나이아가라와 블루프린트 활용하기'를 주제로, 블루프린트로 레벨에 애니메이션 추가하기, 캐릭터에 나이아가라 이펙트 추가하기, 시퀀서에서 이벤트 작동시키기에 대한 설명이 진행되며, 마지막 ▲5주 차에는 '영상 연출 및 렌더링하기'를 통해 카메라 추가하고 영상 연출하기, 마스터 시퀀서를 활용하여 컷 편집하기, 무비 렌더 큐로 영상 렌더링하기에 대해 배운다. 평소 언리얼 엔진에 관심이 있거나 시네마틱 영상에 스토리텔링을 구현하고 싶은 사람이라면 전공 여부와 무관하게 학생, 직장인 등 누구나 무료로 등록할 수 있다. 에픽게임즈는 “참가자들의 학습에 대한 이해도를 돕고자 매주 도전과제를 출제해 강좌 내용을 완전히 습득할 수 있도록 지원하며, 참가자들은 라이브 Q&A와 채팅을 통해 연사 및 커뮤니티와 실시간 소통할 수 있다”고 전했다.  
작성일 : 2024-04-04
로컬 호스트 LLM 오픈소스 기반 BIM 전문가 챗봇 서비스 만들어보기
BIM 칼럼니스트 강태욱의 이슈 & 토크   요즘 LLM 모델을 사용하는 방법이 점차 간편해지고 있어 자체적으로 LLM을 구축해 챗봇, 전문가 시스템 등을 자신의 서버에서 제공하는 경우가 많아지고 있다. 이번 호에서는 GPU가 있는 PC에서 직접 실행해 볼 수 있도록, 로컬 호스트 LLM(대규모 언어 모델) 오픈소스 기반의 BIM 전문가 챗봇 서비스를 간단히 개발해 본다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 이메일 | laputa99999@gmail.com 페이스북 | www.facebook.com/laputa999 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | http://www.facebook.com/groups/digestpodcast   이번 호에서는 기존의 BIM PDF 파일을 검색해 학습하고, LLM에 RAG(Retrieval-augmented generation) 증강 학습한 후, 이를 간단한 UI로 웹 서비스하는 과정을 간략히 따라해 본다. 이번 호의 내용은 로컬 LLM의 편한 개발을 지원하는 올라마(Ollama), LLM 프롬프트 엔지니어링 프레임워크인 랭체인(LangChain), 텍스트 임베딩 벡터 데이터베이스 크로마(Chroma), 손쉬운 웹 앱 개발 지원 도구인 스트림릿(Streamlit)을 사용한다. 이를 이용해 간단하게 BIM 전문 지식을 PDF로 학습한 챗봇을 개발한다.   그림 1. 로컬 호스트 LLM 챗봇 아키텍처   그림 2. 구현된 BIM 지식 챗봇 서비스   LLM에 관련된 깊은 내용은 다음의 링크를 참고한다. 이 글은 여러 참고 자료를 이용해 작성된 것이다. 상세 내용은 레퍼런스를 참고하기 바란다. Facebook LLAMA-2 paper : https://daddynkidsmakers.blogspot.com/2024/02/llama-2.html Facebook LLAMA-2 installation : https://daddynkidsmakers.blogspot.com/2023/09/llama2.html LLM은 빅테크 업체 간 경쟁이 심한 분야이다. 이와 관련해서 젬마(Gemma), MPT-7B과 같은 LLM 모델이 오픈소스로 공개되고 있어 선택지가 많아지고 있다. 이와 관련해서는 다음을 참고한다.  Google Gemma : https://github.com/google/gemma_pytorch Blooom : https://huggingface.co/bigscience/bloom   설치 설치를 위해서는 엔비디아 드라이버, CUDA, 텐서플로(TensorFlow), 파이토치(PyTorch) 등 기본 딥러닝 개발 환경이 설치되어 있어야 한다.(최소 구동을 위한 GPU RAM은 6GB이다.) TensorFlow 설치 : https://www.tensorflow.org/install/pip?hl=ko#windows-native_1 Start Locally | PyTorch 설치 : https://pytorch.org/get-started/locally/ 설치 순서는 다음과 같다.  1. 기본 패키지를 설치한다. LLM 모델 기반 서비스 개발 지원 라이브러리 랭체인, 웹 앱 UI 개발을 지원하는 스트림릿, 텍스트 임베딩 벡터 데이터베이스 크로마 DB 등을 설치한다. pip install langchain streamlit streamlit_chat pypdf fastembed chardet pip install chromadb==0.4.15   그림 3. 다양한 LLM 모델을 이용한 서비스 개발을 지원하는 랭체인 패키지   그림 4. 간단한 코드로 웹 앱 개발을 지원하는 UI 라이브러리 패키지 streamlit.io   혹은 pip와 유사한 패키지 설치 관리자인 poetry를 설치한 후, 다음 사용 패키지들을 pyproject.toml 이름으로 저장하고 설치한다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2024-04-01
[케이스 스터디] 최신 렌더링 기능의 사용 돕는 URP 3D 샘플
고품질 그래픽스의 효율적인 제작 및 스케일링 방법 제시   많은 스튜디오에서 유니티(Unity)와 URP(유니버설 렌더 파이프라인)를 사용해 다양한 플랫폼에서 실행되는 다양한 장르와 시각적 스타일의 게임을 제작해 왔다. 그럼에도 입문자는 물론 숙련된 사용자조차 레퍼런스 설정에 어려움을 겪기도 한다. 유니티는 정확도 높은 렌더링에 도움이 되는 HDRP 3D 샘플을 2021년 출시했으며, 2023년 11월에는 유나이트 2023 기조 연설에서 URP 3D 샘플의 출시를 발표했다. 다양한 아트 스타일, 렌더링 경로, 신(scene) 복잡도로 구성된 4가지 환경이 담긴 이 샘플을 통해 여러 플랫폼에서 고품질 그래픽스를 제작하고 스케일링하는 방법을 배울 수 있다.  유니티는 저사양 및 고사양 모바일, PC, 콘솔, VR에서 시각적 매력이 돋보이는 경험을 제공하여 URP를 제대로 학습하고 사용할 수 있도록 지원할 계획이다. ■ 자료 제공 : 유니티 코리아     유니티가 공개한 URP 3D 샘플은 타깃 하드웨어에 맞춰 효율적으로 게임을 제작하고, 최적화하고, 스케일링할 수 있도록 설계되었다. 포워드+ 렌더링, 데칼, 렌즈 플레어, PBR(물리 기반 렌더링) 머티리얼, 셰이더 그래프, 볼륨, 포스트 프로세싱 같은 최신 URP 기능을 사용하는 방법도 익힐 수 있다. 이 샘플을 사용하려면 유니티 2022 LTS가 필요하며, 유나이트에서 함께 발표된 차기 릴리스인 유니티 6에서 추가 지원이 제공될 예정이다. 유니티 6는 렌더 그래프, GPU 기반 드로어와 더불어 STP(공간 포스트 프로세싱)라는 크로스 플랫폼 시간적 업스케일러 등의 강력한 신규 URP 기능도 포함된다. 이 샘플은 유니티 허브(Unity Hub)에서 다운로드할 수 있다.   터미널     터미널 신은 PBR 머티리얼과 사실적인 조명이 특징인 SF 스타일의 건물을 배경으로 한다. 터미널에서는 나머지 세 개의 신으로 텔레포트할 수 있다. 정원, 우주선 콕핏, 오아시스 신은 서로 다른 아트 스타일로 URP 기능을 선보이도록 제작되었다. 터미널은 중립적인 배경과 조명 덕분에 룩 디벨롭먼트(look development)용으로 애셋을 배치하기 가장 좋은 신이다. 이 신은 셰이더 그래프로 제작된 다양한 커스텀 셰이더(물, 텔레포트 표지판)와 두 신 사이를 전환할 수 있는 텔레포트 등의 고급 효과가 적용되어 있다. 경사로를 따라 텔레포트 기기 위의 유니티 로고에 몇 초간 초점을 맞추면 세 개의 신으로 이동할 수 있다.(플레이 모드 필요)   정원     이 밤의 정원은 일본 쇼인즈쿠리에서 영감을 받아 제작된 스타일라이즈드 신이다. 스피드트리(SpeedTree)로 생성된 아름다운 초목, 유기적으로 연결된 인테리어, 굽이치는 개울, 신규 포워드+ 렌더 경로로 기존 광원 수 제한을 뛰어넘는 수많은 장식용 광원으로 이루어져 있다. 정원 신은 저사양 모바일 기기부터 고사양 플랫폼까지 스케일링할 수 있도록 최적화되어, URP의 역량을 효과적으로 선보이는 환경이다. 예를 들어 어떻게 셰이더 그래프의 커스텀 함수 노드로 셰이더를 최적화하고, 초목에 커스텀 반투명도를 적용하고, 광원 쿠키(light cookies)로 조명을 최적화하거나 그림자를 시뮬레이션했는지 알아볼 수 있다.   오아시스     오아시스는 컴퓨팅 성능을 갖춘 고사양 플랫폼에 맞는 고급 셰이더를 선보이기 위해 실사에 가깝게 제작된 환경이다. 데칼, 렌즈 플레어, PBR 머티리얼, 복잡한 커스텀 셰이더 그래프 셰이더가 모래, 물, 안개, 초목에 적용되었다. 플랫폼의 GPU 성능이 높으면 URP로 더 높은 수준의 비주얼을 구현할 수 있음을 보여 준다.   콕핏     우주선의 조종석에 탑승하여 두 진영 간의 치열한 전투에 참여하는 긴장감 넘치는 환경이다. 이 고도의 스타일라이즈드 환경에는 셰이더 그래프의 커스텀 조명 모델이 사용되며, 특히 메타 퀘스트 2(Meta Quest 2) 같은 고성능 VR 헤드셋의 요구 사항을 충족하도록 구현되었다.   URP 3D 샘플 시작하기     유니티 허브에서 Unity 2022.3.12f1을 설치한다. 새 프로젝트를 생성하고 ‘3D Sample Scenes(URP)’를 선택한다. 오른쪽 패널에서 ‘Download template’ 버튼을 클릭한 다음 ‘Create project’를 클릭한다. 프로젝트가 에디터에 로드된다.(첫 임포트 시 몇 분 정도 소요될 수 있음) 유니티를 처음 사용하는 경우, 유니티를 구독하면 URP의 모든 기능을 활용하고 게임 콘솔처럼 다양한 기기에 배포할 수 있다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-04-01
[포커스] 레노버, “클라우드부터 에지까지 폭넓은 AI 포트폴리오 제공”
레노버가 AI(인공지능) 도입에 대한 아시아태평양 지역의 인사이트를 소개하는 ‘CIO 플레이북 2024(CIO Playbook 2024 - It’s All About Smarter AI)’의 조사결과를 소개했다. 레노버는 이번 조사를 통해 AI 시장의 성장 전망을 소개하면서, 데이터가 있는 모든 곳에 AI 역량를 제공한다는 전략을 밝혔다. ■ 정수진 편집장   AI의 높은 열기와 함께 투자 본격화 기대 레노버 인프라스트럭처 솔루션 그룹(ISG)의 플린 맬로이(Flynn Maloy) 마케팅 부회장은 “전세계적으로 AI(인공지능)의 도입이 가속화되고 있으며, 앞으로 10~20년간 AI가 모든 IT 요소를 바꿔놓을 것이라는 기대가 높다”면서, “지금의 AI 시장은 클라우드가 확산되던 초기와 비슷한 열기를 보이고 있다”고 짚었다. 레노버의 의뢰로 IDC가 아시아태평양 및 일본 지역의 CIO를 대상으로 조사한 ‘CIO 플레이북 2024’에서는 기업 임원진이 비즈니스의 최우선 순위로 ‘AI 등 최신 기술의 활용’을 꼽았다. 그리고 ‘AI가 비즈니스의 변화를 가져올 게임 체인저가 될 것’이라는 응답이 46%로 높았다. 또한, 기술 투자의 우선순위에서는 인프라 관리의 자동화 및 보안이 1위였고, 생성형 AI(generative AI)가 4위를 차지했다. 많은 기업이 생성형 AI에 대해 투자하거나 투자 계획을 갖고 있다고 답했고, AI에 대한 투자를 늘리겠다는 응답이 전보다 늘어났다. 이런 흐름에서 레노버는 올해가 AI 투자 본격화의 원년이 될 것으로 보고 있다.   ▲ AI에 대한 관심이 늘면서 기업의 투자가 본격화될 것으로 보인다.(이미지 출처 : CIO Playbook 2024 - It’s All About Smarter AI)   더 빠른 AI 위한 에지 컴퓨팅에 주목 ‘CIO 플레이북 2024’에 따르면, 제조산업에서는 에지 컴퓨팅(edge computing)에 대한 투자가 올해 40% 늘어날 것으로 전망된다. 에지 컴퓨팅은 많은 데이터를 실시간으로 생성하고, 이 데이터를 AI 분석과 학습에 활용할 수 있게 한다는 점에서 중요하다. 대규모의 AI 모델 구축과 빠른 추론에 대한 요구가 높아짐에 따라서 실시간으로 데이터를 처리하고 응답속도를 높이는 것이 AI 분야에서 에지 컴퓨팅의 역할로 꼽힌다. 제조산업에서는 생산 현장의 자동화, IoT(사물인터넷) 장치 관리, 실시간 데이터 분석 및 인사이트 등을 위한 에지 컴퓨팅에 많은 관심을 보이고 있다. 레노버 ISG의 수미르 바티아(Sumir Bhatia) 아시아 태평양 사장은 “특히 BI(비즈니스 인텔리전스), 생산성, 대화형 AI 등의 활용분야에 대한 제조산업계의 관심이 높다”고 소개했다. BI는 스마트시티의 혼잡도 분석이나 군중 통제, 리테일 매장의 성과 분석이나 소비 예측 등에 쓰인다. AI의 생산성은 AI 개발자의 작업 효율을 높이고 부담을 줄이기 위해 중요하다. 대화형 AI는 가상 비서나 재고 관리, 고객 맞춤형 정보 제공 등에 유용하다. 레노버 ISG 코리아의 윤석준 부사장은 “우리나라는 아시아태평양 지역 내에서 에지 컴퓨팅 투자에 선두를 달리고 있다. 국내 에지 컴퓨팅 관련 투자가 급증하고 있으며, 생성형 AI에 대한 투자 또한 아시아태평양 최고 수준”이라고 전했다. 또한, “실시간 애널리틱스, 원격 모니터링, 자율주행 등에서 에지 컴퓨팅 사례가 나오고 있다”고 덧붙였다.   ▲ 제조산업에서는 자동화, IoT 장치 관리, 데이터 분석을 위한 에지 컴퓨팅에 주목하고 있다.(이미지 출처 : CIO Playbook 2024 - It’s All About Smarter AI)   데이터가 있는 모든 곳에 AI를 레노버는 작년 10억 달러 규모의 AI 투자 계획을 발표하는 등 향후 AI 투자를 확대할 예정이다. 또한 퍼스널, 프라이빗, 퍼블릭 환경을 혼합한 ‘하이브리드 AI’를 추구한다. 레노버는 서버뿐 아니라 PC, 스마트 디바이스, 에지 등에 걸쳐 다양한 규모의 AI 솔루션을 제공한다는 뜻에서 ‘포켓 투 클라우드’를 강조했다. 레노버가 특히 차별점으로 내세우는 것은 에지 포트폴리오이다. 맬로이 부회장은 “예를 들어, 리테일 상점에서 AI를 사용하기 위해 거대한 서버를 설치할 수는 없다. 대신 작고 소음이 적은 에지 서버를 활용하는 것이 현실적이다. 이처럼 레노버는 다양한 산업별로 맞춤화된 에지 AI 솔루션을 제공한다”고 설명했다. 바티아 사장은 “레노버는 50여 곳의 소프트웨어 파트너를 통해 금융 사기 방지, 제조 예방보전, 스마트시티의 비주얼 AI 등 산업별 요구에 대응하는165개 솔루션을 제공하고 있다”면서 소프트웨어 관련 투자 의지를 밝혔다. 레노버의 다음 목표는 ‘모든 곳으로 AI를 확산시키는 것’이다. 맬로이 부회장은 “데이터가 있는 곳에서 AI를 활용할 수 있는 솔루션을 제공하고자 한다. 에지에서 데이터를 빠르게 분석하고, 이를 통해 AI를 효과적으로 활용할 수 있는 접근법을 추진할 것”이라고 전했다.   ▲ 레노버는 클라우드부터 에지까지 폭넓은 AI 포트폴리오를 내세운다.(이미지 출처 : CIO Playbook 2024 - It’s All About Smarter AI)     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-04-01