• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "챗봇"에 대한 통합 검색 내용이 93개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
CAD&Graphics 2024년 4월호 목차
  17 THEME. 플랜트·조선 산업 혁신을 위한 디지털화 전략   Part 1. 디지털 기술로 플랜트·조선 산업을 혁신하다 데이터 기반의 업무 혁신, 건설산업의 새로운 시작 클라우드 서비스를 통한 대내외 보안 환경 조성 경쟁력 있는 플랜트를 위한 설비 관리 전략 스마트 디지털 리얼리티와 스마트 야드형 공사 정보 디지털 백본 구축 해양의 미래 : 자율운항 선박의 혁신과 시뮬레이션의 중요성 디지털 전환 여정을 위한 3D CAD 기반 디지털 트윈 구축의 4단계   Part 2. 디지털 트윈의 구축과 활용을 위한 기술 디지털 트윈 가속화를 위한 3D 엔지니어링 데이터 경량 시각화 솔루션 3D 스캔 데이터를 효과적으로 분석하고 활용하는 방법 플랜트 BIM 배관 공사의 필수 아이템 Ez-ISO Strand7 R3 : 범용 유한요소 해석 프로그램   Infoworld   Column 55 책에서 얻은 것 No. 19 / 류용효 커넥팅 80 디지털 지식전문가 조형식의 지식마당 / 조형식 제조업 디지털 전환과 디지털 엔지니어링, 디지털 PLM   Case Study 58 해외 소장 문화재의 ‘디지털 귀향’ 프로젝트 언리얼 엔진과 에픽 에코시스템으로 이뤄낸 문화유산 디지털 경험 62 최신 렌더링 기능의 사용 돕는 URP 3D 샘플 고품질 그래픽스의 효율적인 제작 및 스케일링 방법 제시   Focus 64 지멘스 DISW, “솔리드 엣지로 지능형 제품 설계를 실현한다” 66 모두솔루션, 지스타캐드 시장 확대 및 파트너십 강화 전략 소개 68 슈나이더 일렉트릭, 데이터 플랫폼으로 EV 배터리 시장 공략 70 한국산업지능화협회, “산업 디지털 전환을 주도하기 위해 다방면의 활동 강화” 72 레노버, “클라우드부터 에지까지 폭넓은 AI 포트폴리오 제공” 74 생성형 AI와 협업 툴의 만남, ‘플로우 3.0’ AI Now   New Products 76 이달의 신제품   On Air 78 캐드앤그래픽스 CNG TV 지식방송 지상중계 SIMTOS 2024와 디지털 제조 혁신 트렌드   82 New Books 84 News   Directory 131 국내 주요 CAD/CAM/CAE/PDM 소프트웨어 공급업체 디렉토리   CADPIA   AEC 87 BIM 칼럼니스트 강태욱의 이슈 & 토크 / 강태욱 로컬 호스트 LLM 오픈소스 기반 BIM 전문가 챗봇 서비스 만들어보기 94 데스크톱/모바일/클라우드를 지원하는 아레스 캐드 2024 (12) / 천벼리 아레스 커맨더의 사용자 인터페이스 108 새로워진 캐디안 2024 살펴보기 (4) / 최영석 구성선 및 자유선 기능 128 복잡한 모델에서 인사이트를 얻고 설계 의사결정을 돕는 직스캐드 (1) / 이소연 직스캐드 2024의 최신 기능 업데이트   Reverse Engineering 100 문화유산 분야의 이미지 데이터베이스와 활용 사례 (4) / 유우식 한지 데이터베이스   Mechanical 111 제품 개발 혁신을 가속화하는 크레오 파라메트릭 10.0 (11) / 김주현 매스캐드 프라임 9.0 사용하기 Ⅰ   Analysis 97 시뮤텐스 소프트웨어를 활용한 복합소재 해석 (1) / 씨투이에스코리아 복합소재 공정 전반의 가상 프로세스 체인 118 앤시스 워크벤치를 활용한 해석 성공사례 / 김선명 전기자동차용 헤어핀 모터 코일의 DfAM 및 금속 적층제조 프로세스 124 성공적인 유동 해석을 위한 케이던스의 CFD 기술 (8) / 나인플러스IT CFD 시스템 설계 및 분석 가속화를 위한 밀레니엄 M1
작성일 : 2024-03-28
HPE, 생성형 AI용 엔드 투 엔드 AI 네이티브 포트폴리오 출시
HPE는 엔비디아 GTC에서 생성형 AI, 딥러닝, 머신러닝 애플리케이션의 운영 고급화를 위한 통합 AI 네이티브 포트폴리오를 새롭게 업데이트했다고 발표했다. 이번에 발표된 업데이트는 ▲HPE와 엔비디아가 공동 엔지니어링한 풀스택 생성형 AI 솔루션 ▲HPE 머신러닝 추론 소프트웨어 프리뷰 버전 ▲엔터프라이즈급 검생증강생성(RAG : Retrieval-augmented generation) 레퍼런스 아키텍처 ▲신규 엔비디아 블랙웰(NVIDIA Blackwell) 플랫폼 기반 제품 개발 지원 등을 포함한다. 대규모 AI 모델의 개발 및 훈련을 위해 사전 구성 및 테스트된 풀스택 솔루션을 원하는 기업을 위해 생성형 AI용 HPE 슈퍼컴퓨팅 솔루션도 출시됐다. 고객들이 생성형 AI 및 딥러닝 프로젝트 개발을 가속할 수 있도록 목적 기반의 턴키 솔루션은 엔비디아 칩으로 구동되며 최대 168개의 엔비디아 GH200 그레이스 호퍼 슈퍼칩(GH Grace Hopper Superchip)이 제공된다. 이 솔루션은 대기업, 연구소 및 정부 기관들이 인공지능 및 머신러닝 소프트웨어 스택을 활용한 모델 개발 과정을 더욱 단순화할 수 있도록 지원한다. 이러한 소프트웨어 스택은 고객들이 대규모 언어 모델(LLM), 추천 시스템, 벡터 데이터 베이스 등 생성형 AI와 딥러닝 프로젝트를 더욱 빠르게 추진할 수 있도록 한다. 설치에서부터 모든 서비스가 제공되는 턴키 솔루션을 이용해 AI 연구 센터와 대기업은 가치 창출까지의 시간을 더욱 단축하고 훈련은 2~3배 더욱 신속히 진행할 수 있다.     HPE의 생성형 AI용 엔터프라이즈 컴퓨팅 솔루션은 유연하고 확장 가능한 사용량 기반 과금 모델을 제공하는 HPE 그린레이크(HPE GreenLake)를 통해 이용할 수 있다. 엔비디아와 공동 엔지니어링하여 사전 구성된 미세 조정(fine-tuning) 및 추론 솔루션은 생성형 AI 애플리케이션을 제작하기 위해 필요한 정확한 컴퓨팅, 스토리지, 소프트웨어, 네트워킹 및 컨설팅 서비스를 제공함으로써 소요 시간과 비용을 절감해 준다. 이러한 AI 네이티브 풀스택 솔루션은 프라이빗 데이터 기반의 파운데이셔널 모델을 제작하기 위해 필요한 속도, 규모, 관리 기능을 제공하고 하이브리드 클라우드 모델 내 생성형 AI 애플리케이션을 배포할 수 있도록 지원한다. HPE와 엔비디아의 고성능 AI 컴퓨팅 클러스터 및 소프트웨어를 기반으로 하는 이 솔루션은 경량 모델 미세조정, RAG, 대규모 추론 등에 이상적이다. 이 솔루션을 실행하는 700억 개의 파라미터를 가진 라마 2(Llama 2) 모델의 미세 조정 시간은 노드 수에 따라 선형적으로 감소하여 16노드 시스템에서는 6분이 소요된다. 이러한 속도와 성능 덕분에 고객은 버추얼 어시스턴트, 지능형 챗봇, 기업용 검색과 같은 AI 애플리케이션으로 비즈니스 생산성을 개선하여 가치 실현을 더욱 빠르게 달성할 수 있다. 또한, 해당 솔루션은 HPE 프로라이언트 DL380a Gen11 서버(HPE ProLiant DL380a Server)를 기반으로 엔비디아 GPU, 엔비디아 스펙트럼-X 이더넷(NVIDIA Spectrum-X Ethernet) 네트워킹 플랫폼, 엔비디아 블루필드-3 DPU(NVIDIA BlueField-3 DPU)으로 사전 구성되어 있다. 이에 더해 HPE의 머신러닝 플랫폼과 애널리틱스 소프트웨어, 생성형 AI 모델 추론용으로 최적화된 엔디비아 NIM 마이크로서비스가 제공되는 엔비디아 AI 엔터프라이즈 5.0 소프트웨어뿐만 아니라 엔비디아 네모 리트리버(NeMo Retriever) 및 기타 데이터 사이언스와 AI 라이브러리를 이용할 수 있다. HPE의 안토니오 네리(Antonio Neri) CEO는 “생성형 AI의 미래를 실현하고 AI 생명주기 전반을 다루기 위한 솔루션은 설계부터 하이브리드로 제작되어야 한다. AI는 하이브리드 클라우드 환경이 필요한 워크로드로, 온프레미스나 코로케이션 시설, 퍼블릭 클라우드에서 AI 모델을 훈련하는 것부터 에지에서의 추론 작업까지 모든 환경에 걸쳐 진행된다”면서, “HPE와 엔비디아는 공동 설계한 AI 소프트웨어 및 하드웨어 솔루션을 지속적으로 선보이며, 고객들이 기획에서부터 제작까지 생성형 AI를 가속해서 개발하고 배포할 수 있도록 도와줄 것”이라고 말했다. 엔비디아의 젠슨 황(Jensen Huang) CEO는 “생성형 AI는 커넥티드 디바이스, 데이터 센터 및 클라우드 내 데이터에서 인사이트를 도출해내며 전 산업의 혁신을 일으킬 수 있다. 엔비디아와 HPE의 협력 확대를 통해 기업들은 데이터를 활용하여 새로운 AI 애플리케이션을 개발 및 배포함으로써 전례 없는 생산성 향상을 경험하고 비즈니스를 새롭게 전환할 수 있을 것”이라고 말했다.
작성일 : 2024-03-26
2023 생성형 AI 주요 이슈와 의미
정보통신정책연구원은 2023 생성형 AI 주요 이슈와 의미를 발표하였다. - ChatGPT 출시 이후, 생성형 AI의 주요 이슈와 그 의미는 다음과 같음 1. ChatGPT 출시(´22.11.30)와 생성형 AI의 부상 · 코딩, 요약, 콘텐츠 생성 등 강력한 텍스트 생성 성능을 보이며 유례없는 이용자 수를 기록, 생성형 AI의 대중화 가능성을 보여줌 2. LLaMA 출시(´23.02.24)와 LLaMA Moment, 오픈 소스로 촉발된 모델 경량화와 시장변화 · Meta의 대형언어모델인 LLaMA의 소스가 대중적으로 오픈되면서 대형언어모델 시장의 진입장벽이 낮아지며 시장에 영향을 미침 3. GPT-4 출시(´23.03.14), 멀티모달(multi-modal) 시대에 대한 기대 · 텍스트 생성을 넘어 이미지 입력·처리·추론이 가능한 대형언어 모델이 출시되면서 멀티 모달 AI의 활용이 점차 가시화되고 있음 4. 구글의 생성형 AI 접목(´23.03.14) 및 MS의 Copilot 출시(´23.03.16), AI를 통한 효율성과 생산성 증대 기대 · 주요 빅테크 기업들이 생성형 AI를 자사 업무 생산성 도구에 접목하면서, AI 기술을 통한 서비스 고도화 및 경쟁을 펼치고 있으며 이는 향후 업무 방식과 경쟁력에 영향을 미칠 것으로 전망 5. ChatGPT-Plugin 출시(´23.03.23), 챗봇에서 플랫폼으로의 진화 · ChatGPT-Plugin를 통한 외부 서비스와 연결로, 최신 정보 접근과 다양한 서비스와 기능을 ChatGPT 내에서 수행할 수 있게 되면서 ChatGPT 중심의 서비스 통합 가능성을 보여주게 됨 6. 자율 AI 에이전트(Autonomous Agent)의 등장과 인공 일반지능(Artificial General Intelligence, AGI)으로의 기대 · 자율적으로 목표를 달성하는 자율 AI 에이전트 프로그램들이 등장하고 주목받으며, 미래로만 여겨지던 인공 일반지능(AGI)의 시대의 도래를 시사함   발행일 : 2023.09.14  
작성일 : 2024-03-19
스노우플레이크, 미스트랄 AI와 협력해 5개 국어의 LLM 모델 지원
데이터 클라우드 기업 스노우플레이크가 프랑스의 AI 솔루션 제공업체 미스트랄 AI(Mistral AI)와 파트너십을 맺고, 플래그십 대규모 언어 모델(LLM)인 ‘미스트랄 라지(Mistral Large)’를 스노우플레이크 데이터 클라우드 플랫폼에 적용한다고 밝혔다. ‘미스트랄 라지’는 고유한 추론 능력을 갖춘 LLM 모델로 코딩과 수학에 능숙하고 한 번의 요청으로 수백 페이지에 달하는 문서를 처리할 수 있다. 프랑스어, 영어, 독일어, 스페인어, 이탈리아어, 5개 언어 처리가 가능한데, 기존 생성형 AI 모델과 ‘대규모 다중 작업 언어 이해 측정(MMLU)’을 비교하는 과정에서 성능을 입증했다. 이와 함께, 미스트랄 AI의 최초 기본 모델인 ‘미스트랄 7B’와 오픈소스 모델 ‘믹스트랄(Mixtral) 8x7B’에 대한 엑세스 제공 및 스노우플레이크 산하 벤처 캐피탈인 스노우플레이크 벤처스(Snowflake Ventures)의 미스트랄 AI에 대한 시리즈 A 투자 등도 이번 파트너십 발표에 포함됐다. ‘미스트랄 7B’는 낮은 지연 시간과 메모리 요구사항에 비해 높은 처리량을 갖춘 것이 특징이고, ‘믹스트랄 8x7B’는 여러 성능 비교에서 챗GPT3.5보다 빠르고 품질이 우수한 것으로 나타났다. 미스트랄 AI의 모델들은 ‘스노우플레이크 코텍스(Snowflake Cortex)’에서 프리뷰 공개 형태로 고객에게 제공된다. 스노우플레이크 코텍스는 스노우플레이크 플랫폼에서 생성형 AI를 활용할 수 있는 완전 관리형 LLM 및 벡터 검색 서비스이다. AI/ML 기술 없이도 쉽고 강화된 보안 환경에서 생성형 AI를 활용할 수 있는 서비스로, 기업 고객은 데이터에 대한 보안, 개인 정보 보호 및 거버넌스는 유지하면서 데이터를 빠른 속도로 분석하고 AI 앱을 구축할 수 있다.     스노우플레이크는 2023년 감정 분석, 번역, 요약과 같은 특수 작업을 위한 LLM을 지원하는 코텍스를 처음 공개했다. 또한, 메타(Meta)의 ‘라마2(Llama 2)’ 모델을 시작으로 검색증강생성(RAG)을 포함한 기본 LLM 지원을 늘리고 있다. 스노우플레이크는 미스트랄 AI와의 파트너십을 통해 생성형 AI에 대한 투자를 이어가면서, 기본형 LLM을 스노우플레이크 코텍스에서 제공해 기업이 다방면 비즈니스에 최첨단 생성형 AI를 도입할 수 있도록 지원하고 있다. 스노우플레이크 코텍스 LLM 기능이 공개 프리뷰되면서, 스노우플레이크 기업 고객은 기업 고유의 데이터를 바탕으로 다양하게 AI를 활용할 수 있게 됐다. SQL 기술을 갖춘 사용자라면 누구나 수 초 내에 감정 분석, 번역, 요약과 같은 특수 작업을 비용 효율적으로 진행할 수 있다. 파이썬 개발자라면 스노우플레이크 코텍스에서 제공하는 미스트랄 AI의 LLM은 물론, 곧 공개될 스노우플레이크 스트림릿(Streamlit)의 대화형 기능을 통해 수 분 내에 챗봇과 같은 풀스택 AI 앱을 개발할 수 있게 된다. 간편해진 경험과 높은 수준의 보안은 역시 곧 공개될 스노우플레이크의 통합 벡터 기능과 벡터 데이터 유형을 통해 RAG에도 동일하게 적용될 예정이다. 스노우플레이크의 슈리다 라마스워미(Sridhar Ramaswamy) CEO는 “스노우플레이크는 미스트랄 AI와의 파트너십을 통해 최정상급 성능의 LLM을 고객에게 직접 제공하고, 사용자는 간편하면서도 혁신적인 AI 앱을 구축할 수 있게 되었다”면서, “스노우플레이크 코텍스를 통해 더 많은 기업이 데이터 클라우드의 보안과 개인 정보 보호는 강화하고 새롭고 경제적인 AI 사용 사례를 만들어 내기를 바란다”고 말했다. 미스트랄 AI의 아르튀르 멘슈(Arthur Mensch) CEO는 “미스트랄 AI는 전세계적으로 기업이 생성형 AI 활용에 더 가까워지도록 고성능, 고효율에 신뢰할 수 있는 AI 모델을 개발하겠다는 스노우플레이크의 목표에 공감한다”면서, “스노우플레이크 데이터 클라우드에서 미스트랄 AI의 모델을 활용함으로써, 고객이 민주화된 AI를 경험하고 더 큰 가치를 창출하는 고도화된 AI 앱을 생성할 수 있기를 기대한다”고 전했다.
작성일 : 2024-03-11
엔비디아, “RTX AI PC와 워크스테이션 통해 전용 AI 기능과 고성능 제공”
엔비디아가 RTX AI PC와 워크스테이션 사용자를 위한 하드웨어, 소프트웨어, 도구, 가속화 등을 계속해서 선보일 예정이라고 밝혔다. 엔비디아는 2018년 RTX 기술과 AI용으로 제작된 소비자 GPU인 지포스 RTX(GeForce RTX)를 출시하면서 AI 컴퓨팅으로의 전환을 가속화했다. 이후 RTX PC와 워크스테이션상의 AI는 1억 명 이상의 사용자와 500개 이상의 AI 애플리케이션을 갖춘 생태계로 성장했다. 생성형 AI는 PC에서 클라우드에 이르기까지 새로운 차원의 기능을 선보이고 있다. 또한 엔비디아는 축적된 AI 경험과 전문성으로 모든 사용자가 다양한 AI 기능을 처리하는 데 필요한 성능을 갖출 수 있도록 지원한다는 계획이다. AI 시스템은 데이터 내부의 경험이나 패턴을 학습한 다음 새로운 입력이나 데이터가 공급되면 스스로 결론을 조정할 수 있다는 장점을 가지고 있다. AI 시스템은 이러한 자가 학습을 통해 이미지 인식, 음성 인식, 언어 번역, 의료 진단, 자동차 내비게이션, 이미지와 영상 품질 향상 등 수백 가지의 다양한 작업을 수행할 수 있다. AI 진화의 다음 단계는 생성형 AI(generative AI)라고 하는 콘텐츠 생성이다. 이를 통해 사용자는 텍스트, 이미지, 사운드, 애니메이션, 3D 모델 또는 기타 유형의 데이터를 포함한 다양한 입력을 기반으로 새로운 콘텐츠를 빠르게 제작하고 반복할 수 있다. 그런 다음 동일하거나 새로운 형식의 콘텐츠를 생성한다.     AI PC는 AI를 더 빠르게 실행할 수 있도록 설계된 전용 하드웨어가 장착된 컴퓨터이다. 점점 더 많은 유형의 AI 애플리케이션이 클라우드가 아닌 디바이스에서 특정 AI 작업을 수행할 수 있는 PC를 필요로 하게 될 것이다. AI PC에서 실행하면 인터넷 연결 없이도 항상 컴퓨팅을 사용할 수 있고 시스템의 짧은 지연 시간으로 응답성도 높아진다. 아울러 사용자가 AI 활용을 위해 민감한 자료를 온라인 데이터베이스에 업로드할 필요가 없어 개인정보 보호가 강화된다는 이점도 있다. 3D 이미지가 로드될 때까지 가만히 앉아 기다리는 대신 AI 디노이저를 통해 이미지가 즉각적으로 업데이트되는 것을 볼 수 있다. RTX GPU에서는 이러한 전문 AI 가속기를 ‘텐서 코어(Tensor Core)’라고 한다. 텐서 코어는 업무와 게임 플레이에 사용되는 까다로운 애플리케이션에서 AI의 성능을 가속화한다. 현 세대의 지포스 RTX GPU는 대략 200 AI TOPS(초당 조 단위 연산)부터 1300 TOPS 이상까지 다양한 성능 옵션을 제공하며, 노트북과 데스크톱에 걸쳐 다양한 옵션을 지원한다. GPU가 없는 현 세대의 AI PC 성능은 10~45TOPS이다. 전문가들은 엔비디아 RTX 6000 에이다 제너레이션(RTX 6000 Ada Generation) GPU를 통해 더욱 높은 AI 성능을 얻을 수 있다. 엔비디아는 고성능의 RTX GPU와 함께 AI 업스케일링부터 개선된 화상 회의, 지능적이고 개인화된 챗봇에 이르기까지 모든 유형의 사용자에게 도움이 되는 도구를 제공한다고 소개했다. RTX 비디오는 AI를 사용해 스트리밍 영상을 업스케일링하고 HDR(하이 다이내믹 레인지)로 표시한다. SDR(표준 다이내믹 레인지)의 저해상도 영상을 최대 4K 고해상도 HDR로 생생하게 재현한다. RTX 사용자는 크롬 또는 엣지 브라우저에서 스트리밍되는 거의 모든 영상에서 한 번의 클릭으로 이 기능을 이용할 수 있다. RTX 사용자를 위한 무료 앱인 엔비디아 브로드캐스트(Broadcast)는 간단한 사용자 인터페이스(UI)를 통해 화상 회의, 라이브 스트리밍 개선 등 다양한 AI 기능을 제공한다. 노이즈와 에코 제거 기능으로 키보드 소리, 진공 청소기 소리, 아이들의 큰 목소리 등 원치 않는 배경 소리를 제거하고, 가상 배경을 사용해 더 나은 엣지 감지로 배경을 대체하거나 흐리게 처리할 수 있다. 챗 위드 RTX(Chat With RTX)는 사용하기 쉽고 무료로 다운로드가 가능한 로컬 맞춤형 AI 챗봇 데모이다. 사용자는 파일을 하나의 폴더에 끌어다 놓고 챗 위드 RTX에서 해당 위치를 가리키기만 하면 PC의 로컬 파일을 지원되는 대규모 언어 모델(LLM)에 쉽게 연결할 수 있다. 이를 활용하면 쿼리를 통해 상황에 맞는 답변을 빠르게 얻을 수 있다.  AI는 크리에이터들의 지루한 작업을 줄이거나 자동화해 순수 창작을 위한 시간을 제공하며 창의적인 잠재력을 실현하도록 돕는다. 이러한 기능은 엔비디아 RTX 또는 지포스 RTX GPU가 탑재된 PC에서 빠르게 혹은 단독으로 실행된다. 어도비 프리미어 프로의 AI 기반 음성 향상 도구는 불필요한 노이즈를 제거하고 대화 품질을 개선한다. 어도비 프리미어 프로(Adobe Premiere Pro)의 음성 향상 도구는 RTX로 가속화된다. 이는 AI를 사용해 불필요한 노이즈를 제거하고 대화 클립의 품질을 개선해 전문적으로 녹음된 것 같은 사운드를 구현한다. 또 다른 프리미어 기능으로는 자동 리프레임이 있다. 자동 리프레임은 GPU 가속화를 통해 영상에서 가장 관련성 높은 요소를 식별하거나 추적해 다양한 화면 비율에 맞게 영상 콘텐츠를 지능적으로 재구성한다. 영상 편집자의 시간을 절약해 주는 또 하나의 AI 기능으로 다빈치 리졸브(DaVinci Resolve)의 매직 마스크(Magic Mask)가 있다. 편집자가 한 장면에서 피사체의 색조와 밝기를 조정하거나 원치 않는 부분을 제거해야 하는 작업에서 매직 마스크를 활용하면 피사체 위에 선을 긋기만 해도 AI가 잠시 동안 처리한 후 선택 영역을 표시한다.  한편, AI는 확장 가능한 환경, 하드웨어와 소프트웨어 최적화, 새로운 API를 통해 개발자가 소프트웨어 애플리케이션을 구축하는 방식을 개선하고 있다. 엔비디아 AI 워크벤치(AI Workbench)는 개발자가 PC급 성능과 메모리 설치 공간을 사용해 사전 훈련된 생성형 AI 모델과 LLM을 빠르게 생성, 테스트, 맞춤화할 수 있도록 지원한다. 이는 RTX PC에서 로컬로 실행하는 것부터 거의 모든 데이터센터, 퍼블릭 클라우드 또는 엔비디아 DGX 클라우드(DGX Cloud)까지 확장할 수 있는 간편한 통합 툴킷이다. 개발자는 PC에서 사용할 AI 모델을 구축한 후 엔비디아 텐서RT를 사용해 모델을 최적화할 수 있다. 텐서RT는 RTX GPU에서 텐서 코어를 최대한 활용할 수 있도록 도와주는 소프트웨어이다. 윈도우용 텐서RT-LLM을 통해 텍스트 기반 애플리케이션에서 텐서RT 가속화를 사용할 수 있다. 이 오픈 소스 라이브러리는 LLM 성능을 향상시키고 구글 젬마 ,메타(Meta) 라마2(Llama 2), 미스트랄(Mistral), 마이크로소프트(Microsoft) Phi-2 등 인기 모델에 대해 사전 최적화된 체크포인트를 포함한다. 또한 개발자는 오픈AI(OpenAI) 채팅 API용 텐서RT-LLM 래퍼에도 액세스할 수 있다. 컨티뉴(continue.dev)는 LLM을 활용하는 비주얼 스튜디오 코드(VS Code)와 제트 브레인(JetBrains)용 오픈 소스 자동 조종 장치이다. 컨티뉴는 단 한 줄의 코드 변경만으로 RTX PC에서 로컬로 텐서RT-LLM을 사용해 로컬에서 빠르게 LLM 추론할 수 있는 도구이다.
작성일 : 2024-03-08
엔비디아, 구글과 협력해 AI 모델 ‘젬마’ 최적화
  엔비디아가 구글과 협력해 모든 엔비디아 AI 플랫폼에서 AI 모델 ‘젬마(Gemma)’를 위한 최적화를 진행해, 비용을 절감하고 도메인별 용도에 따라 작업 속도를 높였다고 밝혔다. 젬마는 구글의 새로운 경량 오픈 언어 모델로, 20억(2B) 개 파라미터와 70억(7B) 개 파라미터 크기로 제공된다. 젬마는 구글의 멀티모달 모델인 제미나이(Gemini) 개발에 사용된 동일한 연구와 기술을 기반으로 구축됐다. 엔비디아는 구글과 협력해 엔비디아 텐서RT-LLM(TensorRT-LLM)으로 젬마의 성능을 가속화했다. 텐서RT-LLM은 데이터센터, 클라우드 혹은 엔비디아 RTX GPU가 탑재된 PC에서 대규모 언어 모델(LLM) 추론을 최적화하는 오픈 소스 라이브러리이다. 이를 통해 개발자는 전 세계 고성능 AI PC에 탑재된 1억 개 이상의 엔비디아 RTX GPU를 활용할 수 있다. 개발자들은 클라우드 상의 엔비디아 GPU에서도 젬마를 실행할 수 있다. 여기에는 H100 텐서 코어(H100 Tensor Core) GPU를 기반으로 하는 구글 클라우드 A3인스턴스(A3 instances)가 포함되며, 초당 4.8테라바이트의 141GB HBM3e 메모리를 갖춘 엔비디아 H200 텐서 코어 GPU도 합류할 예정이다. 구글은 올해 안에 이를 배포할 예정이라고 전했다. 엔비디아는 네모 프레임워크(NeMo Framework)가 적용된 엔비디아 AI 엔터프라이즈(AI Enterprise)와 텐서RT-LLM을 비롯한 광범위한 도구를 갖추고 있다. 엔터프라이즈 개발자는 이들을 추가로 활용해 젬마를 미세 조정하고 최적화된 모델을 프로덕션 애플리케이션에 배포할 수 있다. 한편, 엔비디아는 자사의 기술 데모인 챗 위드 RTX(Chat with RTX)에 곧 젬마가 추가로 지원될 예정이라고 전했다. 챗 위드 RTX는 검색 증강 생성(Retrieval-augmented generation : RAG)과 텐서RT-LLM 소프트웨어를 사용해 로컬 RTX 기반의 윈도우 PC에서 사용자에게 생성형 AI 기능을 제공하는 기술이다. 사용자는 챗 위드 RTX를 통해 PC의 로컬 파일을 LLM에 쉽게 연결하고, 자신의 데이터로 챗봇을 개인화할 수 있다. 챗 위드 RTX는 로컬에서 모델이 실행되므로 결과가 빠르게 제공되며 사용자 데이터가 디바이스에 유지된다. 클라우드 기반 LLM 서비스에 대신 챗 위드 RTX를 사용하면 민감한 데이터를 제3자와 공유하거나 인터넷에 연결할 필요 없이 로컬 PC에서 처리할 수 있다.
작성일 : 2024-02-23
마이크로소프트, 2024년 주목해야 할 3가지 AI 트렌드 공개
마이크로소프트는 2024년에도 인공지능(AI)이 사람들의 일상과 업무 방식을 크게 변화시킬 것으로 전망했다. 나아가 인공지능 기술 통합과 발전으로 가장 어려운 문제 해결을 돕는 기술에 보다 쉽게 접근할 수 있으며, 인류의 삶을 더 풍요롭게 만들어 줄 것으로 기대하고 있다.   생성형 AI는 지난 한 해 동안 놀라운 발전을 이루며 인류의 일상 속에 자리잡았다. 특히 챗GPT, 마이크로소프트 코파일럿(Microsoft Copilot)과 같은 도구를 통해 연구실에서부터 일상생활에 이르기까지 수많은 사람들이 인공지능을 활용하며 가능성을 확인했다. 마이크로소프트는 2024년 주목해야 할 주요 인공지능 트렌드로 ▲인공지능 연구와 혁신을 촉진하는 소형 언어 모델 ▲인간의 인지 능력을 활용하는 멀티모달 AI ▲과학 분야의 새로운 가능성을 여는 인공지능 등 세 가지를 꼽았다.     마이크로소프트는 소형 언어 모델(SLM)이 인공지능 분야에서 더욱 중요한 역할을 하게 될 것으로 예상했다. 수십억 개의 파라미터(언어 모델이 문장을 생성하거나 해석할 때 사용되는 변수)로 이뤄진 소형 언어 모델은 학습에 필요한 시간과 자원을 적게 소모해 모바일 기기에서도 쉽게 실행할 수 있고, 인터넷이 지원되지 않는 오프라인 상태에서도 언제 어디서나 사용할 수 있다는 장점이 있다. 또한 선별된 고품질 학습 데이터를 사용해 보다 정확한 결과를 얻을 수 있다. 마이크로소프트 연구진은 특정 분야에서 대형 언어 모델(LLM)과 동등하거나 더 나은 성능을 보이는 두개의 소형 언어 모델인 파이(Phi)와 오르카(Orca)를 개발해 성능에 대한 새로운 기준점을 찾기 위해 노력하고 있다. 특히 2024년에는 개선된 모델을 출시해 더 많은 연구와 혁신 촉진에 기여할 것으로 기대하고 있다. 이와 함께 멀티모달 AI(Multi-Modal AI)가 인간의 인지 능력과 더욱 유사하게 발전할 것으로 보인다. 이 기술은 텍스트·이미지·오디오·비디오 등 다양한 형태의 데이터를 동시에 처리해 검색 도구부터 크리에이티브 앱까지 다양한 기술의 성능을 향상시킨다. 마이크로소프트의 코파일럿은 멀티모달 AI 기술을 활용해 이미지, 자연어, 빙(Bing) 검색 데이터를 처리한다. 이를 통해 사용자는 본인이 업로드한 이미지에 담긴 역사적 배경과 같은 관련 정보를 파악할 수 있다. 멀티모달 AI 기술은 마이크로소프트 디자이너(Microsoft Designer) 그래픽 디자인 앱에도 적용된다. 이 앱은 사용자가 원하는 이미지에 대한 설명을 기반으로 이미지를 생성할 수 있으며, 사용자 지정 신경망 음성(Custom Neural Voice) 기능을 통해 텍스트 리더기 및 청각 장애인용 도구에 사용 가능한 자연스러운 음성을 지원한다. 마지막으로 마이크로스프트는 인공지능 기술이 국제적 문제인 기후 변화, 에너지 위기, 질병 등 과학 분야에서도 혁신적인 해결책을 제시할 수 있을 것으로 내다봤다. 마이크로소프트는 인공지능을 활용해 기후 변화 완화와 농부의 효율적인 작업을 목표로 향상된 일기예보 시스템과 탄소 측정기를 개발하는 등 지속가능한 농업을 위한 도구를 구축하고 있다. 또한 잡초의 정보를 파악하고 트랙터의 상태를 체크할 수 있는 등 농부들이 현장에서 사용 가능한 인공지능 챗봇도 개발하고 있다. 생명과학 분야에서는 연구원들이 암 퇴치를 위한 세계 최대 규모 이미지 기반 인공지능 모델과 공동 연구를 진행 중이며, 감염병 신약과 혁신 의약품을 위한 새로운 분자를 찾기 위해 첨단 인공지능을 활용하고 있다. 이를 통해 수년 이상 소요되는 검증 과정을 수 주 또는 수 개월로 단축 가능하다. 재료과학 분야에서도 마이크로소프트는 스위스의 제약회사인 노바티스(Novartis)와 함께 인공지능과 고성능 컴퓨팅 기술을 활용해 저독성 배터리 소재 발견을 위한 검색 가속화에 성공했다.
작성일 : 2024-02-14
다쏘시스템, “AI·사이버 보안기술·디지털 플랫폼이 중소기업에 기회를 가져다 줄 것”
다쏘시스템은 사이트 리서치(CITE Research)가 진행한 설문조사 결과를 통해, 인공지능(AI)이 기존 프로세스와 기업 구조에 얽매인 대기업을 뛰어넘을 수 있는 기회를 스타트업과 중소기업에게 제공할 수 있다고 전했다. 이번 설문조사는 다쏘시스템과 사이트 리서치가 미개발 인공지능 역량, IT 및 사이버 보안 기술, 디지털 플랫폼의 용이성을 주제로 AI, 기술 격차, 디지털 혁신에 대해 미국, 영국, 프랑스, 독일, 이탈리아의 기술 분야 종사자 1000명을 대상으로 진행했다.  설문조사에 따르면 84%의 기업이 AI 사용을 허용하고 68%가 챗봇을 사용하고 있는 것으로 나타났다. 하지만 기계 지원 설계, 통합 및 머신러닝과 같은 더 영향력 있는 다른 기능들이 사용자의 효율성을 끌어올릴 준비가 되어 있다. 응답자의 64%는 경쟁에 필요한 기술을 갖춘 직원을 찾는 것이 점점 더 어려워지고 있다는 데에 동의했다. 73%는 사이버 보안 문제에 대해 우려하고 있지만, 이를 해결할 수 있는 적절한 사이버 보안 기술을 갖춘 직원을 보유한 기업은 40%에 불과했다. 사이버 보안 기술 격차로 인한 결과로는 제품 및 서비스 비용 상승, 안전 문제, 시장 출시 시간 지연, 수익 감소 등이 있으며, 적절한 기술을 통해 소규모 기업이 개선할 수 있는 부분이 드러난다. 응답 기업의 87%는 디지털 전환을 확장할 여지가 있는 것으로 나타났다. 대기업의 3분의 1 이상이 디지털 전환의 구현 비용과 관리 기술을 도입의 장벽으로 보고 있는데, 중소기업이 디지털 플랫폼을 통해 기회를 포착할 수 있는 기회가 있음을 보여준다. 다쏘시스템의 지앙 파올로 바씨(Gian Paolo Bassi) 3D익스피리언스 웍스 수석 부사장은 “우리는 솔리드웍스 및 3D익스피리언스 웍스 커뮤니티에 영향을 미치는 시의적절한 주제를 탐구하고 싶었다”면서, “3D익스피리언스 웍스 포트폴리오의 일부인 솔리드웍스 애플리케이션을 통해 커뮤니티는 버추얼 트윈의 힘을 활용하여 기업의 목표를 달성하고 비즈니스의 모든 측면에서 성공할 수 있다”고 전했다.
작성일 : 2024-02-14
엔비디아, RTX 기반 원도우 AI PC에 맞춤형 챗봇 제공
엔비디아가 사용자만의 콘텐츠로 챗봇을 개인화할 수 있는 ‘챗 위드 RTX(Chat With RXT)’를 윈도우 PC에서 제공한다고 밝혔다. 챗 위드 RTX는 사용자가 자신만의 콘텐츠로 챗봇을 개인화할 수 있는 기술 데모이다. 최소 8GB의 비디오 랜덤 액세스 메모리 또는 VRAM을 갖춘 로컬 엔비디아 지포스 RTX 30(GeForce RTX 30) 시리즈 GPU 이상으로 가속되며, 현재 무료로 다운로드가 가능하다. 챗 위드 RTX는 검색 증강생성(RAG), 엔비디아 텐서RT-LLM(TensorRT-LLM) 소프트웨어, 엔비디아 RTX 가속화 등을 사용해 로컬 지포스 기반 윈도우 PC에 생성형 AI 기능을 제공한다. 사용자는 PC의 로컬 파일을 데이터셋으로 미스트랄(Mistral)이나 라마 2(Llama 2)와 같은 오픈소스 LLM(대규모 언어 모델)에 빠르고 쉽게 연결해 상황에 맞는 빠른 답변을 얻을 수 있다.     사용자들은 메모나 저장해둔 콘텐츠를 검색하는 대신 간단한 검색어를 입력해 챗봇을 이용할 수 있다. 예를 들어 “라스베가스에 있을 때 내 친구가 추천한 레스토랑이 어디야?”라고 질문하면, 챗 위드 RTX가 사용자가 지정한 로컬 파일을 스캔해 상황에 맞는 답변을 제공한다. 이 도구는 *.txt, *.pdf, *.doc/*.docx, *.xml 등 다양한 파일 형식을 지원한다. 애플리케이션에서 해당 형식의 파일들을 포함한 폴더를 가리키면, 이 파일들은 몇 초 만에 라이브러리에 로드된다. 사용자는 유튜브 동영상 혹은 재생 목록의 정보도 포함할 수 있다. 챗 위드 RTX에 동영상 URL을 추가하면 사용자는 해당 정보를 챗봇에 통합해 상황에 맞는 질문을 할 수 있다. 예를 들어, 좋아하는 인플루언서 동영상의 콘텐츠를 기반으로 여행 추천을 요청하거나, 우수한 교육 자료를 기반으로 빠른 튜토리얼과 사용법을 안내를 받을 수 있다. 챗 위드 RTX는 윈도우 RTX PC와 워크스테이션에서 로컬로 실행되므로 결과가 빠르게 제공되고, 사용자의 데이터는 디바이스에 그대로 유지된다. 또한, 클라우드 기반 LLM 서비스 대신 챗 위드 RTX를 사용하면 민감한 데이터를 제3자와 공유하거나 인터넷에 연결하지 않고도 처리할 수 있다. 챗 위드 RTX는 최소 8GB의 VRAM이 탑재된 지포스 RTX 30 시리즈 이상의 GPU와 윈도우 10, 11 그리고 최신 엔비디아 GPU 드라이버에서 사용 가능하다.
작성일 : 2024-02-14