• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "챗봇"에 대한 통합 검색 내용이 103개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
엔비디아, 기업용 생성형 AI 구축 돕는 ‘NIM 에이전트 블루프린트’ 공개
엔비디아가 기업용 생성형 AI 구축을 가속화하는 엔비디아 NIM 에이전트 블루프린트(NVIDIA NIM Agent Blueprints)를 공개했다. 최근 고급 오픈소스 기반 모델의 가용성과 AI 워크플로의 효율성 및 자율성을 개선하는 에이전트 AI의 발전이 이어지고 있다. 다양한 산업 분야의 기업들은 구글 젬마(Google Gemma), 라마 3.1(Llama 3.1) 405B, 마이크로소프트 파이(Microsoft Phi), 믹스트랄(Mixtral), 네모트론(Nemotron)과 같은 모델을 사용해 비즈니스 성장을 지원하고 생산성을 향상시키는 자체 AI 애플리케이션을 개발할 수 있다. 비즈니스 혁신을 가속하기 위해 기업은 디지털 휴먼 고객 서비스 챗봇, 검색 증강 생성(RAG), 신약 개발과 같은 표준 생성형 AI 워크플로에 대한 청사진을 필요로 한다. 엔비디아는 NIM 마이크로서비스를 통해 이러한 모델을 효율적이고 엔터프라이즈에서 사용할 수 있도록 지원하고 있으나, 엔터프라이즈 생성형 AI 애플리케이션 구축은 복잡하고 여러 단계를 거쳐야 하는 프로세스이다. 이번에 발표한 엔비디아 NIM 에이전트 블루프린트에는 엔터프라이즈 개발자가 비즈니스 목표에 부합하는 맞춤 생성형 AI 애플리케이션을 구축하고 배포하는 데에 필요한 기능을 제공한다.     NIM 에이전트 블루프린트는 특정 사용 사례에 맞게 조정된 레퍼런스 AI 워크플로다. 여기에는 엔비디아 NIM과 파트너 마이크로서비스로 구축된 샘플 애플리케이션, 레퍼런스 코드, 사용자 정의 문서, 배포를 위한 헬름차트(Helm chart)가 포함된다. 개발자는 NIM 에이전트 블루프린트를 통해 각 사용 사례에 대한 엔비디아의 고급 AI 도구와 엔드 투 엔드 개발 환경을 바탕으로 자체 애플리케이션을 손쉽게 제작할 수 있다. 블루프린트는 수정과 개선이 가능하도록 설계됐다. 또한, 개발자는 복잡한 작업을 수행할 수 있는 정보 검색과 에이전트 기반 워크플로를 모두 활용할 수 있다. 아울러 NIM 에이전트 블루프린트는 개발자가 AI 수명 주기 전반에 걸쳐 애플리케이션을 개선하는 데 도움을 준다. 사용자가 AI 애플리케이션과 상호작용을 하면 새로운 데이터가 생성된다. 이 데이터는 지속적인 학습 주기를 통해 모델을 개선하고 향상시키는 데 사용되며, 이로써 데이터 기반 생성형 AI 플라이휠(flywheel)을 만들 수 있다. NIM 에이전트 블루프린트는 기업이 모델과 데이터를 연결하는 애플리케이션을 통해 자체적인 생성형 AI 플라이휠을 구축할 수 있도록 지원한다. 엔비디아 네모(NeMo)는 이 프로세스를 용이하게 하고, 엔비디아 AI 파운드리(AI Foundry)는 플라이휠을 실행하기 위한 생산 환경 역할을 한다. 엔비디아는 사용 가능한 첫 번째 NIM 에이전트 블루프린트로 ▲고객 서비스를 위한 디지털 휴먼 ▲신약 개발 가속화를 위한 생성형 가상 스크리닝 ▲엔터프라이즈 RAG를 위한 멀티모달 PDF 데이터 추출 등을 소개했다. 이외에 고객 서비스, 콘텐츠 생성, 소프트웨어 엔지니어링, 소매 쇼핑 자문 서비스, R&D 등을 위한 생성형 AI 애플리케이션을 제작하기 위한 더 많은 NIM 에이전트 블루프린트가 개발 중이다. 엔비디아는 매달 새로운 NIM 에이전트 블루프린트를 선보일 계획이다. 생성형 AI는 이제 개발자와 데이터 과학자 간의 협업을 촉진하고 있다. 개발자는 NIM 에이전트 블루프린트를 기반으로 애플리케이션을 구축하고, 데이터 과학자는 데이터 플라이휠을 구현해 맞춤형 NIM 마이크로서비스를 지속적으로 개선한다. NIM이 개선되면 관련 애플리케이션도 개선돼 지속적인 성능 향상과 데이터 생성의 순환이 이루어진다. 엔비디아는 “NIM 에이전트 블루프린트와 엔비디아 파트너의 지원을 통해 기업은 생성형 AI를 애플리케이션에 원활하게 통합해 산업 전반의 효율성과 혁신을 주도할 수 있다”고 전했다. 한편, 엔비디아는 글로벌 시스템 통합업체 및 서비스 제공 파트너인 액센츄어(Accenture), 딜로이트(Deloitte), 소프트서브(SoftServe), 퀀티파이(Quantiphi), 월드 와이드 테크놀로지(World Wide Technology) 등 파트너 에코시스템이 전 세계 기업에 NIM 에이전트 블루프린트를 제공하고 있다고 전했다. NIM 에이전트 블루프린트는 고객 상호작용 데이터를 사용해 엔비디아 파트너 에코시스템에서 제공하는 툴을 통해 최적화될 수 있다. 모델 미세 조정, 관리, 모니터링을 위한 데이터이쿠(Dataiku)와 데이터로봇(DataRobot), 워크플로 구축을 위한 딥셋(Deepset), 라마 인덱스(LlamaIndex), 랭체인(Langchain), 생성형 AI 애플리케이션 평가를 위한 웨이트 앤 바이어스(Weights and Biases. W&B), 추가적인 보안을 위한 크라우드스트라이크(CrowdStrike), 데이터독(Datadog), 피들러 AI(Fiddler AI), 뉴렐릭(New Relic), 트렌드 마이크로(Trend Micro) 등이 있다. 뉴타닉스(Nutanix), 레드햇(Red Hat), 브로드컴(Broadcom)을 비롯한 인프라 플랫폼 제공업체는 자사의 엔터프라이즈 솔루션에서 NIM 에이전트 블루프린트를 지원할 예정이다. 고객은 시스코, 델 테크놀로지스, 휴렛팩커드 엔터프라이즈(HPE), 레노버와 같은 제조업체의 엔비디아 인증 시스템에서 NIM 에이전트 블루프린트를 구축하고 배포할 수 있다. 또한, 아마존 웹 서비스(AWS), 구글 클라우드, 마이크로소프트 애저, 오라클 클라우드 인프라스트릭처(OCI)의 엔비디아 가속 클라우드 인스턴스에서도 이용 가능하다. NIM 에이전트 블루프린트는 기업이 생성형 AI 애플리케이션에서 데이터를 활용할 수 있도록 코히시티(Cohesity), 데이터스택스(Datastax), 드롭박스(Dropbox), 넷앱(NetApp), 바스트 데이터(VAST Data)와 같은 엔비디아 파트너의 데이터, 스토리지 플랫폼과 통합할 수 있다.
작성일 : 2024-08-28
마이크로소프트, “AI 트랜스포메이션으로 전 세계 산업의 미래 혁신”
마이크로소프트가 AI 트랜스포메이션을 통해 비즈니스 모델 전반의 긍정적 변화를 이끌어낸 전 세계 다양한 산업의 파트너 및 고객의 혁신 사례 발굴에 속도를 내고 있다고 전했다. 마이크로소프트가 지난 5월 발표한 업무동향지표(Work Trend Index 2024)에 따르면 전 세계 근로자 4명 중 3명이 직장에서 AI를 활용하고 있으며, 리더의 79%는 AI 도입이 경쟁력 유지를 위해 필수라고 인식하고 있다. 이에 맞춰 마이크로소프트는 AI 도입 후 비즈니스 프로세스를 재정립해 성장을 촉진하고 비용을 관리하며, 고객에게 더 큰 가치를 제공하고 있는 파트너 및 고객 사례를 공개했다. 이러한 변화의 중심에는 애저 오픈AI 서비스(Azure OpenAI Service)와 마이크로소프트 365 코파일럿(Copilot for Microsoft 365)이 있다.  애저 오픈AI 서비스는 고객들이 다양한 AI 기술과 기능을 기존 클라우드 서비스에 쉽게 통합할 수 있도록 지원한다. 전 세계 1만 8000개 이상의 조직과 포춘 500대 기업 중 65%가 이 서비스를 사용하고 있다. 마이크로소프트 365 코파일럿은 대규모 언어 모델(LLM)과 조직 데이터를 활용해 글쓰기, 디자인, 코딩, 데이터 분석 등의 다양한 기술을 제공하며, 포춘 500대 기업 중 60%가 이 솔루션을 도입해 활용하고 있다.     마이크로소프트는 전 세계에 분포된 다국적 기업이 비즈니스의 성장과 수익성을 도모하고, 시장 진출 전략을 확장해 나가고 있다고 소개했다. 유니레버(Unilever)는 M365 코파일럿과 애저 퀀텀 엘리먼트(Azure Quantum Elements)의 기능을 활용한 컴퓨터 시뮬레이션으로 차세대 친환경 가정용 및 개인용 제품을 연구 및 개발하고 있다. 통신 서비스 기업 루멘 테크놀로지스(Lumen Technologies)는 조직 전반에 M365 코파일럿을 확대해 3000명의 영업 직원이 주당 평균 4시간을 절약하고 있으며, 이를 통해 연간 약 5000만 달러 상당의 비용 절감을 점진적으로 실현해 나가고 있다. 회계법인 EY는 M365 코파일럿 도입 이후 직원 생산성이 주당 최대 14시간 이상 향상됐으며, 이를 바탕으로 사용자를 15만명으로 확대할 계획이다. 모빌리티·IT·엔지니어링·의료 등의 산업에서도 고객 서비스가 개선되고 있다. 아우디(Audi)는 2021년 이후 생산된 200만 대 이상의 차량에 애저 오픈AI 서비스 기반의 챗 GPT를 3세대 모듈형 인포테인먼트 시스템(MIB 3)에 통합, 음성 제어 기능을 업데이트하고 있다. 이를 통해 운전자는 자연어로 인포테인먼트, 네비게이션, 에어컨 시스템을 손쉽게 조작하며 더욱 몰입감 있는 운전 경험을 할 수 있다. IT 서비스 및 솔루션 공급업체 소프트초이스(Softchoice)는 M365 코파일럿을 도입해 기술 회의 요약 소요 시간을 97%, 내부 교육 자료 제작 시간을 70% 단축했다. 이와 함께 고객용 콘텐츠 작성 시간도 62~67% 줄이는 성과를 거뒀다. 환경 컨설팅 및 엔지니어링 기업 GHD는 M365코파일럿 도입 이후 제안서 검토 과정이 수 시간에서 15분으로 대폭 줄어들어 고객 요청에 더 신속히 대응하고 있다. 자체 조사에 따르면 75%는 업무 효율성이 높아졌으며, 45%가 업무 만족도가 높아졌다고 응답했다. 대만의 치메이 병원(Chi Mei Medical Center)은 애저 오픈AI 서비스 기반의 AI 코파일럿을 도입해 의사의 의무 기록 작성 시간이 15분으로 단축됐으며, 간호사는 5분 내에 환자 정보를 기록할 수 있게 됐다. 또한, 약사가 하루에 처리할 수 있는 처방 환자 수는 기존 15명에서 30명으로 두 배 이상 증가했다.  금융 업계에서도 업무 효율성을 높여 고객 경험을 혁신하는 사례가 등장하고 있다. 싱가포르의 OCBC 은행은 애저 오픈AI서비스를 활용한 마이크로소프트 팀즈(Microsoft Teams)용 챗봇 도입으로 업무 시간을 약 50% 절감했으며, 72%의 사용자가 생산성과 고객 서비스가 개선됐다고 응답했다. 신용 평가 업체 무디스(Moody’s Corporation)는 애저 오픈AI 서비스를 기반으로 하는 자체 AI 도구인 무디스 코파일럿을 구축해 94%의 사용자가 생산성 향상을 경험했다. 온라인 지급결제 플랫폼 기업 페이 세이프(Paysafe)는 M365 코파일럿을 도입해 문서 작성, 번역, 정보 검색 등의 업무에 소요되는 시간을 최대 50% 절약했다. 핀테크 기업 사파이어(Saphyre)는 애저 오픈AI 서비스를 활용해 금융 거래에서 이메일과 팩스로 진행되던 절차를 개선했으며, 거래 관련 작업을 자동화해 고객이 직접 처리해야 할 일을 75% 이상 줄였다. 마이크로소프트의 저드슨 알소프(Judson Althoff) 수석 부사장 겸 CCO(Chief Commercial Officer)는 “우리는 지난 한해 동안 파트너 및 고객의 AI 트랜스포메이션 여정을 지원하며 생산성을 높이고, 고객 서비스를 개선하는 등 실질적인 비즈니스 성과와 가치를 제공해왔다”면서, “앞으로도 마이크로소프트는 모든 산업과 직무에서 AI를 목적에 맞게 활용할 수 있도록 돕고, 이를 책임감 있고 안전하게 제공하는 가장 신뢰할 수 있는 AI 트랜스포메이션 파트너로서의 역할을 다할 것”이라고 전했다.
작성일 : 2024-08-07
[신간] 챗봇 2025 트렌드&활용백과
김덕진, 서승완 지음 / 25,000원 / 스마트북스   2025년, AI 챗봇의 실체를 마주하는 원년, 절대 놓쳐서는 안 될 AI 챗봇 트렌드와 활용 및 제작법. 10여 년 동안 IT 트렌드의 최전선에서 대중들과 함께 호흡해 온 김덕진 IT커뮤니케이션연구소장과 프롬프트 엔지니어 서승완 대표가 2025년 AI 챗봇 트렌드를 소개한다. 또한 다양한 강의현장에서 만난 1만 명 사용자들의 요구를 반영하여, 우리 삶과 일에서 활용도가 높은 챗봇 60개를 뽑아 활용 및 제작법을 설명한다. 일잘러를 위한 범용 필수 챗봇부터 기획자, 크리에이터, 마케터, 교강사, 1인 기업가 등을 위한 맞춤형 챗봇까지.  『챗봇 2025_트렌드&활용백과』로 2025년에 닥칠 AI 챗봇의 트렌드를 읽고, 책에 수록된 60개 챗봇에서 내게 맞는 것을 뽑아 맞춤형 워크플로를 만들고 AI 생활을 즐겨보자. 챗봇 트렌드부터 비즈니스 활용, 나만의 맞춤형 챗봇 창작까지 한 권으로 가능하다. 2025년, 일의 미래를 열어갈 AI 챗봇의 트렌드 AI의 발전속도가 무섭다. 이제는 매번 프롬프트를 길게 쓸 필요도 없어졌다! 오픈AI가 챗GPT 멘션 기능을 탑재함으로써, 챗GPT에서 내 요구에 딱 맞는 GPT 챗봇을 불러와서 사용할 수 있게 되었다. ‘회의록 작성’ 챗봇, ‘보고서 작성기’ 챗봇, ‘마케팅 전략’ 챗봇, ‘통계 분석’ 챗봇, 이미지 생성 ‘미드저니 자판기’ 챗봇 등, 필요에 따라 전문가 챗봇들을 불러와서 원하는 주제만 입력하거나 마우스 클릭만으로도 된다. 마치 내 책상 위에 전문가 AI 챗봇들을 불러다 놓고 조수로서 부리는 것과 같다.  이제는 누구나 손쉽게 내 회사, 업무, 취미에 딱 맞는 맞춤형 GPT 챗봇을 만들 수 있게 되었다. 기존의 챗봇은 전문적인 코딩 능력이 필요했지만, 이제는 코딩을 하나도 몰라도 누구나 자신만의 창의적인 아이디어를 담은 맞춤형 챗봇을 손쉽게 만들 수 있다. 여기서 조금만 더 노력과 열정을 쏟는다면, 단순히 취미생활을 넘어 수익화로 연결되는 서비스를 구축하는 것도 꿈이 아니다. 스마트폰 앱 생태계와 같은 새로운 파이프라인이 열리고 있는 것이다. 1장에서는 AI 트렌드를 빠르게 따라가는 사람들을 위해 GPT 챗봇의 최신 발전동향을 다루고, 2025년 챗봇 트렌드를 중점적으로 소개한다. AI 챗봇이 열어갈 일의 미래를 미리 준비하는 사람들에게 큰 도움이 될 것이다.  GPT-4o 등 최신 업데이트 내용 포함 2024년 5월 공개된 ‘전체를 아우른다’는 뜻의 Omni에서 이름을 따온 GPT-4o는 기존 모델보다 훨씬 빠르면서 똑똑한 멀터모달 AI이다. 마치 실제 사람과 대화를 하는 것 같은 경험을 제공하고 카메라로 보이는 장면을 바로 분석해 등장인물·상황을 고려한 응답을 해준다. GPT-4o의 강력한 멀티모달 능력과 GPTs 서비스의 맞춤형 챗봇 생성능력이 결합하면, 내 업무에 꼭 맞는 맞춤형 챗봇이 일상에 깊숙이 자리잡게 될 것이다. 최근 공개된 GPT-4o 멀티모달, 챗봇을 만드는 GPTs 서비스 한글판 최신 업데이트 내용을 반영했다. 내 업무 맞춤형 챗봇을 위한 실용적 예제와 팁이 가득 질문이 바뀌면 결과가 바뀐다. 내 업무 맞춤형 AI 챗봇을 만들기 위한 프롬프트 엔지니어링의 기본구조와 아울러 더 나은 결과를 얻기 위한 템플릿 기법들을 소개한다. ‘홍보기사’ 템플릿, ‘SNS 홍보 게시물’ 템플릿, ‘고객 리뷰 자동 답글’ 템플릿 등 일잘러를 위한 프롬프트 실습 예제, 마법의 프롬프트 단어 등 알짜배기 노하우가 가득하다.  당장 써먹는 업무활용 AI 챗봇 60개 사용 및 창작까지! 일잘러를 위한 범용필수 GPT 챗봇, 직장인을 위한 챗봇, 투자자를 위한 챗봇, 기획자를 위한 챗봇, 마케터를 위한 챗봇, 크리에이터(작가, 유튜버 등)를 위한 챗봇, 취업준비생을 위한 챗봇, 마음을 나누는 챗봇, 이미지 생성 챗봇까지, 알짜배기 GPT 챗봇 60개의 사용법을 수록했다. 아울러 게중 32개의 챗봇은 실습 예제로 제공한다.  AI 대중화를 이끌고 있는 김덕진 소장 특유의 설명 능력과, ‘IT와 인문’을 아우르는 프롬프트 엔지니어 서승완 대표의 친절함으로 AI 챗봇을 쉽고 재미있게 이해할 수 있을 것이다. 이 중에서 내 업무나 특성에 맞는 것을 골라 나만의 워크플로를 만들 때 도움이 될 것이다.  직장인·대학생 필독서―사전처럼 옆에 끼고 펼쳐보는 AI 챗봇 활용백과 책을 펴고 단순히 따라해 보는 것만으로도 AI 챗봇이 무엇이고, 내 일의 미래가 어떻게 바뀔 것이며, 어떻게 활용할 수 있을지 감이 잡힐 것이다.    직장인이 번거로운 업무의 자동화가 절실할 때, 1인 기업가가 시간과 비용을 아끼고 싶을 때, 대학생이 리포트를 쓸 때, 부모가 아이의 공부 실습자료를 만들 때, 사전처럼 옆에 끼고 항상 펼쳐보는 AI 챗봇의 활용백과가 될 것이다.  
작성일 : 2024-07-22
랭체인 아키텍처 및 동작 메커니즘 분석
BIM 칼럼니스트 강태욱의 이슈 & 토크   이번 호에서는 랭체인(LangChain) 아키텍처와 동작 방법을 분석한다. 현재 챗GPT(ChatGPT)와 비슷한 인공지능 챗봇 서비스 개발 등에 대중적으로 사용되는 랭체인은 LLM(Large Language Model : 대규모 언어 모델) 통합과 PDF 등 다양한 데이터 소스를 지원하여 LLM 모델 활용성을 극대화한다. 이 글을 통해 LLM 서비스 개발에 필요한 랭체인의 아키텍처와 동작 원리를 이해할 수 있을 것이다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | http://www.facebook.com/groups/digestpodcast   그림 1   랭체인은 LLM에 원하는 결과를 얻을 수 있도록 다양한 프롬프트 입력 및 구조화된 출력, RAG, 튜닝과 같은 기능을 제공하는 라이브러리다. 랭체인 설치는 다음과 같이 진행할 수 있다.  pip install langchain   랭체인의 기본 사용법 랭체인은 모델 입출력, 데이터 검색, 에이전트 지원, 체인, 컨텍스트 메모리 기능을 제공하며, LCEL(LangChain Expression Language)을 이용해 각 구성요소를 유기적으로 연결시킬 수 있다. LCEL은 유닉스 파이프라인 개념을 차용했다. 다음은 LCEL의 예시를 보여준다.  from langchain.chat_models import ChatOpenAI from langchain.prompts import ChatPromptTemplate from langchain.schema import BaseOutputParser # LCEL 예시 chain = ChatPromptTemplate() | ChatOpenAI() | CustomOutputParser() 이와 더불어 목적에 맞는 다양한 프롬프트 템플릿, 구조화된 출력을 제공한다. from langchain.output_parsers.json import SimpleJsonOutputParser json_prompt = PromptTemplate.from_template(     "Return a JSON object with `birthdate` and `birthplace` key that answers the following question: {question}" ) json_parser = SimpleJsonOutputParser() # JSON 파서 # 프롬프트, 모델, 파서 체인 생성 json_chain = json_prompt | model | json_parser  # 유닉스 파이프라인 개념 차용함. result_list = list(json_chain.stream({"question": "When and where was Elon Musk born?"})) print(result_list)   그림 2   랭체인 구조 분석 패키지 구조 랭체인 구조를 분석하기 위해, 깃허브(GitHub)의 랭체인 소스코드를 다운로드한 후 UML로 모델링해 본다. 주요 패키지는 <그림 3>과 같다.  랭체인 소스코드 : https://github.com/langchain-ai/langchain   그림 3   cli는 랭체인의 커맨드 라인 인터페이스(command line interface), core는 랭체인의 핵심 구현 코드가 정의된다. 이 부분은 <그림 4>와 같은 패키지로 구성된다.    그림 4   참고로, 이 패키지들은 <그림 5>의 일부이다.   그림 5. 랭체인 v.0.2.0 패키지   LCEL 언어 동작 구조 이 중에 핵심적인 것만 분석해 본다. 우선, LCEL의 동작 방식을 위해 어떤 디자인 패턴을 구현하였는지 확인한다. 이 부분은 runnables 패키지가 담당한다. 이 언어는 유닉스의 파이프라인 처리를 다음과 같이 흉내낸다.  z = a | b | c z.stream('abc') 이를 위해 파이썬(Python) 문법을 적극 사용하고 있다. 우선 ‘|’ 연산자를 오버로딩(overloading)하기 위해, 파이썬 Runnable 클래스를 정의해 ‘__or__’ 연산자를 구현한다. 이 연산자는 self object와 right object 두 객체를 입력받아 리스트를 만든 후 리턴하는 역할을 한다. 앞의 예시에서 보면, ‘a | b’를 실행 가능한 객체 리스트로 만들어 리턴한다. 결론적으로 a, b, c 객체를 리스트로 만들고 이 리스트를 z에 할당한다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2024-07-04
[포커스] PLM/DX 베스트 프랙티스 컨퍼런스 2024, 제조산업의 디지털 전환 전략과 사례 소개 (1)
‘PLM/DX 베스트 프랙티스 컨퍼런스 2024’가 지난 6월 13~14일 온라인으로 진행됐다. 한국산업지능화협회, 한국CDE학회, 캐드앤그래픽스가 공동 주최하는 이번 행사는 20주년을 맞아 이름을 바꾸었으며, 제품/제조 데이터와 프로세스를 통합 관리하는 PLM(제품 수명주기 관리)과 함께 제조산업의 혁신을 위한 디지털 전환(DX)에 대해 폭넓게 짚어보는 기회가 되었다. ■ 정수진 편집장   ▲ HL만도 배홍용 CTO, 한국산업지능화협회 PLM 기술위원회 서효원 위원장, 캐드앤그래픽스 최경화 국장   한국산업지능화협회 PLM기술위원회 위원장인 KAIST 서효원 교수는 인사말에서 “과거에는 설계/제조 정보의 생성, 관리, 활용 등이 구조적이고 전형적인 방법에 의존해 왔다. 한편, 최근 생성형 AI 특히 GPT의 출현으로 인해 PLM의 역할이 재조명되고 있다”고 짚었다. GPT의 기반인 생성형 초거대 언어 모델(LLM) 등을 통하여 유연적이고 비정형적인 방법이 가능해지고, 자연어 기반의 대화형 인터페이스가 가능해져 설계/제조의 생산성을 높일 수 있다는 설명이다. 또한, 서효원 교수는 “LLM을 기반으로 설계/제조 현장의 핵심 이슈인 데이터의 연결, 하이퍼링크 통합 등의 자동화가 가능해지며, 이를 통해 과거 PLM 적용에 있어서 문제로 여겨졌던 부분을 해결할 수 있다는 기대가 커지고 있다”고 전했다.   ▲ 한국산업지능화협회 PLM기술위원회 서효원 위원장(KAIST 교수)   이번 행사에서는 ‘PLM 베스트 프랙티스 적용 사례 & DX 전략(6월 13일)’과 ‘디지털 전환을 위한 신기술과 솔루션(6월 14일)’이라는 두 개의 트랙에서 14편의 발표를 통해 다양한 내용이 소개됐다.   ■ 함께 읽기 : [포커스] PLM/DX 베스트 프랙티스 컨퍼런스 2024, 제조산업의 디지털 전환 전략과 사례 소개 (2)   변화에 대응하기 위한 자동차 산업의 혁신 노력 행사 첫째 날인 6월 13일 기조연설에서 HL만도의 배홍용 CTO는 ‘오토모티브 인더스트리의 새로운 지평선에서’라는 주제로, 자동차 산업이 최근 겪고 있는 변화와 대응 방향에 대해 소개했다. 전기자동차(EV)의 성장세는 분명해 보인다. 전기자동차의 성장에 따라 DC-DC 컨버터, 차저, 구동용 모터, 인버터 관련 기업은 호황을 기대하는 반면 전기자동차에는 쓰이지 않는 엔진, 트랜스미션, 스타터, 클러치, 토크 컨버터 관련 기업은 변화에 따른 충격에 대비할 필요성을 느끼고 있다. 자율주행에 대해서는 긍정적 전망과 부정적 전망이 뒤섞여 있지만, 장기적으로 변화의 물결은 피할 수 없을 전망이다. 높은 개발 비용과 생산 비용, 법규 마련의 지연, 그리고 낮은 기술적 성숙도로 인해 본격적인 자율주행의 도입은 당초 기대보다는 늦어질 것으로 보인다. 전통적인 자동차 외에 친환경 동력과 근거리 주행을 특징으로 하는 마이크로 모빌리티는 착실히 성장하면서 산업계에서도 대응을 강화하고 있으며, 소프트웨어 정의 차량(SDV)은 하드웨어 공급사인 OEM뿐 아니라 소프트웨어 공급사까지 참여하는 새로운 산업 생태계를 만들고 있다. HL만도에서도 ‘데이터 주도’와 ‘자동차의 통합 제어’라는 두 개의 축을 중심으로 개발 및 사업을 전개하고 있다. 배홍용 CTO는 “자동차 산업이 복잡해지고 변경 빈도가 높아지는 상황에서, 프로세스를 가볍게 만들고 신뢰성을 확보하는 것이 과제가 되고 있다”면서, “설계와 검증을 세분화하면서 효율적인 개발 방법을 마련할 필요성이 커지고 있다. 또한 AI의 도입, 디지털 전환(DX), 협업 및 자동화 플랫폼 등 다양한 영역에 걸친 산업 생태계의 노력이 요구된다”고 전했다.   ▲ HL만도 배홍용 CTO   UAM이 가져 올 생태계의 파괴적 혁신 한국항공우주연구원(KARI)의 황창전 UAM연구부장은 ‘모빌리티 혁명, UAM 현황과 미래’를 주제로 한 기조연설을 진행했다. UAM(도심 항공 모빌리티)은 수직이착륙이 가능한 전기 항공기(eVTOL)뿐 아니라 퍼스트 마일부터 라스트 마일까지 커버하는 모빌리티 서비스(MaaS), 도심내 이착륙장, 간편한 시큐리티 체크인, 자율주행 등 다양한 기술과 산업이 연관된 개념이다. 2019년에 약 200개의 UAM 비행체가 개발되었는데 현재는 1000개로 크게 늘었으며, 모건 스탠리는 2040년 UAM 시장 규모를 1조 5000억 달러로 전망하고 있다. 이처럼 UAM은 모빌리티 분야에서 파괴적인 변화(disruptive change)를 이끄는 ‘게임 체인저’가 되고 있다. 다양한 산업 분야를 포괄하는 만큼 eVTOL 개발, 비행 제어 소프트웨어, 교통 관리 체계, 버티포트 인프라, 통신망과 내비게이션 등에 걸친 산업계의 기술 확보 움직임과 함께 정부의 지원 로드맵도 진행 중이다. 황창전 부장은 “산업화에 성공하면 항공기, MRO(유지 . 보수 . 운영), 운항 관리 등 세 가지 기술을 토털 패키지화해서 수출도 가능하며, 이런 기술의 개발 과정에 PLM이나 디지털 전환을 적용할 수 있을 것”이라고 짚었다.   ▲ 한국항공우주연구원 황창전 UAM연구부장   제품 개발과 생산 분야의 디지털 혁신 노력 소개 LG CNS SINGLEX 정현길 위원은 ‘개발·양산 라이프사이클 품질 관리의 발전 방향’을 주제로 한 발표에서 LG 그룹의 품질 관리 프로세스 구축 과정과 향후 발전 방향에 대해 소개했다.  LG 그룹의 개발 품질 관리 솔루션 프로젝트를 통해 구축된 싱글렉스(SINGLEX) 플랫폼은 제품 기획부터 마케팅, 영업, 구매, 제조, 물류, R&D/품질, 고객 서비스, HR, 경영 관리, 보안, IT 관리 등 총 32개 영역의 서비스를 제공한다. 이 가운데 R&D/품질 영역은 ▲개발 프로젝트를 관리하는 PMS ▲양산 품질을 관리하는 QMS ▲위험 재발 방지 활동을 지원하는 FMA ▲소프트웨어 프로젝트를 관리하는 ALM ▲시스템의 범위 및 현황을 연계하여 전체 업무를 관리할 수 있는 SPM  등 5개의 주요 시스템으로 이루어져 있다. 정현길 위원은 “솔루션의 완성도를 위해서 약 28만 건의 품질 검증과 수많은 현업 전문가의 의견을 반영해서 1500건 이상의 업그레이드를 실시했다. 그 결과 현재 LG 그룹 계열사에서 완성도 높은 서비스를 이용하고 있고, 이를 기반으로 대외 사업으로 확대를 추진 중”이라고 전했다.   ▲ LG CNS SINGLEX 정현길 위원   PTC코리아의 이봉기 상무는 ‘LS 일렉트릭 디지털 스레드 적용 사례 및 PTC AI 혁신 전략’에 대해 발표했다.  디지털 스레드의 기본 개념은 가치사슬 전반에 걸쳐서 필요한 대상에게 필요한 시점에 필요한 맥락으로 정보를 제공하기 위해, 전체 라이프사이클에 걸쳐서 물리적 세계와 디지털 세계의 정보를 엮어주는 것이다. 디지털 스레드의 궁극적인 목표는 기업 전체 가치사슬의 최적화이다. 이런 관점에서 최근의 디지털 전환 프로젝트가 보이는 한계를 해소할 수 있는 대안으로 디지털 스레드가 주목받고 있다. 이봉기 상무는 “디지털 전환 프로젝트가 성공하기 위해서는 디지털 스레드의 개념을 잘 이해하고, 이를 기업 전체의 목표와 부합하도록 연계하는 것이 중요하다”면서, “이를 통해 엔지니어링 단계를 넘어 제조 효율성, 서비스 최적화, 제품 운영 관리 등 기업의 가치사슬 전반에 걸쳐 기업의 디지털 전환을 이룰 수 있을 것”이라고 전했다. 또한, “PTC는 SaaS(서비스형 소프트웨어)와 생성형 AI 등의 기술에 대해서도 디지털 스레드를 기반으로 기업의 비즈니스 목표 달성을 지원할 수 있는 방향으로 접근하고 있다”고 덧붙였다.   ▲ PTC코리아 이봉기 상무   아비바코리아의 강창훈 상무는 ‘프로세스 산업에서의 디지털 트윈 적용 사례’에 대해 발표했다. 정유, 화학 등 프로세스 산업은 긴 라이프사이클을 갖고 있으며, 많은 인원과 대형 설비가 투입되는 자본집약적 성격을 갖고 있다. 공정 자체도 물리화학적인 변화를 포함하고 있으며 복잡한 것이 특징이다. 프로세스 산업은 자동화와 플랫폼화를 거쳐 데이터 기반의 실시간 최적화 등의 방향으로 발전해 왔는데, 최근에는 IoT(사물인터넷), AI, 디지털 트윈이 활발히 도입되고 있는 상황이다. 강창훈 상무는 “특히 2D/3D 설계와 시공 데이터를 통합하고 조회할 수 있는 엔지니어링 디지털 트윈 플랫폼을 구축하고 있는 것이 주요한 흐름”이라고 전했다. 플랜트 사용자들은 실시간 모니터링과 분석을 통해 유기적으로 협업할 수 있으며, 궁극적으로 데이터 기반의 의사결정 환경을 구축할 수 있다. 또한 운영 데이터를 활용해 AI/머신러닝 기반의 설비 예측 분석을 통해 설비의 이상징후를 조기에 감지하며, AI를 활용하여 디지털 트윈에 구축된 다양한 정보에 신속하게 접근하는 챗봇을 활용할 수도 있다.   ▲ 아비바코리아 강창훈 상무   TYM의 김대용 CDO는 TYM의 ‘PLM/디지털 전환/디지털 트윈 구축 사례’를 소개했다.  트랙터, 콤바인, 이양기 등 농기계와 디젤엔진에 이르는 제품을 개발/생산하고 있는 TYM은 PLM으로 대표되는 제품 지능화, 스마트 공장과 관련된 공정 최적화, 고객 경험을 강화하는 스마트 서비스 등을 중심축으로 삼아 디지털 전환을 추진 중이다. TYM이 설정한 PLM의 목적은 ‘고객 가치를 창출하고 고객 맞춤형 제품 개발의 리드 타임을 줄이기 위해서 프론트로딩을 할 수 있는 통합 R&D 인프라를 구축하는 것’이다. 또한 TYM은 제품/부품의 형상과 공장 데이터를 유기적으로 연결하는 디지털 트윈을 구축하고 있다. 디지털 트윈을 기반으로 트랙터 조립 공정의 실시간 상태를 모니터링하고 현장 데이터를 수집할 수 있도록 했다. 김대용 CDO는 “이외에도 TYM은 RTLS를 이용해서 파트너사 및 협력사 사이에 공급망 현황이나 재고 현황 데이터를 실시간 수집/분석하고 시각화하는 AI 서비스의 연구개발을 진행 중”이라고 전했다.   ▲ TYM(티와이엠) 김대용 CDO   지멘스 디지털 인더스트리 소프트웨어의 한석주 본부장은 ‘AI 및 클라우드 기술을 활용한 팀센터의 미래 PLM : 디지털 스레드의 역할’이라는 주제로 발표를 진행했다. PLM은 업무의 효율 향상에 중점을 두고 진화를 계속하고 있다. 제조산업에서 제품을 개발하는 라이프사이클의 속도를 높이는 것이 중요하게 여겨지고 있으며, 이에 맞춰 PLM은 과거의 CAD 데이터 관리를 넘어 디지털 스레드를 기반으로 해서 제품 개발 사이클을 가속화하는 형태로 발전하고 있다는 것이 한석주 본부장의 설명이다. 한석주 본부장은 “지멘스는 디지털 전환을 가속화하기 위한 포괄적인 솔루션 포트폴리오인 ‘엑셀레이터’를 통해 제품을 이제 디자인하고, 현실화하고, 최적화하는 전체 폐순환(closed-loop) 라이프사이클을 가속화할 수 있도록 지원한다”고 소개했다. 또한 “지멘스는 인더스트리 디지털 스레드, 클라우드, 인더스트리 메타버스를 통해서 PLM의 효율을 더욱 강화할 수 있게 돕고자 한다”고 덧붙였다.   ▲ 지멘스 디지털 인더스트리 소프트웨어 한석주 본부장   관련 기사 함께 보기 [포커스] PLM/DX 베스트 프랙티스 컨퍼런스 2024, 제조산업의 디지털 전환 전략과 사례 소개 (2)   ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-07-02
지멘스, 수소 생산 확대 위한 생성형 AI 솔루션 소개
산업 부문에서 지속가능성 목표를 달성하기 위해 그린 수소(reen hydrogen)는 매우 중요하다. 지멘스는 수소 생산 확대를 가속화하기 위해, 생성형 인공지능(AI)을 기반으로 한 소프트웨어 도구로 수소 산업의 기업을 지원할 예정이라고 밝혔다. 지멘스는 새로운 솔루션이 수소 생산 공장의 설계, 엔지니어링 및 자동화를 단순화함으로써 수소 생산을 빠르게 늘리는 데에 도움이 될 것으로 보고 있다. 지멘스의 ‘하이드로젠 플랜트 컨피규레이터(Hydrogen Plant Configurator)’는 생성형 인공지능을 기반으로 한 지능형 챗봇으로, 사용자가 수소 생산을 위한 공장 설계를 생성할 수 있도록 한다. 이 컨피규레이터는 반복 과정을 거치면서 사용자가 원하는 생산 공장의 설계 특성을 제공한다. 그런 다음 시스템 유닛과 연결의 정밀한 레이아웃까지 원활한 블록 흐름(flow) 다이어그램을 인공지능으로 생성한다. 또한, 인공지능은 가능한 전력 소비나 열 발생, 핵심 구성요소의 포괄적인 목록 등의 공장별 주요 사항을 예측할 수 있다. 이렇게 생성된 데이터는 공장의 기본 콘셉트를 나타내며, 이를 지멘스의 코모스(Comos) 및 지프롬스(gProms)와 같은 엔지니어링 및 시뮬레이션 소프트웨어로 전송하여 배관 및 계장 다이어그램을 자동으로 생성할 수 있다. 지멘스 프로세스 자동화 부문의 액슬 로렌즈(Axel Lorenz) CEO는 “산업의 탈탄소화에 매우 중요한 그린 수소는 예측 가능한 미래 동안 희소한 자원이 될 것이기 때문에, 생산 용량의 확대를 가속화하는 것이 더욱 중요하다”면서, “생성형 인공지능은 수소 생산의 중요한 단계에서 상당한 시간과 비용을 절약하는 데에 도움을 줄 수 있다. 하이드로젠 플랜트 컨피규레이터를 통해 더욱 지속 가능한 수소 공장을 계획하고 운영하는 것이 그 어느 때보다 쉬워졌으며, 효율적인 생산을 위한 기반을 마련할 수 있다”고 전했다.     또한, 지멘스는 수소 공장의 프로젝트 계획 단계에 관한 AI 기반 도구도 출시할 예정이다. 코모스 AI 엔지니어링 어시스턴트는 자연어 설명을 기반으로 장비 사양과 다이어그램을 생성하고, 모델과 도면을 자동으로 완성하거나 수정할 수 있다. 이 도구는 엔지니어링의 교차 도메인 단계나 교차 제품 워크플로 동안 모델, 도면 및 정보 구조를 변환함으로써 지원할 수 있으며, 예를 들어 지멘스의 시밋(Simit)과 같은 시뮬레이션 소프트웨어를 위한 것이다. 또한, 사용자는 코모스 AI를 통해 엔지니어링 관련 제품에서 정보를 검색할 수 있으며, 자신이 입력한 프롬프트 또는 어시스턴트가 제안한 정보를 통해 검색할 수 있다. 이 어시스턴트는 문서, 사양 또는 기술 세부 사항에 대한 답변을 제공한다. 이미지를 입력하거나 스캔본, PDF를 입력하면 관련 자원을 제공하고 이를 정밀한 다이어그램 및 모델로 변환할 수도 있다. 수소 공장의 프로세스 자동화를 단순화하기 위해, 지멘스는 시매틱(Simatic) PCS neo 분산 제어 시스템을 위한 모듈인 SFC 제너레이션(SFC Generation)을 출시한다. 이 모듈은 프로세스 제어 시스템에 통합되어 생성형 인공지능을 사용하여 순차 기능 차트(SFC)를 생성할 수 있다. 이 차트는 프로세스 로직을 시각적으로 표현해, 사용자가 복잡한 워크플로를 쉽게 관리할 수 있도록 한다. 이는 특정 프롬프트를 기반으로 하거나 모듈의 채팅 창에 서술형 프로세스 설명을 복사할 수도 있다. 지멘스는 하이드로젠 플랜트 컨피규레이터는 2024년 말부터 지멘스의 엑셀러레이터 마켓플레이스(Xcelerator Marketplace)에서 이용할 수 있으며, 코모스 AI와 SFC 제너레이션은 2025년 초부터 이용할 수 있을 것이라고 밝혔다.
작성일 : 2024-06-10
델, 대규모 AI 위한 포트폴리오 ‘델 AI 팩토리’ 발표
델 테크놀로지스는 DTW(델 테크놀로지스 월드) 행사에서 ‘델 AI 팩토리(Dell AI Factory)’를 발표하면서 디바이스, 데이터센터, 클라우드에 걸친 광범위한 AI 포트폴리오를 제시했다.  ‘델 AI 팩토리’는 PC, 서버, 스토리지, 데이터 보호 및 네트워킹을 아우르는 델의 엔드-투-엔드 AI 포트폴리오를 바탕으로 구성됐다.  델은 증가하는 AI 수요를 충족하기 위한 목적형 설계의 오퍼링들을 추가하며 이 포트폴리오를 확장하고 있다. 기업과 기관에서는 델과 델의 파트너사들이 구성한 개방형 생태계를 바탕으로 각각의 고유한 목적에 부합하는 AI 애플리케이션을 구축할 수 있다.     델은 스냅드래곤 X 엘리트(Snapdragon X Elite) 및 스냅드래곤 X 플러스(Snapdragon X Plus) 프로세서를 기반으로 새로운 마이크로소프트 AI 경험을 제공하는 신제품 코파일럿+ PC(Copilot+ PC) 제품군을 공개했다. 이 제품들은 전문가 및 일반 소비자를 대상으로 하며, 향상된 성능과 배터리 지속시간을 갖춘 내장형 AI가 포함되어 있다. 사용자는 GPU, CPU, NPU 전반에 걸친 로컬 컴퓨팅 및 프로세싱을 기반으로 사용자들은 혁신적인 PC 환경을 경험할 수 있다. 델 파워스케일 F910(Dell PowerScale F910) 올플래시 파일 스토리지는 최대 127% 향상된 성능과 높은 상면 효율을 바탕으로 AI 워크로드의 까다로운 문제들을 해결하고 AI 인사이트 도출 시간을 단축한다. 파워스케일 ‘프로젝트 라이트닝(Project Lightning)’은 새로운 고성능 병렬 파일 시스템(parallel file system) 소프트웨어 아키텍처로 향후 ‘델 파워스케일’ 제품군에 통합될 예정이며, 대규모의 복잡한 AI 워크플로의 학습 시간을 단축한다. AI 데이터 보호를 위한 델 솔루션(Dell Solution for AI Data Protection)은 델의 데이터 보호 소프트웨어, 어플라이언스 및 레퍼런스 구성을 기반으로 중요한 AI 애플리케이션 및 AI 데이터를 효과적으로 보호한다. 델 파워스위치 Z9864F-ON(Dell PowerSwitch Z9864F-ON)은 브로드컴 토마호크 5(Broadcom Tomahawk 5) 칩셋과 최신 네트워크 아키텍처를 기반으로 뛰어난 처리량, 짧은 지연시간, 간편한 확장성을 제공하며, AI 애플리케이션의 네트워크 성능을 2배로 높여 가장 까다로운 네트워킹 환경도 충족할 수 있게끔 설계됐다. 델 파워엣지 XE9680(Dell PowerEdge XE9680) 서버는 브로드컴 400G PCIe 5.0세대 이더넷 어댑터를 지원한다. 파워엣지 서버와 파워스위치 Z9864F-ON, 그리고 400G PCIe 5.0세대 이더넷 어댑터의 조합으로 강력한 이더넷 패브릭을 구축하고 성능, 확장성 및 효율성을 향상시킬 수 있다.  또한, 델은 파트너들과 긴밀한 협력을 통해 고객들이 쉽게 AI를 시작할 수 있도록 견고하게 통합된 솔루션을 제공한다고 설명했다. 델 테크놀로지스는 생성형 AI의 온프레미스 구축과 관련해 허깅 페이스와 협력한 인프라 솔루션 공급업체로서 ‘델 엔터프라이즈 허브 온 허깅페이스(Dell Enterprise Hub on Hugging Face)’를 새롭게 소개했다. 허깅페이스의 오픈 플랫폼을 활용해 기업들은 온프레미스 델 인프라에서 손쉽고 안전하게 맞춤형의 개방형 LLM(대규모 언어 모델)을 훈련하고 구축할 수 있으며 챗봇이나 고객지원과 같은 AI 서비스를 더 빨리 구축할 수 있다. 델은 메타(Meta)와의 협력을 공고히 하면서 메타 라마 3(Meta Llama 3) 모델을 온프레미스 델 인프라 상에 간편하게 구축하도록 지원하고, 테스트 결과, 성능 데이터, 구축 레시피 등을 제공한다. 마이크로소프트 애저 AI 서비스를 위한 델 솔루션(Dell Solution for Microsoft Azure AI Services)은 음성 트랜스크립션 및 번역 기능과 같은 AI 서비스의 구축 속도를 높여주며, ‘마이크로소프트 애저를 위한 델 에이펙스 클라우드 플랫폼(Dell APEX Cloud Platform for Microsoft Azure)’ 상에서 구동된다. 이외에도 델은 AI 이니셔티브를 통해 비즈니스 성과를 개선할 수 있도록 광범위한 AI 프로페셔널 서비스 포트폴리오를 지속적으로 확장해 나가고 있다고 전했다. 마이크로소프트 코파일럿 솔루션을 위한 구축 서비스(Implementation Services for Microsoft Copilot solutions)는 깃허브, 보안, 윈도, 및 세일즈 등 다양한 분야에서 코파일럿 환경을 도입 시 필요한 전문가 지침을 제공해 업무생산성을 향상시키도록 지원한다. 델 엔터프라이즈 허브 온 허깅페이스 가속 서비스(Accelerator Services for Dell Enterprise Hub on Hugging Face)는 허깅 페이스 내 델 포털을 사용할 때 신속한 AI 프로토타이핑을 할 수 있도록 각종 툴 및 모델을 선택하고 활용 사례를 적용할 수 있도록 전략적 조언을 제공한다. 한국 델 테크놀로지스의 김경진 총괄 사장은 “AI는 전례없는 속도로 비즈니스를 혁신하고 있다. 이제 모든 데이터센터는 AI의 속도와 규모를 다룰 수 있도록 설계되어야 하며, AI PC는 생산성 및 협업 방식을 혁신할 것”이라면서, “델은 광범위한 ‘델 AI 팩토리’ 포트폴리오와 파트너 생태계를 통해 온프레미스와 엣지, 클라우드 환경 전반에서 완벽하게 제어할 수 있는 AI 구축을 지원하고자 한다”고 전했다.
작성일 : 2024-05-21
RTX A400/A1000 : AI 기반 워크플로 강화하는 전문가용 GPU
개발 및 공급 : 엔비디아 주요 특징 : AI 처리를 위한 3세대 텐서 코어 및 레이 트레이싱을 위한 2세대 RT 코어 탑재, 암페어 아키텍처 기반의 CUDA 코어 탑재해 그래픽/컴퓨팅 처리속도 향상, 전문가 작업의 데이터를 처리속도 향상 위한 메모리 대역폭 증가, 효율적인 비디오 처리를 위한 인코딩/디코딩 엔진 탑재 등   엔비디아가 새로운 엔비디아 RTX A400과 RTX A1000 GPU를 통해 RTX 전문가용 그래픽 제품을 확장하고, 디자인을 비롯한 AI 기반 생산성 워크플로를 강화한다고 밝혔다. 디자인과 생산성 애플리케이션 전반에 걸친 AI 통합이 새로운 기준으로 자리잡으면서 고급 컴퓨팅 성능에 대한 수요가 증가하고 있다. 즉, 전문가와 크리에이터들은 프로젝트의 규모와 복잡성 또는 범위에 관계없이 향상된 컴퓨팅 성능을 활용해야 한다. 엔비디아 암페어(Ampere) 아키텍처 기반의 RTX A400과 RTX A1000 GPU는 이렇게 증가하는 수요를 충족하기 위해 개발됐으며, AI와 레이 트레이싱 기술에 대한 접근성을 확대해 전문가들이 일상적인 워크플로를 혁신하는데 필요한 도구를 제공한다.   ▲ 엔비디아 RTX A400   향상된 성능으로 창의성 및 효율 향상 지원 RTX A400 GPU는 RTX 400 시리즈 GPU에 가속화된 레이 트레이싱과 AI를 도입했다. 이 GPU는 AI 처리를 위한 24개의 텐서 코어(Tensor Cores)를 탑재해 기존 CPU 기반 솔루션을 넘는 성능을 제공한다. 이를 통해 전문가들은 지능형 챗봇, 코파일럿과 같은 최첨단 AI 애플리케이션을 데스크톱에서 직접 실행할 수 있다. 또한 GPU는 실시간 레이 트레이싱을 제공하므로 크리에이터는 생생하고 물리적 정확도가 높은 3D 렌더링을 제작할 수 있다. A400은 시리즈 최초로 4개의 디스플레이 출력을 지원해 금융 서비스, 명령과 제어, 유통, 운송과 같은 산업에 필수적인 고밀도 디스플레이 환경에 적합하다. 엔비디아 RTX A1000 GPU는 RTX 1000 시리즈 GPU에 처음으로 텐서 코어와 RT 코어를 도입했다. 이를 통해 전문가와 크리에이터를 위한 가속화된 AI와 레이 트레이싱 성능을 제공한다. A1000은 72개의 텐서 코어를 탑재해 이전 세대에 비해 업그레이드된 성능을 갖췄다. 스테이블 디퓨전(Stable Diffusion)과 같은 도구에서 3배 이상 빠른 생성형 AI 프로세싱을 제공하며, 18개의 RT 코어는 그래픽과 렌더링 작업 속도를 최대 3배까지 높여 2D와 3D CAD, 제품과 건축 설계, 4K 비디오 편집과 같은 전문적인 워크플로를 가속화한다. 더불어 A1000은 이전 세대보다 최대 38% 더 많은 인코딩 스트림을 처리하고 2배 더 빠른 디코딩 성능을 제공하는 등 비디오 처리 능력을 높였다.   ▲ 엔비디아 RTX A1000   차세대 기능을 통한 성능 강화 A400과 A1000 GPU는 싱글 슬롯 디자인에 전력소비량이 50W이며, 콤팩트하고 에너지 효율적인 워크스테이션을 위해 향상된 기능을 제공한다.  2세대 RT 코어 : 건축 도면, 3D 디자인, 콘텐츠 제작 등 모든 전문 워크플로를 위한 실시간 레이 트레이싱, 사실적인 물리 기반 렌더링과 시각화, 정확한 조명과 그림자 시뮬레이션으로 작업 품질을 높일 수 있다. 3세대 텐서 코어 : 생성형 AI, 이미지 렌더링 노이즈 제거, 딥러닝 슈퍼 샘플링과 같은 AI 증강 도구와 애플리케이션을 가속화해 이미지 생성 속도와 품질을 개선한다.  암페어 아키텍처 기반 쿠다 코어 : 암페어 아키텍처 기반의 쿠다(CUDA) 코어는 이전 세대 대비 최대 2배의 단정밀도 부동 소수점 처리량으로 그래픽과 컴퓨팅 워크로드의 속도를 크게 높인다. 4GB/8GB 메모리 : A400 GPU의 4GB와 A1000 GPU의 8GB GPU 메모리는 다양한 전문가용 요구 사항을 충족한다. 여기에는 기본적인 그래픽 디자인과 사진 편집부터 텍스처나 고해상도 편집, 데이터 분석이 필요한 까다로운 3D 모델링 등이 포함된다. 또한 이 GPU들은 이전 세대보다 메모리 대역폭이 증가해 데이터를 더 빠르게 처리하고 대용량 데이터 세트와 장면을 더 원활하게 처리할 수 있다. 인코딩/디코딩 엔진 : 7세대 인코드(NVENC)와 5세대 디코드(NVDEC) 엔진을 탑재한 새 GPU는 효율적인 비디오 처리를 기능을 제공한다. 이를 통해 초저지연으로 고해상도 비디오 편집, 스트리밍, 재생을 지원한다. 또한 AV1 디코드가 포함돼 더 많은 비디오 포맷을 더 효율적이고 원활하게 재생할 수 있다.   RTX 솔루션의 활용 범위 확대 엔비디아는 새로운 GPU가 최첨단 AI, 그래픽, 컴퓨팅 기능 등을 통해 사용자의 생산성을 높이고 창의적인 가능성을 열어준다고 전했다. 레이 트레이싱 렌더링과 AI가 포함된 고급 워크플로를 통해 전문가들은 작업의 한계를 뛰어넘고 놀라운 수준의 사실감을 구현할 수 있다. 기획 담당자들은 강력하고 에너지 효율적인 새로운 컴퓨팅 솔루션을 에지 배포에 사용할 수 있다. 크리에이터는 편집과 렌더링 속도를 높여 더욱 풍부한 시각적 콘텐츠를 제작할 수 있다. 건축가와 엔지니어는 아이디어를 3D CAD 개념에서 실제 디자인으로 원활하게 전환할 수 있다. 스마트 공간에서 작업하는 경우에는 공간 제약이 있는 환경에서 실시간 데이터 처리, AI 기반 보안, 디지털 사이니지 관리 등에 GPU를 사용할 수 있다. 또한 의료 전문가들은 더 빠르고 정밀한 의료 영상 분석을 수행할 수 있다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-05-02
엔비디아, AI 기반 워크플로 강화하는 RTX A400과 A1000 GPU 출시
엔비디아가 새로운 엔비디아 RTX A400과 RTX A1000 GPU를 통해 RTX 전문가용 그래픽 제품을 확장하고, 디자인을 비롯한 AI 기반 생산성 워크플로를 강화한다고 밝혔다. 디자인과 생산성 애플리케이션 전반에 걸친 AI 통합이 새로운 기준으로 자리잡으면서 고급 컴퓨팅 성능에 대한 수요가 증가하고 있다. 즉, 전문가와 크리에이터들은 프로젝트의 규모와 복잡성 또는 범위에 관계없이 향상된 컴퓨팅 성능을 활용해야 한다. 엔비디아 암페어(Ampere) 아키텍처 기반의 RTX A400과 RTX A1000 GPU는 이렇게 증가하는 수요를 충족하기 위해 개발됐으며, AI와 레이 트레이싱 기술에 대한 접근성을 확대해 전문가들이 일상적인 워크플로를 혁신하는데 필요한 도구를 제공한다.   ▲ 엔비디아 RTX A400   RTX A400 GPU는 RTX 400 시리즈 GPU에 가속화된 레이 트레이싱과 AI를 도입했다. 이 GPU는 AI 처리를 위한 24개의 텐서 코어(Tensor Cores)를 탑재해 기존 CPU 기반 솔루션을 넘는 성능을 제공한다. 이를 통해 전문가들은 지능형 챗봇, 코파일럿과 같은 최첨단 AI 애플리케이션을 데스크톱에서 직접 실행할 수 있다. 또한 GPU는 실시간 레이 트레이싱을 제공하므로 크리에이터는 생생하고 물리적 정확도가 높은 3D 렌더링을 제작할 수 있다. A400은 시리즈 최초로 4개의 디스플레이 출력을 지원해 금융 서비스, 명령과 제어, 유통, 운송과 같은 산업에 필수적인 고밀도 디스플레이 환경에 적합하다.   ▲ 엔비디아 RTX A1000   엔비디아 RTX A1000 GPU는 RTX 1000 시리즈 GPU에 처음으로 텐서 코어와 RT 코어를 도입했다. 이를 통해 전문가와 크리에이터를 위한 가속화된 AI와 레이 트레이싱 성능을 제공한다. A1000은 72개의 텐서 코어를 탑재해 이전 세대에 비해 업그레이드된 성능을 갖췄다. 스테이블 디퓨전(Stable Diffusion)과 같은 도구에서 3배 이상 빠른 생성형 AI 프로세싱을 제공하며, 18개의 RT 코어는 그래픽과 렌더링 작업 속도를 최대 3배까지 높여 2D와 3D CAD, 제품과 건축 설계, 4K 비디오 편집과 같은 전문적인 워크플로를 가속화한다. 더불어 A1000은 이전 세대보다 최대 38% 더 많은 인코딩 스트림을 처리하고 2배 더 빠른 디코딩 성능을 제공하는 등 비디오 처리 능력을 높였다. 엔비디아 RTX A400과 A1000 GPU에 탑재된 2세대 RT 코어는 건축 도면, 3D 디자인, 콘텐츠 제작 등 모든 전문 워크플로를 위한 실시간 레이 트레이싱, 사실적인 물리 기반 렌더링과 시각화, 정확한 조명과 그림자 시뮬레이션으로 작업 품질을 높일 수 있다. 3세대 텐서 코어는 생성형 AI, 이미지 렌더링 노이즈 제거, 딥러닝 슈퍼 샘플링과 같은 AI 증강 도구와 애플리케이션을 가속화해 이미지 생성 속도와 품질을 개선한다. 암페어 아키텍처 기반의 쿠다(CUDA) 코어는 이전 세대 대비 최대 2배의 단정밀도 부동 소수점 처리량으로 그래픽과 컴퓨팅 워크로드의 속도를 크게 높인다. A400 GPU의 4GB와 A1000 GPU의 8GB GPU 메모리는 다양한 전문가용 요구 사항을 충족한다. 여기에는 기본적인 그래픽 디자인과 사진 편집부터 텍스처나 고해상도 편집, 데이터 분석이 필요한 까다로운 3D 모델링 등이 포함된다. 또한 이 GPU들은 이전 세대보다 메모리 대역폭이 증가해 데이터를 더 빠르게 처리하고 대용량 데이터 세트와 장면을 더 원활하게 처리할 수 있다. 7세대 인코드(NVENC)와 5세대 디코드(NVDEC) 엔진을 탑재한 새 GPU는 효율적인 비디오 처리를 기능을 제공한다. 이를 통해 초저지연으로 고해상도 비디오 편집, 스트리밍, 재생을 지원한다. 또한 AV1 디코드가 포함돼 더 많은 비디오 포맷을 더 효율적이고 원활하게 재생할 수 있다. A400과 A1000 GPU는 싱글 슬롯 디자인에 전력소비량이 50W에 불과하며, 콤팩트하고 에너지 효율적인 워크스테이션에 인상적인 기능을 제공한다.  엔비디아는 새로운 GPU가 최첨단 AI, 그래픽, 컴퓨팅 기능 등을 통해 사용자의 생산성을 높이고 창의적인 가능성을 열어준다고 전했다. 레이 트레이싱 렌더링과 AI가 포함된 고급 워크플로를 통해 전문가들은 작업의 한계를 뛰어넘고 놀라운 수준의 사실감을 구현할 수 있다. 기획 담당자들은 강력하고 에너지 효율적인 새로운 컴퓨팅 솔루션을 에지 배포에 사용할 수 있다. 크리에이터는 편집과 렌더링 속도를 높여 더욱 풍부한 시각적 콘텐츠를 제작할 수 있다. 건축가와 엔지니어는 아이디어를 3D CAD 개념에서 실제 디자인으로 원활하게 전환할 수 있다. 스마트 공간에서 작업하는 경우에는 공간 제약이 있는 환경에서 실시간 데이터 처리, AI 기반 보안, 디지털 사이니지 관리 등에 GPU를 사용할 수 있다. 또한 의료 전문가들은 더 빠르고 정밀한 의료 영상 분석을 수행할 수 있다.
작성일 : 2024-04-18
로컬 호스트 LLM 오픈소스 기반 BIM 전문가 챗봇 서비스 만들어보기
BIM 칼럼니스트 강태욱의 이슈 & 토크   요즘 LLM 모델을 사용하는 방법이 점차 간편해지고 있어 자체적으로 LLM을 구축해 챗봇, 전문가 시스템 등을 자신의 서버에서 제공하는 경우가 많아지고 있다. 이번 호에서는 GPU가 있는 PC에서 직접 실행해 볼 수 있도록, 로컬 호스트 LLM(대규모 언어 모델) 오픈소스 기반의 BIM 전문가 챗봇 서비스를 간단히 개발해 본다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 이메일 | laputa99999@gmail.com 페이스북 | www.facebook.com/laputa999 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | http://www.facebook.com/groups/digestpodcast   이번 호에서는 기존의 BIM PDF 파일을 검색해 학습하고, LLM에 RAG(Retrieval-augmented generation) 증강 학습한 후, 이를 간단한 UI로 웹 서비스하는 과정을 간략히 따라해 본다. 이번 호의 내용은 로컬 LLM의 편한 개발을 지원하는 올라마(Ollama), LLM 프롬프트 엔지니어링 프레임워크인 랭체인(LangChain), 텍스트 임베딩 벡터 데이터베이스 크로마(Chroma), 손쉬운 웹 앱 개발 지원 도구인 스트림릿(Streamlit)을 사용한다. 이를 이용해 간단하게 BIM 전문 지식을 PDF로 학습한 챗봇을 개발한다.   그림 1. 로컬 호스트 LLM 챗봇 아키텍처   그림 2. 구현된 BIM 지식 챗봇 서비스   LLM에 관련된 깊은 내용은 다음의 링크를 참고한다. 이 글은 여러 참고 자료를 이용해 작성된 것이다. 상세 내용은 레퍼런스를 참고하기 바란다. Facebook LLAMA-2 paper : https://daddynkidsmakers.blogspot.com/2024/02/llama-2.html Facebook LLAMA-2 installation : https://daddynkidsmakers.blogspot.com/2023/09/llama2.html LLM은 빅테크 업체 간 경쟁이 심한 분야이다. 이와 관련해서 젬마(Gemma), MPT-7B과 같은 LLM 모델이 오픈소스로 공개되고 있어 선택지가 많아지고 있다. 이와 관련해서는 다음을 참고한다.  Google Gemma : https://github.com/google/gemma_pytorch Blooom : https://huggingface.co/bigscience/bloom   설치 설치를 위해서는 엔비디아 드라이버, CUDA, 텐서플로(TensorFlow), 파이토치(PyTorch) 등 기본 딥러닝 개발 환경이 설치되어 있어야 한다.(최소 구동을 위한 GPU RAM은 6GB이다.) TensorFlow 설치 : https://www.tensorflow.org/install/pip?hl=ko#windows-native_1 Start Locally | PyTorch 설치 : https://pytorch.org/get-started/locally/ 설치 순서는 다음과 같다.  1. 기본 패키지를 설치한다. LLM 모델 기반 서비스 개발 지원 라이브러리 랭체인, 웹 앱 UI 개발을 지원하는 스트림릿, 텍스트 임베딩 벡터 데이터베이스 크로마 DB 등을 설치한다. pip install langchain streamlit streamlit_chat pypdf fastembed chardet pip install chromadb==0.4.15   그림 3. 다양한 LLM 모델을 이용한 서비스 개발을 지원하는 랭체인 패키지   그림 4. 간단한 코드로 웹 앱 개발을 지원하는 UI 라이브러리 패키지 streamlit.io   혹은 pip와 유사한 패키지 설치 관리자인 poetry를 설치한 후, 다음 사용 패키지들을 pyproject.toml 이름으로 저장하고 설치한다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2024-04-01