• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "딥러닝"에 대한 통합 검색 내용이 337개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
매스웍스코리아, ‘제4회 매트랩 대학생 AI 경진대회’ 개최
매스웍스는 국내 대학생들이 인공지능(AI) 기술 활용 능력을 개발하고, 전문 분야별 경쟁력을 강화할 수 있도록 ‘제4회 매트랩(MATLAB) 대학생 AI 경진대회’를 개최한다고 밝혔다. 대회 참가자들에게는 글로벌 기업의 엔지니어 및 과학자가 AI 기반 시스템 조성에 활용하는 자사의 대표 제품인 ‘매트랩’ 라이선스가 참가기간 동안 무료로 제공된다. 매스웍스는 지난 2021년부터 올해까지 4년째 본 대회를 통해 대학생들이 보다 쉽게 인공지능 기술을 활용해 문제를 해결할 수 있도록 소프트웨어를 지원해 왔다. 2023년에는 2022년 대비 약 2 배수의 학생들이 참가해 매트랩을 통해 AI 애플리케이션 및 모델을 구현했다. 국내 대학교에 재학 중인 학생이라면 전공에 상관없이 누구나 개인 또는 팀으로 대회에 참가할 수 있다. 대회 참가를 희망하는 학생들은 실제 산업 현장에서 발생하는 문제나 기존의 관행적 프로세스를 선정해 이를 해결 혹은 개선할 AI 애플리케이션 및 모델을 설계할 수 있어야 한다. 올해 매스웍스는 보다 많은 참가자들의 참여를 독려하고 뛰어난 연구 결과를 도출해 내기 위해 상금 규모를 2배 늘렸다. 최종 결선에 진출한 세 팀 중 1등에게는 200만원, 2등 100만원, 3등 50만원의 우승 상금이 지급된다. 대회 심사위원들은 이번 대회에서 매트랩 및 매스웍스의 툴 활용 숙련도를 평가하고 AI의 메인 툴로서 워크플로의 각 단계에서 매트랩의 어떤 기능을 사용했는지 확인할 계획이다. 또한, 올바른 사용과 연산의 타당성 평가를 통해 참가자의 기술 역량 수준을 보다 상세히 심사할 예정이다. 매스웍스코리아의 김경록 교육 기관 세일즈 매니저는 “최근 의료 산업 및 안전이 중요한 산업 분야에서 인공지능 모델이 확대 적용되면서, 매트랩도 이를 지원하는 딥러닝과 데이터의 효과적 처리에 활용되고 있다”면서, “이번 경진대회를 통해 학생들이 인공지능이 적용되는 전문 분야의 당면 과제를 파악해 보고, 직접 솔루션을 만들어 실행하고 검증하는 기회를 통해 성취감을 느껴 보길 바란다”고 말했다.  
작성일 : 2024-04-25
엔비디아, AI 기반 워크플로 강화하는 RTX A400과 A1000 GPU 출시
엔비디아가 새로운 엔비디아 RTX A400과 RTX A1000 GPU를 통해 RTX 전문가용 그래픽 제품을 확장하고, 디자인을 비롯한 AI 기반 생산성 워크플로를 강화한다고 밝혔다. 디자인과 생산성 애플리케이션 전반에 걸친 AI 통합이 새로운 기준으로 자리잡으면서 고급 컴퓨팅 성능에 대한 수요가 증가하고 있다. 즉, 전문가와 크리에이터들은 프로젝트의 규모와 복잡성 또는 범위에 관계없이 향상된 컴퓨팅 성능을 활용해야 한다. 엔비디아 암페어(Ampere) 아키텍처 기반의 RTX A400과 RTX A1000 GPU는 이렇게 증가하는 수요를 충족하기 위해 개발됐으며, AI와 레이 트레이싱 기술에 대한 접근성을 확대해 전문가들이 일상적인 워크플로를 혁신하는데 필요한 도구를 제공한다.   ▲ 엔비디아 RTX A400   RTX A400 GPU는 RTX 400 시리즈 GPU에 가속화된 레이 트레이싱과 AI를 도입했다. 이 GPU는 AI 처리를 위한 24개의 텐서 코어(Tensor Cores)를 탑재해 기존 CPU 기반 솔루션을 넘는 성능을 제공한다. 이를 통해 전문가들은 지능형 챗봇, 코파일럿과 같은 최첨단 AI 애플리케이션을 데스크톱에서 직접 실행할 수 있다. 또한 GPU는 실시간 레이 트레이싱을 제공하므로 크리에이터는 생생하고 물리적 정확도가 높은 3D 렌더링을 제작할 수 있다. A400은 시리즈 최초로 4개의 디스플레이 출력을 지원해 금융 서비스, 명령과 제어, 유통, 운송과 같은 산업에 필수적인 고밀도 디스플레이 환경에 적합하다.   ▲ 엔비디아 RTX A1000   엔비디아 RTX A1000 GPU는 RTX 1000 시리즈 GPU에 처음으로 텐서 코어와 RT 코어를 도입했다. 이를 통해 전문가와 크리에이터를 위한 가속화된 AI와 레이 트레이싱 성능을 제공한다. A1000은 72개의 텐서 코어를 탑재해 이전 세대에 비해 업그레이드된 성능을 갖췄다. 스테이블 디퓨전(Stable Diffusion)과 같은 도구에서 3배 이상 빠른 생성형 AI 프로세싱을 제공하며, 18개의 RT 코어는 그래픽과 렌더링 작업 속도를 최대 3배까지 높여 2D와 3D CAD, 제품과 건축 설계, 4K 비디오 편집과 같은 전문적인 워크플로를 가속화한다. 더불어 A1000은 이전 세대보다 최대 38% 더 많은 인코딩 스트림을 처리하고 2배 더 빠른 디코딩 성능을 제공하는 등 비디오 처리 능력을 높였다. 엔비디아 RTX A400과 A1000 GPU에 탑재된 2세대 RT 코어는 건축 도면, 3D 디자인, 콘텐츠 제작 등 모든 전문 워크플로를 위한 실시간 레이 트레이싱, 사실적인 물리 기반 렌더링과 시각화, 정확한 조명과 그림자 시뮬레이션으로 작업 품질을 높일 수 있다. 3세대 텐서 코어는 생성형 AI, 이미지 렌더링 노이즈 제거, 딥러닝 슈퍼 샘플링과 같은 AI 증강 도구와 애플리케이션을 가속화해 이미지 생성 속도와 품질을 개선한다. 암페어 아키텍처 기반의 쿠다(CUDA) 코어는 이전 세대 대비 최대 2배의 단정밀도 부동 소수점 처리량으로 그래픽과 컴퓨팅 워크로드의 속도를 크게 높인다. A400 GPU의 4GB와 A1000 GPU의 8GB GPU 메모리는 다양한 전문가용 요구 사항을 충족한다. 여기에는 기본적인 그래픽 디자인과 사진 편집부터 텍스처나 고해상도 편집, 데이터 분석이 필요한 까다로운 3D 모델링 등이 포함된다. 또한 이 GPU들은 이전 세대보다 메모리 대역폭이 증가해 데이터를 더 빠르게 처리하고 대용량 데이터 세트와 장면을 더 원활하게 처리할 수 있다. 7세대 인코드(NVENC)와 5세대 디코드(NVDEC) 엔진을 탑재한 새 GPU는 효율적인 비디오 처리를 기능을 제공한다. 이를 통해 초저지연으로 고해상도 비디오 편집, 스트리밍, 재생을 지원한다. 또한 AV1 디코드가 포함돼 더 많은 비디오 포맷을 더 효율적이고 원활하게 재생할 수 있다. A400과 A1000 GPU는 싱글 슬롯 디자인에 전력소비량이 50W에 불과하며, 콤팩트하고 에너지 효율적인 워크스테이션에 인상적인 기능을 제공한다.  엔비디아는 새로운 GPU가 최첨단 AI, 그래픽, 컴퓨팅 기능 등을 통해 사용자의 생산성을 높이고 창의적인 가능성을 열어준다고 전했다. 레이 트레이싱 렌더링과 AI가 포함된 고급 워크플로를 통해 전문가들은 작업의 한계를 뛰어넘고 놀라운 수준의 사실감을 구현할 수 있다. 기획 담당자들은 강력하고 에너지 효율적인 새로운 컴퓨팅 솔루션을 에지 배포에 사용할 수 있다. 크리에이터는 편집과 렌더링 속도를 높여 더욱 풍부한 시각적 콘텐츠를 제작할 수 있다. 건축가와 엔지니어는 아이디어를 3D CAD 개념에서 실제 디자인으로 원활하게 전환할 수 있다. 스마트 공간에서 작업하는 경우에는 공간 제약이 있는 환경에서 실시간 데이터 처리, AI 기반 보안, 디지털 사이니지 관리 등에 GPU를 사용할 수 있다. 또한 의료 전문가들은 더 빠르고 정밀한 의료 영상 분석을 수행할 수 있다.
작성일 : 2024-04-18
매스웍스, 매트랩 및 시뮬링크 릴리스 2024a 발표
매스웍스는 매트랩(MATLAB) 및 시뮬링크(Simulink) 제품군의 릴리스 2024a(Release 2024a, 이하 R2024a)를 발표했다. 이번 R2024a는 AI 및 무선 통신 시스템을 다루는 엔지니어와 연구원의 워크플로를 간소화하는 새로운 기능을 포함한다. 현재 약 6000개의 저궤도 위성(LEO)가 궤도를 돌고 있으며 수십억 달러의 민간 부문 자금이 우주 관련 기업으로 유입되면서, 위성 통신에 대한 관심이 높아졌다. 위성 통신 엔지니어는 매트랩/시뮬링크 R2024a의 위성 통신 툴박스(Satellite Communications Toolbox) 업데이트를 통해 시나리오를 모델링할 수 있다. 또한 R2024a는 위성 통신 시스템과 링크를 설계 및 시뮬레이션하고 검증할 수 있는 표준 기반 툴을 제공한다. 이 툴박스는 RF 성분 및 지상국 수신기와 함께 물리 계층 알고리즘 설계와 테스트 파형을 생성할 수 있으며, 골든 레퍼런스 설계 검증을 수행할 수 있도록 지원한다.     이번 업데이트는 매트랩 및 시뮬링크에서 주로 사용되는 ▲컴퓨터 비전 툴박스(Computer Vision Toolbox) ▲딥러닝 툴박스(Deep Learning Toolbox) ▲계측기 제어 툴박스(Instrument Control Toolbox)에 대한 주요 업데이트도 포함한다. 컴퓨터 비전 툴박스는 컴퓨터 비전, 3차원 비전, 비디오 처리 시스템을 설계와 테스트를 위한 알고리즘, 함수 및 앱을 제공한다. 이 제품에는 2차원/3차원 비전 작업을 위한 알고리즘 설계, 데이터 레이블 지정, 코드 생성 기능이 포함되어 있다. 딥러닝 툴박스는 알고리즘, 사전 훈련된 모델 및 앱을 사용하여 심층 신경망을 설계하고 구현할 수 있는 프레임워크를 제공한다. 이 툴박스는 트랜스포머와 같은 아키텍처를 지원하고, 파이토치(PyTorch) 및 텐서플로우(TensorFlow) 모델과 연동 시뮬레이션을 수행할 수 있다. 계측기 제어 툴박스는 오실로스코프, 함수 발생기, 신호 분석기, 전력 공급장치, 분석 계측기와 같은 기기에 매트랩을 곧바로 연결할 수 있다. 계측기 탐색기(Instrument Explorer) 앱을 사용할 경우, 코드를 작성하지 않고 IVI 및 VXI 플러그 앤 플레이(Plug&Play) 드라이버 지원 기기를 관리할 수 있다. 매스웍스의 도미닉 비엔스(Dominic Viens) 기술 제품 마케팅 부문 이사는 “엔지니어들이 무선 시스템의 빠른 진화에 대처하기 위해 디자인, 시뮬레이션 및 검증을 위한 활용성이 높은 통신 툴을 사용하는 것이 필수적”이라면서, “R2024a 업데이트는 차세대 통신 시스템 구현과 지원을 한층 수월하게 할 것”이라고 말했다.
작성일 : 2024-04-05
로컬 호스트 LLM 오픈소스 기반 BIM 전문가 챗봇 서비스 만들어보기
BIM 칼럼니스트 강태욱의 이슈 & 토크   요즘 LLM 모델을 사용하는 방법이 점차 간편해지고 있어 자체적으로 LLM을 구축해 챗봇, 전문가 시스템 등을 자신의 서버에서 제공하는 경우가 많아지고 있다. 이번 호에서는 GPU가 있는 PC에서 직접 실행해 볼 수 있도록, 로컬 호스트 LLM(대규모 언어 모델) 오픈소스 기반의 BIM 전문가 챗봇 서비스를 간단히 개발해 본다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 이메일 | laputa99999@gmail.com 페이스북 | www.facebook.com/laputa999 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | http://www.facebook.com/groups/digestpodcast   이번 호에서는 기존의 BIM PDF 파일을 검색해 학습하고, LLM에 RAG(Retrieval-augmented generation) 증강 학습한 후, 이를 간단한 UI로 웹 서비스하는 과정을 간략히 따라해 본다. 이번 호의 내용은 로컬 LLM의 편한 개발을 지원하는 올라마(Ollama), LLM 프롬프트 엔지니어링 프레임워크인 랭체인(LangChain), 텍스트 임베딩 벡터 데이터베이스 크로마(Chroma), 손쉬운 웹 앱 개발 지원 도구인 스트림릿(Streamlit)을 사용한다. 이를 이용해 간단하게 BIM 전문 지식을 PDF로 학습한 챗봇을 개발한다.   그림 1. 로컬 호스트 LLM 챗봇 아키텍처   그림 2. 구현된 BIM 지식 챗봇 서비스   LLM에 관련된 깊은 내용은 다음의 링크를 참고한다. 이 글은 여러 참고 자료를 이용해 작성된 것이다. 상세 내용은 레퍼런스를 참고하기 바란다. Facebook LLAMA-2 paper : https://daddynkidsmakers.blogspot.com/2024/02/llama-2.html Facebook LLAMA-2 installation : https://daddynkidsmakers.blogspot.com/2023/09/llama2.html LLM은 빅테크 업체 간 경쟁이 심한 분야이다. 이와 관련해서 젬마(Gemma), MPT-7B과 같은 LLM 모델이 오픈소스로 공개되고 있어 선택지가 많아지고 있다. 이와 관련해서는 다음을 참고한다.  Google Gemma : https://github.com/google/gemma_pytorch Blooom : https://huggingface.co/bigscience/bloom   설치 설치를 위해서는 엔비디아 드라이버, CUDA, 텐서플로(TensorFlow), 파이토치(PyTorch) 등 기본 딥러닝 개발 환경이 설치되어 있어야 한다.(최소 구동을 위한 GPU RAM은 6GB이다.) TensorFlow 설치 : https://www.tensorflow.org/install/pip?hl=ko#windows-native_1 Start Locally | PyTorch 설치 : https://pytorch.org/get-started/locally/ 설치 순서는 다음과 같다.  1. 기본 패키지를 설치한다. LLM 모델 기반 서비스 개발 지원 라이브러리 랭체인, 웹 앱 UI 개발을 지원하는 스트림릿, 텍스트 임베딩 벡터 데이터베이스 크로마 DB 등을 설치한다. pip install langchain streamlit streamlit_chat pypdf fastembed chardet pip install chromadb==0.4.15   그림 3. 다양한 LLM 모델을 이용한 서비스 개발을 지원하는 랭체인 패키지   그림 4. 간단한 코드로 웹 앱 개발을 지원하는 UI 라이브러리 패키지 streamlit.io   혹은 pip와 유사한 패키지 설치 관리자인 poetry를 설치한 후, 다음 사용 패키지들을 pyproject.toml 이름으로 저장하고 설치한다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2024-04-01
원프레딕트, ‘가디원’ 로드맵과 AI 생산공정 최적화 지원 솔루션 '가디원 pdx’ 소개
산업 AI 기반 설비 예측진단 솔루션 스타트업 원프레딕트 가 국내 최대 ‘스마트공장+자동화산업전(SFAW)’ 행사에 참가해 디지털 브레인 솔루션 ‘가디원’의 로드맵과 AI 생산공정 최적화 지원 솔루션 '가디원 pdx’를 최초로 선보였다.  가디원은 원프레딕트가 자체 개발한 산업 AI를 적용한 솔루션으로 산업 설비 데이터를 분석해 지속적으로 설비의 건전성을 진단하고 관리하는 예지보전 솔루션의 제품군이다. 이는 과학기술정보통신부 우수연구개발 혁신제품으로 지정돼 기술의 혁신성을 인정받은 딥러닝 기반 터빈 설비 진단 솔루션 ‘가디원 터보’를 비롯해, 국내 최대 수준의 14만 건 빅데이터를 활용해 98%의 진단 정확도와 85%의 예측 정확도를 제공하는 변압기 고장 예측진단 솔루션 ‘가디원 서브스테이션’, 모터 설비의 전류 데이터를 기반으로 한 모터 종합관리 솔루션 ‘가디원 모터’로 구성돼 있다.  이번 SFAW 행사를 통해 첫 선을 보인 ‘가디원 pdx’는 그동안 원프레딕트가 기술 개발에 심혈을 기울여왔던 전체 생산공정단 분석 솔루션으로, 생산 프로세스의 최적화를 지원한다.  원프레딕트 윤병동 대표는 “예지보전을 넘어 자동화 공정 토털 모니터링·관제·제어 솔루션으로 ‘가디원 pdx’를 개발하고 있다”며, “가디원 pdx는 설비단을 넘어 공정단 전체의 진동, 전류, 운전 데이터 등을 토탈 분석해 모니터링에서부터 예지보전, 제어까지, 본격적인 생산 프로세스 최적화를 지원하는 올인원 솔루션”이라고 밝혔다. 또한 그동안 SFAW 행사에 참가해 다양한 시장과 고객을 발굴해왔으며, 가디원 모터를 비롯해 서브스테이션과 터보를 고객 맞춤형으로 제공하게 됐다고 덧붙였다.   올해로 네 번째 ‘스마트공장·자동화산업전(SFAW)’ 행사에 참가한 원프레딕트는 글로벌 경쟁력을 갖춘 유니콘 기업으로 성장하는 것을 목표로 한다. 원프레딕트는 기존 예지보전 기술을 뛰어넘는 경쟁력으로 다양한 산업 현장에서 사용하기 용이한 이점을 내세워 에너지, 공장, 발전, 석유화학, 제조 등 국내외 예지보전 시장을 공략한다. 특히, 이미 미국 텍사스에 구축한 지사를 통해 글로벌 영업 조직의 초석을 마련했으며, 현재 미국 현지 유수 기업들과 유통망 구축을 위한 논의를 활발히 전개하고 있다.  한편, 원프레딕트는 SFAW 행사의 산업지능화 컨퍼런스를 통해 ‘제조 환경에서 생산을 최대화하기 위한 지속고도화 설비 관리 기술’이란 주제로 한국 제조산업의 혁신을 이끄는 강연을 펼쳤다.   
작성일 : 2024-03-28
HPE, 생성형 AI용 엔드 투 엔드 AI 네이티브 포트폴리오 출시
HPE는 엔비디아 GTC에서 생성형 AI, 딥러닝, 머신러닝 애플리케이션의 운영 고급화를 위한 통합 AI 네이티브 포트폴리오를 새롭게 업데이트했다고 발표했다. 이번에 발표된 업데이트는 ▲HPE와 엔비디아가 공동 엔지니어링한 풀스택 생성형 AI 솔루션 ▲HPE 머신러닝 추론 소프트웨어 프리뷰 버전 ▲엔터프라이즈급 검생증강생성(RAG : Retrieval-augmented generation) 레퍼런스 아키텍처 ▲신규 엔비디아 블랙웰(NVIDIA Blackwell) 플랫폼 기반 제품 개발 지원 등을 포함한다. 대규모 AI 모델의 개발 및 훈련을 위해 사전 구성 및 테스트된 풀스택 솔루션을 원하는 기업을 위해 생성형 AI용 HPE 슈퍼컴퓨팅 솔루션도 출시됐다. 고객들이 생성형 AI 및 딥러닝 프로젝트 개발을 가속할 수 있도록 목적 기반의 턴키 솔루션은 엔비디아 칩으로 구동되며 최대 168개의 엔비디아 GH200 그레이스 호퍼 슈퍼칩(GH Grace Hopper Superchip)이 제공된다. 이 솔루션은 대기업, 연구소 및 정부 기관들이 인공지능 및 머신러닝 소프트웨어 스택을 활용한 모델 개발 과정을 더욱 단순화할 수 있도록 지원한다. 이러한 소프트웨어 스택은 고객들이 대규모 언어 모델(LLM), 추천 시스템, 벡터 데이터 베이스 등 생성형 AI와 딥러닝 프로젝트를 더욱 빠르게 추진할 수 있도록 한다. 설치에서부터 모든 서비스가 제공되는 턴키 솔루션을 이용해 AI 연구 센터와 대기업은 가치 창출까지의 시간을 더욱 단축하고 훈련은 2~3배 더욱 신속히 진행할 수 있다.     HPE의 생성형 AI용 엔터프라이즈 컴퓨팅 솔루션은 유연하고 확장 가능한 사용량 기반 과금 모델을 제공하는 HPE 그린레이크(HPE GreenLake)를 통해 이용할 수 있다. 엔비디아와 공동 엔지니어링하여 사전 구성된 미세 조정(fine-tuning) 및 추론 솔루션은 생성형 AI 애플리케이션을 제작하기 위해 필요한 정확한 컴퓨팅, 스토리지, 소프트웨어, 네트워킹 및 컨설팅 서비스를 제공함으로써 소요 시간과 비용을 절감해 준다. 이러한 AI 네이티브 풀스택 솔루션은 프라이빗 데이터 기반의 파운데이셔널 모델을 제작하기 위해 필요한 속도, 규모, 관리 기능을 제공하고 하이브리드 클라우드 모델 내 생성형 AI 애플리케이션을 배포할 수 있도록 지원한다. HPE와 엔비디아의 고성능 AI 컴퓨팅 클러스터 및 소프트웨어를 기반으로 하는 이 솔루션은 경량 모델 미세조정, RAG, 대규모 추론 등에 이상적이다. 이 솔루션을 실행하는 700억 개의 파라미터를 가진 라마 2(Llama 2) 모델의 미세 조정 시간은 노드 수에 따라 선형적으로 감소하여 16노드 시스템에서는 6분이 소요된다. 이러한 속도와 성능 덕분에 고객은 버추얼 어시스턴트, 지능형 챗봇, 기업용 검색과 같은 AI 애플리케이션으로 비즈니스 생산성을 개선하여 가치 실현을 더욱 빠르게 달성할 수 있다. 또한, 해당 솔루션은 HPE 프로라이언트 DL380a Gen11 서버(HPE ProLiant DL380a Server)를 기반으로 엔비디아 GPU, 엔비디아 스펙트럼-X 이더넷(NVIDIA Spectrum-X Ethernet) 네트워킹 플랫폼, 엔비디아 블루필드-3 DPU(NVIDIA BlueField-3 DPU)으로 사전 구성되어 있다. 이에 더해 HPE의 머신러닝 플랫폼과 애널리틱스 소프트웨어, 생성형 AI 모델 추론용으로 최적화된 엔디비아 NIM 마이크로서비스가 제공되는 엔비디아 AI 엔터프라이즈 5.0 소프트웨어뿐만 아니라 엔비디아 네모 리트리버(NeMo Retriever) 및 기타 데이터 사이언스와 AI 라이브러리를 이용할 수 있다. HPE의 안토니오 네리(Antonio Neri) CEO는 “생성형 AI의 미래를 실현하고 AI 생명주기 전반을 다루기 위한 솔루션은 설계부터 하이브리드로 제작되어야 한다. AI는 하이브리드 클라우드 환경이 필요한 워크로드로, 온프레미스나 코로케이션 시설, 퍼블릭 클라우드에서 AI 모델을 훈련하는 것부터 에지에서의 추론 작업까지 모든 환경에 걸쳐 진행된다”면서, “HPE와 엔비디아는 공동 설계한 AI 소프트웨어 및 하드웨어 솔루션을 지속적으로 선보이며, 고객들이 기획에서부터 제작까지 생성형 AI를 가속해서 개발하고 배포할 수 있도록 도와줄 것”이라고 말했다. 엔비디아의 젠슨 황(Jensen Huang) CEO는 “생성형 AI는 커넥티드 디바이스, 데이터 센터 및 클라우드 내 데이터에서 인사이트를 도출해내며 전 산업의 혁신을 일으킬 수 있다. 엔비디아와 HPE의 협력 확대를 통해 기업들은 데이터를 활용하여 새로운 AI 애플리케이션을 개발 및 배포함으로써 전례 없는 생산성 향상을 경험하고 비즈니스를 새롭게 전환할 수 있을 것”이라고 말했다.
작성일 : 2024-03-26
생성형 AI 데이터 학습에 사용되는 딥러닝 강화학습의 개념과 구조
BIM 칼럼니스트 강태욱의 이슈 & 토크   이번 호에서는 생성형 AI 모델 학습과 같이 현재도 다양한 곳에서 필수로 사용되는 강화학습 딥러닝 기술의 기본 개념, 이론적 배경, 내부 작동 메커니즘을 확인한다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 이메일 | laputa99999@gmail.com 페이스북 | www.facebook.com/laputa999 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | http://www.facebook.com/groups/digestpodcast   강화학습은 바둑, 로봇 제어와 같은 제한된 환경에서 최대 효과를 얻는 응용분야에 많이 사용된다. 강화학습 코딩 전에 사전에 강화학습의 개념을 미리 이해하고 있어야 제대로 된 개발이 가능하다. 강화학습에 대해 설명한 인터넷의 많은 글은 핵심 개념에 대해 다루기보다는 실행 코드만 나열한 경우가 많아, 실행 메커니즘을 이해하기 어렵다. 메커니즘을 이해할 수 없으면 응용 기술을 개발하기 어렵다. 그래서 이번 호에서는 강화학습 메커니즘과 개념 발전의 역사를 먼저 살펴보고자 한다. 강화학습 개발 시 오픈AI(OpenAI)가 개발한 Gym(www.gymlibrary.dev/index.html)을 사용해 기본적인 강화학습 실행 방법을 확인한다. 참고로, 깃허브 등에 공유된 강화학습 예시는 대부분 게임이나 로보틱스 분야에 치중되어 있는 것을 확인할 수 있다. 여기서는 CartPole 예제로 기본적인 라이브러리 사용법을 확인하고, 게임 이외에 주식 트레이딩, 가상화폐, ESG 탄소 트레이딩, 에너지 활용 설비 운영과 같은 실용적인 문제를 풀기 위한 방법을 알아본다.   그림 1. 강화학습의 개념(출처 : Google)   강화학습의 동작 메커니즘 강화학습을 개발하기 전에 동작 메커니즘을 간략히 정리하고 지나가자.   강화학습 에이전트, 환경, 정책, 보상 강화학습의 목적은 주어진 환경(environment) 내에서 에이전트(agent)가 액션(action)을 취할 때, 보상 정책(policy)에 따라 관련된 변수 상태 s와 보상이 수정된다. 이를 반복하여 총 보상 r을 최대화하는 방식으로 모델을 학습한다. 정책은 보상 방식을 알고리즘화한 것이다. <그림 2>는 이를 보여준다. 이는 우리가 게임을 하며 학습하는 것과 매우 유사한 방식이다.   그림 2. 강화학습 에이전트, 환경, 액션, 보상 개념(출처 : towardsdatascience)   강화학습 설계자는 처음부터 시간에 따른 보상 개념을 고려했다. 모든 시간 경과에 따른 보상치를 동시에 계산하는 것은 무리가 있으므로, 이를 해결하기 위해 DQN(Deep Q-Network)과 같은 알고리즘이 개발되었다. 모든 강화학습 라이브러리는 이런 개념을 일반화한 클래스, 함수를 제공한다. 다음은 강화학습 라이브러리를 사용한 일반적인 개발 코드 패턴을 보여준다.   train_data, test_data = load_dataset()  # 학습, 테스트용 데이터셋 로딩 class custom_env(gym):  # 환경 정책 클래스 정의    def __init__(self, data):       # 환경 변수 초기화    def reset():       # 학습 초기 상태로 리셋    def step(action):       # 학습에 필요한 관찰 데이터 변수 획득       # 액션을 취하면, 그때 관찰 데이터, 보상값을 리턴함 env = custom_env(train_data)  # 학습환경 생성. 관찰 데이터에 따른 보상을 계산함 model = AgentModel(env)      # 에이전트 학습 모델 정의. 보상을 극대화하도록 설계 model.learn()                       # 보상이 극대화되도록 학습 model.save('trained_model')    # 학습된 파일 저장 # 학습된 강화학습 모델 기반 시뮬레이션 및 성능 비교 env = custom_env(test_data)  # 테스트환경 생성 observed_state = env.reset() while not done:    action = model.predict(observed_state) # 테스트 관찰 데이터에 따른 극대화된 보상 액션    observed_state, reward, done, info = env.step(action)    # al1_reward = env.step(al1_action) # 다른 알고리즘에 의한 액션 보상값과 성능비교    # human_reward = env.step(human_action) # 인간의 액션 보상값과 성능비교   ■ 상세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2024-03-05
CAD&Graphics 2024년 3월호 목차
  17 THEME. 2023 캐드앤그래픽스 독자 설문조사   Part 1. 2023년 주요 이슈 및 산업 분야 팬데믹 이전으로 되돌아가는 업무 환경… 인공지능과 가상 제품 개발에 대한 관심 확대   Part 2. 소프트웨어 활용 및 선호도 산업별로 2D/3D CAD 활용에 차이 보여… CAD 솔루션의 활용 범위는 꾸준히 확대   Part 3. 서비스, 클라우드 및 하드웨어 현재보다 미래가 기대되는 신기술… 엔지니어링 소프트웨어의 활용 방식 바꿀까   Part 4. 2023년 제조·건설 분야의 과제와 전망 경기 위축에 대한 우려 속에 3D 설계 환경과 교육 등에 대한 요구 높아   Infoworld   Focus 34 플랜트 조선 컨퍼런스 2024, AI 및 디지털 트윈을 통한 산업 혁신 전략 짚어 39 오라클, 생성형 AI로 기업의 대규모 AI 도입과 활용 지원 42 한국CDE학회 2024 동계학술대회, AI 시대의 엔지니어링을 전망하다 44 유니버설로봇, 신제품 협동로봇 출시와 함께 산업용 로봇과 본격 경쟁 기대   Case Study 46 디지털 트윈을 통한 벤쿠버 국제공항의 혁신 공항 전반의 운영 개선과 지속가능성 목표 달성   New Products 48 디지털 엔지니어링 생산성 높이는 AI 기반 시뮬레이션 솔루션 앤시스 2024 R1 50 실시간 건설 공정 관리 솔루션 트림블 커넥트 대시보드 2024 52 편의성 및 안정성 확보한 국산 CAD 직스캐드 54 중소·중견기업에 최적화된 국산 PLM 솔루션 Aone PLM 56 제품 정보 통합 관리 시스템 JK-PLM 58 전체 제품 수명주기 관리 솔루션 FabePLM 61 이달의 신제품   On Air 64 캐드앤그래픽스 CNG TV 지식방송 지상중계 생성형 AI 시대, AI 법률 서비스 어디까지 가능한가? 65 캐드앤그래픽스 CNG TV 지식방송 지상중계 미래 모빌리티 혁신, SDV가 가져올 자동차 산업의 변화는?   Event 66 캐드앤그래픽스 창간 30주년 독자 이벤트   Column 69 현장에서 얻은 것 No.16 / 류용효 PLM OOTB에 길을 묻다 76 디지털 지식전문가 조형식의 지식마당 / 조형식 인공지능 시대의 꿈의 엔지니어링   78 New Books 80 News   CADPIA   AEC 83 새로워진 캐디안 2024 살펴보기 (3) / 최영석 슈퍼해치, SetZ 기능 소개 108 오토데스크 한국어 커뮤니티의 첫 번째 오프라인 행사 / 양승규 커뮤니티를 통해 지식을 공유하고 개인의 성장 추구 112 BIM 칼럼니스트 강태욱의 이슈 & 토크 / 강태욱 생성형 AI 데이터 학습에 사용되는 딥러닝 강화학습의 개념과 구조 120 데스크톱/모바일/클라우드를 지원하는 아레스 캐드 2024 (11) / 천벼리 아레스 캐드 2024에서 시트 내보내기   Reverse Engineering 86 문화유산 분야의 이미지 데이터베이스와 활용 사례 (3) / 유우식 옛 사진 데이터베이스   Mechanical 94 제품 개발 혁신을 가속화하는 크레오 파라메트릭 10.0 (10) / 김성철 시뮬레이션 기반 설계   Analysis 100 앤시스 워크벤치를 활용한 해석 성공사례 / 최낙정 앤시스 차지 플러스의 비접촉 정전기 방전 해석 104 성공적인 유동 해석을 위한 케이던스의 CFD 기술 (7) / 나인플러스IT 연비와 공기역학 : 자동차 디자인의 음과 양     캐드앤그래픽스 2024년 3월호 목차 from 캐드앤그래픽스     캐드앤그래픽스 당월호 책자 구입하기   캐드앤그래픽스 당월호 PDF 구입하기
작성일 : 2024-03-04
레노버, “국내 CIO의 89%는 AI가 비즈니스 경쟁 우위를 만든다고 여겨”
레노버는 인공지능(AI) 도입에 대한 아시아·태평양 지역 전반에서의 포괄적인 인사이트를 제시하는 ‘CIO 플레이북 2024(CIO Playbook 2024) - It’s All About Smarter AI’ 조사 보고서를 발표했다. 레노버가 의뢰하고 IDC가 실행한 이 조사에는 100명의 한국 최고정보책임자(CIO)를 포함한 아시아·태평양 지역 내 900명 이상의 IT 및 비즈니스 의사결정자의 답변을 담았다.  이번 조사에 따르면, 아시아·태평양 기업들은 2024년 AI 관련 지출을 전년 대비 45%까지 늘릴 계획인 것으로 나타났다. 또한, AI와 같은 ‘신흥 기술 활용’이 아시아 태평양 지역 비즈니스 최우선순위에서 1위를 차지하며 작년과 크게 달라진 양상을 보였다. 특히, ‘매출 및 수익 성장’은 2023년 1위에서 2024년 3위로 하락, ‘고객 경험 및 만족’은 2위로 상승했다. 레노버는 “이러한 변화는 진화하는 비즈니스 환경에서 첨단 혁신 및 고객 중심적 접근 방식을 달성하기 위한 기업들의 전략적인 행보를 의미한다”고 짚었다.     한편, AI 기술에 대한 비즈니스 리더와 CIO 간의 인식에는 차이가 있는 것으로 드러났다. 비즈니스 리더들은 고객 경험 향상과 성과 창출을 위해 생성형 AI를 우선 순위에 두는 반면, CIO들은 조심스러운 낙관론을 표명했다. CIO들은 2024년 기술 투자 최우선순위 중 생성형 AI를 중 4위로 꼽으며, 디지털 인프라 관리 자동화 및 보안, 인력 문제를 다룰 수 있는 AI 기술을 훨씬 중요하게 여기는 것으로 나타났다.  레노버 인프라스트럭처 솔루션 그룹(ISG)의 플린 맬로이(Flynn Maloy) 마케팅 부회장은 “한국 CIO들은 AI에 대해 가장 많은 자신감을 가지고 있다. 한국 CIO들의 89%는 AI가 경쟁 우위를 창출할 것이라고 확신했으며, 이들 중 31%는 AI가 기업의 판도를 바꿀 게임 체인저라고 답변했다. 생성형 AI, 머신러닝 및 딥러닝에 대한 높은 투자는 운영 효율성, 보안, 의사 결정 과정 및 고객 경험을 개선하고자 하는 기업들의 의지를 나타낸다"고 밝혔다. 이번 조사에서는 아시아·태평양 국가 중 한국(33%)과 인도(28%)가 가장 높은 비율로 생성형 AI에 대해 투자하고 있으며, ASEAN+ 지역(11%), 호주 및 뉴질랜드(2%), 일본(2%)이 그 뒤를 이었다. 이 외에도 국내 CIO들 중 62%가 생성형 AI에 투자를 계획하고 있는 것으로 나타났다. 생성형 AI 도입에 대한 국내 CIO들의 우려 사항으로는 ▲모델 역량 한계(40%) ▲신뢰 가능한 데이터 플랫폼(36%)이 있으며, 주요 난제로는 ▲일자리 안정성(56%) ▲AI에 대한 사업 타당성 확립 문제(52%)가 있다. 또한, 69%의 아시아·태평양 지역 CIO들은 AI 워크로드를 퍼블릭 클라우드가 아닌 환경에서 처리하는 것을 선호하며, 79%의 국내 CIO는 이미 AI를 사용하여 보안 프레임워크를 강화하고 있었다. 한편, 국내 CIO의 21%는 관련 투자를 계획하고 있는 것으로 나타났다. 한편, 아시아·태평양 기업들은 AI 워크로드 배포에 있어 균형 잡힌 접근 방식을 채택할 것이라고 밝혔다. 평균적으로 AI 워크로드의 31%가 퍼블릭 클라우드에 배포되고, 28%는 프라이빗 클라우드, 28%는 하이브리드 클라우드 솔루션에 배포된다. 한편, 기존 데이터 센터에 배치된 AI 워크로드의 13%는 에지 컴퓨팅의 중요성에 대한 인식이 높아지면서 AI 역량이 데이터 생성 출처와 근접해지고 있음을 의미한다. 레노버 인프라스트럭처 솔루션 그룹의 수미르 바티아(Sumir Bhatia) 아시아 태평양 사장은 “레노버는 포켓-투-클라우드 솔루션 뿐만 아니라 50여 곳 이상의 ISV 파트너사 및 165개가 넘는 AI 솔루션으로 구성된 에코 시스템을 통해 ‘모든 곳에 있는 AI(AI everywhere)’를 추진하고 있다. 레노버는 도메인 전문가들과 더욱 스마트한 기술을 통해 ‘AI For All’ 비전을 실현하고 고객 경험을 변화시키는 데 집중하고 있다”고 전했다.      에지 컴퓨팅 관련 국내 지출은 전년 대비 55% 증가한 한편, 아시아·태평양 지역 내 에지 컴퓨팅 지출은 25% 증가했다. 에지 장치는 대량의 데이터를 실시간 생성함에 따라, AI 모델에 대한 다양한 신규 활용 사례도 등장할 것으로 예상된다. 국내 CIO들은 ▲실시간 애널리틱스 및 인사이트(42%) ▲원격 모니터링 및 원격 진료(39%)가 AI의 영향을 가장 크게 받는 에지 사용 사례라고 응답했다. 반면, 아시아·태평양 CIO들은 광범위한 데이터셋에 대한 생성형 AI 의존을 AI 관련 주요 난제로 응답한 한편, 비즈니스 리더들은 ▲일자리 안정성에 대한 직원들의 우려 ▲필수 IT 지원/자원/기량 부족을 꼽았다. 그리고, 45%의 아시아 태평양 기업과 30%의 국내 기업은 AI 관련 직무 고용에 여전히 어려움을 겪고 있으며, 이는 일반적인 고용 대비 두 배 이상의 노력이 드는 것으로 밝혀졌다. 
작성일 : 2024-02-29