• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "튜닝"에 대한 통합 검색 내용이 238개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
AWS, 아시아·태평양 및 EU 지역에 차세대 파운데이션 모델 출시
아마존웹서비스(AWS)는 광범위한 작업에서 최첨단 인텔리전스와 가격 대비 성능을 제공하는 차세대 파운데이션 모델(FM)인 아마존 노바(Amazon Nova)를 아시아·태평양 및 유럽연합(EU) 지역에 출시했다고 밝혔다. AWS 고객들은 서울, 도쿄, 뭄바이, 싱가포르, 시드니, 스톡홀름, 프랑크푸르트, 아일랜드, 파리 리전을 통해 교차 리전 추론(Cross-Region Inference)을 이용하여 이러한 모델을 사용할 수 있다. 교차 리전 추론은 고객이 요청을 보낸 소스 리전을 우선적으로 활용하면서 여러 리전에 걸쳐 아마존 노바에 대한 요청을 자동으로 라우팅할 수 있도록 지원한다. AWS는 이를 통해 지연 시간을 최소화하고, 추가 라우팅 비용 없이 소스 리전 기준으로만 요금이 부과되어 비용 효율을 높일 수 있다고 설명했다. 아마존 노바 마이크로(Amazon Nova Micro)는 텍스트 전용 모델로, 낮은 지연 시간의 응답을 저렴한 비용으로 제공한다. 아마존 노바 라이트(Amazon Nova Lite)는 이미지, 비디오, 텍스트 입력을 처리하여 텍스트 출력을 생성하는 저렴한 멀티모달 모델이다. 아마존 노바 프로(Amazon Nova Pro)는 광범위한 작업에 대해 정확성, 속도, 비용의 최적의 조합을 제공하는 고성능 멀티모달 모델이다. 이들 모델은 200개 이상의 언어를 지원하며, 텍스트 및 영상 미세 조정을 지원한다. 또한, 아마존 베드록(Amazon Bedrock)의 다양한 기능, 예를 들어 아마존 베드록 날리지 베이스(Amazon Bedrock Knowledge Bases)를 활용하여 조직의 자체 데이터 및 애플리케이션과 쉽게 통합할 수 있도록 지원한다. 모든 아마존 노바 모델은 빠르고 비용 효율적이며 고객의 시스템 및 데이터와 쉽게 사용할 수 있도록 설계됐다. 아마존 노바 마이크로, 아마존 노바 라이트, 아마존 노바 프로는 아마존 베드록의 각 인텔리전스 등급의 최고 성능을 보이는 모델과 비교해 최소 75% 더 저렴하다. 또한 아마존 베드록의 각 인텔리전스 등급에서 가장 빠른 모델이다. 모든 아마존 노바 모델은 주요 AI 기업과 아마존의 고성능 FM을 단일 API를 통해 사용할 수 있게 해주는 완전 관리형 서비스인 아마존 베드록과 통합돼 있다. 고객들은 아마존 베드록을 사용하여 아마존 노바 모델과 다른 FM들을 쉽게 실험하고 평가하여 애플리케이션에 가장 적합한 모델을 결정할 수 있다. 또한 이들 모델은 맞춤형 파인튜닝을 지원하여, 고객들이 정확도를 높이기 위해 레이블이 지정된 자체 데이터의 예시들을 모델에 지정할 수 있다. 아마존 노바 모델은 고객의 자체 데이터(텍스트, 이미지, 비디오 포함)에서 핵심 요소를 학습하고, 그 후 아마존 베드록이 맞춤형 응답을 제공할 수 있는 개인 파인튜닝 모델을 훈련시킨다. 파인튜닝뿐만 아니라, 더 큰 고성능 '교사 모델(teacher model)'에서 더 작고 효율적인 모델로 특정 지식을 전달할 수 있는 증류(distillation)도 지원한다. 이를 통해 모델의 정확도를 유지하면서도 실행 속도를 높이고 비용을 절감할 수 있다. AWS는 “아마존 노바 모델이 아마존 베드록 날리지 베이스와 통합돼 있으며, 조직의 자체 데이터에 기반하여 응답의 정확도를 보장할 수 있는 RAG에서 높은 성능을 보인다”고 설명했다. 또한, 아마존 노바 모델은 다단계 작업을 실행하기 위해 여러 API를 통해 조직의 자체 시스템 및 데이터와 상호 작용해야 하는 에이전트 애플리케이션에서 쉽고 효과적으로 사용할 수 있도록 최적화됐다. 한편, AWS는 아마존 노바 모델이 통합된 안전 조치와 보호 장치로 구축됐다고 소개했다. AWS는 아마존 노바를 위한 AWS AI 서비스 카드(AWS AI Service Card)를 출시해 사용 사례, 제한 사항, 책임 있는 AI 사례에 대한 투명한 정보를 제공한다. 아마존의 로힛 프라사드(Rohit Prasad) 인공 일반 지능(AGI) 수석부사장은 “아마존 내부적으로 약 1000개의 생성형 AI 애플리케이션이 개발 진행 중이며, 애플리케이션 개발자가 여전히 고민하고 있는 문제들을 전반적으로 파악하고 있다”면서, “새로운 아마존 노바 모델은 내부 및 외부 개발자들의 이러한 과제 해결을 돕고, 지연 시간, 비용 효율성, 맞춤화, 검색 증강 생성(RAG), 에이전트 기능에서 의미 있는 진전을 이루면서 강력한 인텔리전스와 콘텐츠 생성을 제공하고자 한다”고 말했다.
작성일 : 2025-03-07
벤큐, 블루코어 레이저 광원 탑재한 프리미엄 홈시네마 프로젝터 W5800 출시
벤큐코리아는 프리미엄 홈 시네마 프로젝터인 W5800을 정식 출시한다고 밝혔다. W5800은 블루코어 레이저 광원과 HDR-PRO 기술을 결합하여 몰입감 있는 시네마틱 화질을 구현하는 하이엔드 홈 시네마 프로젝터다. W5800의 핵심은 벤큐의 블루코어 레이저 광원을 바탕으로 독자 기술을 통해 구현한 높은 계조 표현력과 색 정확도이다. 레이저 광원을 통해 긴 수명(최대 2만 시간)과 함께 일관된 밝기 유지, 뛰어난 색 정확도를 오랜 사용기간 동안 제공하며, 기존 램프 기반 프로젝터 대비 빠른 시동과 낮은 유지보수 비용을 갖추었다. 특히, 200만:1의 초고명암비를 지원하여 깊고 풍부한 블랙 표현이 가능하며, 더욱 입체적인 화면을 연출한다. 또한, HDR-PRO 기술을 탑재하여 HDR10, HLG뿐만 아니라 HDR10+ 콘텐츠까지 지원하며, 향상된 명암비와 세부 표현력을 통해 더욱 생생한 영상을 감상할 수 있다. W5800은 DCI-P3 100% 색역을 지원하여 영화 제작자가 의도한 색상을 정확하게 표현하며, Delta E<2 팩토리 캘리브레이션 리포트를 제공해 사용자에게 신뢰할 수 있는 색상 품질을 보장한다. 여기에 정밀한 영상 튜닝을 위한 11단계 화이트 밸런스 조절 기능도 지원하며, 전문가 수준의 색상 보정을 원하는 사용자들에게 최적의 설루션을 제공한다.     W5800은 설치 편의성도 높였다. 전동 방식 1.6배 줌 렌즈 및 렌즈 시프트(수평 ±21%, 수직 ±50%)를 지원하여 다양한 공간에서도 정밀한 화면 조정이 가능하다. 또한, 저분산 코팅이 적용된 비구면 유리 렌즈를 탑재하여 색수차를 최소화하고 선명도를 높였으며, 멀티 채널 냉각 시스템을 적용하여 27dB~30dB의 저소음을 유지해 조용한 환경에서 영화를 감상할 수 있도록 설계되었다. 벤큐 빔프로젝터 팀의 조정환 팀장은 “W5800은 벤큐가 오랜만에 선보이는 프리미엄 하이엔드 홈 시네마 제품으로, 제품별 캘리브레이션 공정을 진행해 색상 표현력에 대한 소비자의 기대감을 만족시킬 수 있는 제품”이라고 전했다. 또한 조 팀장은 “블루코어 레이저 광원과 DLP 기술의 조합으로 오래토록 변치 않는 화질을 제공하며, 벤큐의 독자적인 HDR-PRO 기술을 통해 영화 마니아와 AV 애호가에게 최상의 시청 경험을 제공한다. 정밀한 색 재현력, 다른 프로젝터와 차별되는 높은 계조 표현력을 통해 완벽한 홈 시네마 환경을 구현할 수 있을 것”이라고 덧붙였다.
작성일 : 2025-02-12
스노우플레이크, 앱 성성 도구에서 딥시크-R1 프리뷰 지원
스노우플레이크가 자사의 생성형 AI 기반 애플리케이션 생성 도구인 ‘코텍스 AI(Cortex AI)’에서 ‘딥시크-R1(DeepSeek-R1)’ 모델을 지원한다고 밝혔다. 딥시크-R1은 지도학습(SFT) 없이 대규모 강화학습(RL)만으로 훈련된 오픈소스 모델로 자체검증, 스스로 답을 찾는 추론하는 사고체계(CoT), 추론 생성 등이 가능하다. 딥시크-R1은 스노우플레이크 코텍스 AI를 통해 서버리스 추론에 사용할 수 있는 비공개 프리뷰 형태로 제공된다. 배치(SQL 함수)와 대화형(파이썬 및 REST API) 모두를 통해 액세스할 수 있어 기존 데이터 파이프라인, 애플리케이션 및 통합 개발 환경(IDE)에 통합된다. 코텍스 AI는 고객이 코텍스 가드(Cortex Guard)를 활성화할 수 있도록 해 잠재적으로 유해한 콘텐츠를 필터링하고, 고객이 생성형 AI 애플리케이션을 대규모로 안전하게 배포할 수 있도록 한다. 스노우플레이크는 모델이 안전한 서비스 범위 내에서만 작동하고 고객 데이터가 모델 제공자와 공유되지 않도록 보장한다고 소개했다. 또한, 모델이 정식 출시되면 고객은 역할 기반 액세스 제어(RBAC)를 통해 딥시크-R1에 대한 접근을 설정해 거버넌스를 관리할 수 있다고 덧붙였다. 현재 미국 내 고객의 스노우플레이크 계정에서 사용할 수 있다. 스노우플레이크 코텍스 AI는 대규모 언어 모델(LLM) 추론, 파인튜닝, 검색 기반 생성(RAG) 기능을 포함한 종합 툴 세트를 제공하고 있다. 이를 통해 정형 및 비정형 데이터를 함께 분석하고 AI 기반 애플리케이션을 쉽게 구축할 수 있다. 메타, 미스트랄, 스노우플레이크를 포함한 주요 오픈소스 및 폐쇄형 LLM 모두 지원함으로써 간편하게 AI를 통합할 수 있게 한다. 스노우플레이크 AI 연구팀은 “딥시크-R1의 추론 비용을 추가로 절감해 고객에게 더 큰 비용 대비 성능 효율성을 제공할 계획”이라면서, “딥시크-R1을 통해 기업은 최첨단 AI 기술을 기반으로 한 생성형 AI 애플리케이션을 보다 빠르게 제공함으로써 생태계에서 혁신의 새로운 표준을 제시하게 될 것”이라고 말했다.
작성일 : 2025-02-05
전문 BIM 자료를 이해하는 대규모 언어 모델 파인튜닝하기
BIM 칼럼니스트 강태욱의 이슈 & 토크   이번 호에서는 전문적인 BIM 자료를 이해할 수 있는 대규모 언어 모델(LLM, Large Language Model)을 개발하는 방법을 알아본다. BIM 기반 LLM을 개발하는 방법은 여러 가지가 있으나, 여기에서는 그 중 하나인 RAG(Retrieval Augumented Generation, 증강 검색 생성) 시 LLM이 잘 추론할 수 있도록 모델을 파인튜닝(fine-turning)하는 기술을 사용해 본다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   LLM 모델 파인튜닝의 개념 파인튜닝이란 사전에 학습된 LLM을 특정 도메인이나 작업에 맞게 최적화하는 과정이다. 기본적으로 LLM은 일반적인 자연어 처리 작업을 수행하도록 설계되어 있지만, 전문적인 특정 지식 도메인(예 : 건설 분야의 BIM 데이터)이나 문제를 다룰 때는 환각 현상이 심해지므로 해당 도메인에 특화된 데이터로 모델을 재학습시켜야 한다. 이를 통해 모델이 특정 영역에서 더 정확하고 유용한 결과를 생성하도록 만든다. 파인튜닝 과정은 다음과 같은 단계로 이루어진다.  ① 사전 학습된 모델 선택 : 이미 대규모 데이터로 학습된 LLM을 선택한다. ② 도메인 특화 데이터 준비 : 대상 분야와 관련된 고품질 데이터를 수집하고, 이를 정제 및 전처리한다. ③ 모델 파라미터 조정 : LoRA(Low-Rank Adaptation)같은 기법을 사용하여 모델 파라미터를 특정 도메인에 맞게 업데이트한다.  ④ 훈련 및 검증 : 준비된 데이터로 모델을 학습시키고, 성능을 검증하며 최적화한다. 여기서, LoRA 기술은 LLM을 파인튜닝하는 데 사용되는 효율적인 기법이다. 이 방법은 모델 전체를 다시 학습시키는 대신, 모델의 일부 파라미터에만 저차원(lowrank) 업데이트를 적용하여 파인튜닝한다. 이를 통해 학습 비용과 메모리 사용량을 대폭 줄이면서도 높은 성능을 유지할 수 있다. 이 글에서 사용된 라마 3(Llama 3)는 메타가 개발한 LLM 제품이다. 모델은 15조 개의 토큰으로 구성된 광범위한 데이터 세트에서 훈련되었다.(라마 2의 경우 2T 토큰과 비교) 700억 개의 파라미터 모델과 더 작은 80억 개의 파라미터 모델의 두 가지 모델 크기가 출시되었다. 70B 모델은 MMLU 벤치마크에서 82점, HumanEval 벤치마크에서 81.7점을 기록하며 이미 인상적인 성능을 보여주었다. 라마 3 모델은 컨텍스트 길이를 최대 8192개 토큰(라마 2의 경우 4096개 토큰)까지 늘렸으며, RoPE를 통해 최대 32k까지 확장할 수 있다. 또한 이 모델은 128K 토큰 어휘가 있는 새로운 토크나이저를 사용하여 텍스트를 인코딩하는 데 필요한 토큰 수를 15% 줄인다.   개발 환경 준비 개발 환경은 엔비디아 지포스 RTX 3090 GPU(VRAM 8GB), 인텔 i9 CPU, 32GB RAM으로 구성되었다. 이러한 하드웨어 구성은 대규모 BIM 데이터를 처리하고 모델을 학습시키는 최소한의 환경이다. 이 글에서는 사전 학습모델은 허깅페이스(HF)에서 제공하는 Llama-3-8B 모델을 사용한다. 파인튜닝을 위해서는 다음과 같은 환경이 준비되어 있다고 가정한다.  파이토치 설치 : https://pytorch.org/get-started/locally  올라마(Ollama) 설치 : https://ollama.com 허깅페이스에서 제공하는 LLM 모델을 사용할 것이므로, 접속 토큰(access token)을 얻어야 한다. 다음 링크에서 가입하고 토큰을 생성(Create new token)한다. 이 토큰은 다음 소스코드의 해당 부분에 입력해야 동작한다.  허깅페이스 가입 및 토큰 획득 : https://huggingface.co/ settings/tokens   그림 1   명령 터미널에서 다음을 실행해 라이브러리를 설치한다.   pip install langchain pypdf fastembed chardet pandas pip install -U transformers pip install -U datasets pip install -U accelerate pip install -U peft pip install -U trl pip install -U bitsandbytes pip install -U wandb   개발된 BIM LLM 모델 성능이 향상되었는지를 검증할 수 있도록, 기초 모델이 인터넷에서 쉽게 수집 후 학습할 수 있는 BIM 자료를 제외한 데이터를 학습용으로 사용할 필요가 있다. 이런 이유로, 최근 릴리스되어 기존 상용 대규모 언어 모델이 학습하기 어려운 ISO/TS 19166에 대한 기술 논문 내용을 테스트하고, 학습 데이터 소스로 사용한다. 참고로, ISO/TS 19166은 BIM-GIS conceptual mapping 목적을 가진 국제표준으로 기술 사양(TS)을 담고 있다. 학습 데이터로 사용될 파일을 다음 링크에서 PDF 다운로드하여 저장한다.  BIM-GIS 매핑 표준 논문 PDF 파일 : https://www.mdpi. com/2220-9964/7/5/162   BIM 기반 LLM 모델 학습 데이터 준비와 파인튜닝 파라미터 설정 학습 데이터를 자동 생성하기 위해, 미리 다운로드한 PDF 파일을 PyPDF 및 라마 3를 이용해 질문-답변 데이터를 자동 생성한 후 JSON 파일로 저장한다. 이를 통해 수 백개 이상의 QA 데이터셋을 자동 생성할 수 있다. 이 중 품질이 낮은 데이터셋은 수작업으로 삭제, 제거한다.    그림 2. 자동화된 BIM 기반 LLM 학습 데이터 생성 절차     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-02-04
CAD&Graphics 2025년 2월호 목차
    18 THEME. 2024 국내 엔지니어링 소프트웨어 시장 조사 Part 1. 2025년 경제 및 주력산업 전망 Part 2. MDA/PDM 분야 Part 3. CAE 분야 Part. 4 AEC 분야 Part 5. 엔지니어링 소프트웨어 업계 인터뷰 헥사곤 매뉴팩처링 인텔리전스 성브라이언 사장 지멘스 디지털 인더스트리 소프트웨어 코리아 오병준 대표이사   Infoworld   Editorial 17 트럼프 2기 시작, IT 업계의 지각 변동   On Air 53 캐드앤그래픽스 CNG TV 지식방송 지상중계 2024 생성형 AI 트렌드 결산과 2025 전망 67 캐드앤그래픽스 CNG TV 지식방송 지상중계 AI 시대, 디지털 전환으로 여는 플랜트·조선 산업의 미래 68 캐드앤그래픽스 CNG TV 지식방송 지상중계 2025년 엔지니어링 기술과 산업을 전망하다   Case Study 54 건축 산업의 혁신 지원하는 지리 공간 플랫폼 복잡한 3D 지리 공간 모델링을 실시간 시각화하는 세슘 58 30년 역사의 캐릭터 제작 기업, 젠틀 자이언트 스튜디오 적층제조 기술로 품질·효율 높이고 창의적 혁신 실현   People&Company 60 산업데이터스페이스 기술위원회 이영환 위원장 제조업 혁신 서비스와 수익모델 창출의 열쇠, ‘산업데이터스페이스’   Culture 62 비트리 갤러리, 선물 그리고 현재를 주제로 ‘Present is PRESENT’ 개최   Focus 65 오라클, 엑사데이터 X11M 통해 AI 시대의 DB 성능 기준 제시   Column 70 디지털 지식전문가 조형식의 지식마당 / 조형식 물리적 디지털 트윈이란 무엇인가 72 엔지니어링 분야의 AI 활용을 위한 제언 / 김충섭 AI에 대한 NI(자연지능)의 첫인상 74 트렌드에서 얻은 것 No. 20 / 류용효 무르익은 AI 시대, 인간을 위한 에이전트의 탄생   New Products 82 이달의 신제품   85 New Books 86 News   Directory 131 국내 주요 CAD/CAM/CAE/PDM 소프트웨어 공급업체 디렉토리   CADPIA   AEC 88 BIM 칼럼니스트 강태욱의 이슈 & 토크 / 강태욱 전문 BIM 자료를 이해하는 대규모 언어 모델 파인튜닝하기 94 새로워진 캐디안 2025 살펴보기 (3) / 최영석 유틸리티 기능 소개 Ⅰ 97 데스크톱/모바일/클라우드를 지원하는 아레스 캐드 2025 (10) / 천벼리 멀티뷰 블록   Reverse Engineering 100 시점 – 사물이나 현상을 바라보는 눈 (2) / 유우식 암중모색   Mechanical 107 제품 개발 혁신을 가속화하는 크레오 파라메트릭 11.0 (9) / 박수민 크레오 11의 모델 기반 정의 개선사항 112 제조 산업의 설계 혁신을 위한 ZWCAD LM & ZWCAD MFG / 지더블유캐드코리아 전문적인 기계 설계 프로세스의 조합   Analysis 114 성공적인 유동 해석을 위한 케이던스의 CFD 기술 (18) / 나인플러스IT 터보 기계 시뮬레이션을 위한 엔지니어 가이드 Ⅲ 118 전고체전지의 성능·품질 향상을 위한 CAE 활용 / 하효준 Multiscale.Sim을 활용한 전고체전지의 제조 공정 해석 방법 123 디지털화 기반의 제조산업 혁신 전략 / 오재응 가상 엔지니어링과 모델 기반 개발에 CAE를 활용하는 방법       캐드앤그래픽스 당월호 책자 구입하기   캐드앤그래픽스 당월호 PDF 구입하기
작성일 : 2025-02-03
오라클, 가트너 매직 쿼드런트에서 클라우드 DB 관리 시스템 부문 리더로 선정
오라클이 ‘2024 가트너 매직 쿼드런트 클라우드 데이터베이스 관리 시스템 부문’ 리더로 선정되었다고 밝혔다. 오라클의 컨버지드 데이터베이스 아키텍처는 다양한 데이터 및 애플리케이션 개발 모델에서 엔터프라이즈 데이터 및 AI 워크로드를 활용할 수 있도록 지원한다. 오라클은 자사의 데이터베이스 서비스가 ▲오라클 자율운영 데이터베이스(Oracle Autonomous Database) ▲ 유연한 인터클라우드 및 멀티클라우드 배포 옵션 ▲지속적인 혁신음과 같은 요소를 통해 클라우드-레디 비즈니스 설루션을 지원한다고 소개했다. 오라클 자율운영 데이터베이스는 데이터 기반 애플리케이션 개발 간소화 및 운영 효율성 개선을 지원한다. 오라클 데이터베이스 및 오라클 엑사데이터(Oracle Exadata)에 내장된 자율운영 데이터베이스는 다양한 워크로드를 위해 설계된 자체 보안 및 자체 튜닝 클라우드 서비스로, 광범위한 기능 세트를 제공해 단일 데이터베이스 플랫폼 내에 최신 데이터 유형 전반을 수용 가능하게 한다. 오라클 데이터베이스는 워크로드의 유연한 클라우드 마이그레이션을 지원한다. 오라클 클라우드 인프라스트럭처(OCI)는 AWS(아마존웹서비스), 구글 클라우드, 마이크로소프트 애저 데이터센터에 물리적으로 배포되며, 데이터베이스와 애플리케이션 간 저지연성 네트워크 연결을 제공해 오라클 데이터베이스에서 엔터프라이즈 데이터에 손쉽게 연결할 수 있도록 한다. 또한, 오라클 데이터베이스 23ai(Oracle Database 23ai)는 빠르게 변화하는 비즈니스 및 기술 수요를 충족할 수 있도록 지원한다. AI, 생성형 AI, 벡터 처리, JSON 문서 지원, 그래프 분석 뷰, RAFT 기반 복제를 지원하는 글로벌 분산 데이터베이스, 인데이터베이스 SQL 방화벽, 트루 캐시(True Cache : 자동화된 중간 계층 데이터 객체 캐시) 및 로코드 개발 등 다양한 기능의 개선 사항을 제공한다.     오라클의 후안 로이자(Juan Loaiza) 데이터베이스 기술 총괄 부사장은 “2024년은 오라클이 다시 한 번 혁신적인 다양한 신기능을 선보일 수 있었던 한 해였다”면서, “가트너 리더로 선정된 것은 오라클 데이터베이스의 혁신 속도와 새롭게 소개된 기능 및 서비스, 멀티클라우드 기능을 인정받은 결과라고 믿는다. 오라클 데이터베이스 서비스는 OCI뿐만 아니라 AWS, 구글 클라우드, 마이크로소프트 애저 환경에서도 제공된다. 이러한 혁신은 오라클 데이터베이스 엔터프라이즈 워크로드를 원하는 곳 어디서나 배포 및 실행할 수 있는 선택지와 유연성을 제공한다”고 전했다.
작성일 : 2025-01-31
델 테크놀로지스, “기업 사용자의 AI PC 전환에 대한 관심 높아”
  델 테크놀로지스가 발표한 최근 조사에 따르면 기업의 일반 PC 실사용자 중 68.2%가 현재 사용 중인 일반 업무용 PC에서 AI PC로 전환할 의향이 있는 것으로 나타났다. 한국 델 테크놀로지스는 한국IDG와 발간한 ‘업무용 PC 사용 현황 및 AI PC 전망 보고서’의 내용을 소개했다. 이번 조사는 기업 환경에서 AI를 활용하는 비중이 높아지는 추세에 따라 AI PC 및 업무용 PC·워크스테이션의 사용 현황과 향후 전망을 파악하기 위해 실시됐으며, 2024년 11월 2주간 업무용 PC 실사용자 및 IT 구매 담당자 2982명을 대상으로 진행됐다. 이번 조사에 따르면 기업 환경에서 학습 데이터 가공, AI 모델 트레이닝, 시뮬레이션 및 테스트 등 AI 관련 워크로드의 비중이 빠르게 증가하고 있는 것으로 나타났다. 델 테크놀로지스가 지난 2023년 11월 진행한 ‘업무용 PC 및 워크스테이션 사용 현황 조사’ 결과와 비교하면, 워크스테이션을 통해 AI 워크로드를 처리한다는 응답은 9.8%에서 13.1%로, 일반 PC는 3.2%에서 7.1%로 증가했다. 업무 환경에서 AI의 비중이 높아지고 있는 반면, AI PC에 대한 최종 사용자와 기업 IT 관리자의 인지도는 아직 적은 것으로 나타났다. 이번 조사에서 ‘일반 PC와 AI PC의 차이를 잘 알고 있다’는 응답은 IT 관리자의 21.7%, 실사용자의 15.3%에 불과했으며, ‘AI PC’라는 용어는 알지만 실제 내용은 잘 모른다’는 응답이 60% 내외로 대다수를 차지했다. AI PC는 CPU, GPU, NPU의 처리 능력을 결합한 새로운 PC 아키텍처로, 특히 자체 탑재한 NPU를 활용해 클라우드에 연결하지 않고 로컬 디바이스에서 자체적으로 코파일럿(Copilot)과 같은 AI 비서를 활성화하여 업무 효율을 높이고 생산성을 향상시킨다. 또한, 챗봇을 통해 정보를 효과적으로 검색하는 것부터 문서 작성, 자료 요약, 음성 인식, 이미지 편집 등 다양한 작업을 보다 효과적으로 지원한다. 이와 같은 특징을 갖는 AI PC의 가장 큰 매력 포인트를 묻는 질문에 실사용자의 41.4%, IT 관리자의 33.1%가 ‘일반 PC보다 AI 워크로드를 더 빨리 처리한다’는 점을 가장 먼저 꼽았다. 이어 실사용자의 27.6%, IT 관리자의 31.4%가 ‘AI 기반 편의 기능’을 꼽았다. 이는 기존 업무용 PC 대비 AI PC의 지능적이고 높은 성능에 대한 기대감이 높다는 점을 시사한다. 또한, 현재 사용 중인 PC에서 보완이 필요한 점과 AI PC의 특징을 고려할 때, AI PC를 선택할 의향이 있냐는 질문에 일반 PC 실사용자 중 68.2%가 ‘있다’고 답했다. 특히, 미디어와 콘텐츠 제작 업계에 종사하는 사용자들이 AI PC를 선택하는 데 적극적인 반응을 나타냈다.     또한, 올해 10월 윈도우 10 지원이 종료된다는 점도 AI PC로 전환을 유도하는 데 영향을 미치는 것으로 나타났다. 윈도우 11의 보안 및 하드웨어 요구사항이 높아졌다는 점에서 운영체제 업그레이드를 위해 PC를 교체하고, AI PC를 선택하는 기업이 더욱 많아질 것으로 예상된다. 이번 조사에 참여한 IT 구매 담당자 중 절반에 가까운 44.5%가 윈도우 10 지원 종료 시점에 맞춰 PC 교체를 고려하고 있다고 답했다. 조직의 규모에 따라 PC 교체를 고려한다는 응답률은 다양했다. 대기업 응답자는 57.1%를 기록했으며, 중 견기업과 중소기업은 각각 약 40%와 39%를 기록했다. AI PC의 범주에는 AI 개발, 배포, 정밀 튜닝 작업을 디바이스에서 로컬로 실행하는 ‘AI 워크스테이션’도 포함되어 있다. 이는 인텔 HX, 제온 또는 AMD 스레드리퍼 프로 CPU를 탑재하며, 엔비디아 RTX 5000 GPU 이상으로 구성된 시스템을 일컫는다. 워크스테이션 사용 비율은 실사용자의 업무 유형에 따라 다르게 집계됐는데, 가장 비율이 높은 직무는 제조 연구 개발 직무 종사자(42.2%)로 거의 절반에 달했으며, 제품 디자인 설계 직무와 데이터 사이언티스트(35%)가 그 뒤를 이었다. 반면에 일반 사무직 종사자의 경우, 워크스테이션 사용 비율은 12.1%로 10명 중 1명만이 워크스테이션을 사용하는 것으로 나타났다. 워크스테이션이 고도의 컴퓨팅 성능이 필요한 전문 워크로드에 많이 사용되는 가장 주된 이유는 성능 때문이다. 워크스테이션은 일반 PC와는 달리 서버용 CPU를 주로 사용하고, GPU도 게임용 그래픽카드가 아니라, 그래픽 메모리만 수십 기가바이트(GB)인 전문가용 프로세서를 탑재한다. 테라바이트(TB) 단위의 메모리나 수십 TB를 넘는 스토리지 용량 역시 CAD/CAM이나 3D 콘텐츠 제작 및 편집 같은 전문 워크로드를 처리하는 데 일반 PC와는 다른 차원의 성능을 제공한다. 현재 워크스테이션 실사용자가 워크스테이션을 선택한 가장 큰 이유도 ‘CPU 및 GPU 성능(83.1%)’ 때문으로 나타났다. 스토리지와 메모리(46.0%)가 그 뒤를 이었으며, 냉각 방식이나 소음 제어 등을 포함한 시스템 안정성도 33.5%의 비교적 높은 응답률을 나타냈다. 반면 업무용 PC 사용자들은 워크스테이션의 장점인 성능과 안정성을 현재 사용하는 PC의 단점으로 꼽았다. 현재 사용 중인 업무용 PC의 아쉬운 점 두 가지를 묻는 질문에 일반 PC 사용자의 60.1%가 시스템 성능 및 확장성을, 48.4%가 시스템 안정성을 지적했다. 이 외에 보안, 그래픽 및 오디오 사양, 주변기기 연결성 등도 20%에 가까운 적지 않은 응답률을 보였다. 이는 성능과 확장성, 안정성에 대한 일반 PC 사용자의 니즈가 워크스테이션 도입으로 이어질 수 있는 가능성을 내포하고 있다. 실제로, 업무용 PC를 사용하는 기업 중 올해 AI 프로젝트에 투입할 예정인 기업은 34.5%이며, 이 중 AI 개발 및 테스트 작업을 위한 클라이언트 기기 교체 또는 신규 도입에 투자할 계획이라는 응답은 33.0%였다. 특히, 워크스테이션에 투자할 계획이 있는 기업은 56.0%로 집계됐다.  한국 델 테크놀로지스의 김경진 총괄사장은 “AI가 현대 업무 환경에서 생산성과 혁신을 주도하는 중심축으로 자리 잡으면서 기업들은 AI를 보다 쉽고 안전하게 활용할 수 있는 기술 환경을 구현해야 하는 과제를 안고 있다. 이를 위해서는 하드웨어와 소프트웨어, 서비스를 포함해 온전한 AI 활용 경험을 제공할 수 있는 환경이 필요하다”면서, “PC는 AI 중심 업무의 혁신을 이끄는 첨병이다. 델 테크놀로지스는 폭넓은 AI PC 포트폴리오를 갖추고 다양한 업무 영역을 지원하고 있으며, 모든 사용자가 업무 환경에서 AI를 비용 효과적으로 활용할 수 있도록 적극 지원하고 있다”고 말했다.
작성일 : 2025-01-23
시스코, 기업의 AI 트랜스포메이션 지원하는 보안 설루션 ‘AI 디펜스’ 출시
시스코가 기업의 AI 트랜스포메이션을 지원하는 보안 설루션 AI 디펜스(Cisco AI Defense)를 발표했다. AI 기술이 빠르게 발전함에 따라, 기존 보안 설루션으로 대응하기 어려운 새로운 안전 문제와 보안 위협이 전례 없는 속도로 대두되고 있다. 이에 따라 시스코는 최신 보안 설루션을 선보이며 기업 고객들이 안심하고 AI 애플리케이션을 개발, 배포 및 보호할 수 있도록 지원한다는 계획이다. AI로 인해 문제가 발생할 경우, 그 영향은 매우 심각할 수 있다. 2024 시스코 AI 준비지수(2024 AI Readiness Index)에 따르면, 설문조사에 참여한 국내 기업 중 14%만이 AI의 무단 변조를 감지하고 방지할 수 있는 충분한 준비가 되어있다고 답했다. 또한, AI 애플리케이션이 멀티모델과 멀티클라우드 환경에서 운영됨에 따라 보안 취약점도 더욱 새롭고 복잡해지고 있다. 보안 취약점은 모델 또는 애플리케이션 수준에서 발생할 수 있으며, 이에 대한 책임은 개발자, 최종 사용자, 벤더 등 다양한 이해관계자에게 나눠져 있다. 특히 기업이 공공 데이터를 넘어 내부의 민감한 데이터까지 AI 모델 학습에 활용하면서 위험은 더욱 커지고 있다.     기업이 AI 혁신과 도입을 성공적으로 실현하려면, 모든 사용자와 애플리케이션을 보호하는 통합적인 보안 계층이 필요하다. AI 디펜스는 ▲안전한 AI 애플리케이션의 개발 및 배포와 ▲ AI 애플리케이션의 접근 보안 강화 등 두 가지 시급한 위험 요소를 해결함으로써 기업의 AI 트랜스포메이션을 지원한다. AI가 보편화됨에 따라 기업은 수백, 수천 개의 AI 애플리케이션을 활용하고 개발한다. 이에 개발자는 모든 애플리케이션에 적용할 수 있는 일관된 보안 및 가드레일을 필요로 한다. AI 디펜스는 다양한 플랫폼에 걸쳐 AI 시스템과 모델 행동(model behavior)을 보호함으로써 개발자가 보다 빠르게, 더욱 큰 가치를 실현할 수 있도록 지원한다.  보안 팀은 애플리케이션을 개발하는 주체와 그들이 사용하는 트레이닝 소스를 파악해야 한다. AI 디펜스는 공공 및 프라이빗 클라우드에서 승인, 인지 또는 감독 없이 사용되는 AI 애플리케이션을 탐지한다. 한편, 모델 튜닝은 유해하고 예기치 않은 결과를 초래할 수 있다. AI 디펜스는 자동화된 테스트를 통해 AI 모델이 가진 수백 가지의 잠재적 안전 및 보안 문제를 점검하고, AI 기반 알고리즘 레드팀이 취약점을 식별해 보안 팀에 적절한 가드레일을 추천한다. 또한 지속적인 검증을 통해 프롬프트 인젝션(prompt injection), 서비스 거부, 민감한 데이터 유출 등 잠재적인 안전 및 보안 위협을 지속적으로 방어한다. 사용자가 생산성 향상을 위해 요약 툴과 같은 AI 애플리케이션을 빠르게 도입 후 사용함에 따라, 보안 팀은 데이터 유출과 기업 데이터 오염을 방지해야 한다. AI 디펜스는 직원이 사용하는 비인가 AI 지원 애플리케이션에 대한 포괄적인 가시성을 보안 팀에 제공하고, 비인가 AI 도구에 직원의 접근을 제한하는 정책을 구현한다. 또한 위협 및 기밀 데이터 손상을 방지하며 규정 준수를 지원한다. 개별 AI 모델에 내장된 가드레일과는 달리, 시스코는 멀티모델 환경에서도 일관된 제어 기능을 제공한다고 전했다. AI 디펜스는 시스코의 독자적인 머신러닝(ML) 모델을 활용해 스플렁크와 시스코 탈로스의 위협 인텔리전스 데이터를 기반으로 끊임없이 진화하는 AI 안전 및 보안 문제를 탐지하며 대응한다. AI 디펜스는 기존 데이터 흐름과 통합되어 향상된 가시성과 제어를 제공한다. 시스코의 통합 AI 기반 보안 플랫폼인 시스코 시큐리티 클라우드(Cisco Security Cloud)에 탑재되어 있으며, 광범위한 시행 지점(enforcement points)을 활용해 네트워크 단에서 AI 보안을 구현한다.  정확성과 신뢰성은 엔터프라이즈 AI 애플리케이션을 보호하는 데 필수이다. 시스코는 미국 비영리 연구개발 단체 마이터(MITRE), 국제웹보안표준기구(OWASP), 미국 국립표준기술연구소(NIST)를 비롯한 글로벌 기관들과 협력해 AI 보안 산업 표준 개발에 적극적으로 참여해 왔다고 밝혔다. AI 디펜스는 2024년 공개된 차세대 보안 아키텍처 시스코 하이퍼쉴드(Cisco Hypershield)에 이어 새롭게 공개된 시스코의 최신 AI 기반 보안 혁신 설루션이다. 2025년 3월부터 기업을 대상으로 제공될 예정이다. 시스코의 지투 파텔(Jeetu Patel) 부회장 겸 최고제품책임자는 “기업이 AI를 도입하는 과정에서 속도를 추구하기 위해 안전을 희생해서는 안 된다. 경쟁이 치열한 환경에서는 속도가 기업의 성공을 좌우한다”면서, “시스코 AI 디펜스는 네트워크 패브릭에 통합되어 있어 AI 애플리케이션을 개발하거나 접근하는 과정에서 발생하는 위협을 효과적으로 탐지하고 방어할 수 있다”라고 설명했다.
작성일 : 2025-01-16
생성형 AI 기반 BIM 전문가 시스템 개발해 보기
BIM 칼럼니스트 강태욱의 이슈 & 토크   이번 호에서는 지난 연재를 통해 설명한 생성형 AI 기술을 바탕으로 BIM(건설 정보 모델링) 전문가 시스템을 개발하는 방법을 간단히 알아보도록 한다.    ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   이 글에서는 LLM(대규모 언어 모델)과 RAG(검색 증강 생성) 기술을 적용하여 BIM IFC(Industry Foundation Classes) 데이터의 정보를 검색하고, 이를 바탕으로 BIM 지식 전문가 에이전트를 개발하는 방법을 소개한다. 이런 에이전트는 자연어 기반의 사용자 쿼리를 통해 필요한 정보를 신속하고 정확하게 제공하며, 건설 프로젝트의 전반적인 효율성을 높일 수 있다. 이 글에서 소개하는 방법은 RAG를 이용해 전문가 시스템을 개발하는 여러 가지 대안 중 하나임을 미리 밝힌다. IFC와 같은 포맷을 이용한 RAG와 LLM 사용 기법은 목적에 따라 구현 방법의 차이가 다양하다.    LLM RAG 기반 BIM 전문가 시스템 프로세스 현재 대중적인 목적으로 개발된 LLM 기술인 ChatGPT(오픈AI), Gemini(구글), Llama(메타), Phi(마이크로소프트)는 BIM의 일반적인 지식, 예를 들어 BIM 관련 웹사이트에서 공개된 일반적인 개념 설명, PDF에 포함된 텍스트를 학습한 모델을 제공하고 있다. 다만, 이들 LLM 도구는 BIM 모델링 정보를 담고 있는 IFC와 같은 특수한 데이터셋 파일은 인식하지 않는다. 현재는 PDF같은 일반적인 파일 형식만 검색 증강 생성을 지원하는 RAG 기술을 이용해, 도메인에 특화된 지식 생성을 지원한다. 이는 특정 도메인 지식을 훈련하기 위해 필요한 비용이 너무 과대하며, 도메인 지식을 모델 학습에 맞게 데이터베이스화하는 방법도 쉽지 않기 때문이다. 예를 들어, ChatGPT-4 모델을 훈련할 때 필요한 GPU 수는 엔비디아 A100×25,000개로 알려져 있으며, 학습에 100일이 걸렸다. A100 가격이 수천 만원 수준인 것을 감안하면, 사용된 GPU 비용만 천문학적인 금액이 소모된 것을 알 수 있다.  이런 이유로, LLM 모델을 전체 학습하지 않고 모델 중 작은 일부 가중치만 갱신하는 파인튜닝(fine-tuning), 범용 LLM는 운영체제처럼 사용하여 정보 생성에 필요한 내용을 미리 검색한 후 컨텍스트 프롬프트 정보로서 LLM에 입력해 정보를 생성하는 검색 증강 생성 기술인 RAG이 주목받고 있다. RAG는 <그림 1>과 같은 순서로 사용자 질문에 대한 답변을 생성한다.   그림 1. RAG 기반 BIM 전문가 시스템 작업 흐름(한국BIM학회, 2024)   RAG는 LLM에 입력하는 템플릿에 답변과 관련된 참고 콘텐츠를 프롬프트에 추가하여 원하는 답을 생성하는 기술이다. 이런 이유로, 답변에 포함된 콘텐츠를 처리하고, 검색하는 것이 매우 중요하다. LLM은 입력 프롬프트에 생성에 참고할 콘텐츠를 추가하지 못하면 환각 문제가 발생되는 단점이 있다. 각 RAG 단계는 검색이 가능하도록 데이터셋을 청크(chunk) 단위로 분할(split)하고, 데이터는 임베딩(embedding)을 통해 검색 연산이 가능한 벡터 형식으로 변환된다. 이 벡터는 저장 및 검색 기능을 가진 벡터 데이터베이스(vector database)에 저장된다. 사용자의 질문은 검색 알고리즘을 통해 벡터 데이터베이스에서 가장 근사한 정보를 포함하는 콘텐츠를 얻고, 프롬프트에 추가된 후 LLM에 입력된다. 그 결과 LLM은 원하는 답변을 출력한다. 이를 통해 학습하지 않은 전문 분야의 토큰을 인식하지 못하는 LLM이 원하는 결과를 생성할 수 있도록 한다.   BIM IFC 콘텐츠 데이터 구조 분석 앞서 살펴본 바와 같이 RAG 성능은 입력되는 데이터셋의 특징과 검색 알고리즘에 큰 영향을 받는다. 그러므로, 개방형 BIM 데이터 형식으로 사용되는 IFC의 특징을 분석하여 BIM RAG를 위한 데이터 처리 시 이를 고려한다. IFC 파일 구조는 STEP(ISO 10303), XML 스키마 형식을 준용한다. IFC는 객체지향 모델링과 그래프 모델 구조의 영향을 많이 받았다. 확장성을 고려해 BIM을 구성하고 있는 건축 객체의 부재들, 관계, 속성집합에 Instance ID 및 GUID(Globally 2025/1 Unique IDentifier)와 같은 해시값(hash)을 할당하고, 이들 간의 관계를 해시번호로 참조하여, 거대한 온톨로지 그래프 구조를 정의한다. <그림 2~3>은 이를 보여준다.   그림 2. IFC 객체 그래프 구조(Wall instance)   그림 3. IFC 그래프 구조 표현(강태욱, 2022)     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-01-06
딥러닝 모델 개발 프로세스 기록/분석/가시화 및 모델 튜닝하기
BIM 칼럼니스트 강태욱의 이슈 & 토크   이번 호에서는 AI 업계에서 표준적으로 사용되고 있는 도구를 개발하는 W&B(Weights & Biases)를 소개하고, 이를 사용하는 방법을 소개한다. 그리고 건설, 제조와 같은 전통 엔지니어링 산업에서 생존을 위해 생각할 부분을 정리해 보고자 한다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 |  http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 |  www.facebook.com/groups/digestpodcast 모든 산업 분야에서 딥러닝으로 시작된 인공지능(AI) 기술 트랜드가 거세게 몰아치고 있다. 특히, 올해는 생성형 AI가 업무에 실질적으로 사용되기 시작했다. 생성형 AI는 다양한 업무 분야를 자동화하고 있어, ‘Job Killer’라 불릴 만큼 오피스에 많은 영향을 주고 있다. 이와 같이 기술이 전통적인 시장과 일자리를 축소하기도 하지만, 이번 호에서 소개할 W&B는 골드러시에서 역마차를 만들어 운영했던 웰스파고의 전략을 잘 실행한 스타트업이다.     W&B 기술 소개 딥러닝 모델을 개발하다 보면 수많은 종류의 데이터셋, 하이퍼모델 파라미터 튜닝 등으로 인해 관리해야 할 자료가 매우 복잡해진다는 것을 알게 된다. W&B는 이름 그대로 완벽한 모델 학습을 위해 필요한 딥러닝 모델의 가중치(weights)와 편향(biases)을 모니터링 및 관리할 수 있는 로그 도구이다. 즉, 딥러닝 모델 개발자를 위한 프로세스 로그 및 가시화 플랫폼을 제공한다.    그림 1. W&B(AI Summer)   매우 직관적인 이름을 가진 이 스타트업은 텐서보드(Tensorboard)와 비슷하지만, 적은 코드로 모델 개발에 많은 통찰력을 준다. W&B의 WandB 라이브러리를 사용하면 딥러닝 모델 학습 시 지저분하게 붙어 나가는 로그 처리를 간단한 함수 몇 개로 처리할 수 있고, 통합된 대시보드 형태로 다양한 모델 학습 품질 지표를 확인 및 비교할 수 있다. 이외에도 학습 모델 하이퍼 파라미터 관리와 튜닝 및 비교 보고서 생성 기능을 제공한다. 로그는 숫자, 텍스트, 이미지 등 다양한 포맷을 지원한다.    그림 2. W&B 딥러닝 모델 개발 프로세스 가시화 대시보드   이번 호에서는 딥러닝 모델 학습 로그 및 가시화 영역에 집중해 살펴본다. 글의 마무리에서는 W&B의 개발 배경도 간단히 알아본다.     사용법 다음 링크에 방문해 회원 가입한다.  wandb.ai website : https://wandb.ai 회원 가입한 후 <그림 3~4>와 같이 홈 메뉴에서 키 토큰 값을 얻어 복사한다. 이 키는 wandb API를 사용할 때 필요하다.   그림 3    그림 4   명령행 터미널에서 다음 명령을 실행해 wandb 파이썬 라이브러리를 설치한다.  pip install wandb     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2024-12-05