• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "UPS"에 대한 통합 검색 내용이 446개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
AWS, “AI 워크로드를 클라우드로 전환해 탄소 배출량 절감 가능”
아마존웹서비스(AWS)가 IT 워크로드를 온프레미스 인프라에서 AWS 클라우드 데이터센터로 이전하면 인공지능(AI) 활용에 따른 환경적 영향을 효과적으로 최소화할 수 있다는 새로운 연구 결과를 발표했다. AWS의 의뢰로 글로벌 IT 컨설팅 기업 엑센츄어(Accenture)에서 진행한 연구에 따르면, AWS의 글로벌 인프라에서 워크로드를 실행했을 때 온프레미스 대비 에너지 효율이 최대 4.1배 더 높은 것으로 나타났다. 특히 한국 기업들이 AWS상에서 AI 워크로드를 최적화할 경우 온프레미스 대비 탄소 배출을 최대 95%까지 줄일 수 있는 것으로 나타났다. 연구에 따르면 국내에서 컴퓨팅 부하가 높은 AI 워크로드를 AWS 데이터센터에서 실행할 경우, 에너지 효율이 더 높은 하드웨어 사용(22%)과 향상된 전력 및 냉각 시스템(50%)을 통해 온프레미스 대비 탄소 배출량을 72%까지 줄일 수 있다. 추가로 AWS에서 최적화하고 AI 전용 실리콘을 사용할 경우 AWS로 이전하고 최적화한 국내 기업은 AI 워크로드의 총 탄소 배출량을 최대 95%까지 감축할 수 있다. AWS가 에너지 효율을 혁신하는 대표적인 방법 중 하나는 자체 칩에 대한 투자다. AWS는 지난 2018년 자체 개발 맞춤형 범용 프로세서인 그래비톤(Graviton)을 첫 출시했다. 최신 프로세서인 그래비톤4의 성능은 기존 그래비톤보다 4배 향상되었으며, 동급의 아마존 EC2 인스턴스 대비 동일한 성능을 구현하는 데에 60% 더 적은 에너지를 사용하는 그래비톤3보다도 더 에너지 효율적이다. AWS는 생성형 AI 애플리케이션의 성능과 에너지 소비를 최적화하기 위해 AWS 트레이니움(AWS Trainium), AWS 인퍼런시아(AWS Inferentia)와 같은 AI 전용 실리콘을 개발하여 동급의 가속 컴퓨팅 인스턴스보다 높은 처리량을 달성했다. AWS 트레이니움은 생성형 AI 모델의 학습 시간을 몇 달에서 몇 시간으로 단축한다. 트레이니움2는 1세대 트레이니움에 비해 최대 4배 빠른 훈련 성능과 3배 더 많은 메모리 용량을 제공하는 동시에 에너지 효율(와트당 성능)을 최대 2배까지 개선하도록 설계되었다. 한편, AWS 인퍼런시아는 AWS 칩 중 가장 전력 효율이 높은 머신러닝 추론 칩이다. AWS 인퍼런시아2는 와트당 최대 50% 더 높은 성능을 제공하며, 동급 인스턴스 대비 최대 40%까지 비용을 절감할 수 있다.  이와 함께, AWS는 리소스 활용을 최적화하여 유휴 용량을 최소화하고 인프라의 효율성을 지속적으로 개선하고 있다고 전했다. AWS는 데이터센터 설계에서 대형 중앙 무정전전원공급장치(UPS)를 제거하는 대신 모든 랙에 통합되는 소형 배터리팩과 맞춤형 전원공급장치를 사용하여 전력 효율성을 개선하고 가용성을 높였다. 교류(AC)에서 직류(DC)로, 또는 그 반대로 전압을 변환할 때 발생하는 전력 손실을 줄이기 위해 중앙 UPS를 제거하고 랙 전원 공급 장치를 최적화하여 에너지 변환 손실을 약 35% 감소시켰다. AWS 데이터센터에서 서버 장비에 전력을 공급하는 것 다음으로 에너지 사용량이 많은 부분 중 하나는 냉각 시스템이다. 효율성을 높이기 위해 AWS는 장소와 시간에 따른 프리 쿨링(free air cooling) 등 다양한 냉각 기술을 활용하고 실시간 데이터를 통해 기상 조건에 적응한다. AWS의 최신 데이터센터 설계는 최적화된 공랭 솔루션과 엔비디아(NVIDIA)의 그레이스 블랙웰 슈퍼칩과 같은 가장 강력한 AI 칩셋을 위한 액체 냉각 기능을 통합한다. 유연한 다중 모드 냉각을 통해 기존 워크로드 혹은 AI 모델 등 실행하는 워크로드에 상관없이 성능과 효율성을 극대화할 수 있다. AWS는 SK텔레콤 등 자사의 고객들이 그래비톤의 탄소 절감 효과를 누리고 있다고 소개했다. AWS는 SK텔레콤의 차세대 AI 네트워크 관리 시스템인 탱고 솔루션 구축에 대규모 데이터 처리와 인공지능 및 머신러닝 워크로드에 최적화된 그래비톤 인스턴스를 제공함으로써, 온프레미스 대비 AWS 워크로드의 탄소배출량을 약 27% 감축하는데 기여했다. 또한, AWS는 자사의 클라우드 인프라가 스타트업, 기업, 헬스케어, 연구, 교육 기관 등 수만 곳의 한국 기업에게 신기술에 대한 접근성을 향상해 국내 비즈니스 생태계의 혁신과 성장을 지원하고 있다고 전했다. 종합에너지그룹 삼천리는 AWS를 활용해 대고객서비스 및 소비자 현장 지원 애플리케이션을 안정적으로 운영하고, 고객탄소발자국 툴(Customer Carbon Footprint Tool)을 통해 IT 운영에 따른 탄소 배출량을 상시 모니터링할 계획이다. AWS는 삼천리가 이번 클라우드 도입으로 향후 5년간 탄소배출량을 약 29.6% 감축할 것으로 기대하고 있다. AWS의 켄 헤이그(Ken Haig) 아시아 태평양 및 일본 에너지 및 환경 정책 총괄은 “전 세계 기업의 IT 지출 중 85%가 온프레미스에 집중된 상황에서, 한국 기업이 AWS상에서 AI 워크로드 최적화를 통해 탄소 배출량을 최대 95% 줄일 수 있다는 것은 지속가능성 측면에서 의미 있는 기회”라고 강조했다. 이어 “지속가능성의 혁신은 한국이 2050년까지 탄소 중립 목표를 달성하는데 중요한 역할을 할 것이며, 전력망에서 재생에너지 비중을 늘리려는 한국의 노력은 AI 워크로드의 탈탄소화를 앞당길 것”이라면서, “AWS는 데이터센터 설계 최적화부터 AI 전용 칩에 대한 투자까지 데이터센터 전반의 지속가능성을 위해 끊임없이 혁신하여 고객의 컴퓨팅 수요를 충족하기 위해 에너지 효율성을 지속적으로 높이고 있다”고 덧붙였다.
작성일 : 2024-09-04
공간정보 GIS 기반 IoT 데이터 분석 스타일 대시보드 만들고 서비스해보기
BIM 칼럼니스트 강태욱의 이슈 & 토크   이번 호에서는 공간정보 기반 서비스 웹 애플리케이션을 개발하기 위해 장고(Django)와 부트스트랩(Bootstrap)을 사용해 GIS 기반 IoT 데이터 분석 스타일의 대시보드 개발 방법을 간략히 정리하고, 개발 후 서비스하는 방법을 살펴본다.  이를 통해 공간정보 기반 IoT 장비를 하나의 대시보드로 관리하고 분석하는 것이 가능하다. 여기서 공간정보는 GIS, BIM, 3D 점군(point cloud) 데이터와 같이 공간상 좌표로 표현되는 모든 정보를 말한다.    ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groUPS/digestpodcast   그림 1. IoT 대시보드 웹 앱   이 글은 개발자가 애용하고 있는 파이썬(Python) 기반의 장고 플랫폼을 사용한다. 부트스트랩은 반응형 웹 사이트를 개발하기 위한 가장 인기 있는 HTML, CSS 및 자바스크립트(JavaScript) 프레임워크이다. 이번 호에서는 다음의 내용을 이해할 수 있다.  부트스트랩 대시보드 UI 라이브러리 사용법 장고 프레임워크의 데이터 모델과 웹 UI 간의 연계 방법 GIS 맵 가시화 및 이벤트 처리 실시간 IoT 데이터에 대한 동적 UI 처리 방법   요구사항 디자인 다음과 같은 목적의 웹 앱 서비스를 가정한다.  GIS 기반 센서 위치 관리 IoT 데이터셋 표현 IoT 장치 관리 IoT 장치 활성화 관리 KPI 표현 계정 관리 기타 메뉴    개발 환경 준비 개발 도구 개발에 필요한 도구는 다음을 사용한다. UI : bootstrap 웹 앱 프레임워크 : DJango GIS : leaflet, Cesium 데이터 소스 : sqlite, spreadsheet, mongodb 구현된 상세 소스코드는 다음을 참고한다. https://github.com/mac999/IoT_simple_dashboard/tree/main   장고 기반 웹 앱 프로젝트 생성 장고는 파이썬으로 작성된 고수준의 웹 프레임워크로, 웹 애플리케이션 개발을 빠르고 쉽게 할 수 있도록 도와준다. 장고는 ‘The web framework for perfectionists with deadlines’라는 슬로건을 가지고 있으며, 많은 기능을 내장하고 있어 개발자가 반복적인 작업을 줄이고 핵심 기능에 집중할 수 있도록 한다. 다음과 같이 명령창을 실행하고, 장고 웹 앱 프로젝트를 생성한다.    python -m venv myenv source myenv/bin/activate  pip install django pandas django-admin startproject iot_dashboard cd iot_dashboard python manage.py startapp dashboard   생성된 프로젝트 폴더 구조는 <그림 2>와 같다.   그림 2   디자인 스타일 고려사항 부트스트랩 레이아웃 표현 부트스트랩은 웹 개발에서 널리 사용되는 프론트엔드 프레임워크로 주로 HTML, CSS, 자바스크립트로 작성되어 있다. 트위터의 개발자에 의해 처음 만들어졌으며, 웹 애플리케이션의 개발 속도를 높이고 반응형 디자인을 쉽게 구현할 수 있도록 도와준다.  부트스랩의 그리드 시스템은 12개 열로 디자인된다. 이는 유연성과 사용 편의성을 제공하기 위한 디자인 결정이다. 반응형 웹사이트를 구축하는 데에 많이 사용된다.  참고로, 12라는 숫자는 많은 약수(1, 2, 3, 4, 6, 12)를 갖고 있어 다양한 열의 조합으로 균등하게 나눌 수 있다. 이를 통해 분수나 번거로운 나머지 없이 다양한 레이아웃을 만들 수 있다. 유연성 : 12개의 열을 사용하면 다양한 화면 크기와 디바이스에 적합한 레이아웃을 쉽게 만들 수 있다. 각 요소가 차지하는 열의 수를 조정하여 대형 데스크톱 화면, 태블릿 및 스마트폰에서 잘 보이는 반응형 디자인을 만들 수 있다. 이해하기 쉬움 : 12개의 열을 기반으로 한 그리드 시스템은 디자이너와 개발자에게 직관적이다. 그리드 내에서 요소가 어떻게 동작할지 시각화하고 계산하기 쉽기 때문에, 일관된 레이아웃을 생성하고 유지하기가 간단하다. 디자인 관행 : 12개의 열을 사용하는 그리드 시스템은 부트스트랩 이전부터 다양한 그래픽 디자인 및 레이아웃 소프트웨어에서 사용되어 왔다.      ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2024-09-03
코리아 그래픽스 2024 컨퍼런스 초대합니다(9/27, AT센터)
아래 내용이 보이지 않으면 여기를 클릭하세요!       발표 내용 소개 [개회사] 코리아그래픽스 추진위원회 유훈식 위원장 [기조연설] 공간컴퓨팅 혁명의 가져올 변화 : 디지털 공간과 AI의 만남 / 국회미래연구원 이승환 연구위원 [기조연설] 생성 AI와 제조/건축 디자인의 현재와 미래 / 서울미디어대학원대학교(SMIT) 유훈식 교수 Adobe 생성형 AI와 3D 기술이 몰고온 디자인 프로세스의 변화 / 어도비코리아 3D 사업부 김태원 총괄상무 [기조연설] 멀티모달이 열어가는 세상과 AI PC / 인텔코리아 이주석 부사장 제조 산업의 디지털 트윈을 위한 강력한 리얼타임 렌더링 / 에픽게임즈코리아 진득호 과장 제조, 건축 등 엔지니어링 분야의 다양한 3D 프린팅 활용 사례 / 스트라타시스코리아 최승호 과장 AEC에서 AI를 활용한 만들기와 의미하기 / 에스엘즈 정재헌 대표 건축설계 생산성 향상을 위한 디지털 전환과 생성형 AI 실무 사례 / 디에이그룹엔지니어링종합건축사사무소 조태용 전무 건축시각화, AI, BIM, VR 적용으로 건축설계에 날개를 달다 / 아키페이스건축사사무소 정은길 소장 모빌리티 디자인에서 생성형 AI의 동향과 숙제, 나아갈 방향 / KAIST 산업디자인과 Move Lab / 박현준 조교수 AI-driven Design: 프로세스와 사례 중심으로 / 삼성전자 고성찬 프로 [폐회사] 캐드앤그래픽스 최경화 국장
작성일 : 2024-08-26
슈나이더 일렉트릭, 사용자 편의성 높인 APC Back-UPS 신제품 출시
슈나이더 일렉트릭 코리아가 간편함을 극대화한 APC Back-UPS 신제품을 출시했다고 밝혔다. 무정전 전원장치(UPS)는 정전과 같은 갑작스러운 전력 공급 중단 상황에서 데이터 손실을 방지하고 장비를 보호하기 위해 필요하다. UPS는 전력 공급이 중단되더라도 일정 시간 동안 안정적인 전원을 제공하여, 공장의 생산성 유지부터 기업의 데이터센터, 병원, 소상공인 및 가정에 이르기까지 다양한 환경에서 사용된다. 특히 전력 수요가 높고, 실내 활동이 증가하는 여름철에는 가정 및 소규모 사무실의 무선 네트워크, 컴퓨터, 게임 콘솔 등 전자 제품에 대한 전원 및 서지 보호 기능을 보장하는 소형 UPS 수요가 증가하고 있다. 정전 시에도 단기적인 배터리 전력을 사용할 수 있어 컴퓨터와 전자 장비를 보호할 수 있다. 슈나이더 일렉트릭은 작은 크기로 가정용·개인용 IT 장비에 사용하기 적합한 APC Back-UPS 라인업을 선보이고 있다. 이는 갑작스러운 전원 공급 중단 시 발생할 수 있는 데이터 손상 및 장비 성능 저하를 줄일 수 있는 소형 UPS다.     이번에 새롭게 선보인 APC Back-UPS 프로 230V 리프레시(APC Back-UPS Pro 230V Refresh)는 더 많은 배터리 백업 콘센트와 모바일 장치를 위한 USB 충전 포트 등을 갖춰 사용자의 편의성을 높였으며, 650VA~850VA까지의 전력 용량을 지원하여 더 많은 장비를 보호할 수 있다. 또한 이전 모델 대비 32%까지 설치 공간을 절약할 수 있고 무게도 약 33~35% 줄여, 가정과 소규모 사무실에서 사용하기에 적합하다. 슬림하고 가벼운 디자인으로 책상 아래나 벽면에 손쉽게 설치가 가능하다. 이 밖에도, LED 디스플레이를 통해 남은 런타임에 대한 정보를 실시간으로 파악할 수 있으며, 배터리 부족 알람을 간편하게 무음으로 전환할 수 있는 음소거 버튼도 갖췄다. 슈나이더 일렉트릭 코리아 시큐어파워 사업부의 최성환 본부장은 “스마트 가전제품은 네트워크 연결에 상당 부분 의존하고 있다. 정전이 발생하면 스마트 TV 스트리밍, 음성 제어 가상 비서 등과 같은 스마트 홈 기능 및 와이파이에 액세스할 수 없는 위험이 있다”면서, “이처럼 가정에서도 네트워크의 중요성이 높아진 만큼, 슈나이더 일렉트릭은 이번 APC Back-UPS 신제품 출시를 통해 더욱 효율적이고 신뢰할 수 있는 전원 보호 솔루션을 제공하고자 한다”고 설명했다.
작성일 : 2024-08-20
슈나이더 일렉트릭, AI 데이터센터를 위한 전력 관리 솔루션의 필요성 강조
슈나이더 일렉트릭이 전력 수요가 높은 데이터센터의 안정적인 운용을 위해 보다 효율적인 전력 관리의 중요성을 강조했다. 전 세계적으로 인공지능(AI)이 확산됨에 따라 고성능 연산을 처리하는 AI 데이터센터의 전력 수요 역시 급증하고 있다. 많은 전력을 소비하는 데이터센터는 전력 공급이 중단될 경우 성능 저하, 데이터 손실 등의 피해가 발생할 수 있어 24시간 365일 가용성에 대한 수요가 증가하고 있다. 이에 따라 비상 상황에도 끊김 없는 전력 공급 인프라를 구축할 무정전전원공급장치(UPS)의 필요성 역시 대두되고 있다. UPS는 IT 및 기타 주요 시스템에 지속적인 백업 전원을 공급하는 장치로, 갑작스러운 전원 공급 중단에 대한 문제를 방지하기 위해 일정 시간 동안 정상적으로 전원을 공급해 준다. 업계에 따르면, 세계 데이터센터 UPS 시장 규모는 2021년부터 2028년까지 6.3%의 성장률을 보이며 2028년에는 약 58억 9000만 달러(약 8조 1400억 원)에 이를 것으로 전망된다. 슈나이더 일렉트릭은 보다 안정적인 데이터센터의 전력 운용을 위해 UPS의 중요성을 강조하며, 여러 규모의 IT 환경에서 사용할 수 있는 다양한 UPS 제품군을 선보이고 있다. 데이터센터 및 산업용 애플리케이션에 적합한 ‘갤럭시 V 시리즈(Galaxy V-Series) UPS’는 고효율 운영 모드로 최대 99%의 효율성을 제공해 UPS의 전력 소비를 3배 이상 감소해 주는 이컨버전(eConversion) 모드가 적용됐다. 설치가 간편한 고효율 모듈식 확장형 제품으로, 전력 및 사용 장소에 따라 선택할 수 있고, 중요 전력 요구 사항에 부합하도록 설계됐다. 다양한 전력 조건에서도 안정적인 전력 공급을 보장한다.     ‘이지 UPS 3상 모듈러(Easy UPS 3-Phase Modular)’의 경우 유연한 구성 옵션을 제공해 단일 UPS 구성 기준 50kW에서 최대 250kW N+1까지, 병렬 UPS 구성 기준 최대 1000kW N+1까지의 전력 용량을 커버하는 모듈식 제품이다. 최대 40℃의 온도 환경까지 정격 용량(역률 1.0)에서 작동이 가능하고 컴팩트한 크기로 최적화된 설치 공간을 보유할 수 있어 병원, 은행 등 상업 시설과 중소 규모의 데이터센터 등 다양한 IT 환경에 통합된다. 또한, 슈나이더 일렉트릭의 ‘APC 스마트 리튬 이온 UPS(APC Smart-UPS with Lithium-ion)’는 에지 인프라와 함께 사용해 인프라의 가용성을 높일 수 있는 솔루션이다. 최신 리튬 이온 배터리 기술을 적용해 긴 수명과 빠른 충전 시간을 제공하는 것이 특징이며, 특히 에너지 효율이 중요한 데이터센터와 IT 인프라에 적합하다. 입력 전압 범위가 넓기 때문에 불필요한 배터리 사용을 줄이고, 배터리의 성능을 극대화하며 가벼운 무게로 공간 절약이 가능하다. 슈나이더 일렉트릭 코리아 시큐어파워 사업부의 최성환 본부장은 “AI 시장 확대에 따른 전력 공급망 확충이 무엇보다 시급한 현 시점에 데이터센터의 안정적인 운영에 대한 사회적 요구와 고민이 그 어느 때보다 커지고 있다”면서, “슈나이더 일렉트릭의 UPS는 에너지와 공정 효율성 극대화, 이산화탄소 최소화를 제공하는 동시에 AI 등 디지털 혁신에 대응하도록 더욱 발전할 것”이라고 설명했다.
작성일 : 2024-08-08
AI 전문가 에이전트 개발을 위한 LLM 기반 구조화된 JSON 데이터 RAG 및 생성하기
BIM 칼럼니스트 강태욱의 이슈 & 토크   이번 호에서는 최근 챗GPT(ChatGPT)와 같은 AI 전문가 서비스 개발을 위한 LLM(Large Language Model, 대규모 언어 모델) 기술 중 하나인 LLM 기반 구조화된 형식의 데이터 생성하는 방법을 간략히 소개한다.    ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | http://www.facebook.com/groUPS/digestpodcast   LLM을 다양한 시스템과 연동해 사용하려면, LLM의 출력이 기계가 이해 가능한 JSON, SQL, Code 형태여야 한다. 이번 호에서는 JSON 입출력이 가능하도록 RAG(Retrieval-Augmented Generation, 검색 증강 생성)를 처리하는 방법을 개발한다.  이를 잘 이용하면, 건설, 건축 분야의 PDF 파일 등을 학습하고, 필요한 정보를 기계 처리 가능한 형식으로 출력해 계산 가능한 표, 수식 등의 형식으로 정보를 생성할 수 있다.   그림 1. LLM 기반 텍스트 입력 및 구조화된 JSON 형식 생성 절차 개념도   이번 호에서는 오픈AI(OpenAI) 챗GPT와 같이 API를 사용하려면 구독해야 하는 상용 모델 대신 라마, 미스트랄과 같은 오픈소스 모델을 사용한다. LLM 모델을 컴퓨터에 다운로드받고 구동하기 위해 올라마(Ollama)를 이용하고, LLM 프롬프트와 RAG 처리를 위해 랭체인(LangChain)을 사용한다.   개발 환경 준비 다음과 같이 개발 환경을 설치한다. 그리고 올라마(https://ollama.com) 도구를 설치하도록 한다.   pip install llama-cpp-python pip install 'crewai[tools]' pip install langchain   Text to JSON  라마 모델을 로딩하고 JSON 문법으로 출력하도록 GBNF(GGML BNF) 문법 정의를 이용해 JSON 출력을 생성한다. 다음 코드를 실행한다.   from llama_cpp.llama import Llama, LlamaGrammar import httpx grammar_text = httpx.get("https://raw.githubusercontent.com/ggerganov/llama.cpp/master/grammars/json_arr.gbnf").text grammar = LlamaGrammar.from_string(grammar_text) llm = Llama("llama-2-13b.Q8_0.gguf") response = llm(     "JSON list of name strings of attractions in SF:",     grammar=grammar, max_tokens=-1 ) import json print(json.dumps(json.loads(response['choices'][0]['text']), indent=4))   출력 결과는 다음과 같이 샌프란시스코에 있는 놀이 시설을 보여준다.    [     {         "address": {             "country": "US",             "locality": "San Francisco",             "postal_code": 94103,             "region": "CA",             "route": "Museum Way",             "street_number": 151         },         "geocode": {             "latitude": 37.782569,             "longitude": -122.406605         },         "name": "SFMOMA",         "phone": "(415) 357-4000",         "website": "http://www.sfmoma.org/"     } ]   이와 같이 LLM 출력을 컴퓨터 처리하기 용이한 구조로 생성할 수 있다. 참고로, 여기서 사용한 JSON 문법은 <그림 2>와 같이 정형 규칙 언어로 정의된 것을 사용한 것이다.    그림 2. json.gbnf(https://github.com/ggerganov/llama.cpp/tree/master/grammars)     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2024-08-05
랭체인 아키텍처 및 동작 메커니즘 분석
BIM 칼럼니스트 강태욱의 이슈 & 토크   이번 호에서는 랭체인(LangChain) 아키텍처와 동작 방법을 분석한다. 현재 챗GPT(ChatGPT)와 비슷한 인공지능 챗봇 서비스 개발 등에 대중적으로 사용되는 랭체인은 LLM(Large Language Model : 대규모 언어 모델) 통합과 PDF 등 다양한 데이터 소스를 지원하여 LLM 모델 활용성을 극대화한다. 이 글을 통해 LLM 서비스 개발에 필요한 랭체인의 아키텍처와 동작 원리를 이해할 수 있을 것이다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | http://www.facebook.com/groUPS/digestpodcast   그림 1   랭체인은 LLM에 원하는 결과를 얻을 수 있도록 다양한 프롬프트 입력 및 구조화된 출력, RAG, 튜닝과 같은 기능을 제공하는 라이브러리다. 랭체인 설치는 다음과 같이 진행할 수 있다.  pip install langchain   랭체인의 기본 사용법 랭체인은 모델 입출력, 데이터 검색, 에이전트 지원, 체인, 컨텍스트 메모리 기능을 제공하며, LCEL(LangChain Expression Language)을 이용해 각 구성요소를 유기적으로 연결시킬 수 있다. LCEL은 유닉스 파이프라인 개념을 차용했다. 다음은 LCEL의 예시를 보여준다.  from langchain.chat_models import ChatOpenAI from langchain.prompts import ChatPromptTemplate from langchain.schema import BaseOutputParser # LCEL 예시 chain = ChatPromptTemplate() | ChatOpenAI() | CustomOutputParser() 이와 더불어 목적에 맞는 다양한 프롬프트 템플릿, 구조화된 출력을 제공한다. from langchain.output_parsers.json import SimpleJsonOutputParser json_prompt = PromptTemplate.from_template(     "Return a JSON object with `birthdate` and `birthplace` key that answers the following question: {question}" ) json_parser = SimpleJsonOutputParser() # JSON 파서 # 프롬프트, 모델, 파서 체인 생성 json_chain = json_prompt | model | json_parser  # 유닉스 파이프라인 개념 차용함. result_list = list(json_chain.stream({"question": "When and where was Elon Musk born?"})) print(result_list)   그림 2   랭체인 구조 분석 패키지 구조 랭체인 구조를 분석하기 위해, 깃허브(GitHub)의 랭체인 소스코드를 다운로드한 후 UML로 모델링해 본다. 주요 패키지는 <그림 3>과 같다.  랭체인 소스코드 : https://github.com/langchain-ai/langchain   그림 3   cli는 랭체인의 커맨드 라인 인터페이스(command line interface), core는 랭체인의 핵심 구현 코드가 정의된다. 이 부분은 <그림 4>와 같은 패키지로 구성된다.    그림 4   참고로, 이 패키지들은 <그림 5>의 일부이다.   그림 5. 랭체인 v.0.2.0 패키지   LCEL 언어 동작 구조 이 중에 핵심적인 것만 분석해 본다. 우선, LCEL의 동작 방식을 위해 어떤 디자인 패턴을 구현하였는지 확인한다. 이 부분은 runnables 패키지가 담당한다. 이 언어는 유닉스의 파이프라인 처리를 다음과 같이 흉내낸다.  z = a | b | c z.stream('abc') 이를 위해 파이썬(Python) 문법을 적극 사용하고 있다. 우선 ‘|’ 연산자를 오버로딩(overloading)하기 위해, 파이썬 Runnable 클래스를 정의해 ‘__or__’ 연산자를 구현한다. 이 연산자는 self object와 right object 두 객체를 입력받아 리스트를 만든 후 리턴하는 역할을 한다. 앞의 예시에서 보면, ‘a | b’를 실행 가능한 객체 리스트로 만들어 리턴한다. 결론적으로 a, b, c 객체를 리스트로 만들고 이 리스트를 z에 할당한다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2024-07-04