• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "오픈소스"에 대한 통합 검색 내용이 690개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
인텔, 고성능과 게이밍 기능 앞세운 아크 B-시리즈 그래픽 카드 출시
인텔은 인텔 아크 B-시리즈(Intel Arc B-Series) 그래픽 카드 신제품(코드명 배틀메이지)를 발표했다. 인텔 아크 B580 및 B570 GPU는 대다수의 게이머가 접근 가능한 가격대에서 동급 최고 수준의 성능과 최신 게이밍 기능을 제공하는 데에 초점을 맞추었으며, AI 워크로드를 가속화할 수 있도록 설계되었다. 인텔 Xe 매트릭스 익스텐션(XMX) AI 엔진이 포함되어 성능, 시각적 유동성 및 응답성을 향상시키는 3개 기술로 구성된 최신 XeSS 2를 지원한다. 인텔 아크-B시리즈 GPU는 인텔의 최신 Xe2 아키텍처를 사용하며, 향상된 효율성과 더 높은 코어당 성능을 제공하고 소프트웨어 오버헤드를 줄이도록 최적화되었다. 2세대 Xe-코어는 최신 워크로드에 필요한 견고한 컴퓨팅 성능을 제공하며 고성능 XMX AI 엔진을 포함하고 있다. 새로운 Xe-코어는 더 뛰어난 성능의 레이 트레이싱 유닛, 향상된 메시 셰이딩 성능, 향상된 주요 그래픽 기능 지원을 통해 최신 게임 엔진의 성능 효율성을 향상시켜 준다.     XeSS 2는 ‘XeSS 초해상도(XeSS Super Resolution)’, ‘XeSS 프레임 생성(XeSS Frame Generation)’, ‘Xe 저지연(Xe Low Latency)’의 세 가지 기술로 구성되었다. XeSS 초해상도는 지난 2년간 AI 기반 업스케일링을 제공해왔고, 현재 150개 이상의 게임을 지원하는 1세대 XeSS의 기반이 된 핵심 기술이다. 새로운 AI 기반 XeSS 프레임 생성은 광학 플로 및 모션 벡터 리프로젝션을 사용하여 보간(interpolated) 프레임을 추가해 더욱 유동적인 게이밍을 제공한다. 또한 새로운 Xe 저지연 기술은 게임 엔진과 통합되어 게이머의 입력에 더 빠르게 반응한다. 세 가지 기술이 모두 활성화된 XeSS 2는 초당 프레임(fps)을 최대 3.9배 이상 끌어올려 까다로운 AAA급 게임에서도 고성능을 제공할 수 있다는 것이 인텔의 설명이다. 새로운 인텔 아크-B 시리즈 GPU는 이전 세대 대비 Xe 코어당 성능은 70%, 와트당 성능은 50% 향상되었다. B580 GPU는 인텔 아크 A750 GPU와 비교시 1440p에서 평균 24% 더 빠르고 일부 게임에서는 최대 78% 더 빠른 속도를 보였다. 인텔은 “경쟁 제품과 비교 시 인텔 아크 B580 GPU가 가격 대비 최대 32%더 높은 성능을 제공한다”고 주장했다. 인텔 아크 B580은 12GB 전용 GPU 메모리를, 인텔 아크 B570은 10GB 전용 GPU 메모리를 탑재했으며, 게이머들은 AI 기반 XeSS 2 기술을 통해 1440p 초고화질 설정에서 고성능 게임을 기대할 수 있다. 한편, 새로운 인텔 그래픽 소프트웨어는 색상 및 스케일링 모드와 가변 주사율(VRR) 지원을 포함한 디스플레이 설정에 접근할 수 있게 하며, 프레임 제한 및 드라이버 수준의 저지연 모드를 포함한 3D 그래픽 설정도 제공한다. 성능 제어 기능으로는 기본 및 고급 오버클럭 설정과, 프레임 생성 및 지연 측정을 지원하는 오픈소스 프레젠트몬(PresentMon) 기반의 메트릭스 기능이 포함되며, 프레임 생성 및 지연 시간 측정도 지원된다. 인텔은 아크 B580 한정판 그래픽 카드 및 에이서, 애즈락, GUNNIR, 오닉스, 맥스썬, 스파클의 보드 파트너 모델이 12월 13일부터 구매 가능하다고 밝혔다. 시작 가격은 249 달러이다. 인텔 아크 B570 그래픽 카드는 2025년 1월 16일 219 달러부터 구매 가능하다. 인텔의 비비안 리엔(Vivian Lien) 클라이언트 그래픽 부문 총괄 매니저는 “새로운 인텔 아크 B-시리즈 GPU는 게이머를 위한 업그레이드 제품이다. 이 제품은 XeSS 2, 2세대 레이 트레이싱 엔진, XMX AI 엔진을 통한 뛰어난 1440p 게이밍 경험과 최고의 가격 대비 성능을 제공한다”고 전했다.
작성일 : 2024-12-04
SAS, 2025년 인공지능 트렌드 전망 발표
SAS가 ‘2025년 인공지능(AI) 트렌드 전망’을 발표했다. 최근 몇 년간 AI가 기술 산업의 화두로 주목받아 왔으며, 이러한 흐름은 2025년에도 지속될 것으로 보인다. SAS는 2025년에는 산업별로 특화된 분석 모델 활용, 규제 문제, 환경적 지속가능성 등 다양한 AI 관련 이슈가 주목받을 것으로 예상했다. SAS 경영진과 전문가들이 분석한 2025년 AI 트렌드와 주요 비즈니스 및 기술 발전에 대한 9가지 전망은 ▲빠른 모델 학습으로 AI 탄소 발자국 감소 ▲AI 공격 대비 및 윤리적 사용 ▲불량 데이터로 AI 성능 저하 ▲생성형 AI의 실질적 가치에 집중 ▲클라우드/AI의 환경 영향에 대한 책임 ▲기업의 경쟁력으로 자리잡는 AI ▲LLM의 상품화 및 전문화 ▲ 클라우드 네이티브 AI에 따른 IT 합리화 ▲마케팅을 위한 생성형 AI의 고도화  등이다. 생성형 AI가 ‘일상적인 AI’로 자리 잡으면서, 기업은 모든 형태의 AI를 완전하게 운영할 수 있게 돼 반복적인 업무를 자동화하고 직원들이 더 중요한 업무에 집중할 수 있도록 할 것이다. 이러한 자동화는 기업이 더 빠르게 의사 결정을 내리고 기회를 포착하며 더욱 많은 혁신을 이루게 한다. 2025년에는 생성형 AI를 활용해 고객 경험과 제품 혁신 등에서 경쟁 우위를 확보하는 기업이 나타나는 반면, AI 경쟁에서 뒤처지는 기업도 있을 것이다.  생성형 AI에 대한 과도한 기대감을 내려놓고 실질적인 비즈니스 가치를 창출하는 데에 집중해야 하는 시점이다. 기업은 접근 방식, 거버넌스, 산업형 맞춤형 모델, 대규모 언어 모델(LLM)과 전문화된 소규모 언어 모델(SLM)의 전략적 선택으로 AI에 접근하고 있다. 또한 적용 업무에 따라 생성형 AI의 한계 및 환각 현상을 극복하기 위해 생성형 AI와 전통적 AI/ML을 선택 또는 조합하는 확장된 접근 방식을 택하는 기업도 늘어갈 것이다.   에너지를 많이 소비하는 AI는 지속가능한 에너지원에 대한 수요를 촉진하는 한편, 에너지 효율이 좋은 AI 모델 개발의 필요성을 더욱 높일 것으로 보인다. 클라우드에 최적화된 데이터 및 AI 플랫폼을 활용해서 AI 모델 개발의 효율성을 높이면 불필요한 중복 작업과 자원 낭비를 줄이고 에너지 소비를 최소화하는데 기여할 수 있다. 이와 함께 하드웨어 제공업체와 대형 클라우드 서비스 제공업체뿐 아니라 데이터와 AI 워크로드를 관리하는 AI 사용자들에게도 환경 영향을 줄이기 위한 공동 책임이 요구될 것으로 보인다. 불량 데이터는 AI의 성능을 저해하며, 조직은 근본적인 데이터 문제부터 해결하기 위해 노력해야 한다. 허위 정보 증가와 사회적 규범 조작 등 AI 공격에 대비해 민주주의 사회와 정부는 건전한 사회적 논의와 선거를 보호하고, 문화적 규범을 유지하기 위해 노력해야 한다. 또한 기업은 조직의 가치를 확고히 하고 AI 원칙, 정책, 기준, 통제 방안을 강력히 추진하며, 조직 내 AI의 윤리적 사용에 대한 논의를 주도해야 한다.  기업은 클라우드를 활용해 IT 인프라와 공급업체 관계를 간소화하고, 비즈니스 속도를 높이며 비용을 절감하는 ‘IT 합리화(Great IT Rationalization)’ 시대를 맞이하고 있다. 여러 기능을 지원하는 클라우드 네이티브의 AI 기반 플랫폼 환경에서 현대화를 추진하는 기업은 큰 가치를 창출할 수 있으며, 고객 수명주기와 기업 전반에 걸쳐 통합되고 민주화된 데이터 및 의사결정 역량을 확보할 수 있다. SAS는 2025년에는 LLM이 상품화되면서 기본 기능이 무료로 제공됨에 따라 AI 과금 모델이 붕괴할 것으로 전망했다. 또한, 오픈소스 LLM의 확산은 주요 제공업체의 지배적 지위를 약화시키고, 맞춤화와 통합이 핵심 차별화 요소가 될 분산형 AI 환경을 촉진할 것이다. 한편으로, 마케팅 담당자들은 단순한 활용에서 나아가 더욱 고도화된 AI 기술을 적극 도입할 것이다. LLM을 넘어 머신러닝, 딥러닝과 같이 보편화된 AI 기술뿐만 아니라 합성 데이터, 디지털 트윈과 같은 생성형 AI 도구를 활용해 고객의 개인정보를 보호하면서도 개인화된 경험과 효과적인 캠페인을 제공할 수 있을 전망이다. SAS코리아의 이중혁 대표이사는 “AI와 클라우드 기술은 이제 기업 경쟁력의 핵심 요소다. 이러한 기술의 윤리적 사용과 지속가능성은 더 이상 선택이 아닌 필수 과제”라며, “기업이 비즈니스 경쟁력을 확보하려면 개인화되고 고도화된 AI를 바탕으로 더 나은 서비스와 의사결정을 통해 실질적인 가치를 창출하는 동시에 윤리적이고 환경적인 책임을 다해야 한다”고 말했다. 그는 또 “SAS는 AI 및 분석 분야의 선두 기업으로서, 데이터 분석 플랫폼인 ‘SAS 바이야(SAS Viya)’를 통해 신뢰할 수 있는 AI 구축을 적극 지원함으로써 기업의 경쟁력 강화, 리스크 최소화 및 수익성 극대화, 그리고 사업 운영의 회복탄력성 증대에 이르기까지 전사 차원의 효율적인 AI 활용과 비즈니스 목표 달성을 돕겠다”고 덧붙였다.
작성일 : 2024-11-26
레드햇, 애저에서 RHEL AI의 AI 모델 개발 및 배포 간소화 지원
레드햇은 클라우드에서의 인공지능(AI) 및 생성형 AI 배포를 간소화하고 확장하기 위해 마이크로소프트와의 협력을 확대한다고 발표했다. 이번 협력을 통해 레드햇 엔터프라이즈 리눅스 AI(RHEL AI)는 마이크로소프트 애저 환경에서 실행 가능하도록 최적화되고 검증된 파운데이션 모델 플랫폼으로써 제공되며, 애저 마켓플레이스(Azure Marketplace)를 통해 BYOS(Bring-Your-Own-Subscription) 제품으로 제공될 예정이다. 파괴적 혁신이 끊임없이 일어나는 산업 환경에서 조직이 새로운 기능을 신속하게 통합하고 지원할 수 있는 적응형 기술 스택을 도입하고 유지하는 것은 매우 중요하다. 이는 특히 애플리케이션과 데이터, 플랫폼, 인프라를 아우르는 AI 지원 기술을 필요로 하는 AI 기반 비즈니스로 전환하는 조직에 더욱 중요하다. MS 애저용 RHEL AI는 조직이 하이브리드 클라우드 환경에서 생성형 AI 모델을 더욱 원활하게 구축, 테스트, 배포하는 데 필요한 일관성과 확장성을 제공한다. RHEL AI는 엔터프라이즈급 오픈소스 라이선스 그래니트(Granite) 모델로 생성형 AI 혁신을 지원하는 파운데이션 모델 플랫폼으로, 인스트럭트랩(InstructLab) 도구를 통해 기업의 프라이빗 데이터와 사용 사례에 맞춘 모델 조정을 간소화한다. 또한 RHEL AI는 동일한 도구와 개념을 사용하여 이러한 모델을 대규모로 조정(tuning)하고 서비스할 수 있도록 레드햇 오픈시프트 AI(Red Hat OpenShift AI)로 바로 이동 가능한 경로를 제공한다. MS 애저에서의 RHEL AI 제공은 조직이 비즈니스 요구 사항을 충족하기 위해 오픈소스의 힘을 활용할 수 있도록 돕는 레드햇과 MS 간의 오랜 협력 관계를 기반으로 한다. RHEL AI는 양사가 공동으로 개발하고 지원하는 완전 관리형 턴키 애플리케이션 플랫폼인 레드햇 오픈시프트 AI 및 애저 레드햇 오픈시프트(Azure Red Hat OpenShift) 등 다른 제품들처럼 MS 애저에서 사용 가능한 최신 AI 최적화 레드햇 제품이다.
작성일 : 2024-11-22
알테어, 엔비디아와 협력해 AI·HPC 워크로드 성능 향상
알테어가 자사의 설계 및 시뮬레이션 플랫폼인 ‘알테어 하이퍼웍스’에서 엔비디아 그레이스 CPU 및 그레이스 호퍼 슈퍼칩 아키텍처를 지원한다고 밝혔다. 엔비디아 그레이스 및 그레이스 호퍼 아키텍처는 고성능 컴퓨팅(HPC)과 AI 워크로드를 위해 설계되었으며 성능, 효율성, 확장성을 향상시킨다. 이를 통해 전력 제약이 있는 데이터 센터에서도 대규모 시뮬레이션을 원활히 실행할 수 있도록 지원한다. 일례로, 레노버는 알테어의 충돌 해석 오픈소스 소프트웨어인 ‘오픈라디오스’를 활용한 테스트에서 엔비디아 그레이스 CPU가 기존 서버 구성 대비 최대 2.2배 높은 에너지 효율성을 기록했다고 밝혔다.     이번 협력을 통해 알테어는 AI와 고성능 컴퓨팅(HPC) 워크로드의 처리 속도를 높이면서, 복잡한 시뮬레이션과 대규모 데이터 처리 작업에서 더 우수한 성과를 실현할 수 있을 것으로 보고 있다. 알테어의 내부 테스트 결과, 엔비디아 그레이스 호퍼 GPU 시리즈는 이전 세대 대비 최대 2배 빠른 시뮬레이션 속도를 구현했으며, 이를 통해 알테어 솔버의 실행 시간을 단축할 수 있음을 입증했다. 이번 협업으로 하이퍼웍스 사용 고객은 엔비디아의 최신 CPU와 GPU 하드웨어를 활용하여 시뮬레이션과 설계 작업을 더욱 빠르고 효율적으로 수행할 수 있게 되었다. 이는 특히 복잡한 시뮬레이션이나 대규모 데이터 처리가 필요한 작업에서 향상된 성능과 효율을 제공한다. 현재 엔비디아 그레이스와 그레이스 호퍼 아키텍처를 지원하는 알테어 솔루션은 ▲옵티스트럭트 ▲라디오스 ▲오픈라디오스 ▲울트라플루이드엑스 ▲나노플루이드엑스 ▲PBS프로페셔널 ▲그리드엔진 등이 있다. 알테어의 샘 마할링감 최고기술책임자(CTO)는 “그레이스와 그레이스 호퍼 아키텍처에서 알테어 솔루션이 최고의 성능을 발휘한 것은 고객 요구에 부응하기 위해 꾸준히 노력해 온 결과”라면서, “엔비디아의 혁신적인 CPU와 GPU 기술을 활용해 뛰어난 성능과 에너지 효율성을 제공하며 AI 혁신을 선도할 것”이라고 밝혔다. 엔비디아의 팀 코스타 HPC 및 양자 컴퓨팅 담당 이사는 “이번 협력은 엔비디아와 알테어가 CAE 워크로드 가속화를 위해 수 년간 노력해온 성과”라면서, “그레이스 CPU 및 그레이스 호퍼 슈퍼칩 아키텍처에서 알테어의 강력한 소프트웨어를 활용함으로써, 다양한 산업 분야에서 혁신을 촉진하고 설계 가능성을 크게 확장할 수 있을 것”이라고 말했다.
작성일 : 2024-11-21
레드햇, RHEL 9.5 출시와 함께 리눅스 자동화 확장
레드햇은 레드햇 엔터프라이즈 리눅스(Red Hat Enterprise Linux, 이하 RHEL) 9.5의 정식 출시를 발표했다. RHEL은 애플리케이션과 워크로드를 비용은 절감하면서 보다 빠르고 안정적으로 배포할 수 있도록 한다. 하이브리드 클라우드 배포 전반에서 효과적으로 워크로드를 관리할 수 있도록 하고, 데이터센터에서 퍼블릭 클라우드, 에지에 이르기까지 IT 리스크 완화를 지원한다. IDC의 연구에 따르면, 조직은 시간과 자원이 부족한 상황에서 리눅스 운영 체제 환경을 유지 관리하고 지원하는 워크로드 간의 균형을 맞추는데 계속해서 어려움을 겪고 있다. 클라우드와 인공지능(AI), 머신러닝(ML)과 같은 차세대 워크로드의 확산으로 상황은 더욱 복잡해지고 있다. RHEL 표준화는 운영체제를 통합하고, 확장 및 프로비저닝과 같은 수동 작업 자동화하며, 배포의 복잡성을 줄여 IT 인프라 관리 관리팀의 민첩성을 향상시켰다. 그 결과, 인프라 팀은 비즈니스 및 인프라 혁신에 26% 더 많은 시간을 할애할 수 있게 됐다. RHEL 9.5는 ▲강화된 보안 및 컴플라이언스 관리 기능 제공 ▲자동화를 통한 복잡성 감소 ▲대규모 앱 배포를 위한 보다 신속한 하이브리드 클라우드 운영 등을 통해 AI부터 에지 컴퓨팅에 이르는 급속한 IT 혁신을 지원하는 운영 체제에 일관성과 향상된 기능을 제공한다. RHEL 시스템은 RHEL 구독에 포함된 레드햇 앤서블 콘텐츠(Red Hat Ansible Content) 컬렉션으로, 일상적인 관리 작업을 자동화해 조직이 보다 일관된 구성과 대규모 워크플로를 제공할 수 있게 돕는다. RHEL 9.5는 리눅스의 명령줄(커맨드 라인) 유틸리티인 ‘sudo’의 신규 기능을 포함한 여러 시스템 역할을 추가해 sudo 구성을 대규모로 자동화한다. 이는 적절한 규칙 관리 가드레일을 통해 관리자용 커맨드를 일반 사용자가 실행할 수 있게 한다. 높은 권한의 사용자는 자동화로 환경 전체에 걸쳐 sudo 구성을 더 일관되고 안전하게 구현할 수 있어, 조직이 비즈니스 전반의 복잡성을 감소시킬 수 있다. 또한 기밀 컴퓨팅(confidential computing) 플랫폼 지원 확대로 AI 워크로드의 데이터를 보호하고 내부자 위협을 낮출 수 있다. 기밀 컴퓨팅은 민감한 데이터를 보거나 변조하는 잠재적 위협을 방지함으로써 기업은 데이터 세분화를 유지하고 데이터 규정을 준수하는 동시에 대량의 데이터를 검토하는데 AI를 더 안전하게 사용할 수 있다. RHEL 관리 도구는 시스템 관리를 단순화해 조직의 수동 작업 자동화, 대규모 배포 표준화, 시스템 복잡성 감소를 지원한다. 또한, RHEL 9.5는 웹 콘솔에 새로운 파일 관리 기능을 제공해 사용자가 명령줄을 사용하지 않고도 파일 시스템 검색, 파일 업로드 및 다운로드, 권한 변경, 디렉토리 생성과 같은 파일 관리 작업을 수행할 수 있도록 지원한다. RHEL 9.5는 오픈소스 컨테이너 엔진의 최신 버전인 포드맨(Podman) 5.0 기능 포함 및 지원을 통해 플랫폼 수준에서 컨테이너 네이티브 혁신을 촉진한다. 포드맨은 개발자에게 리눅스 환경에서 컨테이너를 구축, 관리 및 실행하기 위한 오픈소스 도구를 제공한다. 이번 주요 출시에서는 포드맨 팜 빌드를 도입해 개발자가 단일 명령으로 원격 머신에서 멀티 플랫폼 이미지를 빠르게 구축할 수 있게 한다. 조직은 다양한 플랫폼에서 애플리케이션을 효율적으로 테스트하고 배포해 개발 시간을 단축하고 이식성을 향상시킬 수 있다. RHEL 9.5의 애플리케이션 스트림은 혁신적인 애플리케이션을 구동하는데 필요한 선별된 최신 개발자 도구, 언어 및 데이터베이스를 제공한다. 또한 RHEL 9.5은 포스트그레SQL용 PG벡터(PG Vector for PostgreSQL), 노드js(Node.js), GCC툴셋, 러스트(Rust) 툴셋 및 LLVM 툴셋의 신규 버전을 포함한다. 또한, RHEL 9에서 유지관리가 종료된 자바 개발 키트(JDK) 11은 레드햇에서 지원하며, 해당 패키지를 계속 사용할 수 있다. JDK 17은 최신 자바 애플리케이션 구축 및 관리를 위한 신규 기능과 도구를 제공하며 이전 버전과의 호환성을 유지해 애플리케이션과 사용자가 일관성 있게 JDK 업그레이드를 유지할 수 있게 한다. 
작성일 : 2024-11-18
델 테크놀로지스, 에지의 AI 활용 고도화하는 ‘네이티브엣지’ 소프트웨어 기능 확대
델 테크놀로지스는 에지에 AI를 구축하고 확장해 사용하는 방법을 간소화하도록 고안된 ‘델 네이티브엣지(Dell NativeEdge)’ 에지 운영 소프트웨어 플랫폼의 기능을 확대하고 고도화했다고 밝혔다. 가트너에 따르면 2025년까지 기업에서 관리하는 데이터의 50% 이상이 데이터센터 또는 클라우드 외부에서 생성 및 처리될 것으로 전망된다. 에지로의 이동이 늘어나고 AI가 새로운 에지 워크로드를 증폭시킴에 따라, 여러 곳의 에지 위치에 지속적으로 AI 모델을 구축하고 관리할 수 있는 민첩하고 안전한 연결형 시스템 수요가 증가하는 추세이다. 델 AI 팩토리(Dell AI Factory)의 일부이자 에지 운영 소프트웨어 플랫폼인 델 네이티브엣지는 이러한 요구에 대응하고, AI 소프트웨어 통합 및 고가용성 기능을 제공함으로써 기업 및 기관이 에지에서 AI를 구축하고 관리하는데 있어 회복탄력성과 안정성을 높인다.  델 네이티브엣지는 대규모의 안전한 디바이스 온보딩, 원격 관리 및 멀티클라우드 애플리케이션 오케스트레이션을 제공하는 에지 운영 소프트웨어 플랫폼이다. 이번 업데이트를 통해 델 네이티브엣지는 델 파워엣지(Dell PowerEdge) 서버, 옵티플렉스(OptiPlex) 및 프리시전(Precision) 워크스테이션과 델 게이트웨이(Dell Gateways) 등의 네이티브엣지 엔드포인트(NativeEdge Endpoint)에 대한 멀티 노드 고가용성 클러스터링을 지원한다. 네이티브엣지 소프트웨어를 이용해 엔드포인트를 클러스터링해 마치 단일 시스템과 같이 운영하면, 네트워크 중단이나 디바이스 장애 발생시에도 중요한 비즈니스 프로세스와 에지 AI 워크로드를 지속할 수 있는 고가용성 기능을 활용할 수 있다. 가상 머신(VM) 마이그레이션과 자동 애플리케이션, 컴퓨팅 및 스토리지 페일오버(failover)를 통해 안정성 및 지속적인 운영을 향상시킨다. 델은 “네이티브엣지가 소매/유통점에서부터 거대 유틸리티 업종(전력, 가스, 수도 등)에 이르기까지 다양한 환경에서 변화하는 워크로드 수요에 간편하게 대응할 수 있다”면서, “네이티브엣지 엔드포인트를 델 파워스토어(Dell PowerStore) 및 델 파워볼트(Dell PowerVault) 등의 외장 스토리지 설루션과 통합해 에지에 싱글 티어, 2개 티어, 3개 티어 등 다양한 설루션에서 AI 모델 트레이닝 및 구축이 가능하다”고 설명했다. 에지에서 AI 추론을 구현하는 경우 많게는 수백 개의 에지 위치에 AI 애플리케이션과 설루션을 구축하기 위해 많은 시간과 노력이 필요할 수 있다. 델은 55개 이상의 사전 제작된 ‘델 네이티브엣지 블루프린트(Dell NativeEdge Blueprints)’로 구성된 포괄적인 카탈로그를 제공하여, AI 애플리케이션과 프레임워크를 신속하게 구축하고 비즈니스에 적용할 수 있도록 지원한다는 점을 내세운다. 네이티브엣지 블루프린트를 사용하면 새로운 활용 사례와 AI 추론 기능을 에지에서 손쉽게 조합하고 구축할 수 있으며, 매뉴얼 셋업에 소요되는 시간과 오류를 줄여준다. 델은 ▲에지 사용 사례에 맞춤화된 오픈소스 도구로 AI 설루션의 빠르고 효율적인 구축 지원 ▲통합 운영, 빌딩 시스템, 마스터 플랜, 지능형 도시 모빌리티 및 중요 연결성 등 도시 인프라 현대화 촉진 ▲소매점 운영에 실시간 분석을 사용한 매장 내 쇼핑객 경험 향상 ▲빠른 속도로 센서 및 IoT 디바이스에서 데이터를 수집 및 다양한 위치 ▲에지에서 컴퓨터 비전 AI 모델 개발 가속화 ▲에지에서 AI 추론 기능을 보다 효율적이고 안전하게 배포 및 수동 설정 시간 단축과 오류 최소화 등 카탈로그를 확장하고 있다고 밝혔다. 델 네이티브엣지의 업데이트 기능은 2025년 1월에 제공될 예정이며, 델 네이티브엣지 고객은 델을 통해 엔비디아 GPU용 엔비디아 AI 엔터프라이즈(NVIDIA AI Enterprise) 라이선스를 구매하고 활성화할 수 있다. 한국 델 테크놀로지스의 김경진 총괄사장은 “AI는 전례 없는 속도로 새로운 에지 워크로드와 기회를 가속하고 있다. 다양한 산업 분야에서 에지에 AI를 보다 간편하고 안정적으로 사용할 수 있는 방법을 찾고 있는 상황”이라고 설명하며, “네이티브엣지는 비즈니스 연속성을 지원하는 기능을 통해 에지 AI 워크로드의 배포 및 관리를 자동화하므로, 기업에서는 최신 AI 기술을 활용하여 매출 성장을 도모하고 긍정적인 고객 경험을 창출할 수 있다”고 말했다.
작성일 : 2024-11-13
대규모 언어 모델의 핵심 개념인 토큰, 임베딩과 모델 파인튜닝에 대해
BIM 칼럼니스트 강태욱의 이슈 & 토크   이번 호에서는 LLM(대규모 언어 모델)의 자연어 처리에서 핵심 기술인 토큰, 임베딩 및 모델 파인튜닝의 이해를 위한 개념과 임베딩 모델의 동작 메커니즘을 살펴본다. 여기서 토큰은 문장을 구성하는 단어로 가정하면 이해하기 쉽다. 토큰과 임베딩은 입력 시퀀스에 대한 출력을 학습, 예측할 때 훈련의 전제가 되는 LLM의 기본조건이다. 이에 대해 좀 더 깊게 이해해 보자.    ■ 강태욱  건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다.  페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com  홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast    최근 대규모 언어 모델(LLM : Large Language Model)과 검색 증강 생성(RAG : Retrieval-Augmented Generation) 기술을 이용해 다양한 전문가 서비스 에이전트를 개발하는 사례가 많아지고 있다. 특히, 전문가처럼 행동하며 문제를 해결하거나 의사결정을 지원하는 멀티 에이전트 기술은 이미 선진국을 중심으로 금융, 제조, 건설 등 엔지니링 분야에 개발되고 있다.    도메인 의존 정보와 토큰  의학과 같은 특별한 분야에서는 환각 현상 등으로 인해 챗GPT(ChatGPT)와 같은 범용 LLM이 제대로 정보를 생성하지 못하는 경우가 많다. 이런 문제를 해결하기 위해 전문 분야의 지식을 기존 LLM 모델을 이용해 재학습하는 방법이 생겨났는데, 파인튜닝은 그 중 한 가지 방법이다.  파인튜닝은 빅테크 업체가 공개한 LLM 모델을 특정 도메인 지식을 잘 표현할 수 있도록 재학습하는 방법 중 하나이다. LLM의 신경망 전체를 재학습하기 위해서는 매우 비싼 GPU 사용 비용이 필요하다. 이는 일반적인 기업에서 수행할 수 없는 수준이다. 이런 이유로, 파인튜닝은 메타에서 공개한 라마(LLaMA)와 같은 파운데이션 LLM 모델의 신경망에 별도의 작은 신경망을 추가해, 이를 별도로 준비된 데이터로 학습하는 방식을 사용한다.  LLM을 파인튜닝하기 전에 어떤 토큰이 사용되었는지, 임베딩 모델이 무엇인지 확인해야 한다. 파인튜닝 시 용어가 LLM에 사전 학습되어 있지 않다면, 용어 간 관계를 통계적으로 추론하는 학습 절차가 매우 비효율적으로 계산된다. 일반적으로 모델을 파인 튜닝하려면 LLM 토큰 확인 및 개발, 임베딩 모델의 적절한 사용이 필요하다.  <그림 1>은 토큰이 수치화된 결과를 보여준다. 참고로, 토큰이 숫자로 표현되지 못하는 문제를 OOV(Out-Of-Vocabulary)라 한다.    그림 1. 숫자 토큰화 결과   임베딩은 학습 모델이 입력되는 문장의 토큰 패턴을 통계적으로 계산하기 전, 토큰을 수치화시키는 함수이다. 이 함수를 임베딩 모델이라 한다. 임베딩 모델은 토큰을 수치화하여 모델 학습에 사용하는데 필요한 입력값을 출력한다. 이런 이유로, 토큰 사전과 임베딩 모델이 다르면 제대로 된 모델 학습, 예측, 패턴 계산 결과를 얻기 어렵다. 임베딩 모델도 별도의 신경망 모델이며 다양한 방식으로 학습될 수 있다. 이번 호에서는 구글에서 공개한 BERT(Bidirectional Encoder Representations from Transformers) 임베딩 모델을 사용한다.  이와 관련된 실험을 하기 위해, 개발 환경을 설치하고 파이썬 코드를 준비해 본다.    개발 환경 준비 미리 컴퓨터에 파이썬, 아나콘다 등 필수적인 라이브러리가 설치되어 있다는 조건에서, 실습을 위해 명령창에서 다음을 실행해 설치한다. pip install transformers torch   참고로, 다음은 파인튜닝에 사용하는 오픈소스 라이브러리를 보여준다. Torch : 텐서 계산 및 딥 러닝을 위한 핵심 라이브러리이다. PEFT : 낮은 순위의 적응 기술을 사용하여 대규모 언어 모델을 효율적으로 미세 조정할 수 있다. 특히 리소스가 제한된 장치에서 학습 가능한 매개 변수의 수를 줄여 모델을 압축하고 더 빠르게 미세 조정할 수 있다. bitsandbytes : 신경망에 대한 양자화 및 이진화 기술을 제공하여 모델 압축을 지원한다. 모델 압축에 도움이 되므로 메모리와 계산 능력이 제한된 에지 장치에 모델을 보다 실현 가능하게 만들 수 있다. Transformers : 대규모 언어 모델 작업을 간소화하여 사전 학습된 모델 및 학습 파이프라인을 제공한다. trl : 대규모 언어 모델의 경우 효율적인 모델 학습 및 최적화에 중점을 둔다. accelerate : 다양한 하드웨어 플랫폼에서 학습 및 추론을 가속화한다. dataset : 기계 학습 작업을 위한 데이터 세트 로드 및 준비를 간소화한다. pipeline : 사용자 지정 학습 없이 일반적인 NLP 작업에 대해 사전 학습된 모델의 사용을 간소화한다. PyArrow : 효율적인 데이터 로드 및 처리를 위해 사용될 수 있다. LoraConfig : LoRA 기반 미세 조정을 위한 구성 매개변수를 보유한다. SFTTrainer : 모델 학습, 최적화 및 평가를 처리한다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2024-11-04
인텔-인플렉션 AI, 기업의 핵심 워크로드 지원하는 엔터프라이즈 AI 솔루션 출시
인텔은 인플렉션 AI(Inflection AI)와 기업과 개발자를 위한 AI 도입 및 영향력을 가속화하기 위해 협력한다고 발표했다. 이번 협력으로 인플렉션 AI는 인텔 가우디(Intel Gaudi)와 인텔 타이버 AI 클라우드(Intel Tiber AI Cloud)를 기반으로 한 엔터프라이즈급 AI 시스템인 ‘인플렉션 포 엔터프라이즈(Inflection for Enterprise)’를 출시한다. 이 시스템은 공감형, 대화형 및 직원 친화적인 AI 기능을 제공하며, 복잡하고 대규모로 배포되는 환경에서 필요한 제어, 맞춤화, 및 확장성을 지원한다. 현재 이 시스템은 AI 클라우드를 통해 제공되며, 2025년 1분기에 가우디 3를 탑재한 AI 어플라이언스로 고객에게 출하할 예정이다. AI 시스템을 구축하려면 일반적으로 광범위한 모델 개발 및 학습은 물론 엔지니어, 데이터 과학자, 애플리케이션 개발자 간의 협업을 포함하는 대규모 인프라가 필요하다. 기업 고객은 인플렉션3.0(Inflection 3.0)을 기반으로 구축된 인플렉션 포 엔터프라이즈를 통해 기업 고유의 데이터, 정책 및 문화에 특화된 가상의 AI 협업 인력으로 직원들의 역량을 강화할 수 있는 포괄적인 AI 솔루션을 활용할 수 있다. 인텔은 “파트너십을 통해 제공되는 가우디3 AI 가속기는 높은 성능과 가격 대비 성능을 제공함으로써 효율적이면서도 최상의 결과를 창출하며, 인텔의 기술은 유연성과 확장성을 보장하여 높은 효과를 발휘한다. 또한, AI 클라우드는 통합된 환경에서 AI 애플리케이션의 구축, 테스트 및 배포를 간소화해 시장 출시 시간을 단축한다”고 설명했다. 이러한 서비스의 가치와 이점을 바탕으로, 인텔과 인플렉션 AI는 인텔이 이 솔루션의 초기 고객이 될 것으로 예상하며, 인텔 내부에 인플렉션 포 엔터프라이즈를 도입하기 위해 협력하고 있다. 인플렉션 AI는 각 조직에 최적화된 모델을 파인 튜닝해 사용자의 빠른 도입을 돕고, 기업의 분위기, 목적, 고유한 제품, 서비스 및 운영 정보와의 일치를 통해 활용 사례의 효용성을 높인다. 인플렉션3.0은 직원들에게 친화적인 생성형 AI 경험을 제공하여 기업 고객이 더 빠르게 가치를 실현할 수 있도록 하며, 가격, 성능, 보안 및 규정 준수 측면에서 이점을 제공한다. AI 클라우드 기반의 인플렉션 포 엔터프라이즈는 기업이 하드웨어 테스트와 모델 구축 단계를 건너뛰고 자본 비용 없이 빠르게 확장할 수 있도록 설계된 애플리케이션 템플릿을 제공한다. 2025년 1분기에는 고객이 완전한 턴키 AI 어플라이언스를 통해 인플렉션 포 엔터프라이즈를 구매할 수 있게 된다.  인플렉션 3.0은 온프레미스 또는 클라우드에서 AI 클라우드로 구동되는 인스턴스와 함께 가우디 3로 구동된다. 이는 배포 시간을 단축시킬 뿐만 아니라 총소유비용(TCO)도 절감한다. 인플렉션 포 엔터프라이즈 모델은 인플렉션 AI의 Pi로 강화된 미세 조정 및 인간 피드백 기반 강화 학습(RLHF) 전문성을 활용하여, 각 비즈니스 철학과 운영 방식에 맞추어 고유하게 조정된다. 기업의 역사, 정책, 콘텐츠, 어조, 제품 및 운영 정보에서 얻은 데이터와 인사이트를 기반으로 모델링된 인플렉션 AI는 조직 전체의 생산성과 일관성을 높이는 데 기여한다. 인플렉션 포 엔터프라이즈는 기업이 모든 지적 자산을 완전하게 소유할 수 있도록 한다. 미세 조정된 모델은 오직 고객만의 소유이며, 조직 외부로 공유되지 않는다. 또한, 고객은 온프레미스, 클라우드, 또는 하이브리드 중 원하는 아키텍처를 선택해 모델을 호스팅하고 실행할 수 있다. 인텔과 인플렉션 AI는 향후 개발자들이 강력하고 인간 중심적인 인플렉션 3.0 시스템을 활용하여 중요한 소프트웨어 도구를 생성할 수 있는 인플렉션 포 엔터프라이즈(Inflection for Enterprise)를 구축할 수 있도록 지원할 예정이다.      인텔의 데이터센터 및 AI 사업을 총괄하는 저스틴 호타드(Justin Hotard) 수석부사장은 “이번 인플렉션 AI와의 전략적 협업을 통해 즉각적이고 높은 영향력을 발휘하는 AI 솔루션의 새로운 기준을 제시하고 있다. 오픈소스 모델과 툴 지원, 그리고 뛰어난 와트당 성능을 자랑하는 인텔 가우디 3 솔루션은 모든 규모의 기업이 생성형 AI를 합리적인 비용으로 쉽고 효율적으로 도입할 수 있도록 지원한다”고 전했다. 인플렉션 AI의 테드 쉘튼(Ted Shelton) 최고운영책임자(COO)는 “CEO나 CTO들과 대화해보면 현재 시장에 나와 있는 AI 툴이 진정한 엔터프라이즈급이 아니라는 점에 대해 불만을 가지고 있다. 엔터프라이즈 조직은 단순한 일반 상용 AI 이상의 것이 필요하지만, 스스로 모델을 파인 튜닝할 전문성이 부족하다. 이번 협력을 통해 이러한 문제를 해결하는 AI 시스템을 제공하게 되었으며, 인텔 가우디에서 얻는 성능 향상을 통해 모든 기업의 요구를 충족하도록 확장할 수 있다”고 말했다.
작성일 : 2024-10-08
LLM RAG의 핵심 기술, 벡터 데이터베이스 크로마 분석
BIM 칼럼니스트 강태욱의 이슈 & 토크   이번 호에서는 대규모 언어 모델(LLM : Large Language Model)의 검색증강생성(RAG : Retrieval-Augmented Generation) 구현 시 핵심 기술인 임베딩 벡터 데이터베이스로 유명한 크로마(Chroma)의 핵심 구조를 간략히 분석한다. RAG는 생성형 AI의 환각현상을 줄여 전문가적인 정보를 생성하는 데에 도움을 준다.  크로마의 동작 방식을 이해하면 LLM 기술 개발 시 이해도와 응용력을 높일 수 있다. 참고로, 벡터 베이터베이스는 다양하게 있으나 크로마는 사용하기 쉽고 오픈되어 있어 현재 많이 활용되고 있다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   그림 1. 벡터 데이터베이스의 종류   크로마는 AI 지원 오픈소스 벡터 베이터베이스로, RAG를 처리할 때 필수로 사용되는 데이터베이스 중 하나이다. 크로마를 이용해 LLM 기반의 다양한 앱(지식 서비스 등)을 개발할 수 있다. 예를 들어, 각종 건설 규정, BIM 관련 지침 등을 요약하고 설명해주는 전문가 시스템을 개발할 때 사용할 수 있다.   그림 2   크로마는 임베딩 벡터를 메타데이터와 함께 저장하고, 질의를 통해 해당 임베딩 도큐먼트를 검색할 수 있다. 크로마는 독립적인 서버로서 동작할 수 있다.   설치 및 사용 윈도우 명령창이나 터미널을 실행한다. 크로마 설치를 위해 다음과 같이 터미널에 명령을 입력한다.    pip install chromadb   벡터 데이터베이스에 저장되는 단위는 다음과 같다.    collection = client.create_collectoin(name='test', embedding_function=emb_fn) collection.add(    embeddings=[       [1.1, 2.3, 3.2],       [4.5, 6.9, 4.4],       [1.1, 2.3, 3.2]    ],    metadatas=[       {"uri": "img1.png", "style": "style1"},       {"uri": "img2.png", "style": "style2"},       {"uri": "img3.png", "style": "style1"}    ],    documents=["doc1", "doc2", "doc3"],    ids=["id1", "id2", "id3"], )   여기에서 보는 것과 같이, 벡터 좌표계에 위치할 임베딩 벡터, 벡터에 매달아 놓을 메타데이터와 도큐먼트, ID를 하나의 컬랙션 단위로 저장한다. 이를 통해 벡터 간 유사도, 거리 등을 계산해 원하는 도큐먼트, 메타데이터 등을 얻을 수 있다. 이 때 임베딩 벡터는 미리 학습된 임베딩 모델을 사용할 수 있다.  질의해서 원하는 벡터를 얻으려면 벡터 공간에서 거리 계산이 필수적이다. 이 때 사용하는 함수는 <그림 3>과 같다.    그림 3   컬렉션에 벡터 추가와 질의는 다음과 같다.    collection.add(    documents=["doc1", "doc2", "doc3", ...],    embeddings=[[1.1, 2.3, 3.2], [4.5, 6.9, 4.4], [1.1, 2.3, 3.2], ...],    metadatas=[{"chapter": "3", "verse": "16"}, {"chapter": "3", "verse": "5"}, {"chapter": "29", "verse": "11"}, ...],    ids=["id1", "id2", "id3", ...] ) collection.query(    query_texts=["doc10", "thus spake zarathustra", ...],    n_results=10,    where={"metadata_field": "is_equal_to_this"},    where_document={"$contains":"search_string"} )   여기서, where의 metadata_field를 이용해 다음과 같은 조건 비교 연산이 가능하다.   $eq, $ne, $gt, $gte, $lt, $lte   그리고, 논리 연산자인 $and, $or를 지원한다. 크로마는 향후 워크플로, 가시화, 질의 계획, 분석 기능을 준비하고 있다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2024-10-07
[피플&컴퍼니] 한국IBM 이은주 사장
AI와 하이브리드 클라우드로 디지털 혁신 지원   한국IBM은 9월 3일 서울 강남구 삼성동 그랜드 인터컨티넨탈 서울 파르나스 그랜드볼룸에서 ‘IBM AI 서밋 코리아 2024’를 개최했다. 이번 서밋에서는 ‘기업 혁신을 극대화하는 AI, 자동화, 하이브리드 클라우드’를 주제로 다양한 논의가 이루어졌다. 또한 AI와 하이브리드 클라우드를 활용한 디지털 혁신의 방향성에 대해 깊이 있는 통찰이 제시됐다. 한국IBM 이은주 사장과 AI 및 클라우드를 통한 디지털 혁신과 향후 전망에 대해 이야기를 나눴다. ■ 박경수 기자   ▲ 한국IBM 이은주 사장   AI를 도입하려는 기업들이 초기에 직면하는 주요 도전 과제는 무엇이며, IBM은 이러한 도전 과제를 어떻게 지원하고 있나 기업이 AI를 도입하는 과정에서 해결해야 하는 과제 중에서 ‘AI 모델’과 ‘데이터’가 가장 기본적인 요소이다. ‘AI 모델’의 경우, 하나의 AI 모델을 적용해서 비즈니스의 모든 문제를 해결하기를 기대하는 경우가 있는데 이는 효율적이지 않은 경우가 많다. 고객 서비스를 위해 챗봇 상담원이 필요한 부서와 애플리케이션을 개발하고 IT 운영을 관리하는 부서에서 필요한 AI 모델이 다르기 때문이다.  IBM 왓슨x는 다양한 오픈소스 AI 모델 중 적용하고자 하는 업무에 맞는 AI 모델을 선택해서 사용할 수 있게 하고 있다. 특히 업무별 특화 모델을 제공해서 대규모 범용 AI 모델을 사용하는 것에 비해 훨씬 저렴한 비용으로 큰 효과를 누릴 수 있도록 하고 있다. 그리고, 기업에서 가장 중요한 신뢰성과 규제, 리스크를 관리할 수 있는 거버넌스를 위한 AI 기술을 제공하고 있다.  AI 프로젝트에서 또 다른 필수 요소는 ‘데이터’이다. 복잡한 비즈니스 환경에서 발생하는 많은 데이터를 어떻게 효과적으로 AI에 학습, 관리, 적용시킬 것인가가 AI 도입의 성공 여부를 결정짓는 요소이다. 이를 위해 IBM은 IBM 데이터 패브릭 아키텍처를 통해 전체 데이터와 AI 라이프사이클을 지원하는 모듈형의 전략적 포트폴리오를 제공하고 있다.    하이브리드 클라우드와 AI가 결합되었을 때 보안 측면에서 기업들이 염두에 두어야 할 핵심 요소는 무엇이며, IBM은 이를 어떻게 해결하고 있는지 신뢰할 수 있는 AI를 구축하기 위해서 데이터 수집과 처리에 대한 데이터 보호, 모델 개발과 훈련에 대한 모델 보호, 모델 추론과 실사용에 대한 활용 보호와 함께, AI 모델이 구축되고 실행되는 인프라에 대한 보호가 필요하다. IBM은 AI를 위한 기업 내 다양한 데이터에 대해 이상 트랜잭션을 실시간으로 감지하고 하이브리드 멀티 클라우드 환경에 대한 중앙집중식 가시성, 제어 및 자동화를 제공하는 가디엄(Guardium)과 같은 보안 솔루션으로 고객을 지원하고 있다.    ▲ 한국IBM 이은주 사장은 IBM 데이터 패브릭 아키텍처를 통해 전체 데이터와 AI 라이프사이클을 지원하는 모듈형의 전략적 포트폴리오를 제공하고 있다고 설명했다.   AI와 자동화가 기업 혁신에 미치는 장기적인 영향은 무엇이라고 보는지. 한국 시장에서는 어떤 산업군이 이러한 혁신을 가장 빠르게 받아들이고 있다고 생각하나 AI는 전례 없는 혁신 기술로 전세계 GDP를 연간 4조 4000억 달러 (한화 약 5800조 원) 증가시킬 것으로 전망된다. 초기 AI가 소비자 영역에서 즐거움과 혁신을 가져왔다면, 비즈니스를 위한 AI는 생산성과 수익 성장을 주도할 것이다. AI는 고객 경험을 향상시키고, 애플리케이션 개발에 있어 생산성을 크게 끌어올릴 뿐 아니라, 디지털 노동에서 수작업을 자동화하고 HR/IT/조달 등 업무 프로세스를 간소화할 것이다. 최근 고객을 만나보면 금융, 제조, 유통, 공공 등 모든 산업에 있는 고객사가 AI 도입에 관심을 가지고 이미 도입하거나 도입을 고려하고 있다. 이는 특정 산업군에서만 발견되는 것이 아니라 전 산업군에서 모두 볼 수 있는 현상이다.    ▲ IBM의 차세대 AI 및 데이터 플랫폼, IBM의 watsonx   IBM AI 서밋에서 소개된 최신 기술 중, 향후 3~5년 내에 가장 큰 변화를 가져올 것이라고 생각하는 기술 또는 개념은 무엇인지 지금 이 시간에도 빠르게 발전하고 있는 AI가 사회적으로나 비즈니스적으로 가장 큰 변화를 가져올 것은 자명하다. AI는 생산성이나 효율성에 있어 그 어떤 기술과 비교할 수 없는 향상을 가져올 것이다. 그러나 향후 4년 내에 최대 10억 개의 관련 앱이 만들어질 것이라는 전망이 있듯이 생성형 AI의 도입은 필연적으로 비즈니스 환경과 운영의 복잡성을 증가시킬 것이다. 따라서 인스타나(Instana), 터보노믹(Turbonomic), 앱티오(Apptio), IBM 콘서트(Concert) 등과 같이 비즈니스 운영상의 복잡성을 해결해주는 AI 기반 자동화 기술의 도입이 가속화되어 애플리케이션 통합 및 현대화 영역의 문제를 해결할 것이다.   AI 솔루션을 도입한 기업이 기존 인프라와의 통합 과정에서 겪는 어려움은 무엇이고, IBM은 이를 어떻게 해결하고 있나 AI와 하이브리드 클라우드는 동전의 양면과 같아서 따로 떼어 생각할 수 없다. 데이터를 저장하는 위치, 접근하고 안전하게 유지하는 방법에 이르기까지 데이터가 중요하기 때문이다. 수익성 있게 생성형 AI를 확장하려면 우연히 갖게 된 하이브리드 클라우드 환경이 아니라 AI에 대해 개방적이고 유연하면서도 신뢰할 수 있는 접근 방식을 지원할 수 있는, 의도적으로 설계된 하이브리드 클라우드 즉 ‘하이브리드 바이 디자인(Hybrid by Design)’ 접근방식이 필요하다.  조사에 의하면, 하이브리드 바이 디자인 접근방식을 취한 기업은 우연히 하이브리드 클라우드를 활용하게 된 기업보다 3배 이상 높은 ROI를 거두는 것으로 나타났다. 실제로, 세계적인 기업인 아우디와 버라이존은 레드햇 오픈시프트 기반의 ‘하이브리드 바이 디자인’ 환경을 갖춰 IT 프로젝트나 5G 네트워크 구축 프로젝트 시 시간과 비용, 효율면에서 뛰어난 성과를 거두었다.   ▲ 생성형 AI로 인해 글로벌 GDP가 약 10조 달러 증가할 것으로 예상된다.   ■ 같이 보기 : [포커스] IBM, 산업 혁신을 돕는 AI와 하이브리드 클라우드 기술 소개     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-10-04