• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "온프레미스"에 대한 통합 검색 내용이 416개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
IBM, 왓슨x에서 미스트랄 라지 AI 모델 지원
IBM은 기업이 고품질, 고성능의 다양한 파운데이션 모델을 폭넓게 이용하고, 자사의 필요에 따라 맞춤형으로 배포할 수 있도록 하기 위한 노력의 일환으로 왓슨x.ai(watsonx.ai)에서 미스트랄 라지(Mistral Large) 모델을 제공한다고 발표했다. 인공지능(AI) 개발자를 위한 IBM의 기업용 AI 스튜디오인 왓슨x.ai는 IBM의 그래니트(Granite) 모델 외에도 다양한 오픈소스 및 상용 모델 선택이 가능하며, 이를 용도에 따라 변형하거나 비즈니스 솔루션 및 애플리케이션과 통합해 사용할 수 있다. IBM은 이미 왓슨x.ai 내에서 기업 환경에 적용할 수 있는 소규모 모델인 Mixtral-8x7B를 제공하고 있다. 이 모델은 IBM이 최적화한 모델로, 주어진 시간 동안 처리할 수 있는 데이터의 양이 기존 모델보다 50% 증가했다. 이번에 새롭게 추가된 미스트랄 라지는 서비스형 소프트웨어(SaaS)로 먼저 제공된다. 이제 왓슨x 고객은 추론과 다국어 기능이 필요한 복잡한 전사적 작업을 처리하도록 최적화된 미스트랄 AI의 가장 강력한 모델을 활용할 수 있다. 검색증강생성(RAG) 전문화를 통해 더 장시간의 채팅 상호작용과 대용량 문서 처리가 가능하며, 사용자 정의 함수나 API와 같은 외부 도구에 연결할 수 있고, 뛰어난 코딩 성능으로 특정 용도에 맞는 애플리케이션을 쉽게 구축할 수 있다. 책임감 있는 AI 구축을 위해 안전장치로 사용할 수 있는 ‘가드레일(guardrail)’ 기능이 내장되어 있기도 하다.     아울러, 기업은 이제 왓슨x 플랫폼에서 미스트랄 라지를 통해 데이터 스토어, 프롬프트 랩, 모델 튜닝, 프로세스 모니터링 및 거버넌스 기능을 포함한 추가적인 엔터프라이즈 지원 제품을 활용할 수 있다. 왓슨x 고객은 특정 플랫폼에 종속되지 않고 온프레미스(사내 서버)나 퍼블릭 클라우드 제공업체 등 원하는 환경에서 왓슨x.ai 내 모델을 배포할 수 있다. 빠르게 변화하는 AI 분야에서 기업이 민첩하게 적응하고 인프라 및 개발에 대한 매몰 투자를 피하려면 유연성이 핵심이기 때문이다. IBM은 왓슨 플랫폼에 미스트랄 AI의 상용 모델을 제공함으로써 개방형 멀티 모델 전략을 더욱 확장하고 기업이 혁신, 변화, 확장할 수 있도록 지원한다는 계획이다. 또, 책임감 있게 기업 혁신에 기여하고자 하는 IBM의 의지를 바탕으로, IBM은 한도형 지적 재산권 보상 제도를 통해 미스트랄 라지에 대한 고객 보호를 제공한다고 밝혔다. 이는 IBM이 자사의 AI 모델인 IBM 그래니트 모델에 대한 고객 보증 제도를 적용한 이래 제3자 파운데이션 모델까지 확대한 첫 번째 사례이다.
작성일 : 2024-07-26
오라클, “오라클 클라우드 VM웨어 솔루션으로 글로벌 기업의 비즈니스 성장 지원”
오라클은 다양한 산업 분야의 글로벌 기업들이 오라클 클라우드 VM웨어 솔루션(Oracle Cloud VMware Solution)을 사용해 기존의 온프레미스 데이터센터 운영을 종료하고, 비즈니스 주요 애플리케이션을 오라클 클라우드 인프라스트럭처(OCI)로 이전한다고 밝혔다. 오라클 클라우드 VM웨어 솔루션은 높은 수준의 확장성과 성능, 보안, 제어를 필요로 하는 기업을 위해 설계됐다. 기업 고객은 자사의 VM웨어 스택 전반에 대한 관리 제어 운영을 위해 클라우드 인프라스트럭처와 VM웨어 콘솔을 직접 관리할 수 있다. 기업은 이로써 기존의 기술과 모범 사례, 도구를 유지하면서 온프레미스의 VM웨어 자산을 클라우드로 신속히 마이그레이션할 수 있게 됐다. 오라클은 이 서비스에 새로운 기능을 지속적으로 추가하기 위해 오라클 클라우드 VM웨어 솔루션용 엔비디아 A10 텐서 코어(NVIDIA A10 Tensor Core) GPU와 인텔 제온 플래티넘 8358 프로세서(Intel Xeon Platinum 8358 Processor)를 갖춘 새로운 OCI 컴퓨트 구성을 발표했다. 또한 AMD 에픽(EPYC) 9J14 프로세서 기반의 또 다른 추가 구성을 출시할 계획이다. 이를 통해 오라클은 고객들에게 광범위한 워크로드 전반에서 추가 컴퓨트 옵션과 향상된 성능을 제공한다는 방침이다.     히타치 건설 기계는 유압 굴삭기, 휠 로더, 도로 시설 및 광산 장비의 개발, 제조, 판매, 임대, 관리 서비스를 제공하며 전세계에서 40만 대 이상의 건설 장비를 운용 중인 글로벌 기업이다. 히타치 건설 기계는 디지털 전환 전략의 일환으로 약 500대의 가상 서버와 100개의 데이터베이스를 온프레미스 VM웨어 가상화 환경에서 OCI 상의 오라클 클라우드 VM웨어 솔루션과 오라클 엑사데이터 데이터베이스 서비스(Oracle Exadata Database Service)로 마이그레이션 중에 있다. 히타치 건설 기계는 이를 통해 이미 인프라 운영 비용을 20% 절감하고, 온라인 트랜잭션 처리 성능을 50%, 배치 처리 성능을 60% 개선했다. 렘트랜스는 우크라이나의 철도 차량 민간 운영사로, 연간 5천2백만 톤 이상의 화물을 운송하는 1만 5000대 이상의 무개 화차를 운영하고 있다. 열차 일정 관리, ID 및 액세스 관리 등 핵심 프로세스 및 데이터베이스를 클라우드로 긴급하게 전환해야 했던 렘트랜스는 오라클 클라우드 VM웨어 솔루션을 통해 데이터 및 애플리케이션을 우크라이나 외부로 신속하게 이전해 데이터 복원력을 높이고 자사의 IT 투자를 보호할 수 있었다. 마츠다 모터스 로지스틱스 유럽 N.V.(MLE)는 유럽 고객에게 차량 및 부품을 유통하는 업무를 담당하고 있다. MLE는 유럽 30여 개국의 2300여 개 이상의 딜러 및 독립 유통업체에 직접 예비 부품을 공급하고 바르셀로나, 앤트워프, 제브뤼주 항구로 차량을 배송하여 유럽 전역에 유통한다. 회사는 데이터센터를 단계적으로 축소하고 운영을 현대화한다는 목표를 달성하기 위해 500개의 VM웨어 가상머신을 마이그레이션하고 오라클 엑사데이터 시스템을 OCI 기반 엑사데이터 데이터베이스 서비스에서 실행되는 80개의 오라클 데이터베이스에 통합했다. MLE는 또한 자사의 비즈니스 크리티컬 애플리케이션을 오라클 클라우드 VM웨어 솔루션의 12개 호스트를 갖춘 여러 소프트웨어 정의 데이터센터(SDDC)로 통합했다. 그 결과 MLE는 프랑크푸르트에 있는 2개의 데이터센터 운영을 종료하면서도 높은 수준의 애플리케이션 맞춤화 및 데이터베이스 호환성을 유지할 수 있었다. 아홀드 델레이즈는 세계 최대 규모의 식료품 리테일 기업으로, 16개의 지역별 브랜드와 7,700개의 매장, 40만명 이상의 직원을 보유하고 있다. 수년간 자체 온프레미스 VM웨어 환경 및 그 운영을 뒷받침하기 위한 여러 IT 시스템과 솔루션을 운영해 온 아홀드 델레이즈는 VM웨어에서 오라클 핵심 비즈니스 프로세스용 애플리케이션과 타사 앱을 실행하며 비교해본 후 성능 개선 및 비용 절감을 위해 클라우드로의 마이그레이션을 결정했다. 이후 회사는 자사의 네덜란드 핵심 로컬 브랜드인 앨버트 하인, 에토스, 갤앤갤을 시작으로 전자상거래 및 공급망, 리테일 프로세스를 지원하는 400개 이상의 VM웨어 가상머신(VM)을 오라클 클라우드 VM웨어 솔루션으로 마이그레이션했다. 이를 통해 남아 있던 데이터센터 상면공간을 제거하고 자사의 VM웨어 환경에 대한 전반적인 관리 제어 권한을 유지할 수 있게 되었다.  오라클의 마헤쉬 티아가라얀(Mahesh Thiagarajan) OCI 총괄 부사장은 “VM웨어 자산을 클라우드로 옮겨 운영하기를 원하는 많은 기업들이 새로운 운영방식으로 인해 IT 기술을 배워야 한다는 부담감을 느끼고 있다”면서, “오라클 클라우드 VM웨어 솔루션은 조직이 VM웨어 클러스터를 완벽하게 제어하고 기존의 도구, 기술, 프로세스를 유지해줘 재교육에 대한 부담을 덜 수 있도록 지원한다. 오라클의 솔루션은 고객이 온프레미스 VM웨어 클러스터와 동일한 운영 모델을 유지할 수 있게 하기 때문에, 클라우드를 통한 시스템 현대화 추진 시 위험성이 낮은 접근 방식”이라고 설명했다.
작성일 : 2024-07-22
[포커스] AWS-에티버스, “클라우드∙AI∙디지털 트윈이 제조 엔지니어링의 미래 이끈다”
AWS(아마존웹서비스)와 국내 AWS 총판인 에티버스(ETEVERS)는 6월 21일 제조 산업의 디지털 혁신을 주제로 ‘AWS 파트너 클라우드 솔루션 콘퍼런스’를 진행했다. 이번 행사에는 엔비디아, 메가존클라우드 외에도 KT, LG CNS, GS네오텍, LS ITC, LS 일렉트릭 등의 대기업 SI 계열사와 지멘스, 앤시스, 두산, 스노우플레이크 등 각 산업 분야 대표 기업들도 참여, 클라우드 사례를 소개하고 관련 제품을 전시했다. ■ 최경화 국장     이번 콘퍼런스에서는 AWS 파트너사의 전문성과 경험을 바탕으로 제조 산업의 중요 워크로드 혁신과 디지털 전환 사례들이 공유되었으며, AWS 클라우드 기반의 첨단 기술과 성공 사례, 제조 산업 혁신을 위한 노하우 등이 소개되었다. 행사의 첫 번째 기조연설에서는 AWS가 ‘제조 경쟁력 강화를 위한 클라우드 기반 제조 혁신 사례’와 ‘디지털 제조 혁신을 가속화하는 AWS 파트너 솔루션’에 대해 소개했다.  AWS의 정승희 제조 헤드(Head of Manufacturing)는 “빅데이터 분석, 인공지능, 사물인터넷(IoT), 생성형 AI 등 다양한 클라우드 기술이 제품 설계, 공정 최적화, 수요 예측, 공급망 최적화, 새로운 비즈니스 모델에 적용되고 있다”면서, 제조업체 혁신 사례를 통해 얻은 비용 절감, 신제품 개발 주기 단축, 품질 향상 등의 구체적인 성과에 대해 소개했다. AWS의 김상현 제조 세일즈 수석 파트너(Senior Partner Sales for Manufacturing)는 “AWS는 고객의 신속한 클라우드 도입과 디지털 전환을 지원하기 위해 전 세계 수천 개의 파트너사와 협력하여 클라우드 기반의 제조 특화 솔루션을 제공하고 있다. 이를 통해 고객은 별도의 개발이나 인프라 구축 없이도 원하는 솔루션을 즉시 사용할 수 있으며, 기존의 온프레미스 솔루션도 클라우드로 이전하여 유연하게 운영할 수 있다”고 밝혔다. 에티버스의 김준성 전무는 ‘제조 고객을 위한 클라우드 전환 전략’에 대해 발표하면서 “지금 전 세계는 디지털 전환을 넘어서 현대화(Modernization) 및 생성형 AI(Gen AI)가 새로운 화두로 등장하고 있다. 제조 분야도 이러한 변화에서 예외일 수 없으며, 생존을 위해서는 클라우드를 기반으로 한 혁신적이고 획기적인 변화가 동반되어야 한다. 하지만, 우리는 아직도 클라우드로의 전환을 망설이고 있거나 효과적인 방법을 몰라 제대로 실행하지 못하고 있다”고 말했다. 또한, “에티버스는 1993년 설립된 이래 지난 해 1조 5000억원의 매출을 올렸으며, 5500여 협력 파트너를 가지고 있다”면서, 각 특화 분야별 전문 클라우드 파트너를 통한 클라우드 전환 방법 및 성공 사례를 통해 안정적이고 확실한 클라우드 전환 여정에 대해 소개하고, 파트너 비즈니스 효율을 높이는 디지털 전환 컨설팅을 제안했다.     메가존클라우드는 ‘작고 빠르게 시작하는 제조업의 생성형 AI 도입 전략’에 대해 소개했다. 메가존클라우드의 공성배 전무는 “생성형 AI는 정보 유출 또는 거버넌스 통제력 약화 등의 부작용이 우려되지만, 업무 생산성과 효율을 높이는 긍정적인 효과를 무시할 수 없는 단계에 진입했다. 생성형 AI 기술을 문화적으로 안착시키려면 조직 차원의 수용이 필요하고, 작은 영역부터 적용해 보는 것이 중요하다”면서, 그간의 경험 및 고객들과의 만남을 바탕으로 ‘작게 시작하여 점차 넓혀가는 방식’으로 기업을 위한 생성형 AI 도입을 제안했다. 엔비디아의 정구형 팀장은 ‘엔비디아 옴니버스(NVIDIA Omniverse)를 활용한 제조 산업 디지털 트원 프로젝트 사례’에 대해 발표했다. 정구형 팀장은 “피지컬 AI로의 진화를 통해 AI가 현실 세계에서 우리와 상호 작용하는 미래가 다가오고 있다. 옴니버스는 기존 3D 툴을 대체하는 것이 아니라 하나로 연결하는 플랫폼으로, USD라는 공통 파일 포맷으로 3D 툴 간의 작업을 원활하게 연결하고, 실시간 협업을 도울 것”이라면서 옴니버스는 상황에 따라 무료 또는 유료로 제공된다고 밝혔다. 이후에는 스마트 매뉴팩처링, 엔지니어링 및 클라우드 HPC, 데이터 애널리틱스 및 생성형 AI 등 세 개 트랙이 진행되었다. 각 트랙에서는 위존, 미라콤, LG CNS, GS네오텍, LS ITC/LS 일렉트릭, IBM, 헥사곤, 지멘스, 앤시스, 비에스지파트너스, KT/KOSTECH, 넷앱, 두산디지털이노베이션, NDS, SDT, 오나인솔루션즈(09 Solutions), 디에스이트레이드, 스노우플레이크 등 다양한 업체에서 클라우드 관련 최신 기술과 제조 혁신 전략, 사례 등을 소개하고, 관련 제품을 전시했다. 이날 행사에 참석한 디원의 류용효 상무는 “비즈니스의 지형이 바뀌고 있는 것 같다. 이제 더 이상 클라우드를 논하지 않고 전통적인 제조 엔지니어링 비즈니스를 고집하는 시기는 지난 것 같다. 각 사의 기술 소개와 사례를 통해 구체적인 적용 방안에 대해 인사이트를 얻었다”고 말했다.       ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-07-03
[칼럼] PLM과 챗GPT의 활용 방안
현장에서 얻은 것 No.17   “LLM 공부해야 소용없어… 대신 차세대 AI에 집중해야” - 얀 르쿤(메타 AI 수석과학자)  페친으로 커넥팅되어 시작된 인연은 인공지능 프로젝트를 통해서 책까지 출판하는 기회를 얻었다. 이번 호의 내용은 그 여정에 대한 기록이다. 기록의 중요성을 또 한 번 느끼며, 만남과 인연의 중요함도 느꼈다.  그 모든 것의 중심에는 ‘관심’ 그리고 ‘깊이와 Hungry’가 있었다. 또한 ‘호기심’은 두말하면 잔소리이다.  그리고 나의 여정을 두 단어로는 ‘리더십’과 ‘인플루언서’로 정했다.    챗GPT에게 PLM에 대해 묻다 2023년 4월호 칼럼으로 ‘챗GPT-PLM 활용의 모습’에 대해 썼다. 그리고 1년이 흐른 지금 다시 한번 챗GPT(ChatGPT)에게 길을 물었다.  1년 전인 2023년 3월에는 챗GPT의 버전이 3.5였고, 2024년 6월는 챗GPT 4o가 등장했다. 2023년 3월 당시에는 “AI가 아니라 AI를 쓰는 기업이 기업을 대체할 것”이라는 말이 유행했다. 1년이 흐른 지금… 통하는 기업이 있고, 여전히 AI가 어떤 결과를 낳을지 오리무중인 기업도 있다. 그동안 큰 변화는 글로벌 관심거리로 학습과 진보 속에서 ‘두려움’이 많이 사라졌다. 또한, 현실적인 장벽이 많이 있다는 것도 드러났다. 1년 전에 ‘챗GPT-PLM 활용의 모습’을 물었을 때 상당히 혁신적이었다. 마치 뭔가 큰일을 낼 것 같이 희망에 찬 답변이었다. 1년이 흐른 지금 같은 질문을 던졌더니, 그때보다는 상당히 현실적인 답변을 내 놓는다.  다음에서 챗GPT와의 대화 내용의 결과를 정리한 리포트 형식으로 풀어가겠다.  “인공지능은 실험실 조수, 최종 결정은 인간이 해야”  - 데미스 허사비스(구글 딥마인드 CEO)    PLM과 챗GPT의 활용 방안 - 프롬프트와 진단 주요 산업군 및 목표를 정했다. 주요 산업군은 자동차, 항공산업, 전기 전자 산업, 의료기기로 한정했다. 독자는 경영진, 임원, 마케팅 담당자로 정했다. 리포트의 주요 목표는 기업에 효과적인 PLM과 챗GPT 활용 방안을 제시하는 것으로, 이에 맞춰 프롬프트를 작성했다.  먼저, 챗GPT는 PLM의 주요 문제점에 대해서 다음과 같이 요약해 주었다.  “PLM 시스템은 복잡한 제품 개발 과정에서 다양한 문제를 안고 있습니다. 이러한 문제점들은 다음과 같습니다. ■ 프로젝트 관리 : 복잡한 프로젝트 관리는 다양한 팀과 부서 간의 협업을 필요로 하며, 실시간 상태 업데이트와 정보 공유가 어렵습니다. ■ 데이터 정합성 : 다양한 부서와 시스템에서 데이터를 관리하다 보면 데이터의 일관성을 유지하는 데 어려움이 있습니다. ■ BOM 관리 : 제품의 BOM(Bill of Materials) 데이터를 정확하게 관리하는 것은 중요하지만, 잘못된 데이터는 생산 오류를 유발합니다. ■ 품질 관리 : 품질 검사와 문제 해결에 많은 시간과 비용이 소요됩니다. ■ 제품 설계 : 설계 변경 요청이 빈번하게 발생하며, 이를 관리하기 어렵습니다. ■ 상품 기획 : 시장 트렌드를 정확히 예측하고 고객의 요구를 반영하기 어렵습니다. ■ 공급망 관리 : 공급망의 복잡성으로 인해 지연과 비용 증가가 발생합니다. ■ 고객 서비스 : 고객 문의와 지원 요청을 효율적으로 처리하기 어렵습니다. ■ 교육 및 훈련 : 직원 교육과 훈련에 많은 시간과 비용이 소요됩니다. ■ 사양 관리 : 제품 사양의 관리 및 업데이트 과정에서 오류가 발생할 수 있습니다. ■ 디지털 제조 : 제조 과정의 디지털화와 스마트 제조 시스템 구현이 어렵습니다. ■ 데이터 보안 : PLM 시스템은 많은 기밀 데이터를 포함하고 있어 데이터 유출의 위험이 큽니다.”   각 문제에 대한 해결 방안 “PLM의 각 문제점에 대해 챗GPT를 활용한 해결 방안은 다음과 같습니다. ■ 프로젝트 관리 : 챗GPT를 통한 실시간 상태 업데이트, 자동 보고서 생성, 팀 간 의사소통 지원 ■ 데이터 정합성 : 챗GPT를 활용하여 데이터 입력 및 검증 자동화, 오류 감지 및 수정 제안 ■ BOM 관리 : 챗GPT를 통해 BOM 데이터의 정확성과 일관성을 유지하여 생산 오류를 줄임 ■ 품질 관리 : 챗GPT를 통해 품질 문제의 원인 분석, 해결책 제안, 품질 검사 자동화 지원 ■ 제품 설계 : 챗GPT를 사용하여 설계 변경 제안 및 피드백 수집, 팀 간 협업 지원 ■ 상품 기획 : 챗GPT를 통해 시장 트렌드 분석, 고객 피드백 수집 및 분석, 제품 기획 아이디어 제안 ■ 공급망 관리 : 챗GPT를 사용하여 공급망 데이터 분석, 공급업체와의 실시간 커뮤니케이션 지원, 문제 발생 시 빠른 대응 방안 제안 ■ 고객 서비스 : 챗GPT를 활용한 자동화된 고객 응대, 자주 묻는 질문(FAQ) 자동 응답, 고객 피드백 수집 및 분석 ■ 교육 및 훈련 : 챗GPT를 통한 맞춤형 교육 자료 제공, 훈련 프로그램 관리, 실시간 질문 응답 시스템 구축 ■ 사양 관리 : 챗GPT를 사용하여 사양 데이터의 자동 검증 및 업데이트, 사양 변경 내역 관리, 사양 관련 질문에 대한 실시간 응답 제공 ■ 디지털 제조 : 챗GPT를 활용하여 제조 데이터 분석, 예측 유지보수 시스템 구축, 제조 과정 최적화 및 문제 해결 지원 ■ 데이터 보안 : 챗GPT를 통해 데이터 보안 시스템 강화, 실시간 보안 모니터링, 보안 위협에 대한 빠른 대응 방안 마련”   PLM 데이터 학습 방안 “PLM 데이터는 폐쇄적이고 기밀 정보가 많기 때문에 챗GPT가 직접적으로 학습하는 것은 어렵습니다. 그러나 다음과 같은 방안을 통해 챗GPT가 PLM 데이터를 활용할 수 있습니다. ■ 프록시 데이터 사용 : 익명화된 데이터로 학습하여 민감한 정보를 보호합니다. ■ API 기반 접근 : API를 통해 실시간으로 데이터를 조회하고 분석할 수 있습니다. ■ 데이터 마스킹 및 샘플링 : 민감 정보를 제거한 샘플 데이터를 사용하여 학습합니다. ■ 온프레미스 학습 시스템 : 기업 내부에 AI 학습 시스템을 구축하여 폐쇄된 환경에서 안전하게 학습합니다. ■ 주기적인 데이터 피드백 루프 : 정기적으로 업데이트된 데이터를 반영하여 학습합니다.”   결론 “챗GPT는 PLM 시스템의 다양한 문제를 해결할 수 있는 강력한 도구입니다. 데이터를 정확하게 관리하고 실시간으로 분석하며, 효율적인 의사소통을 지원함으로써 PLM 시스템의 효율성을 크게 향상시킬 수 있습니다. 그러나 데이터를 안전하게 관리하고, AI 모델의 정확성을 유지하기 위해 적절한 학습 방법과 보안 조치를 취하는 것이 중요합니다. 챗GPT를 통해 PLM 시스템의 문제를 해결하고, 더 나은 제품 개발과 관리를 실현할 수 있을 것입니다.”   PLM의 핫 이슈는 정합성과 정보의 공개 시행착오에서 해답을 찾을 수 있으리라 생각한다. 갈 길은 정해졌다. PLM의 가장 큰 이슈는 정합성과 정보의 공개이다. 왜냐면 사람이 운영하기 때문에, PLM의 복잡성 그리고 추적성을 고려하면 사용자들이 체계적으로 잘 사용해야 가능하다. 챗GPT가 해 줄 일은 자명하다. 고자질을 잘 할 것 같다. 누가 어떤 것에 에러를 범했다. 설계 데이터, BOM 오류, 결재를 미룬 사람 등 기업 업무의 불편한 진실을 챗GPT와 같은 생성형 AI가 내부고발자 역할을 하지 않을까 생각된다. 즉, 생성형 AI는 나를 도와주는 비서일 뿐만 아니라 감시자 역할도 할 수 있을 거라 예상된다.  두려움의 대상이라고 생각해도 나쁘지 않다. 시스템으로 의도하지 않은 업무상 오류를 바로잡을 수 있는 절호의 기회이기 때문이다.  기업 내부의 이슈로는 부서간, 개인간의 이해관계가 있다. 각자 자기 일을 잘 하게 되면 무슨 문제가 있으랴.    ▲ PLM과 챗GPT의 활용방안(Map by 류용효) (클릭하시면 큰 이미지로 볼 수 있습니다.)   ■ 류용효 디원의 상무이며 페이스북 그룹 ‘컨셉맵연구소’의 리더로 활동하고 있다. 현업의 관점으로 컨설팅, 디자인 싱킹으로 기업 프로세스를 정리하는데 도움을 주며, 1장의 빅 사이즈로 콘셉트 맵을 만드는데 관심이 많다. (블로그)     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-07-03
지멘스, Simcenter X로 시뮬레이션 접근성 향상
지멘스 디지털 인더스트리 소프트웨어(Siemens Digital Industries Software)는 새로운 서비스형 소프트웨어(Software-as-a-service, SaaS) 솔루션인 Simcenter X 소프트웨어를 발표했다. 이 솔루션은 업계를 선도하는 지멘스의 시뮬레이션과 테스트 솔루션 포트폴리오인 Simcenter의 기능을 클라우드에서 제공한다. Simcenter X는 Simcenter STAR-CCM+ 소프트웨어에 중점을 두고 초기 릴리스 되었으며, 서비스형 Siemens Xcelerator 포트폴리오의 일부로 제공된다. 이를 사용하면 엔지니어는 확장성이 뛰어난 고성능 컴퓨팅(HPC) 환경과 결합된 모델링 및 후처리를 위한 클라우드 기반 가상 엔지니어링 데스크탑 환경에 액세스하고 임시 저장 및 협업을 위한 Teamcenter Share에 연결할 수 있다. Simcenter X는 필요한 만큼을 선불로 지불하는 PAYG(pay-as-you-go) 방식으로 제공되며, 모든 규모의 기업들이 하드웨어나 라이선스에 대한 기존 초기 투자 없이도 업계 최고의 시뮬레이션 기술을 즉시 이용할 수 있도록 지원한다. 기존에 시뮬레이션 소프트웨어, 하드웨어를 보유하고 있는 기업의 경우 Simcenter X의 유연성과 확장성에 기반해 필요에 따라 용량을 추가할 수 있어 자본 배분을 크게 개선할 수 있다.   지멘스 디지털 인더스트리 소프트웨어의 시뮬레이션 및 테스트 솔루션 부문 수석 부사장 장클로드 에르콜라넬리(Jean-Claude Ercolanelli)는 "Simcenter X를 사용하면 기존 시뮬레이션 환경과 비교했을 때 더 낮은 비용으로 더 빠르게 시뮬레이션을 시작할 수 있다. 이제 브라우저만 있으면 선도적인 혁신가들이 신뢰하는 세계적인 수준의 시뮬레이션 기능을 이용할 수 있다. 우리는 SaaS로의 지속적인 전환의 일환으로 Simcenter STAR-CCM+외 다른 소프트웨어로도 Simcenter X를 확장할 계획이다"라고 말했다. Simcenter X는 설정과 구현을 위한 별도의 IT 전문 지식을 필요로 하지 않으므로 팀은 자동 제공되는 최신 버전 시뮬레이션 도구로 통찰력을 확보하는 데 집중할 수 있다. 더불어 하드웨어와 소프트웨어 모두에 대한 액세스를 번들로 제공하므로 사용자 수와 시뮬레이션 실행 횟수에 제한 없이 프로젝트별 비용을 쉽게 할당하고 측정할 수 있다. 또한 Simcenter X에는 안전하고 제어된 파일 공유와 협업을 위한 Teamcenter® Share 앱에 대한 액세스를 포함해 서비스형 Siemens Xcelerator로서 제공하는 추가 혜택이 포함되어 있다. 북미 조이슨퀸 오토모티브 시스템(JoysonQuin Automotive Systems)의 선임 연구원 겸 글로벌 CAE/CFD 책임자인 멜라쿠 합테(Melaku Habte) 박사는 “CFD 시뮬레이션을 위해 클라우드 기반 HPC를 도입한 후 가시적인 효과를 경험했다. 통상적인 시뮬레이션 모델의 경우 기존 온프레미스 방식에 비해 해결 시간이 절반 이상 단축되는 것이 관찰됐다. 그 결과 전처리와 후처리 작업이 전체 처리 시간의 주요 원인으로 떠올랐다. Simcenter X의 클라우드 HPC가 제공하는 확장성 덕분에 프로젝트 수요에 맞춰 리소스를 동적으로 조정할 수 있어 유연성과 효율성이 향상됐다. 또한 원격 데스크톱 기능 통합으로 지리적 제약을 극복, 인터넷이 연결된 곳이라면 어디서든 하드웨어와 소프트웨어 리소스에 액세스할 수 있어 협업과 생산성이 향상된다”고 말했다. 바르질라(Wärtsilä)의 제품 성능 관리자인 노버트 불텐(Nobert Bulten)은 “클라우드에서 Simcenter STAR-CCM+ 시뮬레이션을 실행함으로써 설계 반복 작업 가속화와 시뮬레이션 활동에서의 더 많은 가치 창출이 가능하다는 것을 이미 확인했다. Simcenter X의 새로운 기능을 통해 더 빠른 성장을 이룰 수 있을 것이라고 믿는다. 클라우드의 가상 워크스테이션에 액세스하면 대용량 데이터 파일 전송 없이도 시뮬레이션 결과를 검토하고, 변경 사항을 적용하고, 더 많은 작업을 더 빠르게 처리할 수 있다. 또한 강력한 온디맨드(on-demand) 클라우드 리소스를 사용해 시뮬레이션 워크플로우의 모든 단계에서 작업이 가능하다. 이로써 유연성이 향상되고 최대 작업량을 보다 효과적으로 관리할 수 있다”고 말했다. Simcenter X는 2024년 후반에 정식 출시될 예정이다. 여기에서 지멘스가 클라우드를 사용해 모든 규모의 기업들에게 시뮬레이션 기능을 제공하는 방법에 대해 자세히 알아볼 수 있다.  
작성일 : 2024-06-23
[온에어] 다양한 산업군에서의 HPC on AWS
캐드앤그래픽스 CNG TV 지식방송 지상 중계   지난 5월 10일 캐드앤그래픽스 CNG TV는 ‘다양한 산업군에서의 HPC on AWS’라는 제목으로 AWS와 ISBC가 준비한 2024년도 ‘HPC on AWS 온라인 콘퍼런스’를 진행했다. 이날 방송에서는 제조, 반도체, 생명과학 등 다양한 분야에서 사용하고 있는 HPC + eVDI 서비스에 대한 내용들이 소개됐다. 또한, 반도체, 생명과학 등 각 분야별 시장에서 HPC 트렌드가 어떻게 변화하고 있는지 토론 형식으로 진행되어 관심을 모았다. 자세한 내용은 다시 보기를 통해 확인할 수 있다. ■ 박경수 기자   ▲왼쪽부터 AWS 최현지 매니저, 김정현 매니저, 그리고 ISBC 김완희 대표   이날 방송에서는 AWS 김정현 매니저가 사회자 겸 모더레이터로 참여했다. 발표자로는 AWS에서 세일즈 대표를 맡고 있는 최현지 매니저와 AWS MSP(Managed Service Provider)인 ISBC 김완희 대표가 참여했다.  HPC(High Performance Computing, 고성능 컴퓨팅)는 자동차 제조, 신약 개발, 유전자 분석, 지질학 연구, 반도체 시뮬레이션 등 다양한 산업군에서 사용되고 있다. AWS는 클라우드 기반의 HPC를 제공함으로써 유연한 컴퓨팅 리소스 사용이 가능하도록 하고 있는데, 클라우드를 활용하면 필요에 따라 컴퓨팅 리소스를 증가하거나 감소시킬 수 있다는 장점이 있다. 또한 HPC는 고객과 해외 파트너사 간의 협업에 많이 활용되고 있고, 다양한 산업군에서 제품 개발과 연구에 필수적인 역할을 하고 있다.   ▲ 제조업, 반도체, 생명과학 분야에서 HPC 트렌드 및 사례에 대해 소개한 ISBC 김완희 대표   최근 HPC 사용이 급격히 늘고 있는 점에 대해 ISBC 김완희 대표는 “어떤 프로젝트가 발생을 했을 때 급하게 관련 컴퓨팅 리소스를 필요로 하게 되는데, 기존에 사용하던 온프레미스 자원 안에서는 추가적인 프로젝트가 발생했을 때 사용하기 어려운 부분들이 있었다”며, “이런 것들을 클라우드로 활용하면 필요할 때 리소스를 늘렸다가 필요 없으면 다시 반납할 수 있는 유연함이 있어서 최근에 많은 고객이 HPC on AWS를 고려하고 있다고 생각한다”고 말했다.   ▲ HPC를 넘어 AI 적용과 융합까지 HPC Plus에 대해 설명한 AWS 최현지 매니저   다양한 분야의 고객과 만나 HPC 컨설팅 업무를 진행한 AWS 최현지 매니저는 “주로 고객들을 만나봤을 때 HPC 하면 주로 대기업에서 사용한다고 생각하는 경향이 많았다. 하지만 이제는 신규 비즈니스를 시작하거나 신규 사업을 시작해야 되는데, 자신의 워크로드가 얼만큼 될지 감이 없고 예상도 안되는 고객들이 많다”고 이야기했다. 또한 “그런 고객들은 온프레미스에 직접 투자하기보다는 클라우드를 활용해서 필요할 때 잠깐 켜두고 필요 없으면 잠시 쉴 수 있는 등 장점이 크다”고 설명했다. AWS는 ISBC와 같은 파트너사를 통해 HPC on AWS 비즈니스를 활발하게 전개하고 있다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-06-03
델, 대규모 AI 위한 포트폴리오 ‘델 AI 팩토리’ 발표
델 테크놀로지스는 DTW(델 테크놀로지스 월드) 행사에서 ‘델 AI 팩토리(Dell AI Factory)’를 발표하면서 디바이스, 데이터센터, 클라우드에 걸친 광범위한 AI 포트폴리오를 제시했다.  ‘델 AI 팩토리’는 PC, 서버, 스토리지, 데이터 보호 및 네트워킹을 아우르는 델의 엔드-투-엔드 AI 포트폴리오를 바탕으로 구성됐다.  델은 증가하는 AI 수요를 충족하기 위한 목적형 설계의 오퍼링들을 추가하며 이 포트폴리오를 확장하고 있다. 기업과 기관에서는 델과 델의 파트너사들이 구성한 개방형 생태계를 바탕으로 각각의 고유한 목적에 부합하는 AI 애플리케이션을 구축할 수 있다.     델은 스냅드래곤 X 엘리트(Snapdragon X Elite) 및 스냅드래곤 X 플러스(Snapdragon X Plus) 프로세서를 기반으로 새로운 마이크로소프트 AI 경험을 제공하는 신제품 코파일럿+ PC(Copilot+ PC) 제품군을 공개했다. 이 제품들은 전문가 및 일반 소비자를 대상으로 하며, 향상된 성능과 배터리 지속시간을 갖춘 내장형 AI가 포함되어 있다. 사용자는 GPU, CPU, NPU 전반에 걸친 로컬 컴퓨팅 및 프로세싱을 기반으로 사용자들은 혁신적인 PC 환경을 경험할 수 있다. 델 파워스케일 F910(Dell PowerScale F910) 올플래시 파일 스토리지는 최대 127% 향상된 성능과 높은 상면 효율을 바탕으로 AI 워크로드의 까다로운 문제들을 해결하고 AI 인사이트 도출 시간을 단축한다. 파워스케일 ‘프로젝트 라이트닝(Project Lightning)’은 새로운 고성능 병렬 파일 시스템(parallel file system) 소프트웨어 아키텍처로 향후 ‘델 파워스케일’ 제품군에 통합될 예정이며, 대규모의 복잡한 AI 워크플로의 학습 시간을 단축한다. AI 데이터 보호를 위한 델 솔루션(Dell Solution for AI Data Protection)은 델의 데이터 보호 소프트웨어, 어플라이언스 및 레퍼런스 구성을 기반으로 중요한 AI 애플리케이션 및 AI 데이터를 효과적으로 보호한다. 델 파워스위치 Z9864F-ON(Dell PowerSwitch Z9864F-ON)은 브로드컴 토마호크 5(Broadcom Tomahawk 5) 칩셋과 최신 네트워크 아키텍처를 기반으로 뛰어난 처리량, 짧은 지연시간, 간편한 확장성을 제공하며, AI 애플리케이션의 네트워크 성능을 2배로 높여 가장 까다로운 네트워킹 환경도 충족할 수 있게끔 설계됐다. 델 파워엣지 XE9680(Dell PowerEdge XE9680) 서버는 브로드컴 400G PCIe 5.0세대 이더넷 어댑터를 지원한다. 파워엣지 서버와 파워스위치 Z9864F-ON, 그리고 400G PCIe 5.0세대 이더넷 어댑터의 조합으로 강력한 이더넷 패브릭을 구축하고 성능, 확장성 및 효율성을 향상시킬 수 있다.  또한, 델은 파트너들과 긴밀한 협력을 통해 고객들이 쉽게 AI를 시작할 수 있도록 견고하게 통합된 솔루션을 제공한다고 설명했다. 델 테크놀로지스는 생성형 AI의 온프레미스 구축과 관련해 허깅 페이스와 협력한 인프라 솔루션 공급업체로서 ‘델 엔터프라이즈 허브 온 허깅페이스(Dell Enterprise Hub on Hugging Face)’를 새롭게 소개했다. 허깅페이스의 오픈 플랫폼을 활용해 기업들은 온프레미스 델 인프라에서 손쉽고 안전하게 맞춤형의 개방형 LLM(대규모 언어 모델)을 훈련하고 구축할 수 있으며 챗봇이나 고객지원과 같은 AI 서비스를 더 빨리 구축할 수 있다. 델은 메타(Meta)와의 협력을 공고히 하면서 메타 라마 3(Meta Llama 3) 모델을 온프레미스 델 인프라 상에 간편하게 구축하도록 지원하고, 테스트 결과, 성능 데이터, 구축 레시피 등을 제공한다. 마이크로소프트 애저 AI 서비스를 위한 델 솔루션(Dell Solution for Microsoft Azure AI Services)은 음성 트랜스크립션 및 번역 기능과 같은 AI 서비스의 구축 속도를 높여주며, ‘마이크로소프트 애저를 위한 델 에이펙스 클라우드 플랫폼(Dell APEX Cloud Platform for Microsoft Azure)’ 상에서 구동된다. 이외에도 델은 AI 이니셔티브를 통해 비즈니스 성과를 개선할 수 있도록 광범위한 AI 프로페셔널 서비스 포트폴리오를 지속적으로 확장해 나가고 있다고 전했다. 마이크로소프트 코파일럿 솔루션을 위한 구축 서비스(Implementation Services for Microsoft Copilot solutions)는 깃허브, 보안, 윈도, 및 세일즈 등 다양한 분야에서 코파일럿 환경을 도입 시 필요한 전문가 지침을 제공해 업무생산성을 향상시키도록 지원한다. 델 엔터프라이즈 허브 온 허깅페이스 가속 서비스(Accelerator Services for Dell Enterprise Hub on Hugging Face)는 허깅 페이스 내 델 포털을 사용할 때 신속한 AI 프로토타이핑을 할 수 있도록 각종 툴 및 모델을 선택하고 활용 사례를 적용할 수 있도록 전략적 조언을 제공한다. 한국 델 테크놀로지스의 김경진 총괄 사장은 “AI는 전례없는 속도로 비즈니스를 혁신하고 있다. 이제 모든 데이터센터는 AI의 속도와 규모를 다룰 수 있도록 설계되어야 하며, AI PC는 생산성 및 협업 방식을 혁신할 것”이라면서, “델은 광범위한 ‘델 AI 팩토리’ 포트폴리오와 파트너 생태계를 통해 온프레미스와 엣지, 클라우드 환경 전반에서 완벽하게 제어할 수 있는 AI 구축을 지원하고자 한다”고 전했다.
작성일 : 2024-05-21
레노버, 하이브리드 AI 혁신 돕는 AMD 기반 서버 및 인프라 솔루션 공개
레노버는 에지부터 클라우드까지 하이브리드 AI 혁신을 지원하기 위해 새로운 맞춤형 AI 인프라 시스템 및 솔루션 제품군을 발표했다. 레노버는 다양한 환경과 산업에서 컴퓨팅 집약적인 워크로드를 처리하기 위해 폭넓은 GPU 옵션과 높은 냉각 효율성을 지닌 솔루션을 선보인다.    ▲ 씽크시스템 SR685a V3 GPU 서버   레노버는 AMD와 협력하여 씽크시스템(ThinkSystem) SR685a V3 GPU 서버를 선보였다. 이 서버는 고객에게 생성형 AI 및 대규모 언어 모델(LLM)을 포함해 컴퓨팅 수요가 많은 AI 워크로드를 처리하는데 적합한 성능을 제공한다. 또, 금융 서비스, 의료, 에너지, 기후 과학 및 운송 업계 내 대규모 데이터 세트를 처리하기 위한 빠른 가속, 대용량 메모리 및 I/O 대역폭을 제공한다. 새로운 씽크시스템 SR685a V3은 엔터프라이즈 프라이빗 온프레미스 AI와 퍼블릭 AI 클라우드 서비스 제공자 모두에게 최적화된 솔루션이다. 씽크시스템 SR685a V3는 금융 서비스 분야에서 사기 탐지 및 예방, 고객확인정책(KYC) 이니셔티브, 리스크 관리, 신용 발행, 자산 관리, 규제 준수 및 예측을 지원하도록 설계되었다. 4세대 AMD 에픽(EPYC) 프로세서와 AMD 인스팅트 MI300X GPU을 탑재하고 있으며, AMD 인피니티 패브릭으로 상호연결되어 1.5TB의 고대역폭(HBM3) 메모리, 최대 총 1TB/s의 GPU I/O 대역폭 성능을 제공한다. 공기 냉각 기술로 최대 성능을 유지하고 엔비디아의 HGXTM GPU와 향후 AMD CPU 업그레이드를 지원하는 등 유연성도 높였다. 레노버는 AMD EPYC 8004 프로세서를 탑재한 새로운 레노버 씽크애자일(ThinkAgile) MX455 V3 에지 프리미어 솔루션으로 에지에서 AI 추론 및 실시간 데이터 분석을 제공한다. 이번 다목적 AI 최적화 플랫폼은 에지에서 새로운 수준의 AI, 컴퓨팅 및 스토리지 성능을 제공하며, 높은 전력 효율성을 제공한다. 온프레미스 및 애저 클라우드와의 원활한 통합을 지원하며, 고객이 간소화된 라이프사이클 관리를 통해 총소유비용(TCO)을 절감하고 향상된 고객 경험을 얻으며 소프트웨어 혁신을 보다 빠르게 채택하도록 돕는다. 리테일, 제조 및 의료 분야에 최적화된 해당 솔루션은 낮은 관리 오버헤드, 레노버 오픈 클라우드 자동화(LOC-A) 툴을 통한 신속한 배포, 애저 아크(Azure Arc) 지원 아키텍처을 통한 클라우드 기반 매니지먼트, 마이크로소프트와 레노버가 검증한 지속적인 테스트와 자동화된 소프트웨어 업데이트를 통한 보안, 신뢰성 향상 및 다운타임 절감 등을 주요 특징으로 한다.   ▲ 씽크시스템 SD535 V3 서버   레노버와 AMD는 열효율성이 뛰어난 다중 노드의 고성능 레노버 씽크시스템 SD535 V3 서버도 공개했다. 이 제품은 단일 4세대 AMD 에픽 프로세서로 구동되는 1S/1U 절반 너비 서버 노드로 집약적인 트랜잭션 처리를 위해 랙당 퍼포먼스를 극대화시켰다. 이는 모든 규모의 기업을 위한 클라우드 컴퓨팅, 대규모 가상화, 빅 데이터 분석, 고성능 컴퓨팅 및 실시간 전자 상거래 트랜잭션을 포함해 워크로드에 대한 처리 능력과 열 효율성을 극대화한다. 한편, 레노버는 기업이 AI 도입으로 역량을 강화하고 성공을 가속화할 수 있도록 레노버 AI 자문 및 프로페셔널 서비스를 발표했다. 이 서비스는 모든 규모의 기업이 AI 환경에서 효율적인 비용으로 신속하게 알맞는 솔루션을 도입하고 AI를 구현할 수 있도록 다양한 서비스, 솔루션 및 플랫폼을 제공한다. 이 과정은 5단계, ‘AI 발견, AI 자문, AI의 빠른시작, AI 배포 및 확장, AI 관리’로 정리할 수 있다. 레노버는 먼저 보안, 인력, 기술 및 프로세스 전반에 걸쳐 조직의 AI 준비도를 평가하고, 이를 기반으로 조직의 목표에 맞는 가장 효과적인 AI 채택 및 관리 계획을 제안한다. 그런 다음, 레노버 전문가들은 이에 필요한 AI 요소를 설계 및 구축하고, AI 구현을 위한 도구 및 프레임워크를 배포하며, AI 시스템을 유지, 관리 및 최적화할 수 있는 지침을 제공한다. 마지막으로 레노버는 고객과 협력하여 배포부터 시작해 IT 제품 라이프사이클 전반을 지원하고, AI 사용 사례와 AI 성숙도가 함께 성장할 수 있도록 AI 이노베이터 생태계를 지속적으로 관리 및 발전시키고 있다.  레노버 AI 자문 및 프로페셔널 서비스를 통해 고객은 전문적인 IT 팀의 지원을 받아 AI 구현의 복잡성은 완화하고 실질적인 비즈니스 성과를 빠르게 낼수 있다. 레노버는 엔드 투 엔드 서비스, 하드웨어, AI 애플리케이션 및 서비스를 총동원해 고객이 AI 여정의 모든 단계에서 성장하도록 돕는다. 이는 결국 AI 도입을 간소화하여 모든 규모의 조직을 대상으로 AI 접근성을 높이고 산업 전반에 걸쳐 혁신적인 인텔리전스를 구현할 수 있도록 지원한다.  금융 서비스나 의료 업계 분야의 고객은 대량의 데이터 세트를 관리해야 하며 이는 높은 I/O 대역폭을 필요로 하는데, 레노버의 이번 신제품은 중요한 데이터 관리에 필수인 IT 인프라 솔루션에 초점을 맞추었다. 레노버 트루스케일 (Lenovo TruScale)은 고객이 까다로운 AI 워크로드를 서비스형 모델로 원활하게 통합할 수 있도록 유연성과 확장성을 지원한다. 또, 레노버 프로페셔널 서비스(Lenovo Professional Services)는 고객이 AI 환경에 쉽게 적응하고, AI 중심 기업들이 끊임없이 진화하는 요구사항과 기회를 충족할 수 있도록 돕는다. 레노버의 수미르 바티아(Sumir Bhatia) 아시아태평양 사장은 “레노버는 AMD와 함께 획기적인 MI300X 8-GPU 서버를 출시하며 AI 혁신에 앞장섰다. 레노버는 대규모 생성형 AI 및 LLM 워크로드를 처리할 수 있는 고성능을 제공함으로써 AI의 진화를 포용할 뿐만 아니라 더욱 전진시키고 있다. AMD의 최첨단 기술을 기반에 둔 우리의 최신 제품은 시장을 선도하겠다는 포부를 담고 있다. CIO의 AI 투자가 45% 증가할 것으로 예상됨에 따라, AMD MI300X 기반 솔루션의 포괄적인 제품군은 조직의 지능적인 혁신 여정에 힘을 실어줄 것”이라고 말했다.  레노버 글로벌 테크놀로지 코리아 윤석준 부사장은 “레노버는 하이브리드 AI 솔루션을 통해 국내에 다양한 기업을 지원하며 AI 혁신에 앞장서고 있다. 올해 한국 기업의 95% 이상이 생성형 AI에 투자할 계획을 갖고 있는 가운데, AI 도입이 증가하고 있다는 사실은 분명하다. 우리는 AI가 경쟁 우위를 확보하는 데 중추적인 역할을 한다는 점을 인지하고 AMD와 협력하여 포괄적인 AI 시스템 및 솔루션 제품군을 출시했다. 레노버는 금융 서비스 분야의 통찰력 가속화부터 의료산업 내 성능 강화까지 혁신적인 인텔리전스 분야를 선도하고 있다. AMD 기술로 구동되는 신규 씽크시스템 및 씽크애자일 제품은 에지 및 클라우드 환경 전반에 걸쳐 전례 없는 성능과 효율성을 제공하며 AI 배포를 혁신한다”고 전했다.
작성일 : 2024-05-08
[포커스] 오라클, 모던 데이터 플랫폼 및 데이터베이스 혁신 전략 발표
한국오라클이 지난 4월 16일 ‘모던 데이터 플랫폼 및 데이터베이스 혁신 전략’을 주제로 기자간담회를 열고, 융합형 데이터베이스(Converged DB)를 중심으로 한 오라클의 포괄적인 기업 데이터 관리 기술의 현재와 미래에 대해 소개했다.  ■ 박경수 기자   기자간담회에는 ‘DB의 아버지’라 불리는 오라클의 앤디 멘델손(Andy Mendelsohn) DB 서버 기술개발사업부 총괄 부사장이 참석해 ‘데이터, AI 및 앱 개발의 미래’를 주제로 발표하고, 오라클 DB 솔루션이 향후 AI 시대를 주도할 데이터 플랫폼의 미래 시장에서 어떤 가치를 갖고 있는지 설명했다.   오라클 모던 데이터 플랫폼 오라클 모던 데이터 플랫폼(Oracle Modern Data Platform)은 전체 라이프사이클을 간소화하고 더 빠른 속도로 통찰력을 제공한다는 점이 특징이다. 단일 플랫폼 상에서 모든 트랜잭션, 웨어하우스, 분석 및 인공지능(AI)/머신러닝(ML) 자산에 대한 수집, 선별(curation) 및 관리를 통해 기업이 데이터에 대한 더 큰 통제 권한을 얻을 수 있다. 오라클은 온프레미스, 하이브리드, 규제, 퍼블릭 클라우드 솔루션 등 원하는 형식이 무엇이든 지원할 수 있다고 강조했다. 모던 데이터 플랫폼은 기업 조직에 데이터 저장, 처리 및 분석을 위한 통합 환경을 제공하는 중앙 집중형 인프라로, 일반적으로 데이터 웨어하우스, 데이터 레이크, 추출, 변환, 로드(ETL) 파이프라인 및 분석 도구 등의 기술들을 포함하고 있다.  모던 데이터 플랫폼은 표준화 및 통합된 데이터 관리 접근방식을 확립해 기업 조직이 귀중한 통찰력을 얻고, 데이터 기반 의사결정을 내릴 수 있도록 하는 지원하는 것을 주된 목표로 삼는다. 단일 통합 저장소에서 데이터 자산을 중앙 집중형으로 관리해 데이터에 대한 더 쉬운 액세스, 협업 및 통제를 가능케 한다.   ▲ 오라클 모던 데이터 플랫폼 기자간담회 모습   융합형 데이터베이스 중심의 기업 데이터관리 앤디 멘델손 부사장은 “오라클의 데이터베이스 비전은 기업 앱 및 분석 개발 운영을 어떠한 활용 사례 및 규모에서든 수월하게 만드는 것”이라며, “전략적 핵심은 기업의 개발뿐만 아니라, 생성형 AI 및 LLM 결합을 통해 생성까지 쉽게 만드는 것”이라고 말했다. 이러한 비전 달성을 지원하는 두 가지 핵심 축은 ‘융합형 DB’ 및 ‘자율운영 DB’이다. 오라클의 융합형 DB는 23c 버전을 클라우드 환경으로 정식 출시됐고, 곧 사내구축형 환경으로도 출시될 예정이다. 멘델손 부사장은 오라클이 2023년 9월에 발표한 차세대 융합형 DB인 오라클 DB 23c가 기존 관계형 모델과 JSON 및 그래프 모델 간의 통합을 구현하는 혁신을 이뤘다고 소개했다. 또한 최근의 앱은 관계형뿐만 아니라 JSON, 그래프 등 다양한 데이터 유형이 혼합 운영되는 가운데, 개발자는 오라클 DB 23c를 통해 3가지 유형의 데이터 장점을 모두 활용하는 앱을 개발, 운영하고 있으며 그 과정에서 데이터의 일관성을 손쉽게 유지할 수 있다고 설명했다. 융합형 DB는 멀티 모델, 멀티 테넌트 및 멀티 워크로드 DB로, 각 개발팀이 원하는 데이터 모델과 액세스 방법을 지원하면서 불필요한 기능으로 방해받지 않도록 한다. 또한 각 개발 팀이 필요로 하는 모든 워크로드(OLTP, 분석, IoT 등)를 탁월한 성능으로 지원한다.  한편 오라클은 지난해 9월 오라클 데이터베이스23c(Oracle Database 23c)에 AI 벡터를 사용하는 시맨틱 검색 기능을 추가할 계획이라고 발표했다. AI 벡터 검색(AI Vector Search)이라는 기능 모음에는 새로운 벡터 데이터 유형, 벡터 인덱스, 벡터 검색 SQL 연산자 등이 포함되어 있다.   ▲ 오라클의 앤디 멘델손 DB 서버 기술개발사업부 총괄 부사장   생성형 AI 기술과 데이터베이스 접목 멘델손 부사장은 또 오라클 DB 비전과 관련해 생성형 AI를 접목한 융합형 DB(Converged Database)와 이를 구동하는 자율운영 DB(Oracle Autonomous Database)를 통해 모던 앱 및 분석을 생성 및 운영하는 작업이 간소화될 것이라고 강조했다. 이를 통해 융합 개방형 SQL DB가 기존 단일목적 상용 DB를 대체함으로써, 기업 개발자와 IT 전문가가 데이터 통합 시간을 줄이고 혁신에 더 집중하도록 돕는다는 전략이다. 오라클은 생성형 AI 기능을 자사 DB 포트폴리오에 내장하고 있는데, 기업이 오라클의 AI 기반 애플리케이션을 구축하도록 지원하기 위함이다. 대표적인 예로, 기업은 자율운영 데이터베이스 셀렉트 AI(Autonomous Database Select AI) 기능을 사용해 자체 엔터프라이즈 데이터와 생성형 AI가 제공하는 생산성 및 창의성의 장점 모두를 활용함으로써 애플리케이션 개발을 가속화할 뿐만 아니라, 신규 비즈니스 솔루션 구축을 진행할 수 있다. 또한 오라클은 OCI 데이터 사이언스(OCI Data Science)의 기능도 확장하고 있으며, 이를 통해 기업이 허깅페이스(Hugging Face)의 트랜스포머(Transformers) 또는 파이토치(PyTorch)와 같은 오픈소스 라이브러리를 사용해 복수의 LLM을 구축, 훈련, 배포 및 관리하도록 지원한다.   ▲ 차세대 융합형 데이터베이스, 오라클 DB 23c   오라클 글로벌 분산형 자율운영 데이터베이스 오라클 글로벌 분산형 자율운영 데이터베이스(Oracle Globally Distributed Autonomous Database)는 기업이 데이터 레지던시 요건을 충족시키고, 비즈니스 크리티컬 애플리케이션에 생존성을 제공하며, 클라우드급 DB 성능을 제공하도록 지원하는 완전 자동화된 분산형 클라우드 DB다.  또한 Oracle DB 샤드 세트로 분산된 단일 논리적 오라클 DB로, 각 샤드는 논리적 DB 데이터의 하위 집합을 호스팅하는 독립적인 오라클 DB 인스턴스다. 다수 샤드를 하나의 OCI 가용성 도메인, 여러 OCI 가용성 도메인 또는 리전, 또는 상이한 지역의 OCI 리전에서 실행해 각각 성능 극대화, 최상의 가용성 확보 및 데이터 레지던시 요건을 지원할 수 있다. 이 밖에도 기업의 핵심 워크로드 구동에 최적화된 고성능 및 고안정성을 제공하는 동시에, 데이터 주권 및 보안 강화를 지원하는 오라클의 서비스로는 오라클 융합형 DB(Oracle Converged Database), 오라클 자율운영 DB(Oracle Autonomous Database), 오라클 엑사데이터 클라우드앳커스터머(Oracle Exadata Cloud@Customer), MySQL 히트웨이브(MySQL HeatWave) 등이 있다. 또한 오라클은 기업 요구사항을 충족시킬 수 있는 DB 및 분석 서비스에 지속적으로 투자하고 있다.   멀티 클라우드 지원 오라클의 또 다른 전략적 핵심은 '멀티 클라우드 지원'이다. 오라클과 마이크로소프트는 주로 애저(Azure) 클라우드 이용 약정 계약을 맺고 있다. 애저 환경에서 자사의 앱 및 오라클 DB를 함께 운영하길 원하는 양사 고객들을 위해 ‘오라클 데이터베이스앳애저(Oracle Database@Azure)’를 발표했다.  해당 오퍼링은 물리적인 엑사데이터(Exadata) 하드웨어를 애저 클라우드 리전 안에 위치시켜 애저 클라우드 데이터 센터 안에서 바로 엑사데이터 기반 클라우드 서비스를 제공하는 변화를 선보였다. 이를 통해 양사 고객들은 기존 애저 클라우드 서비스에 대한 이용 약정 계약 금액만으로 애저 클라우드 및 오라클 데이터베이스 클라우드 서비스를 모두 사용할 수 있게 됐다. 향후 오라클은 MS 외에도 타 클라우드 기업들과 파트너십 확대를 전략적 목표로 삼고 있으며, 올해 오라클 클라우드 월드에서 관련 내용을 소개할 예정이다.  이번 기자간담회를 통해 오라클은 오라클 DB에 많은 양의 비즈니스 데이터를 보유한 기업들이 강력한 AI 기술 및 SQL을 손쉽게 활용해 간단한 방식으로 데이터 검색을 지원하는데 초점을 맞추고 있다는 것을 알 수 있다. 이를 통해 기업은 내부 독점 데이터를 더 잘 활용하는 것은 물론 이해할 수 있게 될 것으로 전망하고 있다. 또한 표준 SQL 기반으로 제공되는 AI 기술이기 때문에 컴퓨터 공학 부문에서 높은 학위가 없다고 하더라도 SQL을 이용할 수 있는 모든 DBA(데이터베이스 관리자)가 활용할 수 있다는 점도 특징이다.    질의 응답 Q. 오라클 DB의 자연어 질문 및 답변 지원 기능과 관련해, 이를 일반적 챗GPT와 비교 시, 기업 내 환경에서는 일반 사용자들이 경험하는 환각현상 같은 것들이 허용되지 않고 정확해야 하는데 이에 대한 관점은 A. 회사 내 데이터에 대해 LLM 기반 검색은 말씀하신 그런 LLM 모델로는 좋은 답을 제공할 수 없다. 말씀한 모델은 인터넷에 공개된 방대한 데이터에 대해 훈련됐지만, 기업 보유의 프라이빗 데이터에 대해서는 전혀 알지 못하기 때문이다. 비즈니스적인 질문을 비즈니스 데이터에 대해 할 경우에 자연어로 질문을 할 때 LLM이 올바른 SQL 질문을 만들 수 있도록 도울 수 있는 데이터 강화가 필요하다. 그래서 사용자의 질문의 맥락에 따라서 가장 적절하다고 생각되는 데이터베이스 스키마를 생성 및 제공해야 한다.  이에 오라클은 LLM이 SQL 생성 후 적절한 오라클 데이터베이스에 있는 스키마만 참조할 수 있도록 하며, 인터넷 공개 데이터로 답변하지 않도록 한다. 애널리스트들이 자주 묻는 질문을 알고 있기 때문에, 이것을 기반으로 관계형 뷰를 만들어서 여기서 가장 자주 묻는 질문에 해당하는 스키마 생성 및 이를 LLM에 전송해서 기업 맥락에 맞는 답변할 수 있도록 보완한다.    Q. 자율운영 DB 개념과 다른 리전에서 고가용성 및 레지던스 확보를 지원하는 기능에 대해 설명해 달라 A. 글로벌 분산형 자율운영 DB는 전 세계적으로 각국 정부가 데이터 주권 규제 강화하고 있는 추세를 지원하고자 출시했다. 예를 들어 현대기아자동차 같이 글로벌하게 운영하는 기업은 전 세계 고객에 대한 DB를 갖고 있다. 데이터 주권 규제로 인해 고객 DB를 국가별로 분산해서 나눠서 관리해야 하는 의무가 있다. 하나의 단일한 고객 DB를 통합해서 관리할 수 없고, 중국, EU 등으로 나눠서 관리해야 하며 이것을 데이터베이스 샤딩이라는 용어로 표현하고 있다. 그래서 23c에서 글로벌 샤딩을 쉽게 만드는 기술을 포함하고 있다.   Q. 파운데이션 LLM 사업을 직접 하지 않는 이유와 최근에 등장하는 경쟁력 있는 MS 오픈 AI, 구글 제미나이 등에 모델을 올리기 어려운 점에 대한 관점은 A. 챗GPT 같은 파운데이션 LLM 모델 개발 구축에 많은 비용이 들며, 시장의 무료 모델을 쓸 수 있기 때문이다. 또한 셀렉트 AI 등 오라클이 AI로 LLM 활용을 지원하는 기술들 중 좋은 API로 연결해 시중의 인기 있는 널리 사용되고 있는 LLM 모델과 잘 연동되고 지원하도록 기술을 고도화하고 있다. 오라클 클라우드 관점에서 오픈AI 등 LLM 벤더와 파트너십을 맺어서 오라클 클라우드를 사용하도록 움직이고 있다. 말하자면 프라이빗 LLM 만들 수 있도록 지원하는 것이다. 현재 AI 커뮤니티에서 굉장히 많은 개발 움직임이 있는데, 그 중 하나가 업무별로 특화된 LLM을 만드는 것이다. 이 경우 운영 비용이 굉장히 저렴해질텐데, 예를 들면 SQL 생성에 특화된 LLM 만든다고 했을 때, 이런 쪽과 협력해서 특화된 기술을 저렴한 비용으로 사용할 수 있도록 하는 협력을 진행하고 있다.      ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-05-02
델, “생성형 AI는 성과 창출에 기업 역량을 집중하도록 돕는다”
델 테크놀로지스가 국내 79%, 전 세계 81%에 달하는 상당수의 기업 및 기관에서 생성형 AI가 혁신을 촉진할 것으로 보고 있다는 조사 결과를 발표했다. 이 조사는 델 테크놀로지스가 독립 연구 기관 밴슨 본(Vanson Bourne)에 의뢰해 실시한 ‘이노베이션 카탈리스트(Innovation Catalysts)’에 대한 연구로 전 세계 40개국 6600여명, 국내 300여명의 IT 리더 및 비즈니스 의사결정권자들이 참여했다. 조사에 따르면 상당수의 기업과 기관에서 AI 및 생성형 AI를 낙관적으로 보고 있는 한편, 변화의 속도를 인식하고 혁신을 가속하기 위한 조치를 취하고 있는 것으로 나타났다. 국내 기업의 72%, 전 세계 평균 82%가 현재 업계에서 경쟁 우위를 위해 유리한 입지를 확보하고 있으며 탄탄한 전략을 가지고 있다고 답했다. 한편으로 국내 기업의 63%, 전 세계 평균 48%는 향후 3~5년 후 업계가 어떤 모습을 보일지 불확실하다고 답했으며, 국내 기업의 77%, 전 세계 평균 10명 중 6명(57%)은 변화에 발맞추는 데 어려움을 겪고 있다고 답했다. 이들은 혁신을 추진하는 과정에서 직면하는 어려움으로 적합한 인재 부족(국내 39%, 전 세계 35%), 예산 부족(국내 35%, 전 세계 29%), 데이터 프라이버시 및 사이버 보안 문제(국내 28%, 전 세계 31%)를 꼽았다.     보고서는 많은 조직에서 생성형 AI에 주목하고 있다고 분석하며 특히 이 기술이 생산성 향상(국내 기업의 55%, 전 세계 평균 52%), 고객 경험 개선(국내 기업의 44%, 전 세계 평균 51%), IT 보안 태세 개선(국내 기업의 43%, 전 세계 평균 52%)에 있어 혁신적이며 상당한 가치를 제공할 것으로 기대한다고 답했다. 대부분의 IT 의사 결정권자(국내 기업의 81%, 전 세계 평균 82%)는 생성형 AI 구현 시 예상되는 문제를 해결하기 위해 온프레미스 또는 하이브리드 모델을 선호하는 것으로 나타났다. 국내 기업의 70%, 전 세계 평균 68%는 생성형 AI가 새로운 보안 및 개인정보 보호 문제를 야기할 것이라고 우려했으며, 국내 기업과 전 세계 평균 동일 수치인 73%는 데이터와 IP가 대단히 중요하기 때문에 제3자가 액세스할 수 있는 생성형 AI 툴에 저장할 수 없다는 데 동의했다. 이는 생성형 AI가 아이디어에서 실제 구현의 단계로 전환되며 현실적인 문제에 직면하고 있음을 시사한다. 가장 우려되는 부분은 위험성과 책임 소재의 문제이다. 국내와 전 세계 평균 수치 모두 동일하게 76%는 AI 오작동 및 원치 않는 동작에 대한 책임이 기계, 사용자 또는 대중이 아니라 조직에 있다는 데 동의했다. 또한 대부분의 응답자(국내 기업의 78%, 전 세계 평균 83%)는 미래 세대를 위해 AI의 잠재력을 극대화하기 위해서는 지금 당장 AI 규제를 도입하는 것이 중요하다고 답했다. 75% 이상이 소수의 손에 AI의 힘이 집중되면 경쟁의 어려움과 시장 불균형이 초래될 것으로 전망했다. 사이버 보안은 조직을 괴롭히는 꾸준한 골칫거리로 꼽혔다. 전 세계 응답자의 83%, 한국은 이보다 많은 88%가 지난 12개월 동안 보안 공격의 영향을 받았다고 답했다.  대다수(국내, 전 세계 동일 89%)가 제로 트러스트 구축 전략을 추진하고 있으며, 전 세계 78%, 한국은 이보다 낮은 69%가 사이버 공격이나 데이터 유출로부터 복구하기 위한 사고 대응 계획이 마련되어 있다고 답했다. 최우선 과제 세 가지로는 멀웨어, 피싱, 데이터 유출을 지적했다. 피싱은 더 광범위한 차원에서 위협에 대한 직원들의 역할을 포함한다. 예를 들어, 국내 기업의 73%, 전 세계 평균 67%는 일부 직원들이 효율성과 생산성을 떨어뜨린다는 이유로 IT 보안 지침과 관행을 무시한다고 보고 있으며, 국내 기업의 69%, 전 세계 평균 65%는 내부자 위협이 큰 우려 사항이라고 답했다. 이는 임직원이 첫 번째 방어선인 만큼 교육에 집중해야 할 필요성을 나타낸다. 생성형 AI와 같은 기술이 발전하고 데이터 양이 증가함에 따라 데이터 인프라의 중요성이 높아졌다. 확장 가능한 최신 인프라에 대한 투자는 기업이 혁신을 가속화하기 위해 가장 먼저 개선해야 할 분야로 꼽혔다. 비즈니스 전반에 걸쳐 데이터를 공유하는 능력 또한 혁신을 위한 핵심 부분으로, 응답자 3명 중 1명(국내 기업의 30%, 전 세계 평균 33%)만이 현재 데이터를 실시간 인사이트로 전환하여 혁신을 지원할 수 있다고 답했다. 그러나 국내기업의 78%, 전 세계 평균82%는 데이터가 경쟁력 차별화의 요소이며 생성형 AI 전략에 데이터 사용 및 보호가 반드시 포함되어야 한다고 답해 조직이 이 과제에 대응하고 있음을 시사했다. 응답자의 절반은 향후 5년 내에 대부분의 데이터를 에지에서 가져올 준비가 되어 있다고 답했다. 한국 델 테크놀로지스의 김경진 총괄 사장은 “생성형 AI와 같은 혁신 동력에 대한 낙관론이 고조되는 동시에 기술로서 전환을 시도하기 위해 적극적인 행동에 나서는 양상이 뚜렷해지고 있다. 오늘날과 같이 변화가 빠른 세상에서는 특히 더 그러하다”면서, “신뢰할 수 있는 파트너들로 구성된 강력한 에코시스템을 통해 안전하고 지속가능 하며 확장이 용이한 기술 기반을 마련할 수 있다”고 제언했다.
작성일 : 2024-04-30