• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "트랜잭션"에 대한 통합 검색 내용이 200개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
[포커스] 오라클, 엑사데이터 X11M 통해 AI 시대의 DB 성능 기준 제시
오라클이 최신 데이터베이스 플랫폼인 ‘엑사데이터 X11M(Oracle Exadata X11M)’을 공개하며 데이터 중심 워크로드에서 성능과 효율성을 극대화하는 설루션을 선보였다. 이번 발표는 엑사데이터의 13번째 세대에 해당하며, AI 분석, OLTP(온라인 트랜잭션 처리), 대규모 애널리틱스 등 다양한 기업 데이터베이스 애플리케이션에서 향상된 성능과 확장성을 이전 세대와 동일한 가격으로 제공하는 것이 특징이다. ■ 정수진 편집장   데이터에 최적화된 하드웨어와 혁신 소프트웨어의 결합 엑사데이터 X11M은 데이터베이스 워크로드를 위해 최적화된 하드웨어와 데이터 지능형 소프트웨어를 결합한 플랫폼이다. 오라클은 엑사데이터 X11M이 고성능과 효율을 동시에 제공할 수 있는 아키텍처로 개발됐다는 점을 내세운다. 이번 신제품은 데이터베이스 서버, 네트워크, 스토리지에 걸쳐 데이터에 최적화된 하드웨어 구성을 제공한다. 데이터베이스 서버는 수평 확장이 가능한 2소켓 서버로, 96코어의 최신 AMD 에픽(EPYC) 프로세서와 최신의 고속 메모리를 결합했다. 엑사데이터 X11M에 탑재된 100Gb/s의 RDMA(Remote Direct Memory Access) 네트워크는 데이터 서버와 스토리지 서버를 연결하는 초고속/저지연성 네트워크로 구성됐다. 스토리지 서버도 강화됐는데, 최신/초고속의 플래시 스토리지와 엑사데이터 RDMA 메모리 및 에픽 프로세서를 탑재했다. 오라클의 아쉬시 레이(Ashish Ray) 미션 크리티컬 데이터베이스 기술 부문 부사장은 “오라클의 독창적인 데이터 인텔리전트 소프트웨어는 하드웨어 성능을 최적화하면서 압도적인 성능을 제공할 수 있도록 기여한다”면서, 오라클 데이터베이스가 제공할 수 있는 세 가지 주요 워크로드인 AI 검색, OLTP, 데이터 분석 등에서 향상된 성능을 제공한다고 소개했다.     벡터 검색 기술로 AI 워크로드 성능 강화 엑사데이터 X11M은 AI 중심의 기업 데이터베이스 워크로드를 처리하는 데 있어 특히 강점을 보인다. AI 벡터 검색 기술은 정형 데이터와 비정형 데이터를 하나의 데이터베이스에 통합하고 검색 및 처리하는 데 최적화되어 있으며, 이를 통해 다른 플랫폼 대비 더욱 빠른 AI 쿼리 처리 속도를 제공한다. 레이 부사장은 “영구 벡터 인덱스(IVF) 검색 속도는 최대 55%, 인메모리 벡터 인덱스 쿼리(HNSW)는 최대 43% 더 빨라졌으며, 모든 엑사데이터 플랫폼에서 제공되는 새로운 소프트웨어 최적화 기능은 스토리지 서버에서 4.7배 향상된 데이터 필터링과 32배 빨라진 바이너리 벡터 검색을 통해 AI 검색 성능을 강화했다”면서, “이를 통해 기업은 더 많은 비즈니스 데이터를 결합하여 정교한 벡터 검색을 더욱 빠르게 수행할 수 있으며, 생성형 AI 모델의 정확성과 안정성을 향상시키는 동시에 전체 비용을 절감할 수 있다”고 설명했다.   OLTP와 애널리틱스에서의 향상된 성능 엑사데이터 X11M은 OLTP 및 데이터 분석 워크로드에서도 향상된 성능을 제공한다. 오라클에 따르면, OLTP의 경우 직렬 트랜잭션 처리 속도가 25%, 동시 처리량이 최대 25% 개선됐으며, SQL 8K I/O 읽기 지연시간이 최대 21% 감소하여 14마이크로초(us)로 단축됐다. “이런 성능 개선은 기업이 더 많은 트랜잭션을 보다 적은 데이터베이스 시스템으로 더 빠르게 처리하며 비용을 절감할 수 있다는 뜻”이라고 레이 부사장은 덧붙였다. 애널리틱스 영역에서는 분석 쿼리 처리 속도가 최대 25% 빨라지고, 스토리지 서버에서 분석 I/O(입출력) 속도가 최대 2.2배 향상되었으며, 데이터베이스 인메모리 스캔 속도가 최대 500GB/초 증가했다. 오라클은 대규모 데이터 처리에 최적화된 독자 기술을 통해 기업이 트랜잭션 데이터를 실시간으로 분석하고, 테라바이트에서 페타바이트에 이르는 규모의 데이터 웨어하우스를 보다 빠르게 스캔하여 중요한 비즈니스 인사이트를 확보할 수 있다고 전했다.   운영 효율과 비용 절감 지원 엑사데이터 X11M은 운영 효율을 높여 고객의 비용을 절감할 수 있도록 했다. 무엇보다 성능이 높아져서 더 적은 수의 시스템에서 데이터베이스 워크로드를 실행함으로써 인프라와 전력 및 냉각, 데이터센터 공간을 줄일 수 있다. 그리고, 더 많은 워크로드를 더 작은 규모의 시스템에 통합할 수 있어 활용 효율을 높인다. 엑사데이터 X11M에 내장된 지능형 전력 관리 기능은 사용하지 않는 CPU 코어를 비활성화하거나 전력 소비를 제한하고, 사용량이 적은 기간 동안 전력 활용을 최적화한다. 또한, 오라클 자율운영 데이터베이스(Oracle Autonomous Database)에 내장된 자동화 기능은 수동 데이터베이스 관리 작업과 인적 오류 발생의 가능성을 제거할 수 있다. 한편, 오라클은 엑사데이터 X11M이 멀티 클라우드 지원을 강화해 고객의 배포 선택권을 넓힌다고 설명했다. 엑사데이터 X11M은 온프레미스, 하이브리드 클라우드(엑사데이터 클라우드앳커스터머), 퍼블릭 클라우드(OCI)를 모두 지원한다. 또한 구글 클라우드, AWS, 마이크로소프트 애저와 같은 멀티 클라우드 환경에서도 구축 및 운영이 가능하다. 레이 부사장은 “오라클 데이터베이스는 모든 배포 환경에서 100% 호환되기 때문에, 기업은 애플리케이션 변경 없이 필요한 곳 어디에서나 워크로드를 실행할 수 있다”고 덧붙였다.   ▲ 엑사데이터 X11M의 혁신을 소개한 오라클 아쉬시 레이 부사장   AI 시대를 위한 클라우드 데이터베이스 제시 오라클은 엑사데이터 X11M을 통해 클라우드 데이터베이스 시장에서 입지를 더욱 강화할 계획이다. 레이 부사장은 “오라클은 2008년 첫 출시 이후 하드웨어와 소프트웨어 모두에 걸쳐 엑사데이터의 데이터 인텔리전스 성능 및 효율을 혁신해 왔다. 엑사데이터 X11M은 성능 개선의 전통을 이어가면서 가격을 동일하게 유지함으로써, 고객은 가격 대비 성능의 향상 폭을 체감할 수 있을 것”이라고 전했다. 오라클은 기존 엑사데이터 고객이 다운타임 없이 X11M으로 업그레이드할 수 있으며, 애플리케이션 수정이 필요하지 않기 때문에 전환 과정에서의 부담을 최소화할 수 있다고 전했다. 오라클은 클라우드 기반의 엑사데이터 서비스를 통해 고객이 새로운 성능과 확장성을 체험하고 데이터 현대화 여정을 이어갈 수 있도록 지원할 예정이다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-02-04
오라클, 데이터 분석·AI 성능과 효율 높인 엑사데이터 X11M 출시
오라클이 오라클 엑사데이터(Oracle Exadata) 플랫폼의 최신 세대인 오라클 엑사데이터 X11M(Oracle Exadata X11M)을 발표했다.  이전 세대와 동일한 가격으로 시작하는 엑사데이터 X11M은 AI, 분석, 온라인 트랜잭션 처리(OLTP) 전반에 걸쳐 향상된 성능을 제공한다. 지능형 전력 관리와 함께 기업의 미션 크리티컬 워크로드를 더 빠르고 적은 시스템에서 실행할 수 있는 기능을 결합해 에너지 효율성 및 지속가능성 목표를 달성할 수 있도록 지원한다. 또한, 퍼블릭 클라우드와 멀티 클라우드, 온프레미스 환경 전반에서 동일한 기능이 제공되어 기업은 애플리케이션 변경 없이 오라클 데이터베이스 워크로드를 어디에서나 배포 및 실행할 수 있는 유연성을 확보할 수 있다. 오라클은 최신 AMD 에픽(EPYC) 프로세서에 최적화된 엑사데이터 X11M이 경쟁사의 데이터베이스 시스템 대비 더 높은 수준의 성능을 제공한다고 전했다. 엑사데이터 X11M의 성능은 모든 워크로드 전반에서 개선되었으며, AI를 위한 더 빠른 벡터 검색과 트랜잭션 처리에서 더욱 빨라진 초당입출력속도(IOPS)와 짧은 지연 시간, 그리고 분석을 위한 더 빠른 데이터 스캔 및 쿼리 처리량을 제공한다. 엑사데이터 X11M은 플래시 및 엑사데이터 RDMA 메모리(XRMEM)에서 데이터를 스캔할 수 있는 기능을 통해 큰 규모의 분석 처리량을 달성할 수 있다. 이와 같이 향상된 성능이 이전 세대인 엑사데이터 X10M과 동일한 가격으로 제공되며, 기업이 동일한 규모의 플랫폼에서 더 많은 작업을 수행할 수 있도록 지원하여 비용 절감을 가능하게 한다.     엑사데이터 X11M은 X10M 플랫폼 대비 AI 벡터 검색, OLTP, 분석 등에서 성능을 개선했다. 지능형 엑사데이터 스토리지로의 투명한 오프로딩을 통해 영구(persistent) 벡터 인덱스(IVF) 검색 속도가 최대 55% 향상됐다. 인메모리 벡터 인덱스 쿼리(HNSW)는 최대 43% 더 빨라졌으며, 모든 엑사데이터 플랫폼에서 제공되는 새로운 소프트웨어 최적화 기능은 스토리지 서버에서 4.7배 향상된 데이터 필터링과 32배 빨라진 바이너리 벡터 검색을 통해 AI 검색 성능을 강화했다. 이를 통해 기업은 더 많은 비즈니스 데이터를 결합하여 정교한 벡터 검색을 더욱 빠르게 수행할 수 있으며, 생성형 AI 모델의 정확성과 안정성을 향상시키는 동시에 전체 비용을 절감할 수 있다. 엑사데이터 X11M은 직렬 트랜잭션 처리 속도가 최대 25% 향상되고 동시 처리량이 최대 25% 개선됐으며, SQL 8K I/O 읽기 지연시간이 최대 21% 감소하여 14마이크로초(us)로 단축됐다. 이를 통해 기업은 더 많은 트랜잭션을 보다 적은 데이터베이스 시스템으로 더 빠르게 처리하며 비용을 절감할 수 있다. 또한 분석 쿼리 처리 속도가 최대 25% 빨라지고, 스토리지 서버에서 분석 I/O(입출력) 속도가 최대 2.2배 향상되었으며, 데이터베이스 인메모리 스캔 속도가 최대 500GB/초 증가했다. 이와 같은 개선 사항을 다른 엑사데이터 혁신 기술과 결합해 기업은 트랜잭션 데이터를 실시간으로 분석하고, 테라바이트에서 페타바이트에 이르는 규모의 데이터 웨어하우스를 보다 빠르게 스캔하여 중요한 비즈니스 인사이트를 확보할 수 있다. 오라클은 엑사데이터 X11M을 활용해 기업이 4가지 방식으로 전력 사용량 및 비용을 대폭 절감할 수 있다고 설명했다. 첫째, 엑사데이터 X11M은 높은 성능으로 기업이 데이터베이스 워크로드 포트폴리오를 더 적은 수의 시스템에서 실행할 수 있게 해 인프라와 전력 및 냉각, 데이터센터 공간을 절약할 수 있다. 둘째, 엑사데이터 X11M은 더 많은 워크로드를 더 작은 규모의 시스템에 통합할 수 있도록 해 활용 효율성이 향상된다. 셋째, 엑사데이터 X11M에는 지능형 전력 관리 기능이 내장되어 있어 기업은 사용하지 않는 CPU 코어를 비활성화하거나 전력 소비를 제한하고, 사용량이 적은 기간 동안 전력 활용을 최적화하여 에너지 효율성과 지속가능성 목표를 달성할 수 있다. 마지막으로 오라클 자율운영 데이터베이스(Oracle Autonomous Database)에 내장된 자동화 기능을 통해 수동 데이터베이스 관리 작업과 인적 오류 발생 가능성을 제거할 수 있다. 엑사데이터 X11M은 온프레미스, 엑사데이터 클라우드앳커스터머(Exadata Cloud@Customer)의 엑사데이터 데이터베이스 서비스(Exadata Database Service) 및 자율운영 데이터베이스(Autonomous Database), OCI 및 멀티클라우드 환경에서 배포될 수 있다. 기업은 이러한 환경 전반에서 동일한 엑사데이터 아키텍처에서 실행되는 동일한 오라클 데이터베이스 및 기능을 사용할 수 있다. 오라클 데이터베이스는 모든 배포 환경에서 100% 호환되기 때문에 기업은 애플리케이션 변경 없이 필요한 곳 어디에서나 워크로드를 실행할 수 있다. 멀티클라우드 배포 환경에서 오라클 데이터베이스는 OCI, AWS, 구글 클라우드, 마이크로소프트 애저 데이터센터의 엑사데이터 X11M에서 실행된다. 이 옵션을 통해 기업은 오라클 리얼 애플리케이션 클러스터(Oracle Real Application Clusters)를 포함한 모든 오라클 데이터베이스 기능에 액세스할 수 있으며, 이는 계획된 다운타임과 계획되지 않은 다운타임 동안 확장성과 높은 가용성을 제공한다. 또한, 기업은 AWS, 구글 클라우드, 마이크로소프트 애저의 애플리케이션, AI 모델 또는 분석 도구를 저지연 네트워크 연결을 통해 오라클 데이터베이스 내 데이터와 결합할 수 있다. 오라클의 코탄다 우마마지스와란(Kothanda Umamageswaran) 엑사데이터 및 수평 확장 기술 담당 수석 부사장은 “엑사데이터 X11M을 통해 오라클은 탁월한 확장성, 성능, 비즈니스 가치를 제공하며 퍼블릭 클라우드와 멀티 클라우드, 온프레미스 등 고객이 원하는 곳 어디에서나 배포할 수 있는 선택지와 유연성을 지속적으로 제공하고 있다. 실제로 OCI를 포함해 모든 주요 클라우드에서 엑사데이터 X11M이 실행될 예정”이라면서, “기존 시스템을 업그레이드하든 엑사데이터 X11M에 새로운 애플리케이션을 배포하든 기업은 하드웨어, 전력 및 냉각, 데이터센터 공간에서의 절감 효과와 함께 차별화된 가격 대비 성능과 통합성, 효율성의 이점을 누릴 수 있다”고 설명했다.
작성일 : 2025-01-14
레노버, 인텔 제온 기반 AI 서버 ‘씽크시스템 V4’ 론칭
레노버 글로벌 테크놀로지 코리아(ISG)가 11월 7일 인텔 제온(Xeon) 6 기반 신규 서버인 ‘씽크시스템(ThinkSystem) V4’의 론칭 세미나를 진행했다. 이번 세미나는 ‘모두를 위한 더 스마트한 고성능컴퓨팅(Smarter HPC for All)’이라는 주제로 개최되었다. 레노버 글로벌 테크놀로지 코리아와 인텔코리아의 임원진 및 실무진이 참여해 다양한 기업의 IT 및 비즈니스 의사 결정권자들에게 레노버의 최첨단 AI 및 고성능컴퓨팅(HPC) 구현 설루션을 소개하는 자리를 가졌다. 이날 행사는 레노버 글로벌 테크놀로지 코리아 손정수 기술영업 총괄 전무의 환영사를 시작으로, AI 및 HPC 부문 사업을 담당하는 정연구 상무의 ‘AI를 통한 비즈니스 혁신 가속화’ 발표로 이어졌다. 이어 테크니컬 세일즈를 담당하는 김평욱 상무가 씽크시스템 신제품인 SR630 V4 및 SD520 V4의 첨단 성능 및 활용 인사이트를 설명했으며, 이후 인텔코리아의 홍승표 이사가 인텔의 ‘AI 에브리웨어’ 비전을 발표했다. 이날 소개된 씽크시스템 V4는 인텔 제온 6세대 프로세서를 탑재한 레노버의 첨단 AI 서버로 에지부터 클라우드, 데이터센터까지 AI 여정의 모든 지점에서 워크로드 접근성을 지원한다. 이전 라인업 대비 4배 이상 향상된 랙 밀도와 3배 이상 높아진 웹 성능 덕에 방대한 트랜잭션 데이터를 다루는 고밀도 워크로드에 최적화되어 있다. 특히, 개별 가속기 추가 없이도 효율적이고 신속한 작업이 가능한 차세대 인텔 프로세서에 기반해 모든 기업의 보다 스마트한 AI 및 HPC 구현을 돕는다. 씽크시스템 SR630 V4는 인텔의 첨단 E-코어를 탑재해 전력 소비를 줄이고 코어 애플리케이션의 성능을 최대화한 2소켓 서버다. PCIe 5 IO 및 DDR5 메모리로 애플리케이션 대역폭을 최대 2배까지 높여 클라우드 서비스 제공업체(CSP)나 통신사와 같은 대형 기업의 워크로드를 효과적으로 확장한다. 씽크시스템 SD520 V4는 초밀도 코어 탑재로 온라인 뱅킹, 전자상거래, HPC 등 대규모 데이터의 연산 집약적 작업을 효율적으로 차리한다. 웹 트랜잭션 수를 늘릴 경우 처리량을 최대 3.18배까지 향상 가능하며, 이전 버전 대비 3배 이상의 스토리지를 보유해 컴퓨팅 집약적인 워크로드에 높은 대역폭의 메모리를 제공한다. 레노버는 GPU, CPU, 소프트웨어, 서포트를 조합해 포괄적인 AI 포트폴리오를 내세우고 있다. 레노버는 이번에 출시된 씽크시스템 V4 포트폴리오는 고밀도 성능과 넵튠(Neptune) 액체 냉각 기술을 토대로 손상 없이 효율적이고 혁신적인 AI 컴퓨팅을 선보일 것으로 기대하고 있다. 레노버 글로벌 테크놀로지 코리아의 윤석준 부사장은 “레노버와 인텔의 업계 선도적인 기술력을 토대로 개발된 씽크시스템 SR630 V4 및 SD520 V4를 출시할 수 있게 되어 기쁘다”면서, “레노버는 앞으로도 모든 조직에 있어 효율적이고 안전하며 워크로드에 최적화된 설루션을 제공해 AI 기반 비즈니스 성장을 견인하는 최적의 파트너사로 자리매김할 것”이라고 말했다.
작성일 : 2024-11-11
서비스나우, 기업의 AI 기반 생산성 높이는 워크플로 데이터 패브릭 출시
서비스나우가 기업의 AI 기반 생산성을 한층 높일 ‘워크플로 데이터 패브릭(Workflow Data Fabric)’을 발표했다. 워크플로 데이터 패브릭은 향상된 통합 데이터 레이어로 기업 전반의 비즈니스 및 기술 데이터를 연결해, 모든 워크플로와 AI 에이전트가 모든 소스의 데이터에 실시간으로 안전하게 접근할 수 있도록 지원한다. 또한 서비스나우는 고객이 데이터를 즉각적인 AI 기반 작업으로 전환할 수 있도록 회사의 통합 기능을 최적화하는 ‘제로 카피 커넥터(Zero Copy connectors)’를 공개했다. 더불어 시스템 통합 서비스 기업인 코그니전트(Cognizant)와 전략적 파트너십을 체결하고, 워크플로 데이터 패브릭을 시장에 선보일 첫 번째 파트너로 코그니전트를 소개했다. 많은 조직에서는 데이터가 수백 개의 서로 다른 시스템에 저장돼 있어 직원들이 다양한 애플리케이션을 활용해야 하는 어려움이 있었다. AI의 가치를 극대화하기 위해 팀과 부서 전반에서 데이터를 관리하고 활용할 수 있으며 확장 가능한 단일 플랫폼을 필요로 한다. 가트너는 “2027년까지 기업의 30%가 조합 가능한 애플리케이션(composable application) 아키텍처를 지원하는 데이터 패브릭으로 데이터 에코시스템을 강화해 경쟁 우위를 확보할 것”이라고 전망했다. 워크플로 데이터 패브릭은 확장성과 효율성을 극대화하기 위해 기업 전반의 정형, 비정형, 반정형, 스트리밍 데이터를 연결하고 이해하며 조치할 수 있는 능력을 확장해가고 있다. 자동화 엔진과 새로 도입된 랩터DB 프로(RaptorDB Pro) 데이터베이스의 기능을 통해, 워크플로 데이터 패브릭은 모든 시스템의 데이터에 접근하고 업데이트할 수 있다. 이에 서비스나우는 이러한 데이터 저장 공간(repositories)에서 데이터를 읽고 조치를 취할 수 있다. 예를 들어, 소매업체는 워크플로 데이터 패브릭을 사용해 고객 데이터 플랫폼, 핵심 ERP, 주문 관리 시스템, POS 시스템, 엑셀의 가맹점 환불 건, 협동 및 거래 지출에 대한 마케팅 영수증 등 다양한 시스템의 데이터에 접근해 고객 문의, 주문 및 반품에 대한 조치를 취할 수 있는 단일 통합 비즈니스 뷰를 확보할 수 있다. 워크플로 데이터 패브릭은 서비스나우의 자동화 엔진으로 구동되며, 이 엔진은 사전 구축된 통합 및 자동화 도구, 실시간 데이터 스트리밍, RPA, 프로세스 마이닝 기능을 포함한다. 이를 통해 초고속 및 대규모 오케스트레이션과 자동화로 데이터를 활용해 가치를 극대화한다. 이러한 성능은 서비스나우의 고성능 데이터베이스인 랩터DB 프로로 가능하며, 초기 활용 사례에서는 전체 트랜잭션 시간이 최대 53% 단축되고 보고서, 분석 및 목록 보기가 27배 빨라졌으며 트랜잭션 처리량이 3배 이상 증가한 것으로 나타났다. 워크플로 데이터 패브릭은 데이터 처리 속도를 실시간으로 높이고 레거시 데이터 관리로 인한 지연을 줄이기 위해 고도화된 워크플로 자동화를 제공한다. 예를 들어 리테일, 네트워크, 고객 관리 등 여러 시스템에 분산된 통신사 데이터를 통합해 상담원의 고객 경험 파악을 돕고, 네트워크 장애를 초고속으로 감지하고 해결하는 프로세스를 간소화한다. 또한 알림에서 수집된 풍부한 데이터를 통합해 불필요한 알림을 줄이고, 문제 해결에 필요한 도구와 함께 인시던트를 적합한 현장 담당자에게 자동으로 배정함으로써 단일 플랫폼에서 신속하게 대응할 수 있도록 지원한다. 워크플로 데이터 패브릭에는 대규모 엔터프라이즈 데이터를 연결하고 조율하는 역할을 하는 서비스나우 놀리지 그래프(Knowledge Graph)도 포함된다. 놀리지 그래프는 원시 데이터를 상황에 맞는 인사이트로 변환해 기업의 인력, 프로세스, 운영 및 시스템을 유기적으로 연결한다. 이를 통해 AI 에이전트는 기업 전반에서 더 효과적이고 자율적으로 작업할 수 있다. 조직은 단순한 데이터 접근을 넘어 정보의 진정한 가치를 발굴하고 개인화된 AI 기반 경험을 대규모로 제공할 수 있게 된다. 워크플로 데이터 패브릭 기능은 전략적 파트너쉽과 통합을 바탕으로 AI 기반의 워크플로 혁신을 위한 데이터 솔루션을 제공한다. 주요 데이터 플랫폼과의 파트너십을 통해 고들은 해당 생태계 내에서 직접 서비스나우 워크플로을 활용할 수 있게 된다. 이를 통해 고객들은 인사이트와 실행 간의 격차를 줄이고 데이터 생태계에서의 잠재력을 발휘할 수 있다. 또한, 워크플로 데이터 패브릭은 자율적인 문제 해결을 위해 AI 에이전트 지원부터 고객 운영 및 직원 경험과 같은 기존 워크플로를 간소화하는 데 이르기까지, 데이터를 실시간으로 실행 가능한 인사이트로 전환한다. 이를 통해 기업은 활용 사례의 복잡성이나 유형에 관계없이 데이터를 활용해 혁신적인 성과를 이끌어낼 수 있다. 서비스나우의 존 시글러(Jon Sigler) 플랫폼 및 AI 부문 수석 부사장은 “AI의 가치는 플랫폼의 설계와 접근할 수 있는 데이터에 의해 결정된다”면서, “워크플로 데이터 패브릭을 통해 고객이 다양한 소스의 비즈니스 데이터를 더 쉽게 연결하고 이해할 수 있도록 지원해 효율성을 극대화하고 산업별 주요 과제를 해결할 수 있도록 돕고 있다”고 설명했다. 또한 “서비스나우는 비즈니스 혁신을 위한 AI 플랫폼으로 AI와 데이터, 워크플로 오케스트레이션 및 자동화를 성공적으로 조합해 제공하고 있다”고 덧붙였다.
작성일 : 2024-11-08
IBM, 차세대 IBM Z 메인프레임 시스템을 위한 AI 가속 프로세서 발표
IBM은 ‘핫 칩스(Hot Chips) 2024’에서 곧 출시될 IBM 텔럼(Telum) II 프로세서와 IBM 스파이어 엑셀러레이터(Spyre Accelerator)의 아키텍처 세부 사항을 공개했다. 이 새로운 기술은 차세대 IBM Z 메인프레임 시스템의 처리 용량을 확장하도록 설계되었으며, 기존 인공지능(AI) 모델과 거대 언어 AI 모델을 함께 사용할 때 새로운 AI 앙상블 방식을 통해 속도를 높일 수 있도록 지원한다. 대규모 언어 모델(LLM)을 활용하는 많은 생성형 AI 프로젝트가 개념 증명에서 생산 단계로 넘어가면서 전력 효율적이고 안전하며 확장 가능한 솔루션에 대한 요구가 우선 순위로 떠올랐다. 8월에 발표된 모건 스탠리의 연구에 따르면 향후 몇 년 동안 생성형 AI의 전력 수요가 매년 75%씩 급증해, 2026년에는 스페인 전체가 2022년에 소비한 에너지 사용량만큼을 소비하게 될 것으로 예상됐다. 많은 IBM 고객들은 적정한 규모의 파운데이션 모델을 지원하기 위한 아키텍처 결정과 AI 워크로드를 위해 설계된 하이브리드 클라우드 접근 방식이 점점 더 중요해지고 있다고 말한다. 이번에 공개된 IBM 텔럼 II 프로세서는 차세대 IBM Z 시스템을 구동하도록 설계된 칩으로, 1세대 텔럼 칩에 비해 증가한 클럭(주파수) 및 메모리 용량, 40% 증가한 캐시 및 통합 AI 가속기 코어, 데이터 처리에 일관성을 제공하는 부속 데이터 처리 장치(DPU)가 특징이다. IBM은 새로운 프로세서가 업계의 복잡한 트랜잭션 요구 사항을 충족함으로써 LLM을 위한 엔터프라이즈 컴퓨팅 솔루션을 지원할 것으로 기대하고 있다. 텔럼 II 프로세서 칩의 새로운 데이터 처리 장치(DPU)는 메인프레임의 네트워킹 및 스토리지를 위한 복잡한 IO 프로토콜을 가속화하도록 설계되었다. DPU는 시스템 운영을 간소화하고 주요 구성 요소의 성능을 향상시킬 수 있다. IBM 스파이어 엑셀러레이터는 텔럼 II 프로세서를 보완하기 위해 추가 AI 연산 능력을 제공한다. 텔럼 II와 스파이어 칩은 함께 작동해 여러 개의 머신러닝 또는 딥러닝 AI 모델을 인코더 LLM과 결합하는 앙상블 방식의 AI 모델링을 지원하기 위한 확장 가능한 아키텍처를 형성한다. 각 모델 아키텍처의 강점을 활용함으로써 앙상블 AI는 개별 모델에 비해 더 정확하고 강력한 결과를 제공할 수 있다. 핫 칩 2024 컨퍼런스에서 선공개된 IBM 스파이어 엑셀러레이터 칩은 별도 옵션으로 제공될 예정이다. 각 엑셀러레이터 칩은 75와트 PCIe 어댑터를 통해 부착된다. 스파이어 엑셀러레이터는 다른 PCIe 카드처럼 고객의 요구에 따라 확장이 가능하다.  텔럼 II 프로세서는 차세대 IBM Z 및 IBM 리눅스원 플랫폼의 중앙처리장치가 될 것이며, 향후 IBM Z 및 리눅스원 고객에게 제공될 예정이다. 현재 기술 프리뷰 단계의 IBM 스파이어 엑셀러레이터도 함께 제공될 것으로 예상된다. 텔럼 II 프로세서와 IBM 스파이어 엑셀러레이터는 삼성 파운드리에서 높은 성능과 전력 효율성을 제공하는 5nm 공정 노드를 기반으로 제작될 예정이다. IBM은 이 두 제품이 함께 작동해 비즈니스 가치를 실현하고 새로운 경쟁 우위를 창출하도록 설계된 다양한 AI 기반 활용 사례를 지원할 것으로 전망하고 있다. 또한, 앙상블 방식의 AI를 통해 고객이 더 빠르고 정확한 예측 결과를 얻을 수 있으며, 이번에 발표된 특징이 결합된 처리 능력으로 생성형 AI 활용 사례를 위한 발판을 마련할 것으로 기대했다. IBM의 티나 타르퀴니오(Tina Tarquinio) IBM Z 및 리눅스원 제품 관리 담당 부사장은 “IBM은 강력한 로드맵을 통해 증가하는 AI 수요를 비롯한 기술 트렌드에서 앞서 나갈 수 있는 기반을 마련했다”면서, “텔럼 II 프로세서와 스파이어 엑셀러레이터는 고성능, 보안, 전력 효율성이 뛰어난 엔터프라이즈 컴퓨팅 솔루션을 제공하도록 설계되었다. 수 년간 개발해온 이러한 기술은 차세대 IBM Z 플랫폼에 도입되어 고객이 LLM과 생성형 AI를 대규모로 활용할 수 있게 할 것”이라고 말했다.
작성일 : 2024-08-27
[포커스] 오라클, 오픈소스 DB에서 생성형 AI의 활용 위한 서비스 발표
오라클은 트랜잭션 및 레이크하우스 규모 분석을 위한 오픈소스 기반의 MySQL 데이터베이스 처리 서비스인 히트웨이브(HeatWave)를 제공하고 있다. 여기에 생성형 AI를 통합한 서비스가 히트웨이브 생성형 AI(HeatWave GenAI)이다. 히트웨이브 생성형 AI는 인-데이터베이스(in-database) 대규모 언어 모델(LLM), 자동화된 인-데이터베이스 벡터 저장소, 확장 벡터 처리 및 비정형 콘텐츠 기반의 맥락화된 자연어 대화 기능 등을 제공한다. ■ 정수진 편집장   오라클의 니푼 아가르왈(Nipun Agarwal) MySQL & 히트웨이브 개발 수석부사장은 “히트웨이브는 완전 관리형 데이터베이스 처리 서비스로서 멀티 클라우드 환경에서 제공된다. 초기에는 MySQL 기반의 OLTP(온라인 트랜잭션 처리) 서비스로 제공되었고, 이후 꾸준히 기능을 강화해 왔다. 이번에 생성형 AI 및 벡터 저장소 기능을 포함하게 되면서, 단일 서버 위에서 더욱 다양한 기능을 제공하게 되었다”고 설명했다. 히트웨이브 생성형 AI는 인-데이터베이스 자동 백터 저장소, 인-데이터베이스 LLM, 확장형 벡터 처리, 히트웨이브 챗(HeatWave Chat) 등 네 가지의 새로운 기능을 선보였다.   ▲ 오라클은 데이터베이스에서 생성형 AI를 활용하기 위한 서비스를 선보였다.   기업의 비정형 콘텐츠에 LLM의 강점을 결합 벡터 저장소는 비정형 콘텐츠에 LLM을 활용하도록 지원함으로써, 기업의 내부 콘텐츠에 LLM의 강점을 적용할 수 있게 돕는다. 히트웨이브에 인-데이터베이스 자동 벡터 저장소를 추가함으로써 비정형 데이터에 대한 시맨틱 검색을 지원하는 등 전통적인 데이터 처리와 다른 방식을 구현한다는 것이 오라클의 설명이다. 아가르왈 수석부사장은 “오브젝트 스토리지의 데이터를 생성형 AI가 히트웨이브 내부에서 처리함으로써 생성형 AI의 강점을 데이터베이스 내부로 가져올 수 있는 독보적인 아키텍처를 구현했다”면서, “데이터 처리 작업 과정을 히트웨이브 내에서 진행함으로써 스토리지의 비용을 줄이고, 확장성과 안정성을 높은 수준으로 구현할 수 있다”고 설명했다. 오라클 인-데이터베이스 벡터 저장소는 벡터 저장소의 생성 과정을 단순화하고 자동화함으로써, 벡터 저장소 생성의 퍼포먼스를 높이고 비용을 줄일 수 있도록 했다. 생성형 AI 앱의 개발은 먼저 벡터 스토어를 구성한 뒤 LLM을 활용해 이 벡터 스토어를 적용하는 과정으로 진행된다. 오라클은 이 두 단계를 합치고 단계별로 하나의 호출 커맨드만으로 처리할 수 있다면서, 앱이 생성형 AI를 활용하는 방식을 단순화할 수 있다고 설명했다. 또한 데이터가 데이터베이스 밖으로 나가지 않기 때문에 보안도 강화할 수 있다.   LLM 활용의 비용은 줄이고 속도는 높인다 히트웨이브 생성형 AI는 데이터베이스 내부에서 CPU를 사용해 LLM을 구동할 수 있도록 했다. LLM을 구축 및 활용하기 위해 GPU 서비스를 추가로 사용하지 않아도 된다는 것이다. 아가르왈 수석부사장은 인-데이터베이스 LLM의 이점으로 단순화, 저비용, 유연성, 보안/퍼포먼스 등을 꼽았다. 추가 클라우드 서비스나 GPU가 필요 없고, 동일한 서비스를 여러 클라우드에서 사용할 수 있으며, 데이터가 데이터베이스 밖으로 나가지 않기 때문이다. 아가르왈 부사장은 “물론 외부 LLM을 적용하는 것도 가능하다. 오라클 클라우드 인프라스트럭처(OCI)에서 제공하는 GPU 기반의 생성형 AI 서비스를 활용할 수 있지만, 전력 소비 등에서 CPU 기반 인-데이터베이스 LLM의 이점이 크다고 본다”고 전했다. 인-데이터베이스 LLM의 또 다른 이점은 히트웨이브를 사용할 수 있는 모든 클라우드 환경에서 LLM을 사용할 수 있으며, 히트웨이브의 오토ML과 연동해 LLM을 활용한 쿼리 정확도 및 성능의 향상이 가능하다는 점이다. 오라클은 오토ML이 인풋 데이터의 양을 줄여줘서 LLM 호출 비용을 줄일 수 있다는 설명도 덧붙였다. 또한, 히트웨이브 내에서 벡터 프로세싱 지원이 추가됐다. 히트웨이브 MySQL에서 신규 벡터 데이터타입을 지원해 MySQL의 쿼리를 효율적으로 사용할 수 있게 됐다. 아가르왈 수석부사장은 “인 메모리 프로세싱이 가능해지면서 여러 노드에서 확장이 용이해졌고, 낮은 비용으로 빠른 벡터 처리를 지원할 수 있게 됐다. 스노우플레이크, 데이터브릭스, 구글 빅쿼리 등과 쿼리 처리 성능을 비교한 자체 테스트에서는 15~30배 높은 속도를 보였다”고 전했다. 이번에 함께 선보인 히트웨이브 챗(HeatWave Chat)은 SQL 또는 자연어를 기반으로 히트웨이브와 시각적으로 상호작용하는 인터페이스를 제공한다. 이는 히트웨이브 생성형 AI에 기반한 여러 앱 중 하나로 서버 내 채팅 이력, 인용 내용, LLM 옵션 등을 저장하고, 히트웨이브 환경 내에서 자유롭게 챗을 사용할 수 있게 한다.   ▲ 오라클의 니푼 아가르왈 수석부사장은 히트웨이브 생성형 AI를 추기 비용 없이 사용할 수 있다고 소개했다.   자동화, 단순화, 안전성 등을 강점으로 내세워 오라클은 히트웨이브 생성형 AI가 인-데이터베이스에서 통합된 자동화 솔루션으로 높은 안전성과 앱 개발의 단순성을 제공한다고 설명했다. 이를 통해 앱 개발 비용을 줄이면서 보안도 강화할 수 있다는 것이다. 비용과 관련해 아가르왈 수석부사장은 “히트웨이브는 완전 관리형 서비스로 제공되며 라이선스 단위로 관리하지 않기 때문에, 히트웨이브 내에서 생성형 AI를 활용하기 위한 추가 비용이 없다”면서, “다른 업체는 머신러닝, OLTP, 생성형 AI 등을 별도의 서비스로 구성하고 있지만, 오라클은 모든 고객이 모든 데이터에 AI를 사용할 수 있도록 하기 위해 데이터 처리 플랫폼에 생성형 AI 기능을 내장했으며, 유료화나 가격 인상 계획 또한 없다”고 설명했다. 오라클은 보안 관점에서 인-데이터베이스 벡터 저장소가 유용하다는 점도 강조했다. 많은 LLM이 공개된 콘텐츠를 활용하지만, 기업 내부 콘텐츠에 LLM을 적용하고자 하는 요구도 있다. 오라클은 기업 데이터를 기반으로 LLM을 추가 생성할 필요가 없이, 벡터 저장소의 결과값을 LLM의 입력값으로 피딩하면 기업 데이터의 유출 없이 LLM을 사용할 수 있다는 점을 내세운다. 기업 데이터의 이력을 저장하지 않고 입력값으로만 사용하기 때문에 데이터 보호 수준이 높다는 것이다.  아가르왈 수석부사장은 “인-메모리 데이터베이스 안에서 모든 데이터를 스캔해 결과를 도출하기 때문에 정확한 벡터 처리 결과값을 얻을 수 있다. 여기에 RAG(검색 증강 생성)를 사용한다면 공개 데이터를 사용하는 것과 다르게 LLM의 문제로 꼽히는 환각현상을 줄일 수 있다”고 전했다. 한편, 한국어 지원에 대해서는 “현재 히트웨이브 생성형 AI는 메타의 라마 3(Llama 3)를 기반 LLM 모델로 사용하는데, 영어만큼 정확도가 높지는 않지만, 기술이 빠르게 발전하고 있어 수개월 내에 한국어의 정확도가 더욱 높아질 것으로 본다”고 밝혔다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-08-02
오라클, “오라클 클라우드 VM웨어 솔루션으로 글로벌 기업의 비즈니스 성장 지원”
오라클은 다양한 산업 분야의 글로벌 기업들이 오라클 클라우드 VM웨어 솔루션(Oracle Cloud VMware Solution)을 사용해 기존의 온프레미스 데이터센터 운영을 종료하고, 비즈니스 주요 애플리케이션을 오라클 클라우드 인프라스트럭처(OCI)로 이전한다고 밝혔다. 오라클 클라우드 VM웨어 솔루션은 높은 수준의 확장성과 성능, 보안, 제어를 필요로 하는 기업을 위해 설계됐다. 기업 고객은 자사의 VM웨어 스택 전반에 대한 관리 제어 운영을 위해 클라우드 인프라스트럭처와 VM웨어 콘솔을 직접 관리할 수 있다. 기업은 이로써 기존의 기술과 모범 사례, 도구를 유지하면서 온프레미스의 VM웨어 자산을 클라우드로 신속히 마이그레이션할 수 있게 됐다. 오라클은 이 서비스에 새로운 기능을 지속적으로 추가하기 위해 오라클 클라우드 VM웨어 솔루션용 엔비디아 A10 텐서 코어(NVIDIA A10 Tensor Core) GPU와 인텔 제온 플래티넘 8358 프로세서(Intel Xeon Platinum 8358 Processor)를 갖춘 새로운 OCI 컴퓨트 구성을 발표했다. 또한 AMD 에픽(EPYC) 9J14 프로세서 기반의 또 다른 추가 구성을 출시할 계획이다. 이를 통해 오라클은 고객들에게 광범위한 워크로드 전반에서 추가 컴퓨트 옵션과 향상된 성능을 제공한다는 방침이다.     히타치 건설 기계는 유압 굴삭기, 휠 로더, 도로 시설 및 광산 장비의 개발, 제조, 판매, 임대, 관리 서비스를 제공하며 전세계에서 40만 대 이상의 건설 장비를 운용 중인 글로벌 기업이다. 히타치 건설 기계는 디지털 전환 전략의 일환으로 약 500대의 가상 서버와 100개의 데이터베이스를 온프레미스 VM웨어 가상화 환경에서 OCI 상의 오라클 클라우드 VM웨어 솔루션과 오라클 엑사데이터 데이터베이스 서비스(Oracle Exadata Database Service)로 마이그레이션 중에 있다. 히타치 건설 기계는 이를 통해 이미 인프라 운영 비용을 20% 절감하고, 온라인 트랜잭션 처리 성능을 50%, 배치 처리 성능을 60% 개선했다. 렘트랜스는 우크라이나의 철도 차량 민간 운영사로, 연간 5천2백만 톤 이상의 화물을 운송하는 1만 5000대 이상의 무개 화차를 운영하고 있다. 열차 일정 관리, ID 및 액세스 관리 등 핵심 프로세스 및 데이터베이스를 클라우드로 긴급하게 전환해야 했던 렘트랜스는 오라클 클라우드 VM웨어 솔루션을 통해 데이터 및 애플리케이션을 우크라이나 외부로 신속하게 이전해 데이터 복원력을 높이고 자사의 IT 투자를 보호할 수 있었다. 마츠다 모터스 로지스틱스 유럽 N.V.(MLE)는 유럽 고객에게 차량 및 부품을 유통하는 업무를 담당하고 있다. MLE는 유럽 30여 개국의 2300여 개 이상의 딜러 및 독립 유통업체에 직접 예비 부품을 공급하고 바르셀로나, 앤트워프, 제브뤼주 항구로 차량을 배송하여 유럽 전역에 유통한다. 회사는 데이터센터를 단계적으로 축소하고 운영을 현대화한다는 목표를 달성하기 위해 500개의 VM웨어 가상머신을 마이그레이션하고 오라클 엑사데이터 시스템을 OCI 기반 엑사데이터 데이터베이스 서비스에서 실행되는 80개의 오라클 데이터베이스에 통합했다. MLE는 또한 자사의 비즈니스 크리티컬 애플리케이션을 오라클 클라우드 VM웨어 솔루션의 12개 호스트를 갖춘 여러 소프트웨어 정의 데이터센터(SDDC)로 통합했다. 그 결과 MLE는 프랑크푸르트에 있는 2개의 데이터센터 운영을 종료하면서도 높은 수준의 애플리케이션 맞춤화 및 데이터베이스 호환성을 유지할 수 있었다. 아홀드 델레이즈는 세계 최대 규모의 식료품 리테일 기업으로, 16개의 지역별 브랜드와 7,700개의 매장, 40만명 이상의 직원을 보유하고 있다. 수년간 자체 온프레미스 VM웨어 환경 및 그 운영을 뒷받침하기 위한 여러 IT 시스템과 솔루션을 운영해 온 아홀드 델레이즈는 VM웨어에서 오라클 핵심 비즈니스 프로세스용 애플리케이션과 타사 앱을 실행하며 비교해본 후 성능 개선 및 비용 절감을 위해 클라우드로의 마이그레이션을 결정했다. 이후 회사는 자사의 네덜란드 핵심 로컬 브랜드인 앨버트 하인, 에토스, 갤앤갤을 시작으로 전자상거래 및 공급망, 리테일 프로세스를 지원하는 400개 이상의 VM웨어 가상머신(VM)을 오라클 클라우드 VM웨어 솔루션으로 마이그레이션했다. 이를 통해 남아 있던 데이터센터 상면공간을 제거하고 자사의 VM웨어 환경에 대한 전반적인 관리 제어 권한을 유지할 수 있게 되었다.  오라클의 마헤쉬 티아가라얀(Mahesh Thiagarajan) OCI 총괄 부사장은 “VM웨어 자산을 클라우드로 옮겨 운영하기를 원하는 많은 기업들이 새로운 운영방식으로 인해 IT 기술을 배워야 한다는 부담감을 느끼고 있다”면서, “오라클 클라우드 VM웨어 솔루션은 조직이 VM웨어 클러스터를 완벽하게 제어하고 기존의 도구, 기술, 프로세스를 유지해줘 재교육에 대한 부담을 덜 수 있도록 지원한다. 오라클의 솔루션은 고객이 온프레미스 VM웨어 클러스터와 동일한 운영 모델을 유지할 수 있게 하기 때문에, 클라우드를 통한 시스템 현대화 추진 시 위험성이 낮은 접근 방식”이라고 설명했다.
작성일 : 2024-07-22
오라클, 가트너 매직 쿼드런트 ‘데이터 분석 및 비즈니스 인텔리전스 플랫폼 부문’ 리더 선정
오라클이 2024 가트너 매직 쿼드런트(2024 Gartner Magic Quadrant)에서 데이터 분석 및 비즈니스 인텔리전스 플랫폼 부문의 리더로 선정되었다고 밝혔다. 오라클은 실행 능력 및 비전 완성도 항목에서 높은 평가를 받았다.  데이터 분석 분야의 미래 기술로는 AI가 접목된 솔루션과 향상된 자동화 등이 있으며, 특히 맥락에 부합하는 인사이트를 제공하는 기술이 크게 주목받고 있다. 오라클은 데이터 탐색, 대시보드, 스토리텔링을 지원하는 퓨전 데이터 인텔리전스(Fusion Data Intelligence) 등과 같은 새로운 솔루션과 오라클 애널리틱스 클라우드의 업데이트를 통해 데이터 분석 분야에서의 혁신을 지속해 나가고 있다.     오라클 퓨전 데이터 인텔리전스는 오라클 자율운영 데이터베이스(Oracle Autonomous Database), OCI 생성형 AI(OCI Generative AI), 오라클 애널리틱스 클라우드와 같은 오라클 클라우드 인프라스트럭처(OCI) 서비스를 활용하는 차세대 데이터 관리 및 분석 솔루션이자 AI 솔루션이다. 오라클 퓨전 데이터 인텔리전스의 AI 및 머신러닝 기능은 일상적인 트랜잭션 보고를 능가하는 고도화된 데이터 분석에 기반한 인사이트를 제공하고, 재무, 공급망, HR, 고객 서비스 등의 다양한 분야와 관련된 구체적인 질문에 대한 답변을 도출하는 데 기여한다. 오라클은 이미지에서 얼굴을 감지하는 OCI 비전(OCI Vision), 문서에서 정보를 추출하는 OCI 도큐먼트 언더스탠딩(OCI Document Understanding) 등의 OCI AI 서비스를 통합하여 애널리틱스 클라우드를 지속적으로 개선하고 있다. 또한 애널리틱스 어시스턴트(Analytics Assistant)는 데이터 스토리텔링을 혁신하여 모든 사용자가 본인의 기술적 수준과 상관없이 인사이트 중심의 내러티브를 구성하고 수정할 수 있도록 지원한다. 오라클 애널리틱스 클라우드는 타사 클라우드 서비스를 함께 사용하여 다양한 AI 결과물을 생성할 수 있다. 예를 들어, 타사의 AI 아바타 기능을 사용하여 데이터 스토리를 흥미로운 뉴스캐스트 형식으로 제시함으로써 자연스러운 정보 활용을 촉진할 수 있다. 오라클의 T.K. 아난드 애널리틱스 담당 총괄 부사장은 “데이터의 양은 끊임없이 증가하고 있으며, 그로 인한 데이터 및 AI 기반 의사 결정에 대한 수요도 함께 증가하고 있다. AI 기반 오라클 애널리틱스 클라우드(Oracle Analytics Cloud)는 고객이 단순한 데이터 분석으로부터 보다 효과적인 의사 결정을 수행하고 보다 효율적인 조치를 취하는 단계까지 나아갈 수 있도록 지원한다”면서, “이번 가트너 리더 선정은 고객의 직관적인 의사 결정에 기여하는 동급 최고의 분석 플랫폼을 제공해 온 오라클의 역량을 인정받은 중요한 성과라고 생각한다”고 전했다.
작성일 : 2024-07-10
레노버, 하이브리드 AI 혁신 돕는 AMD 기반 서버 및 인프라 솔루션 공개
레노버는 에지부터 클라우드까지 하이브리드 AI 혁신을 지원하기 위해 새로운 맞춤형 AI 인프라 시스템 및 솔루션 제품군을 발표했다. 레노버는 다양한 환경과 산업에서 컴퓨팅 집약적인 워크로드를 처리하기 위해 폭넓은 GPU 옵션과 높은 냉각 효율성을 지닌 솔루션을 선보인다.    ▲ 씽크시스템 SR685a V3 GPU 서버   레노버는 AMD와 협력하여 씽크시스템(ThinkSystem) SR685a V3 GPU 서버를 선보였다. 이 서버는 고객에게 생성형 AI 및 대규모 언어 모델(LLM)을 포함해 컴퓨팅 수요가 많은 AI 워크로드를 처리하는데 적합한 성능을 제공한다. 또, 금융 서비스, 의료, 에너지, 기후 과학 및 운송 업계 내 대규모 데이터 세트를 처리하기 위한 빠른 가속, 대용량 메모리 및 I/O 대역폭을 제공한다. 새로운 씽크시스템 SR685a V3은 엔터프라이즈 프라이빗 온프레미스 AI와 퍼블릭 AI 클라우드 서비스 제공자 모두에게 최적화된 솔루션이다. 씽크시스템 SR685a V3는 금융 서비스 분야에서 사기 탐지 및 예방, 고객확인정책(KYC) 이니셔티브, 리스크 관리, 신용 발행, 자산 관리, 규제 준수 및 예측을 지원하도록 설계되었다. 4세대 AMD 에픽(EPYC) 프로세서와 AMD 인스팅트 MI300X GPU을 탑재하고 있으며, AMD 인피니티 패브릭으로 상호연결되어 1.5TB의 고대역폭(HBM3) 메모리, 최대 총 1TB/s의 GPU I/O 대역폭 성능을 제공한다. 공기 냉각 기술로 최대 성능을 유지하고 엔비디아의 HGXTM GPU와 향후 AMD CPU 업그레이드를 지원하는 등 유연성도 높였다. 레노버는 AMD EPYC 8004 프로세서를 탑재한 새로운 레노버 씽크애자일(ThinkAgile) MX455 V3 에지 프리미어 솔루션으로 에지에서 AI 추론 및 실시간 데이터 분석을 제공한다. 이번 다목적 AI 최적화 플랫폼은 에지에서 새로운 수준의 AI, 컴퓨팅 및 스토리지 성능을 제공하며, 높은 전력 효율성을 제공한다. 온프레미스 및 애저 클라우드와의 원활한 통합을 지원하며, 고객이 간소화된 라이프사이클 관리를 통해 총소유비용(TCO)을 절감하고 향상된 고객 경험을 얻으며 소프트웨어 혁신을 보다 빠르게 채택하도록 돕는다. 리테일, 제조 및 의료 분야에 최적화된 해당 솔루션은 낮은 관리 오버헤드, 레노버 오픈 클라우드 자동화(LOC-A) 툴을 통한 신속한 배포, 애저 아크(Azure Arc) 지원 아키텍처을 통한 클라우드 기반 매니지먼트, 마이크로소프트와 레노버가 검증한 지속적인 테스트와 자동화된 소프트웨어 업데이트를 통한 보안, 신뢰성 향상 및 다운타임 절감 등을 주요 특징으로 한다.   ▲ 씽크시스템 SD535 V3 서버   레노버와 AMD는 열효율성이 뛰어난 다중 노드의 고성능 레노버 씽크시스템 SD535 V3 서버도 공개했다. 이 제품은 단일 4세대 AMD 에픽 프로세서로 구동되는 1S/1U 절반 너비 서버 노드로 집약적인 트랜잭션 처리를 위해 랙당 퍼포먼스를 극대화시켰다. 이는 모든 규모의 기업을 위한 클라우드 컴퓨팅, 대규모 가상화, 빅 데이터 분석, 고성능 컴퓨팅 및 실시간 전자 상거래 트랜잭션을 포함해 워크로드에 대한 처리 능력과 열 효율성을 극대화한다. 한편, 레노버는 기업이 AI 도입으로 역량을 강화하고 성공을 가속화할 수 있도록 레노버 AI 자문 및 프로페셔널 서비스를 발표했다. 이 서비스는 모든 규모의 기업이 AI 환경에서 효율적인 비용으로 신속하게 알맞는 솔루션을 도입하고 AI를 구현할 수 있도록 다양한 서비스, 솔루션 및 플랫폼을 제공한다. 이 과정은 5단계, ‘AI 발견, AI 자문, AI의 빠른시작, AI 배포 및 확장, AI 관리’로 정리할 수 있다. 레노버는 먼저 보안, 인력, 기술 및 프로세스 전반에 걸쳐 조직의 AI 준비도를 평가하고, 이를 기반으로 조직의 목표에 맞는 가장 효과적인 AI 채택 및 관리 계획을 제안한다. 그런 다음, 레노버 전문가들은 이에 필요한 AI 요소를 설계 및 구축하고, AI 구현을 위한 도구 및 프레임워크를 배포하며, AI 시스템을 유지, 관리 및 최적화할 수 있는 지침을 제공한다. 마지막으로 레노버는 고객과 협력하여 배포부터 시작해 IT 제품 라이프사이클 전반을 지원하고, AI 사용 사례와 AI 성숙도가 함께 성장할 수 있도록 AI 이노베이터 생태계를 지속적으로 관리 및 발전시키고 있다.  레노버 AI 자문 및 프로페셔널 서비스를 통해 고객은 전문적인 IT 팀의 지원을 받아 AI 구현의 복잡성은 완화하고 실질적인 비즈니스 성과를 빠르게 낼수 있다. 레노버는 엔드 투 엔드 서비스, 하드웨어, AI 애플리케이션 및 서비스를 총동원해 고객이 AI 여정의 모든 단계에서 성장하도록 돕는다. 이는 결국 AI 도입을 간소화하여 모든 규모의 조직을 대상으로 AI 접근성을 높이고 산업 전반에 걸쳐 혁신적인 인텔리전스를 구현할 수 있도록 지원한다.  금융 서비스나 의료 업계 분야의 고객은 대량의 데이터 세트를 관리해야 하며 이는 높은 I/O 대역폭을 필요로 하는데, 레노버의 이번 신제품은 중요한 데이터 관리에 필수인 IT 인프라 솔루션에 초점을 맞추었다. 레노버 트루스케일 (Lenovo TruScale)은 고객이 까다로운 AI 워크로드를 서비스형 모델로 원활하게 통합할 수 있도록 유연성과 확장성을 지원한다. 또, 레노버 프로페셔널 서비스(Lenovo Professional Services)는 고객이 AI 환경에 쉽게 적응하고, AI 중심 기업들이 끊임없이 진화하는 요구사항과 기회를 충족할 수 있도록 돕는다. 레노버의 수미르 바티아(Sumir Bhatia) 아시아태평양 사장은 “레노버는 AMD와 함께 획기적인 MI300X 8-GPU 서버를 출시하며 AI 혁신에 앞장섰다. 레노버는 대규모 생성형 AI 및 LLM 워크로드를 처리할 수 있는 고성능을 제공함으로써 AI의 진화를 포용할 뿐만 아니라 더욱 전진시키고 있다. AMD의 최첨단 기술을 기반에 둔 우리의 최신 제품은 시장을 선도하겠다는 포부를 담고 있다. CIO의 AI 투자가 45% 증가할 것으로 예상됨에 따라, AMD MI300X 기반 솔루션의 포괄적인 제품군은 조직의 지능적인 혁신 여정에 힘을 실어줄 것”이라고 말했다.  레노버 글로벌 테크놀로지 코리아 윤석준 부사장은 “레노버는 하이브리드 AI 솔루션을 통해 국내에 다양한 기업을 지원하며 AI 혁신에 앞장서고 있다. 올해 한국 기업의 95% 이상이 생성형 AI에 투자할 계획을 갖고 있는 가운데, AI 도입이 증가하고 있다는 사실은 분명하다. 우리는 AI가 경쟁 우위를 확보하는 데 중추적인 역할을 한다는 점을 인지하고 AMD와 협력하여 포괄적인 AI 시스템 및 솔루션 제품군을 출시했다. 레노버는 금융 서비스 분야의 통찰력 가속화부터 의료산업 내 성능 강화까지 혁신적인 인텔리전스 분야를 선도하고 있다. AMD 기술로 구동되는 신규 씽크시스템 및 씽크애자일 제품은 에지 및 클라우드 환경 전반에 걸쳐 전례 없는 성능과 효율성을 제공하며 AI 배포를 혁신한다”고 전했다.
작성일 : 2024-05-08
[포커스] 오라클, 모던 데이터 플랫폼 및 데이터베이스 혁신 전략 발표
한국오라클이 지난 4월 16일 ‘모던 데이터 플랫폼 및 데이터베이스 혁신 전략’을 주제로 기자간담회를 열고, 융합형 데이터베이스(Converged DB)를 중심으로 한 오라클의 포괄적인 기업 데이터 관리 기술의 현재와 미래에 대해 소개했다.  ■ 박경수 기자   기자간담회에는 ‘DB의 아버지’라 불리는 오라클의 앤디 멘델손(Andy Mendelsohn) DB 서버 기술개발사업부 총괄 부사장이 참석해 ‘데이터, AI 및 앱 개발의 미래’를 주제로 발표하고, 오라클 DB 솔루션이 향후 AI 시대를 주도할 데이터 플랫폼의 미래 시장에서 어떤 가치를 갖고 있는지 설명했다.   오라클 모던 데이터 플랫폼 오라클 모던 데이터 플랫폼(Oracle Modern Data Platform)은 전체 라이프사이클을 간소화하고 더 빠른 속도로 통찰력을 제공한다는 점이 특징이다. 단일 플랫폼 상에서 모든 트랜잭션, 웨어하우스, 분석 및 인공지능(AI)/머신러닝(ML) 자산에 대한 수집, 선별(curation) 및 관리를 통해 기업이 데이터에 대한 더 큰 통제 권한을 얻을 수 있다. 오라클은 온프레미스, 하이브리드, 규제, 퍼블릭 클라우드 솔루션 등 원하는 형식이 무엇이든 지원할 수 있다고 강조했다. 모던 데이터 플랫폼은 기업 조직에 데이터 저장, 처리 및 분석을 위한 통합 환경을 제공하는 중앙 집중형 인프라로, 일반적으로 데이터 웨어하우스, 데이터 레이크, 추출, 변환, 로드(ETL) 파이프라인 및 분석 도구 등의 기술들을 포함하고 있다.  모던 데이터 플랫폼은 표준화 및 통합된 데이터 관리 접근방식을 확립해 기업 조직이 귀중한 통찰력을 얻고, 데이터 기반 의사결정을 내릴 수 있도록 하는 지원하는 것을 주된 목표로 삼는다. 단일 통합 저장소에서 데이터 자산을 중앙 집중형으로 관리해 데이터에 대한 더 쉬운 액세스, 협업 및 통제를 가능케 한다.   ▲ 오라클 모던 데이터 플랫폼 기자간담회 모습   융합형 데이터베이스 중심의 기업 데이터관리 앤디 멘델손 부사장은 “오라클의 데이터베이스 비전은 기업 앱 및 분석 개발 운영을 어떠한 활용 사례 및 규모에서든 수월하게 만드는 것”이라며, “전략적 핵심은 기업의 개발뿐만 아니라, 생성형 AI 및 LLM 결합을 통해 생성까지 쉽게 만드는 것”이라고 말했다. 이러한 비전 달성을 지원하는 두 가지 핵심 축은 ‘융합형 DB’ 및 ‘자율운영 DB’이다. 오라클의 융합형 DB는 23c 버전을 클라우드 환경으로 정식 출시됐고, 곧 사내구축형 환경으로도 출시될 예정이다. 멘델손 부사장은 오라클이 2023년 9월에 발표한 차세대 융합형 DB인 오라클 DB 23c가 기존 관계형 모델과 JSON 및 그래프 모델 간의 통합을 구현하는 혁신을 이뤘다고 소개했다. 또한 최근의 앱은 관계형뿐만 아니라 JSON, 그래프 등 다양한 데이터 유형이 혼합 운영되는 가운데, 개발자는 오라클 DB 23c를 통해 3가지 유형의 데이터 장점을 모두 활용하는 앱을 개발, 운영하고 있으며 그 과정에서 데이터의 일관성을 손쉽게 유지할 수 있다고 설명했다. 융합형 DB는 멀티 모델, 멀티 테넌트 및 멀티 워크로드 DB로, 각 개발팀이 원하는 데이터 모델과 액세스 방법을 지원하면서 불필요한 기능으로 방해받지 않도록 한다. 또한 각 개발 팀이 필요로 하는 모든 워크로드(OLTP, 분석, IoT 등)를 탁월한 성능으로 지원한다.  한편 오라클은 지난해 9월 오라클 데이터베이스23c(Oracle Database 23c)에 AI 벡터를 사용하는 시맨틱 검색 기능을 추가할 계획이라고 발표했다. AI 벡터 검색(AI Vector Search)이라는 기능 모음에는 새로운 벡터 데이터 유형, 벡터 인덱스, 벡터 검색 SQL 연산자 등이 포함되어 있다.   ▲ 오라클의 앤디 멘델손 DB 서버 기술개발사업부 총괄 부사장   생성형 AI 기술과 데이터베이스 접목 멘델손 부사장은 또 오라클 DB 비전과 관련해 생성형 AI를 접목한 융합형 DB(Converged Database)와 이를 구동하는 자율운영 DB(Oracle Autonomous Database)를 통해 모던 앱 및 분석을 생성 및 운영하는 작업이 간소화될 것이라고 강조했다. 이를 통해 융합 개방형 SQL DB가 기존 단일목적 상용 DB를 대체함으로써, 기업 개발자와 IT 전문가가 데이터 통합 시간을 줄이고 혁신에 더 집중하도록 돕는다는 전략이다. 오라클은 생성형 AI 기능을 자사 DB 포트폴리오에 내장하고 있는데, 기업이 오라클의 AI 기반 애플리케이션을 구축하도록 지원하기 위함이다. 대표적인 예로, 기업은 자율운영 데이터베이스 셀렉트 AI(Autonomous Database Select AI) 기능을 사용해 자체 엔터프라이즈 데이터와 생성형 AI가 제공하는 생산성 및 창의성의 장점 모두를 활용함으로써 애플리케이션 개발을 가속화할 뿐만 아니라, 신규 비즈니스 솔루션 구축을 진행할 수 있다. 또한 오라클은 OCI 데이터 사이언스(OCI Data Science)의 기능도 확장하고 있으며, 이를 통해 기업이 허깅페이스(Hugging Face)의 트랜스포머(Transformers) 또는 파이토치(PyTorch)와 같은 오픈소스 라이브러리를 사용해 복수의 LLM을 구축, 훈련, 배포 및 관리하도록 지원한다.   ▲ 차세대 융합형 데이터베이스, 오라클 DB 23c   오라클 글로벌 분산형 자율운영 데이터베이스 오라클 글로벌 분산형 자율운영 데이터베이스(Oracle Globally Distributed Autonomous Database)는 기업이 데이터 레지던시 요건을 충족시키고, 비즈니스 크리티컬 애플리케이션에 생존성을 제공하며, 클라우드급 DB 성능을 제공하도록 지원하는 완전 자동화된 분산형 클라우드 DB다.  또한 Oracle DB 샤드 세트로 분산된 단일 논리적 오라클 DB로, 각 샤드는 논리적 DB 데이터의 하위 집합을 호스팅하는 독립적인 오라클 DB 인스턴스다. 다수 샤드를 하나의 OCI 가용성 도메인, 여러 OCI 가용성 도메인 또는 리전, 또는 상이한 지역의 OCI 리전에서 실행해 각각 성능 극대화, 최상의 가용성 확보 및 데이터 레지던시 요건을 지원할 수 있다. 이 밖에도 기업의 핵심 워크로드 구동에 최적화된 고성능 및 고안정성을 제공하는 동시에, 데이터 주권 및 보안 강화를 지원하는 오라클의 서비스로는 오라클 융합형 DB(Oracle Converged Database), 오라클 자율운영 DB(Oracle Autonomous Database), 오라클 엑사데이터 클라우드앳커스터머(Oracle Exadata Cloud@Customer), MySQL 히트웨이브(MySQL HeatWave) 등이 있다. 또한 오라클은 기업 요구사항을 충족시킬 수 있는 DB 및 분석 서비스에 지속적으로 투자하고 있다.   멀티 클라우드 지원 오라클의 또 다른 전략적 핵심은 '멀티 클라우드 지원'이다. 오라클과 마이크로소프트는 주로 애저(Azure) 클라우드 이용 약정 계약을 맺고 있다. 애저 환경에서 자사의 앱 및 오라클 DB를 함께 운영하길 원하는 양사 고객들을 위해 ‘오라클 데이터베이스앳애저(Oracle Database@Azure)’를 발표했다.  해당 오퍼링은 물리적인 엑사데이터(Exadata) 하드웨어를 애저 클라우드 리전 안에 위치시켜 애저 클라우드 데이터 센터 안에서 바로 엑사데이터 기반 클라우드 서비스를 제공하는 변화를 선보였다. 이를 통해 양사 고객들은 기존 애저 클라우드 서비스에 대한 이용 약정 계약 금액만으로 애저 클라우드 및 오라클 데이터베이스 클라우드 서비스를 모두 사용할 수 있게 됐다. 향후 오라클은 MS 외에도 타 클라우드 기업들과 파트너십 확대를 전략적 목표로 삼고 있으며, 올해 오라클 클라우드 월드에서 관련 내용을 소개할 예정이다.  이번 기자간담회를 통해 오라클은 오라클 DB에 많은 양의 비즈니스 데이터를 보유한 기업들이 강력한 AI 기술 및 SQL을 손쉽게 활용해 간단한 방식으로 데이터 검색을 지원하는데 초점을 맞추고 있다는 것을 알 수 있다. 이를 통해 기업은 내부 독점 데이터를 더 잘 활용하는 것은 물론 이해할 수 있게 될 것으로 전망하고 있다. 또한 표준 SQL 기반으로 제공되는 AI 기술이기 때문에 컴퓨터 공학 부문에서 높은 학위가 없다고 하더라도 SQL을 이용할 수 있는 모든 DBA(데이터베이스 관리자)가 활용할 수 있다는 점도 특징이다.    질의 응답 Q. 오라클 DB의 자연어 질문 및 답변 지원 기능과 관련해, 이를 일반적 챗GPT와 비교 시, 기업 내 환경에서는 일반 사용자들이 경험하는 환각현상 같은 것들이 허용되지 않고 정확해야 하는데 이에 대한 관점은 A. 회사 내 데이터에 대해 LLM 기반 검색은 말씀하신 그런 LLM 모델로는 좋은 답을 제공할 수 없다. 말씀한 모델은 인터넷에 공개된 방대한 데이터에 대해 훈련됐지만, 기업 보유의 프라이빗 데이터에 대해서는 전혀 알지 못하기 때문이다. 비즈니스적인 질문을 비즈니스 데이터에 대해 할 경우에 자연어로 질문을 할 때 LLM이 올바른 SQL 질문을 만들 수 있도록 도울 수 있는 데이터 강화가 필요하다. 그래서 사용자의 질문의 맥락에 따라서 가장 적절하다고 생각되는 데이터베이스 스키마를 생성 및 제공해야 한다.  이에 오라클은 LLM이 SQL 생성 후 적절한 오라클 데이터베이스에 있는 스키마만 참조할 수 있도록 하며, 인터넷 공개 데이터로 답변하지 않도록 한다. 애널리스트들이 자주 묻는 질문을 알고 있기 때문에, 이것을 기반으로 관계형 뷰를 만들어서 여기서 가장 자주 묻는 질문에 해당하는 스키마 생성 및 이를 LLM에 전송해서 기업 맥락에 맞는 답변할 수 있도록 보완한다.    Q. 자율운영 DB 개념과 다른 리전에서 고가용성 및 레지던스 확보를 지원하는 기능에 대해 설명해 달라 A. 글로벌 분산형 자율운영 DB는 전 세계적으로 각국 정부가 데이터 주권 규제 강화하고 있는 추세를 지원하고자 출시했다. 예를 들어 현대기아자동차 같이 글로벌하게 운영하는 기업은 전 세계 고객에 대한 DB를 갖고 있다. 데이터 주권 규제로 인해 고객 DB를 국가별로 분산해서 나눠서 관리해야 하는 의무가 있다. 하나의 단일한 고객 DB를 통합해서 관리할 수 없고, 중국, EU 등으로 나눠서 관리해야 하며 이것을 데이터베이스 샤딩이라는 용어로 표현하고 있다. 그래서 23c에서 글로벌 샤딩을 쉽게 만드는 기술을 포함하고 있다.   Q. 파운데이션 LLM 사업을 직접 하지 않는 이유와 최근에 등장하는 경쟁력 있는 MS 오픈 AI, 구글 제미나이 등에 모델을 올리기 어려운 점에 대한 관점은 A. 챗GPT 같은 파운데이션 LLM 모델 개발 구축에 많은 비용이 들며, 시장의 무료 모델을 쓸 수 있기 때문이다. 또한 셀렉트 AI 등 오라클이 AI로 LLM 활용을 지원하는 기술들 중 좋은 API로 연결해 시중의 인기 있는 널리 사용되고 있는 LLM 모델과 잘 연동되고 지원하도록 기술을 고도화하고 있다. 오라클 클라우드 관점에서 오픈AI 등 LLM 벤더와 파트너십을 맺어서 오라클 클라우드를 사용하도록 움직이고 있다. 말하자면 프라이빗 LLM 만들 수 있도록 지원하는 것이다. 현재 AI 커뮤니티에서 굉장히 많은 개발 움직임이 있는데, 그 중 하나가 업무별로 특화된 LLM을 만드는 것이다. 이 경우 운영 비용이 굉장히 저렴해질텐데, 예를 들면 SQL 생성에 특화된 LLM 만든다고 했을 때, 이런 쪽과 협력해서 특화된 기술을 저렴한 비용으로 사용할 수 있도록 하는 협력을 진행하고 있다.      ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-05-02