• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "HPE"에 대한 통합 검색 내용이 215개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
인텔코리아, AI 기술 전략 소개 및 국내 기업과 협력 확대 발표
인텔은 국내 협력사들과 함께 자사의 AI 기술 동향과 최신 전략, 협력 사례를 공유하는 ‘2025 인텔 AI 서밋 서울’을 개최했다고 밝혔다. 인텔 AI 서밋은 AI 기술의 최신 트렌드와 혁신적인 적용 사례를 공유하고 산업 전반에 걸친 AI의 잠재력과 미래 발전 방향을 함께 모색하기 위한 자리다. 레노버, 네이버클라우드, SK하이닉스, 델, 마이크로소프트, 삼성SDS, 슈퍼마이크로, 시스코, HPE, LG이노텍, LG전자 등 국내외 주요 협력사와 KAIST, 중소벤처기업부, 창업진흥원 등 학계와 공공 부문에서도 관련 전문가들이 참석하여 AI 기술 동향과 산업 간 협력 방안을 논의하고 네트워킹하는 자리가 이어졌다. 이번 행사는 인텔코리아 배태원 사장의 환영사와 한스 촹(Hans Chuang) 인텔 세일즈 마케팅 그룹의 아시아 태평양 및 일본 총괄의 인사말로 시작되었다. 촹 총괄은 “AI 기술이 빠르게 진화하고 활용 사례도 점점 복잡해지면서, 기업들은 성능과 비용 효율성을 동시에 충족하는 보다 개방적이고 다양한 설루션을 필요로 한다”고 전했다. 또한, “인텔은 폭넓은 호환성, 다양한 소프트웨어 옵션, 고유의 아키텍처, 뛰어난 성능을 제공함으로써 AI가 데이터센터, 클라우드, 네트워크 에지 및 PC에 이르는 전체 컴퓨팅 연속체에서 최적의 성능을 발휘하도록 지원하고 있다”면서, 인텔의 개방형 프로그래밍 모델은 단일 벤더의 하드웨어나 GPU에서만 동작하는 폐쇄형 프로그래밍 모델에 비해 비용과 유연성 측면에서 실질적 비즈니스 우위를 제공한다고 강조했다.     이어진 파트너 세션에서 레노버 아시아태평양지역 인프라 솔루션 그룹 수미르 바티아(Sumir Bhatia) 사장은 ‘모두를 위한 스마트한 AI’를 주제로 기업들의 AI 가속화에 따른 높은 전력 수요로 지속가능성이 주요 과제로 떠올랐음을 강조하며, 이를 해결하기 위한 레노버의 최신 냉각 기술과 AI 추론 최적화 설루션을 소개했다.  또한 SK하이닉스의 정우석 부사장은 ‘메모리 중심 AI 컴퓨팅 시대의 새로운 기회’ 발표를 통해 AI 컴퓨팅 시대를 맞아 부각되고 있는 메모리 기술의 중요성을 강조하며, 커스텀 메모리 기술의 시장 기회가 증가하고 있다고 밝혔다. 또한 인텔과 데이터센터용 설루션의 다양한 영역에서 긴밀히 협력 중임을 덧붙였다. 전략적 파트너 세션의 발표자로 나선 네이버클라우드의 김유원 대표는 AI 생태계에 대한 발표를 통해 “네이버클라우드는 인텔과 오랜 기간 클라우드 인프라 분야에서 긴밀히 협력해왔으며, 제온 프로세서 기반의 서비스부터 최근의 AI 가속기 가우디에 이르기까지 협력의 범위와 깊이가 꾸준히 확장되고 있다”며, “향후에도 네이버클라우드는 인텔과 함께 글로벌 시장을 타깃으로 다양한 AI 기반 클라우드 서비스를 공동 개발하며, 기술 혁신과 해외 진출이라는 두 축에서 협력을 확대해 나갈 것”이라고 말했다. 오후 세션에서는 ‘AI & 데이터센터’와 ‘AI PC & 에지 AI’로 나뉘어 업계의 최신 정보 및 인사이트, 사례 발표가 이어졌다. 데이터센터 세션에서 삼성 SDS는 가우디 3 기반 LLM 추론 성능 분석 사례를 공유했고, AI PC 부문에서는 LG이노텍이 인텔 AI 설루션 기반 스마트 공장 사례를, 전북특별자치교육청이 AI PC를 활용한 수업 혁신 사례를 공유하는 등 교육, 게임, 리테일, 제조 등 다양한 분야의 적용 사례를 공유했다. 인텔은 하반기에도 국내 AI 생태계 발전을 위한 협력을 더욱 확대해 나갈 예정이다. 인텔은 행사 당일 포스코DX와 인텔 제온 프로세서의 AI 가속 기능 및 오픈비노 기술을 활용해 AI 서비스 비용 효율을 높이고, AI 에이전트 생태계 구축에 협력하기 위한 상호양해각서를 체결했다고 밝혔다. 한편 kt cloud와 인텔 가우디(Gaudi) AI 가속기를 kt cloud AI Foundry에 도입하는 것을 검토하고 AI 추론 개발에 특화된 비용 효율적인 GPUaaS 상품 출시를 검토하며, 다양한 산업군의 클라우드 수요에 대응할 수 있는 상품 포트폴리오 고도화 및 기술 협력을 위한 상호양해각서를 지난 6월 30일 체결했다.
작성일 : 2025-07-02
HPE, 엔비디아와 협력을 통해 신규 AI 팩토리 설루션 공개
HPE는 모든 유형의 조직이 전체 AI 라이프사이클에 걸쳐 인공지능(AI) 팩토리 구축, 도입 및 관리를 강화할 수 있도록 지원하는 새로운 설루션을 발표했다. HPE는 서비스 제공업체, 모델 개발자 등을 위한 맞춤형 컴포저블 설루션과 엔터프라이즈용 턴키 AI 팩토리인 차세대 HPE 프라이빗 클라우드 AI(HPE Private Cloud AI)를 포함해 엔비디아 블랙웰(NVIDIA Blackwell) GPU를 탑재한 ‘HPE 포트폴리오 기반 엔비디아 AI 컴퓨팅(NVIDIA AI Computing by HPE portfolio)’ 설루션 포트폴리오를 확대하고 있다. AI 팩토리를 위한 통합형 엔드투엔드 설루션과 서비스는 고객이 최신 AI를 위한 데이터센터를 구축할 때 자체적으로 AI 기술 스택을 구성하는 데 따르는 복잡성을 줄여준다. HPE 기반 엔비디아 AI 컴퓨팅 포트폴리오의 대표 제품인 프라이빗 클라우드 AI는 엔비디아 가속 컴퓨팅, 네트워킹 및 소프트웨어를 포함한 올인원 AI 팩토리 설루션이다. 엔비디아 블랙웰 가속 컴퓨팅을 지원하는 HPE 프로라이언트 컴퓨트 Gen12 서버는 변조 방지를 위한 시큐어 인클레이브(Secure Enclave), 양자 이후 암호화, 랙 및 서버 수준의 신뢰할 수 있는 공급망 역량을 제공한다. 또한, 엔비디아 H200 NVL 및 엔비디아 RTX PRO 6000 서버 에디션 GPU를 포함해 다양한 기업용 AI 워크로드(에이전트 및 물리형 AI 사례 포함)를 지원한다. 새로운 연합 아키텍처를 통해 리소스 풀링이 통합되어, 모든 AI 워크로드에 새로운 GPU와 리소스를 공유할 수 있다. 프라이빗 클라우드 AI는 엄격한 데이터 프라이버시 요구사항을 갖춘 조직을 위한 폐쇄형 클라우드(air-gapped) 관리 기능 및 기업이 팀 간 협업과 리소스 분할을 가능하게 하는 멀티 테넌시 기능을 지원한다. 그리고, AI 에이전트 생성 및 워크플로에 특화된 엔비디아 AI-Q 블루프린트 등 최신 엔비디아 AI 블루프린트(NVIDIA AI Blueprints)를 제공한다. 고객은 구매 전 에퀴닉스(Equinix) 전 세계 고성능 데이터센터 네트워크에서 프라이빗 클라우드 AI를 테스트해볼 수 있는 새로운 ‘트라이 앤 바이(Try and Buy)’ 프로그램을 활용할 수 있다. 한편, HPE는 자사의 AI 팩토리 포트폴리오를 확대하면서 신규 검증 설루션도 선보였다. 이 설루션에는 액체 냉각 기술, 하이브리드 클라우드 운영, 통합 제어를 위한 HPE Morpheus Enterprise Software 등이 포함됐다. HPE의 종단 간 컴포저블 설루션은 고객을 위해 사전 통합된 모듈형 기술 스택으로 제공돼, 구축 시간과 가치를 실현하는 속도를 높인다. HPE의 AI 팩토리 설루션은 엔비디아 엔터프라이즈 AI 팩토리의 검증된 설계를 활용함으로써 최신 엔비디아 가속 컴퓨팅, 엔비디아 스펙트럼-X(NVIDIA Spectrum-X) 이더넷 네트워킹, 엔비디아 블루필드-3(NVIDIA BlueField-3) DPU, 및 엔비디아 AI 엔터프라이즈 소프트웨어(NVIDIA AI Enterprise software)를 통해 배포 가능하다. 이를 통해 차세대 AI 시대를 위한 고성능, 강력한 보안, 효율적인 저장 가속화, 및 확장 가능한 인프라를 제공한다. HPE의 안토니오 네리(Antonio Neri) 사장 겸 최고경영자(CEO)는 “생성형 AI, 에이전틱 AI, 피지컬 AI는 글로벌 생산성을 혁신하고 지속가능한 사회적 변화를 가져올 잠재력을 품고 있다. 하지만 이러한 AI의 성공은 결국 이를 뒷받침하는 인프라와 데이터의 역량에 의해 좌우된다”며, “조직이 AI가 제공하는 기회를 실현하기 위해서는 올바른 데이터, 인텔리전스, 비전이 필요하며, 무엇보다 이를 실행할 수 있는 올바른 IT 기반을 마련하는 것이 핵심이다. HPE는 업계를 선도하는 AI 인프라와 서비스를 결합한 가장 포괄적인 접근 방식을 통해 조직이 AI 비전을 실현하고 지속가능한 비즈니스 가치를 창출할 수 있도록 지원하고 있다”고 말했다. 엔비디아의 젠슨 황(Jensen Huang) CEO는 “우리는 새로운 산업 시대에 들어서고 있다, 이는 대규모로 인텔리전스를 생성하는 능력으로 정의되는 시대”라며, “HPE와 엔비디아는 이 변혁을 주도하기 위해 전체 스택 AI 공장 인프라를 제공하며, 기업들이 데이터를 활용하고 전례 없는 속도와 정밀도로 혁신을 가속화할 수 있도록 지원한다”고 밝혔다.
작성일 : 2025-06-25
HPE, 엔비디아와 협력해 AI 팩토리 포트폴리오 강화
HPE는 전체 AI 수명주기를 지원하고 기업, 서비스 제공업체, 공공기관, 연구기관 등 다양한 고객의 요구를 충족하는 ‘HPE 기반 엔비디아 AI 컴퓨팅(NVIDIA AI Computing by HPE)’ 설루션 포트폴리오를 강화한다고 발표했다. 이번 업데이트는 엔비디아 AI 엔터프라이즈(NVIDIA AI Enterprise)와의 통합을 강화하고, 가속 컴퓨팅을 통해 HPE 프라이빗 클라우드 AI(HPE Private Cloud AI)에 대한 지원을 확대했다. 또한 엔비디아 AI 데이터 플랫폼(NVIDIA AI Data Platform)용 HPE 알레트라 스토리지 MP X10000(HPE Alletra Storage MP X10000) 소프트웨어 개발 키트(SDK)를 새롭게 출시했다. 이와 함께 HPE는 엔비디아 RTX PRO 6000 블랙웰 서버 에디션(NVIDIA RTX PRO 6000 Blackwell Server Edition) GPU 및 엔비디아 엔터프라이즈 AI 팩토리(NVIDIA Enterprise AI Factory)의 검증된 설계에 기반한 컴퓨팅 및 소프트웨어 제품도 출시했다. 엔비디아와 공동 개발한 턴키 방식의 클라우드 기반 AI 팩토리인 ‘HPE 프라이빗 클라우드 AI(HPE Private Cloud AI)’는 통합된 AI 전략을 비즈니스 전반에 확산하고 수익성 높은 워크로드를 지원하며 리스크를 대폭 줄일 수 있도록 지원하는 전용 개발자 설루션을 포함하고 있다. 또한, 이는 AI 프레임워크, 사전 훈련 모델을 위한 엔비디아 NIM 마이크로서비스(NVIDIA NIM microservices) 및 SDK를 포함하는 엔비디아 AI 엔터프라이즈(NVIDIA AI Enterprise)의 피쳐 브랜치(Feature Branch) 모델 업데이트를 지원할 예정이다. 피쳐 브랜치 모델 지원을 통해 개발자는 AI 워크로드를 위한 소프트웨어 기능과 최적화 사항을 테스트하고 검증할 수 있다.  가드레일이 내장된 프로덕션 브랜치 모델에 대한 기존 지원과 더불어, HPE 프라이빗 클라우드 AI는 모든 규모의 기업이 개발자 시스템을 구축하고 이를 프로덕션-레디 에이전틱 및 생성형 AI 애플리케이션으로 확장하는 한편, 기업 전반에 걸쳐 안전한 다계층 접근 방식을 도입할 수 있도록 지원한다. HPE 알레트라 스토리지 MP X10000은 엔비디아 AI 데이터 플랫폼 레퍼런스 설계와 연동되는 SDK를 선보일 예정이다. HPE의 최신 데이터 플랫폼과 엔비디아의 맞춤형 레퍼런스 설계를 연결함으로써, 고객은 에이전틱 AI 구현을 위한 가속화된 성능과 인텔리전트 파이프라인 오케스트레이션을 활용할 수 있다. 이번 X10000 SDK는 HPE의 데이터 인텔리전스 전략 확대의 일환으로, 컨텍스트 기반의 AI-레디 데이터를 엔비디아 AI 생태계에 직접 통합할 수 있도록 지원한다. 이를 통해 기업은 엔비디아 가속 인프라 전반에서 수집, 추론, 훈련 및 지속적인 학습을 위한 비정형 데이터 파이프라인을 간소화할 수 있다. HPE는 SDK 통합을 통해 데이터 가치 극대화, AI 데이터 플랫폼의 효율 향상, 워크로드 요구사항에 맞는 구축 최적화 등의 이점을 얻을 수 있을 것으로 보고 있다. 엔비디아 H100 NVL, H200 NVL 및 L40S GPU를 탑재한 HPE 프로라이언트 컴퓨트 DL380a Gen12(HPE ProLiant Compute DL380a Gen12) 서버는 최근 MLPerf Inference : Datacenter v5.0 벤치마크의 GPT-J, Llama2-70B, ResNet50 및 RetinaNet을 포함한 10개 테스트에서 최고 수준의 성능을 기록했다. 이 AI 서버는 곧 최대 10개의 엔비디아 RTX PRO 6000 블랙웰 서버 에디션 GPU를 탑재하여 출시될 예정이며, 이를 통해 향상된 기능과 함께 에이전틱 멀티모달 AI 추론, 피지컬 AI, 모델 미세조정 뿐만 아니라 디자인, 그래픽 및 비디오 애플리케이션을 포함한 엔터프라이즈 AI 워크로드를 위한 탁월한 성능을 제공할 예정이다. HPE 프로라이언트 컴퓨트 DL380a Gen12는 공랭식 및 직접 수냉 방식(DLC)으로 제공되며, HPE 프로라이언트 컴퓨트 Gen12 포트폴리오에 탑재된 HPE iLO(Integrated Lights Out) 7은 실리콘 RoT(Root of Trust) 기반으로 한 내장된 보호 기능을 갖추고 있다. 또한, HPE 컴퓨트 옵스 매니지먼트(HPE Compute Ops Management)는 사전 알림 기능 및 예측적 AI 기반 인사이트를 통해 서버 환경을 위한 안전하고 자동화된 수명 주기 관리를 지원한다. HPE 옵스램프 소프트웨어(HPE OpsRamp Software)는 AI 워크로드 모니터링을 위한 차세대 엔비디아 RTX PRO 6000 블랙웰 서버 에디션 GPU까지 지원할 수 있는 AI 인프라 최적화 설루션으로 확장됐다. HPE 그린레이크 플랫폼(HPE GreenLake Platform) SaaS(서비스형 소프트웨어) 방식으로 구성되는 이 설루션은 기업 내 IT 팀이 하이브리드 환경 전반에 분산된 AI 인프라를 모니터링하고, 최적화를 통해 AI인프라 운영을 효율적으로 관리, 지원한다. HPE 옵스램프는 풀스택 AI 워크로드에서 인프라 옵저버빌리티, 워크플로 자동화, AI 기반 분석 및 이벤트 관리를 가능하게 하고, 엔비디아의 모든 인프라를 정밀하게 모니터링하는 한편, AI 인프라의 성능과 복원력을 모니터링할 수 있는 세분화된 측정 지표를 제공한다. HPE의 안토니오 네리(Antonio Neri) 사장 겸 최고경영자(CEO)는 “HPE는 엔비디아와의 협업을 통해 고객에게 지속적인 혁신과 실질적인 성과를 제공하고 있으며, 강력한 설루션을 기반으로 공동 개발한 첨단 AI 기술을 통해 기업이 AI 도입의 어느 단계에 있든 기업 전반에서 그 잠재력을 효과적으로 실현할 수 있도록 지원하고 있다”면서, “HPE는 오늘날의 요구를 충족하는 동시에, AI 중심의 미래를 함께 만들어가고 있다”고 밝혔다. 엔비디아의 젠슨 황(Jensen Huang) 창립자 겸 CEO는 “기업은 HPE 시스템을 활용해 최첨단 엔비디아 AI 팩토리를 구축함으로써 생성형 및 에이전틱 AI 시대에 최적화된 IT 인프라를 준비할 수 있다”면서, “엔비디아와 HPE는 데이터센터부터 클라우드, 에지에 이르기까지 인텔리전스를 확장 가능한 새로운 산업 자원으로 활용할 수 있도록 기업을 위한 기반을 함께 만들어가고 있다”고 밝혔다.
작성일 : 2025-05-23
HPE, ‘국가 슈퍼컴퓨터 6호기’ 구축 사업자로 선정
HPE는 한국과학기술정보연구원(KISTI)의 국가 슈퍼컴퓨터 6호기 ‘KISTI-6’ 구축 사업자로 선정됐다고 발표했다. KISTI-6는 한층 발전된 다목적 컴퓨팅 아키텍처를 구축할 계획이며, 이번 슈퍼컴퓨터는 국내 최고 성능을 갖추게 될 것으로 예상된다. 이 슈퍼컴퓨터는 100% 팬 없는 직접 수냉 방식(DLC : Direct Liquid Cooling) 아키텍처를 채택하여 효율성과 지속가능성, 집적도를 높인 것이 특징이다. KISTI는 오랫동안 연구기관, 대학, 다양한 규모의 민간 기업 등 폭넓은 사용자를 대상으로 슈퍼컴퓨팅 서비스를 제공해왔다. 새롭게 도입될 이번 슈퍼컴퓨터는 데이터 집약적인 고난도 연구 과제를 폭넓게 지원하며, 국내 인공지능(AI), 시뮬레이션 기반 연구개발의 핵심 인프라 역할을 수행할 예정이다. 이 시스템은 이론상 최대 600 페타플롭스(PF)의 연산 성능을 제공하며, 이는 엑사플롭의 절반 이상에 해당한다. 슈퍼컴퓨터 6호기는 두 개의 파티션으로 구성된 HPE 크레이 슈퍼컴퓨팅 EX4000을 기반으로, 엔비디아 GH200 그레이스 호퍼 슈퍼칩(NVIDIA GH200 Grace-Hopper Superchips)과 5세대 AMD 에픽(EPYC) 프로세서를 탑재할 예정이다. 최신 가속기는 AI 학습, 추론 및 시뮬레이션에 필요한 대용량 데이터를 처리할 예정이다. 또한, 엑사스케일 인터커넥트를 지원하는 HPE 슬링샷 인터커넥트 400(HPE Slingshot Interconnect 400)은 컴퓨팅 및 스토리지 유닛 간 초당 400Gb(기가비트) 속도의 고속 데이터 전송을 지원하며, 워크로드와 애플리케이션의 시스템 전반 확장성을 높인다. KISTI는 데이터 집약적인 워크로드 수요 증가에 대응하기 위해 효율적이고 확장 가능한 데이터 관리를 위한 고속 NVMe와 대용량 NL-SAS 디스크, HPE 데이터 매니지먼트 프레임워크(HPE Data Management Framework)를 탑재한 HPE 크레이 슈퍼컴퓨팅 스토리지 시스템 E2000(Cray Supercomputing Storage Systems E2000)도 함께 도입한다. KISTI의 복잡한 연구 요구 사항에 맞춘 완전 통합형 설루션은 HPE가 설계 및 제공하며, 수냉식 시스템을 위해 특별히 맞춰진 정부 데이터 센터에 배치될 예정이다. HPE의 조셉 양(Joseph Yang) APAC 및 인도 HPC & AI 부문 총괄은 “슈퍼컴퓨팅의 선두주자로서 전 세계에서 가장 빠르고 에너지 효율적인 HPC 및 AI용 시스템을 다수 구축한 HPE는 전력 소비를 최소화하면서 비즈니스 성과를 극대화할 수 있도록 지원하는 독보적인 위치에 있다”며, “이번 전략적 사업을 통해 한국의 기초 과학 연구 및 첨단 AI 역량 강화에 기여하게 되어 매우 뜻깊게 생각하며, 이는 국가 연구개발 혁신을 가속화하려는 한국의 중장기 비전과도 부합한다”고 전했다. KISTI의 이식 원장은 “HPE, AMD 및 엔비디아와의 협력을 통해 한국이 슈퍼컴퓨팅 및 소버린 AI 혁신 분야에서 선도국으로서의 입지를 공고히 하는 것이 목표”라며, “데이터 활용, 고성능 컴퓨팅, AI 기술 분야의 전문가를 양성해 과학기술 경쟁력을 더욱 강화하고자 한다. 또한, 산업 전반의 혁신을 촉진하고 사회적 가치를 높이기 위해서는 AI의 접근성과 포용성을 확보하는 것이 매우 중요하다”고 전했다.
작성일 : 2025-05-14
HPE 아루바 네트워킹, 중소기업 위한 엔터프라이즈급 인스턴트 온 시큐어 게이트웨이 출시
HPE는 진화하는 사이버 위협으로부터 중소기업(SMB) 네트워크를 보호하기 위해 설계된 새로운 다기능 네트워크 설루션인 ‘HPE 네트워킹 인스턴트 온 시큐어 게이트웨이(HPE Networking Instant On Secure Gateway)’를 선보였다. 이는 엔터프라이즈급 보안을 간편한 구축 및 관리 기능과 결합해 전문 IT 인력이나 많은 리소스 없이도 중소기업이 자사의 네트워크를 안전하게 보호할 수 있도록 지원한다. HPE 네트워킹 인스턴트 온 시큐어 게이트웨이는 네트워크 트래픽을 지능적으로 모니터링, 필터 및 운영을 통해 안전하고 허가된 활동만을 허용하고, 악의적인 위협을 사전에 차단하는 1차 방어선 역할을 한다. 방화벽 보호, 침입 탐지 및 차단, VPN 지원, WAN 고가용성 등 핵심 보안 기능을 하나의 간편한 설루션에 통합함으로써, 중소기업이 직면한 주요 사이버 보안 과제를 효과적으로 해결하고 네트워크 보호를 간소화한다.     HPE 네트워킹 인스턴트 온 시큐어 게이트웨이는 두 가지 모델로 제공되며, 각 모델은 규모와 사용자 요구에 맞는 적절한 성능과 보호 수준을 제공하도록 설계되었다. HPE 네트워킹 인스턴트 온 시큐어 게이트웨이 SG1004(HPE Networking Instant On Secure Gateway SG1004)는 1기가만 지원하는 4포트 유선 시큐어 게이트웨이로, 기본 라우팅, WAN 복원력, VPN, 방화벽 및 IDS/IPS 옵션을 제공한다. HPE 네트워킹 인스턴트 온 시큐어 게이트웨이 SG2505P(HPE Networking Instant On Secure Gateway SG2505P)는 멀티 기가 지원 5포트 시큐어 게이트웨이로, 더 높은 성능과 클래스 4 POE 지원을 제공하며, 액세스 포인트에 총 64W의 전력 공급 및 SG1004가 지원하는 모든 기능을 포함한다. HPE 네트워킹 인스턴트 온 시큐어 게이트웨이는 네트워크 트래픽을 지속적으로 모니터링하고 IDS/IPS 서명을 자동으로 업데이트하여 실시간 위협 탐지 및 차단 기능을 제공, 새로운 위협으로부터 보호한다. 여러 핵심 보안 기능을 하나의 플랫폼에 통합함으로써 여러 도구와 벤더에 대한 의존도를 줄이고, 네트워크 보안 관리의 최신화를 촉진한다. 보안 기능을 통합한 HPE 네트워킹 인스턴트 온 시큐어 게이트웨이는 하드웨어 비용을 절감하고 서드파티 도구에 대한 의존도를 최소화한다. 고가용성 기능을 통해 다운타임을 최소화하며, 자동화된 사고 대응으로 위협을 신속하게 해결해 비즈니스의 원활한 운영을 지원한다. 또한, 자동화된 정책 시행 및 감사 추적 기능을 통해 클라우드 관리형 게이트웨이는 데이터 보호와 로그 기록을 자동화하여 규제 준수를 용이하게 한다. 또한, HPE 네트워킹 인스턴트 온 시큐어 게이트웨이는 하나의 통합된 직관적인 인터페이스를 통해 중소기업이 전체 네트워크를 관리할 수 있는 단일 클라우드 시스템을 제공, 전문 IT 인력 없이도 쉽게 관리할 수 있다. 투명한 구독 모델은 숨겨진 비용을 없애 중소기업이 고급 엔터프라이즈급 보안을 보다 쉽게 접근하고 합리적인 가격에 이용할 수 있도록 한다. HPE 아루바 네트워킹의 아몰 미트라(Amol Mitra) 월드와이드 SMB 총괄 부사장은 “오늘날 중소기업은 제한된 IT 자원과 빠르게 변화하는 디지털 환경 속에서 복잡해지는 사이버 위협으로부터 네트워크를 방어해야 하는 지속적인 과제에 직면해 있다”며, “전담 보안팀이나 충분한 예산이 없는 많은 중소기업이 효과적인 네트워크 보호에 어려움을 겪고 있으며, 기존 보안 설루션은 민첩성과 유연성, 클라우드 보안, 고도화된 위협 탐지 기능이 부족해 보안에 대한 잘못된 안정감을 주고, 결과적으로 기업을 위협에 노출시킨다. HPE 네트워킹 인스턴트 온 시큐어 게이트웨이는 이러한 격차를 해소하고, 중소기업이 많은 자원 없이도 엔터프라이즈급 보호를 제공받으며 급변하는 디지털 환경 속에서 안전을 유지할 수 있도록 지원한다”고 전했다. HPE 아루바 네트워킹의 마크 애블릿(Mark Ablett) 아태 지역 부사장은 “아시아태평양 및 일본 지역의 중소기업은 혁신을 확대하고 생산성을 높이며 일자리와 기회를 창출함으로써 지역 경제 성장의 핵심 동력으로 작용하고 있다. 그러나 이들이 잠재력을 온전히 실현하기 위해서는 고유한 과제와 요구에 맞춘 특화된 설루션이 필요하다”며, “HPE 네트워킹 인스턴트 온 시큐어 게이트웨이는 이러한 기업들이 네트워크 보호와 운영 간소화를 위한 고급 보안 설루션을 제공하며, 관리가 용이한 기능을 통해 중소기업들이 더욱 안전하게 혁신하고 확장할 수 있도록 지원한다. 이 혁신은 중소기업들이 더욱 연결되는 환경 속에서 자신감을 가지고 성장할 수 있도록 돕는 핵심 요소”라고 전했다.
작성일 : 2025-05-08
엔비디아, 기업 생산성 강화하는 ‘네모 마이크로서비스’ 정식 출시
엔비디아가 에이전트 기반 AI 플랫폼 개발을 가속화하고 기업의 생산성을 높이는 ‘엔비디아 네모 마이크로서비스(NVIDIA NeMo microservices)’를 정식 출시했다고 밝혔다. 이번에 정식 출시된 엔비디아 네모 마이크로서비스는 기업 IT 부서가 데이터 플라이휠(flywheel)을 활용해 직원 생산성을 높일 수 있는 AI 팀원을 빠르게 구축하도록 지원한다. 이 마이크로서비스는 엔드 투 엔드 개발자 플랫폼을 제공한다. 이 플랫폼은 최첨단 에이전틱 AI(Agentic AI) 시스템의 개발을 가능하게 하고, 추론 결과, 비즈니스 데이터, 사용자 선호도에 기반한 데이터 플라이휠을 통해 지속적인 최적화를 지원한다. 데이터 플라이휠을 통해 기업 IT 부서는 AI 에이전트를 디지털 팀원으로 온보딩할 수 있다. 이러한 에이전트는 사용자 상호작용과 AI 추론 과정에서 생성된 데이터를 활용해 모델 성능을 지속적으로 개선할 수 있다. 이를 통해 ‘사용’을 ‘인사이트’로, ‘인사이트’를 ‘실행’으로 전환할 수 있다.     데이터베이스, 사용자 상호작용, 현실 세계의 신호 등의 고품질 입력이 지속적으로 제공되지 않으면 에이전트의 이해력은 약화된다. 그 결과, 응답의 신뢰성은 떨어지고 에이전트의 생산성도 저하될 수 있다. 운영 환경에서 AI 에이전트를 구동하는 모델을 유지하고 개선하기 위해서는 세 가지 유형의 데이터가 필요하다. 인사이트를 수집하고 변화하는 데이터 패턴에 적응하기 위한 추론 데이터, 인텔리전스를 제공하기 위한 최신 비즈니스 데이터, 모델과 애플리케이션이 예상대로 작동하는지를 판단하기 위한 사용자 피드백 데이터가 그것이다. 네모 마이크로서비스는 개발자가 이 세 가지 유형의 데이터를 효율적으로 활용할 수 있도록 지원한다. 또한, 네모 마이크로서비스는 에이전트를 구동하는 모델을 선별하고, 맞춤화하며, 평가하고, 안전장치를 적용하는 데 필요한 엔드 투 엔드 툴을 제공함으로써 AI 에이전트 개발 속도를 높인다. 엔비디아 네모 마이크로서비스는 ▲대규모 언어 모델(LLM) 미세 조정을 가속화해 최대 1.8배 높은 훈련 처리량을 제공하는 네모 커스터마이저(Customizer) ▲개인과 산업 벤치마크에서 AI 모델과 워크플로의 평가를 단 5번의 API 호출로 간소화하는 네모 이밸류에이터(Evaluator) ▲ 0.5초의 추가 지연 시간만으로 규정 준수 보호 기능을 최대 1.4배까지 향상시키는 네모 가드레일(Guardrails)을 포함한다. 이는 네모 리트리버(Retreiver), 네모 큐레이터(Curator)와 함께 사용돼, 맞춤형 엔터프라이즈 데이터 플라이휠을 통해 AI 에이전트를 구축하고, 최적화하며, 확장하는 과정을 기업이 보다 수월하게 수행할 수 있도록 지원한다. 개발자는 네모 마이크로서비스를 통해 AI 에이전트의 정확성과 효율성을 높이는 데이터 플라이휠을 구축할 수 있다. 엔비디아 AI 엔터프라이즈(Enterprise) 소프트웨어 플랫폼을 통해 배포되는 네모 마이크로서비스는 온프레미스 또는 클라우드의 모든 가속 컴퓨팅 인프라에서 엔터프라이즈급 보안, 안정성, 지원과 함께 손쉽게 운영할 수 있다. 이 마이크로서비스는 기업들이 수백 개의 전문화된 에이전트를 협업시키는 대규모 멀티 에이전트 시스템을 구축하고 있는 현재 정식 출시됐다. 각 에이전트는 고유의 목표와 워크플로를 가지고 있으며, 디지털 팀원으로서 복잡한 업무를 함께 해결하며 직원들의 업무를 보조하고, 강화하며, 가속화한다. 엔비디아 네모 마이크로서비스로 구축된 데이터 플라이휠은 사람의 개입을 최소화하고 자율성을 극대화하면서 데이터를 지속적으로 선별하고, 모델을 재훈련하며, 성능을 평가한다. 네모 마이크로서비스는 라마(Llama), 마이크로소프트 파이(Microsoft Phi) 소형 언어 모델 제품군, 구글 젬마(Google Gemma), 미스트랄 등 폭넓은 인기 오픈 모델을 지원한다. 또한, 기업은 엔비디아 가속 인프라, 네트워킹, 그리고 시스코, 델, HPE, 레노버(Lenovo) 등 주요 시스템 제공업체의 소프트웨어를 기반으로 AI 에이전트를 실행할 수 있다. 액센츄어(Accenture), 딜로이트(Deloitte), EY를 비롯한 거대 컨설팅 기업들 역시 네모 마이크로서비스를 기반으로 기업용 AI 에이전트 플랫폼을 구축하고 있다.
작성일 : 2025-04-25
씨이랩, 한국정보공학과 AI 솔루션 총판 계약 체결… 국내 AI 인프라 효율화 주도
씨이랩은 한국정보공학과 AI 솔루션 총판 계약을 체결했다. 이번 계약을 통해 씨이랩의 GPU 최적화 솔루션 ‘AstraGo (아스트라고)’를 한국정보공학이 보유한 풍부한 AI 인프라 유통망을 통해 국내 기업 및 공공 기관에 공급해 국내 AI 시장에서 양사의 경쟁력이 한층 더 강화될 것으로 기대된다. 씨이랩은 엔비디아의 공식 파트너사로, GPU 활용률을 극대화하는 솔루션 AstraGo로 국내 AI GPU 시장에서 독보적 SW 개발 역량을 구축해왔다. AstraGo는 쿠버네티스(Kubernetes) 기반의 컨테이너 기술을 활용해 AI 프로젝트의 배포 및 관리를 자동화해 복잡한 AI 인프라 운영 부담을 줄인다. 기업은 이를 통해 운영 비용 절감과 AI 모델 학습 및 추론 작업의 생산성 향상이라는 두 가지 효과를 동시에 누릴 수 있다. 한국정보공학은 이커머스 데이터 분석 및 IT기기 유통 전문기업으로, HPE, LENOVO 등 다양한 글로벌 IT사의 총판으로서 폭넓은 산업 분야로 사업을 전개하고 있다. 특히 대규모 서버 공급과 AI 인프라 사업의 확대로 가파른 성장세를 보이고 있다. 2021년부터는 AI 기반 빅데이터 분석 서비스를 출시하며 데이터 플랫폼으로 사업 영역을 확대하고 있다. 양사는 이번 협력을 통해 다양한 산업군의 고객사를 대상으로 AI 인프라 활용 효율성을 극대화하는 최적의 솔루션을 제공한다는 계획이다. 씨이랩이 보유한 GPU 최적화 기술 역량과 한국정보공학이 보유한 AI 인프라 구축·유통 노하우가 시너지를 발휘해 AI 연구 및 운영을 지원하고 시장을 확대할 전망이다. 씨이랩 채정환 대표는 “국내 AI 인프라 유통 분야에서 업계를 선도하는 한국정보공학과의 총판 계약을 통해 산업 전반에 걸친 AI 학습·추론 인프라 효율화를 신속히 지원할 수 있게 됐다”며 “지속적인 기술 협력과 맞춤형 컨설팅을 통해 고객 가치를 높이고, 더 나아가 국내 AI 생태계를 활성화하는 데 기여하겠다”고 밝혔다. 채정환 대표는 이어 “AI 산업이 활성화되면서 자사의 GPU 최적화 솔루션 수요가 급증해 실적 성장이 기대된다”고 덧붙였다.   
작성일 : 2025-04-11
씨이랩, 비전AI 선도 위해 윤세혁·채정환 각자 대표이사 체제로 전환
씨이랩이 경영 효율성과 전문성 강화를 위해 윤세혁·채정환 각자 대표이사 체제로 전환했다고 밝혔다. 왼쪽부터 씨이랩 윤세혁 대표, 채정환 이사 윤세혁 대표는 최고경영책임자(CEO)로 경영 전반을 총괄한다. 서울대 전기컴퓨터공학과를 졸업했고 동 대학원에서 컴퓨터 비전 전공으로 석사 학위를 취득한 윤 대표는 KT 신사업전략실을 거쳐 엔젠바이오에서 경영기획본부장을 역임한 뒤 올해 CFO로 합류했다. 기술 전문성과 재무·전략 분야에 대한 인사이트를 두루 갖춘 융합형 전문가로 평가받고 있다. 채정환 대표는 최고사업책임자(CBO)로 영업/마케팅을 진두지휘할 예정이다. 광운대 전자계산학과를 졸업하고, HPE 등 글로벌 IT 회사에서 30년 넘게 IT분야에 몸담았다. 2022년 씨이랩에 합류해 영업을 총괄하고 있으며, AI 인프라 전문가로 알려져 있다. 한편, 창립자인 이우영 대표는 사내 이사직을 유지하며 이사회 의장직과 최고전략책임자(CSO) 역할을 수행한다. 이번 지배구조 개편으로 이사회 중심의 투명하고 안정적인 의사 결정 체계가 확립되고, 각 전문 대표이사가 AI 시장 확대와 기업가치 제고에 더욱 매진할 계획이다. 씨이랩은 경영 효율성과 전문성을 극대화하기 위해 전문 각자 대표 체제로 전환했다며, 이번 경영 체계 개편으로 인공지능 및 비전AI 산업에서의 경쟁 우위를 공고히 하고 기업 성장을 가속화해 더욱 안정적이고 투명한 미래 비전을 제시하겠다고 밝혔다. 씨이랩은 글로벌 GPU 기업의 핵심 파트너사로 차별화된 VLM 기술력에 기반해 비전AI 및 피지컬AI 시장을 선도하겠다고 덧붙였다. 
작성일 : 2025-03-27
엔비디아, AI와 그래픽 융합 가속화하는 데이터센터 GPU ‘RTX PRO 6000 블랙웰 서버 에디션’ 발표
엔비디아가 GTC 2025에서 ‘엔비디아 RTX PRO 6000 블랙웰 서버 에디션(NVIDIA RTX PRO 6000 Blackwell Server Edition)’을 발표했다. RTX PRO 6000 블랙웰 서버 에디션은 비주얼 컴퓨팅과 엔터프라이즈 AI를 위해 구축된 첫 번째 블랙웰 기반 데이터센터 GPU이다. 이는 모든 산업에서 높은 성능을 요구하는 AI, 그래픽 애플리케이션을 신속하게 처리할 수 있도록 설계됐다. 이전 세대인 에이다 러브레이스(Ada Lovelace) 아키텍처 기반 L40S GPU에 비해 RTX PRO 6000 블랙웰 서버 에디션 GPU는 다양한 엔터프라이즈 워크로드에서 성능이 크게 향상된다. 예를 들어, 에이전틱 AI(Agentic AI) 애플리케이션을 위한 대규모 언어 모델(LLM) 추론 처리량은 최대 5배 증가되고, 유전체 염기서열 분석은 약 7배로 가속화되며, 텍스트-비디오 생성은 3.3배, 렌더링 속도는 2배 이상 빨라진다. RTX PRO 6000 블랙웰 서버 에디션은 워크스테이션과 서버 GPU로 이뤄진 엔비디아 RTX PRO 블랙웰 시리즈에 속한다. 이번 엔비디아 GTC에서 발표된 RTX PRO 라인업은 여러 산업의 AI와 창의적인 워크로드를 지원하는 데스크톱, 랩톱, 데이터센터 GPU로 구성된다. 여러 분야의 기업들은 RTX PRO 6000 블랙웰 서버 에디션을 통해 데이터 분석, 엔지니어링 시뮬레이션, 생성형 AI, 비주얼 컴퓨팅과 같은 워크로드에서 높은 성능을 구현할 수 있다. 여기에는 건축, 자동차, 클라우드 서비스, 금융 서비스, 게임 개발, 의료, 제조, 미디어, 엔터테인먼트, 소매업 등의 산업이 포함된다. 콘텐츠 제작, 반도체 제조, 유전체 분석 기업들은 이미 컴퓨팅 집약적인 AI 지원 워크플로를 가속화하기 위해 RTX PRO 6000 블랙웰 서버 에디션의 기능을 활용하고 있다.     RTX PRO 6000 블랙웰 서버 에디션은 데이터센터 환경에서 연중무휴 24시간 운영할 수 있게 설계된 수동 냉각 장치 형태로, 강력한 RTX AI와 그래픽 기능을 제공한다. 96GB의 초고속 GDDR7 메모리와 멀티 인스턴스 GPU(MIG)를 갖춘 RTX PRO 6000은 최대 4개의 완전히 격리된 인스턴스로 분할될 수 있다. 각 인스턴스는 24GB의 메모리를 사용할 수 있어, AI 워크로드와 그래픽 워크로드를 동시에 실행할 수 있다. RTX PRO 6000은 엔비디아 컨피덴셜 컴퓨팅(Confidential Computing)을 통해 안전한 AI를 구현하는 범용 GPU이다. 이는 강력한 하드웨어 기반 보안으로 AI 모델과 민감한 데이터를 무단 접근으로부터 보호한다. 이에 따라 물리적으로 격리된 신뢰할 수 있는 실행 환경을 제공해 데이터를 사용하는 동안 전체 워크로드를 보호한다. 또한, RTX PRO 6000은 엔터프라이즈급 배포에서 효과적으로 사용될 수 있도록 고밀도 가속 컴퓨팅 플랫폼으로 구성돼 분산 추론 워크로드를 수행할 수 있다. 더불어 엔비디아 vGPU 소프트웨어를 통해 가상 워크스테이션을 제공하며, AI 개발과 고도의 그래픽 애플리케이션을 구동하는 데 사용될 수 있다. RTX PRO 6000 GPU는 광범위한 AI 모델에 걸쳐 강력한 추론 성능을 제공하며, 복잡한 가상 환경의 사실적인 실시간 레이 트레이싱을 가속화한다. 여기에는 5세대 텐서 코어(Tensor Core), 4세대 RT 코어, DLSS 4, 통합된 미디어 파이프라인, FP4 정밀도를 지원하는 2세대 트랜스포머 엔진(Transformer Engine) 등 최신 블랙웰 하드웨어와 소프트웨어 혁신이 포함된다. 기업들은 RTX PRO 6000 블랙웰 서버 에디션 GPU에서 엔비디아 옴니버스(Omniverse)와 엔비디아 AI 엔터프라이즈(AI Enterprise) 플랫폼을 대규모로 실행할 수 있다. 이를 통해 이미지와 비디오 생성, LLM 추론, 추천 시스템, 컴퓨터 비전, 디지털 트윈, 로보틱스 시뮬레이션 등의 에이전틱 AI, 물리 AI 애플리케이션 개발과 배포를 더욱 원활하게 진행할 수 있다. 엔비디아는 RTX PRO 6000 블랙웰 서버 에디션을 탑재한 플랫폼이 5월부터 전 세계 파트너를 통해 출시될 예정이라고 소개했다. 클라우드 서비스 제공업체와 GPU 클라우드 제공업체 중에서는 아마존 웹 서비스(AWS), 구글 클라우드, 마이크로소프트 애저, IBM 클라우드, 코어위브, 크루소, 람다, 네비우스, 벌처가 최초로 RTX PRO 6000 블랙웰 서버 에디션을 탑재한 인스턴스를 제공할 계획이다. 시스코, 델 테크놀로지스, 휴렛팩커드 엔터프라이즈(HPE), 레노버, 슈퍼마이크로는 RTX PRO 6000 블랙웰 서버 에디션을 탑재한 서버를 제공할 예정이다. 이 외에도 어드밴텍, 애티나, 에이브레스, 애즈락랙, 에이수스, 컴팔, 폭스콘, 기가바이트, 인벤텍, MSI, 페가트론, 퀀타 클라우드 테크놀로지(QCT), 미텍 컴퓨팅, 네이션게이트, 위스트론, 위윈 등의 기업도 이 서버를 제공할 계획이다.
작성일 : 2025-03-21