• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "ERP"에 대한 통합 검색 내용이 2,478개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
스노우플레이크, “AI 조기 도입한 기업의 92%가 투자 대비 수익 실현”
스노우플레이크가 ‘생성형 AI의 혁신적 ROI(Radical ROI of Generative AI)’ 보고서를 발표했다. 이번 보고서는 글로벌 시장 조사 기관 ESG(EntERPrise Strategy Group)와 공동으로 AI를 실제 사용 중인 9개국 1900명의 비즈니스 및 IT 리더를 대상으로 진행한 설문조사 결과를 담았다. 보고서에 따르면 AI를 도입한 기업의 92%가 이미 AI 투자를 통해 실질적 ROI(투자수익률)를 달성했고, 응답자의 98%는 올해 AI에 대한 투자를 더욱 늘릴 계획인 것으로 나타났다. 전 세계 기업의 AI 도입이 빨라지면서 데이터 기반이 성공적인 AI 구현의 핵심 요소로 떠오르고 있다. 그러나 많은 기업이 여전히 자사 데이터를 AI에 적합한 형태로 준비하는 데 어려움을 겪는 것으로 파악됐다.  전반적으로 기업들은 AI 초기 투자에서 성과를 거두고 있는 것으로 나타났다. 93%의 응답자는 자사의 AI 활용 전략이 ‘매우’ 또는 ‘대부분’ 성공적이라고 답했다. 특히 전체 응답자의 3분의 2는 생성형 AI 투자에 따른 ROI를 측정하고 있고, 1달러 투자당 평균 1.41달러의 수익을 올리며 ROI를 높이고 있는 것으로 집계됐다.  또한 국가별 AI 성숙도에 따라 기업이 AI 역량을 주력하는 분야가 달랐으며, 이는 지역별 ROI 성과와 밀접한 연관이 있는 것으로 드러났다. 미국은 AI 투자 ROI가 43%로 AI 운영 최적화 측면에서 가장 앞서 있었다. 뿐만 아니라 자사의 AI를 실제 비즈니스 목표 달성에 ‘매우 성공적’으로 활용하고 있다고 답한 비율이 52%로 전체 응답국 중 가장 높았다. 한국의 경우 AI 투자 ROI는 41%로 나타났다. 보고서에 따르면 한국 기업은 AI 성숙도가 높은 편으로 오픈소스 모델 활용, RAG(검색증강생성) 방식을 활용해 모델을 훈련 및 보강하는 비율이 각각 79%, 82%로 글로벌 평균인 65%, 71%를 웃돌았다.  특히 한국 기업들은 기술 및 데이터 활용에 있어 높은 실행 의지를 보이고 있는 것으로 나타났다. 오픈소스 모델 활용(79%), RAG 방식의 모델 훈련 및 보강(82%), 파인튜닝 모델 내재화(81%), 텍스트 투 SQL(Text to SQL, 자연어로 작성한 질문을 SQL 쿼리로 자동 변환하는 기술) 서비스 활용(74%) 등 고급 AI 기술을 활용한다고 답변한 비율이 글로벌 평균을 크게 웃돌았다. 이러한 데이터 활용 역량은 비정형 데이터 관리 전문성(35%)과 AI 최적화 데이터 보유 비율(20%)에서도 확인된다. 이런 성과에 비해 아직도 전략적 의사결정에 AI 활용하는 데에는 어려움을 겪고 있는 모습도 나타났다. 조사 결과에 따르면 응답자의 71%는 ‘제한된 자원에 대비해 추진할 수 있는 AI 활용 분야가 매우 다양하고, 잘못된 의사결정이 시장 경쟁력에 부정적 영향을 미칠 수 있다’고 답했다. 또한 응답자의 54%는 ‘비용, 사업 효과, 실행 가능성 등 객관적 기준에 따라 최적의 도입 분야를 결정하는 데 어려움을 겪고 있다’고 밝혔다. 59%는 ‘잘못된 선택이 개인의 직무 안정성까지 위협할 수 있다’고 우려했다. 한국 기업의 경우, 기술적 복잡성(39%), 활용 사례 부족(26%), 조직 내 협업 문제(31%) 등의 어려움을 겪고 있다고 답하며 아직 다양한 비즈니스 영역으로의 AI 확대는 더딘 것으로 나타났다. 그럼에도 향후 12개월 내 ‘다수의 대규모 언어 모델(LLM)을 적극적으로 도입’하고 ‘대규모 데이터를 활용할 계획’이라고 답한 기업은 각각 32%와 30%로, AI 도입 확대에 관한 강한 의지를 드러냈다. 설문에 응답한 전체 기업의 80%는 ‘자체 데이터를 활용한 모델 파인튜닝을 진행 중’이고 71%는 ‘효과적인 모델 학습을 위해 수 테라바이트의 대규모 데이터가 필요하다’고 답하며, AI의 효과를 극대화하기 위해 자사 데이터를 적극 활용하고 있는 것으로 나타났다. 그러나 여전히 많은 기업들이 데이터를 AI에 적합한 형태로 준비하는 과정에서 어려움을 겪기도 했다. 데이터 준비 과정에서 겪는 주요 과제로 ▲데이터 사일로 해소(64%) ▲데이터 거버넌스 적용(59%) ▲데이터 품질 관리(59%) ▲데이터 준비 작업 통합(58%) ▲스토리지 및 컴퓨팅 자원의 효율적 확장(54%) 등을 꼽았다. 스노우플레이크의 바리스 굴테킨(Baris Gultekin) AI 총괄은 “AI가 기업들에게 실질적인 가치를 보여주기 시작했다”면서, “평균 일주일에 4000개 이상의 고객이 스노우플레이크 플랫폼에서 AI 및 머신러닝을 활용하고 있고 이를 통해 조직 전반의 효율성과 생산성을 높이고 있다”고 강조했다.  스노우플레이크의 아르틴 아바네스(Artin Avanes) 코어 데이터 플랫폼 총괄은 “AI의 발전과 함께 조직 내 데이터 통합 관리의 필요성이 더욱 커지고 있다”면서, “스노우플레이크처럼 사용이 쉽고 상호 운용 가능하며 신뢰할 수 있는 단일 데이터 플랫폼은 단순히 빠른 ROI 달성을 돕는 것을 넘어, 사용자가 전문적인 기술 없이도 안전하고 규정을 준수하며 AI 애플리케이션을 쉽게 확장할 수 있도록 견고한 기반을 마련해 준다”고 말했다. 
작성일 : 2025-04-16
HS효성인포메이션시스템, “국내 하이엔드 스토리지 시장에서 히타치 스토리지가 11년 연속 1위”
히타치 밴타라의 국내 비즈니스를 담당하는 HS효성인포메이션시스템은 IT 시장분석 및 컨설팅 기관 IDC의 분기별 외장형 스토리지 시스템 시장조사 자료를 인용해, 히타치 스토리지가 매출액 기준 2024년 국내 하이엔드 스토리지 시장점유율 41.2%로 1위를 차지했다고 밝혔다. HS효성인포메이션시스템은 “히타치 스토리지는 11년 연속 국내 하이엔드 스토리지 시장 1위 자리를 지키며 업계 내 입지를 다시 한 번 입증했다”고 밝혔다. 가속화되는 AI 시대에 데이터는 기업 경쟁력을 뒷받침하는 핵심 자산이다. 이에 따라 데이터의 안정성과 가용성을 보장하는 신뢰도 높은 스토리지 인프라의 중요성도 갈 수록 커지고 있다. HS효성인포메이션시스템은 ‘VSP(Virtual Storage Platform)’ 스토리지 포트폴리오를 기반으로 변화하는 비즈니스 환경에 민첩하게 대응하며 안정성, 고성능, 확장성 측면에서 기술력을 제공해왔다. 특히 VSP 5000 시리즈는 높은 수준의 고성능과 확장성을 갖춘 하이엔드 스토리지로 AI, 빅데이터, 전사적자원관리(ERP) 같은 데이터 집약적 워크로드에 최적화되어 있다. VSP 5000 시리즈는 초고속 응답성과 처리 속도를 지원하는 엔드 투 엔드 NVMe, 100% 데이터 가용성 보장, 액티브-액티브(Active-Active) 데이터센터 구현을 위한 미러링, 무중단 이기종 마이그레이션이 가능한 가상화 기술을 지원하며, 다양한 상황에서 안정성을 제공한다. HS효성인포메이션시스템은 다양한 데이터 플랫폼을 하나의 데이터 플레인으로 통합 관리하는 ‘VSP One’ 전략을 통해 하이브리드 클라우드 및 AI 데이터 환경에 최적화된 미래형 스토리지 아키텍처를 제시한다. VSP One은 ▲강력한 데이터 보호 ▲혁신적인 로드맵 ▲복제, 자동 계층화, 소프트웨어 정의 스토리지 등 포괄적인 하이브리드 클라우드 기능을 인정받아 시장 분석기관 기가옴(GigaOm)의 ‘2024년 주요 스토리지 보고서’에서 리더 및 아웃퍼포머로 선정되기도 했다. VSP One Block 스토리지 컨트롤러는 All-QLC(쿼드 레벨 셀) 플래시 기술 적용으로 높은 확장성과 비용 효율성을 바탕으로 AI 시대에 최적화된 데이터 경쟁력을 제공한다. VSP One Block 스토리지는 2024년 미국 ‘에너지스타(ENERGY STAR)’ 인증을 획득하며 친환경 데이터센터 구축과 지속가능한 IT 인프라 실현을 위한 기술력을 인정받았다. HS효성인포메이션시스템의 양정규 대표는 “AI 시대에 데이터는 기업의 경쟁력과 직결되는 만큼 HS효성인포메이션시스템은 차별화된 기술력과 검증된 안정성을 바탕으로 고객의 데이터 인프라 고도화를 지원해왔다”며, “앞으로도 VSP 포트폴리오를 통해 하이브리드 클라우드 및 AI 환경에 최적화된 스토리지 전략을 제시하고 고객의 디지털 혁신을 이끌 것”이라고 밝혔다.
작성일 : 2025-04-16
델, 현대적인 AI 레디 데이터센터를 위한 인프라 설루션 신제품 공개
델 테크놀로지스가 서버, 스토리지, 데이터 보호 등 데이터센터 인프라 전반에 걸쳐 기업 및 기관들의 데이터센터 현대화를 가속할 수 있는 신제품 및 신기능을 선보였다. AI의 부상, 전통적인 워크로드와 최신 워크로드를 모두 지원해야 하는 필요성, 사이버 위협의 증가에 대응하기 위해 IT 전략의 재편이 요구되고 있다. IT 조직은 확장성, 효율성을 높이고 적응력을 확보하기 위해 컴퓨팅, 스토리지 및 네트워킹을 공유형 리소스 풀로 추상화하는 분리형 인프라스트럭처로 전환하는 추세이다. 델 테크놀로지스는 고객들이 IT 인프라에 대한 접근 방식을 재고하고, 최신 및 전통적인 워크로드 요구사항에 좀 더 효과적으로 대응할 수 있도록 서버, 스토리지 및 데이터 보호 설루션에 걸쳐서 다양한 혁신을 추진한다고 전했다.  P 코어의 인텔 제온 6 프로세서가 탑재된 델 파워엣지(Dell PowerEdge) R470, R570, R670 및 R770 서버는 1U 및 2U 폼 팩터의 싱글 및 더블 소켓 서버로, HPC, 가상화, 분석 및 AI 추론과 같은 까다로운 기존 워크로드와 새로운 워크로드에 모두 효과적인 제품이다. 델 파워엣지 R770으로 레거시 플랫폼을 통합하면 42U 랙당 전력과 최대 80%의 공간을 확보할 수 있다. 이를 통해 에너지 비용과 온실가스 배출량을 최대 절반까지 절감하고 프로세서당 최대 50% 더 많은 코어와1) 67% 향상된 성능을 지원한다. 데이터 센터 상면 공간을 줄여 지속 가능성 목표를 달성하고 성능 저하 없이 전체 총 소유 비용을 절감할 수 있다. 델 파워엣지 R570은 와트당 인텔 성능에서 높은 수준을 달성한 모델이다. 고성능 워크로드를 유지하면서 에너지 비용을 절감할 수 있도록 지원한다. 델 파워엣지 신제품은 OCP(오픈 컴퓨트 프로젝트)의 일부인 ‘데이터 센터 - 모듈형 하드웨어 시스템(DC-MHS)’ 아키텍처로 운영을 간소화했다. DC-MHS는 서버 설계를 표준화하여 기존 인프라에 쉽게 통합할 수 있도록 지원하므로, 폭넓은 선택권을 제공한다. 또한, 파워엣지 서버는 실시간 모니터링을 비롯한 델 오픈매니지(Dell OpenManage) 개선 사항 및 IDRAC 10(Integrated Dell Remote Access Controller) 업데이트를 통해 관리가 간소화되고 강력한 보호 기능을 제공한다.    ▲ 델 타워엣지 R470/R570/R670/R770 서버   델 파워스토어(Dell PowerStore)는 데이터 관리를 간소화하고 성능과 보안을 강화한다. 델 파워스토어의 지능형 소프트웨어는 고도로 프로그래밍 가능한 자동화 플랫폼을 기반으로, 첨단 데이터 절감 기능과 독립적으로 확장 가능한 스토리지 서비스를 제공하여 현대적인 분산 아키텍처에 요구되는 요구사항에 적합하다. 파워스토어의 최신 소프트웨어는 ▲델 AI옵스(Dell AIOps, 이전의 CloudIQ)를 통한 AI 기반 분석 ▲제로 트러스트 보안 강화 ▲고급 파일 시스템 지원 등의 기능을 포함한다. 또한, 델은 고성능의 오브젝트 플랫폼으로서 AI 워크로드를 위한 대규모 확장성, 성능 및 효율성을 제공하는 차세대 ‘델 오브젝트스케일(Dell ObjectScale)’을 공개했다. 델은 오브젝트스케일의 엔터프라이즈급 아키텍처를 현대화하고 새로운 노드 모델을 추가했다. 오브젝트스케일 XF960은 경쟁 제품 대비 노드당 최대 2배 더 높은 처리량(throughput)과 이전 세대의 올플래시 제품 대비 최대 8배 우수한 집적도를 제공한다. HDD 기반의 델 오브젝트스케일 X560은 읽기 처리량이 83% 향상되어 미디어 수집, 백업 및 AI 모델 학습과 같은 주요 워크로드를 가속화한다. 델은 클라우드 스토리지 제공업체 ‘와사비(Wasabi)’와 협력해 개발한 오브젝트스케일 기반 하이브리드 클라우드 설루션 신제품을 통해 높은 효율성 및 회복탄력성을 제공한다고 소개했다. 델 파워스케일(Dell PowerScale)의 스케일 아웃 아키텍처는 현대적인 AI 중심 운영을 위한 백본으로 사용하기에 적합한 제품이다.122TB의 고밀도 올플래시 스토리지는 단일 2U 노드 구성에서 최대 6PB의 고속 데이터 액세스로 GPU 활용도를 높이고, 대규모 AI 처리량 요건을 충족하는 성능 밀도를 제공한다. 델은 파워스케일 H710, H7100, A310, 그리고 A3100 등 HDD 기반 다양한 모델에 걸쳐 새로운 컴퓨팅 모듈로 선보이면서 향상된 성능과 낮아진 레이턴시(지연시간)를 선보였다.   델은 고객이 사이버 회복탄력성을 강화하는 동시에 향상된 성능, 보안 및 효율성을 통해 비용을 효과적으로 통제할 수 있도록 데이터 보호 설루션인 델 파워프로텍트(Dell PowERProtect)를 업데이트 했다. 델 파워프로텍트 DD6410은 12TB부터 256TB까지의 용량을 지원해 일반적인 규모의 기업에서부터 소기업, 원격 사무소 등 다양한 환경에 활용이 가능하다. 전통적인 워크로드 및 최신 워크로드에 대해 최대 91% 빠른 복구 및 확장성을 제공하며, 최대 65배 중복 제거 기능으로 효율적인 운영을 지원한다. 델의 올플래시 데이터 보호 여정의 첫 번째 단계인 ‘델 파워프로텍트 올플래시 레디 노드(Dell PowERProtect All-Flash Ready Node)’는 61% 이상 빠른 복원 속도, 최대 36% 적은 전력 사용, 5배 더 작은 설치 공간을 제공하는 220TB 용량 시스템으로 보다 안전하고 효율적인 데이터 보호 기능을 제공한다.  한국 델 테크놀로지스의 김경진 총괄사장은 “현대적인 애플리케이션은 끊임없이 변화하는 데이터 센터 요구 사항에 발맞출 수 있는 새로운 형태의 인프라를 필요로 한다”면서, “델 테크놀로지스는 복잡성을 줄이고, IT 민첩성을 높이며, 데이터 센터 현대화를 가속할 수 있는 엔드 투 엔드 분산형 인프라 포트폴리오를 제공한다”고 전했다.
작성일 : 2025-04-09
서비스나우, 현상준 한국 신임 대표 선임
서비스나우, 현상준 한국 신임 대표   서비스나우(ServiceNow)가 한국 대표로 현상준 신임 대표를 선임했다. 현상준 신임 대표는 IT 및 비즈니스 컨설팅 업계에서 30년 이상 디지털 혁신을 통해 가치를 창출해온 전문가다. IBM과 프라이스워터하우스쿠퍼스(PwC) 컨설팅에서 글로벌 파트너로 활동하며 IT 컨설팅 및 아웃소싱 사업을 주도했다. 2019년부터는 SAP 코리아에서 서비스 영업 부문에 이어 Corporate 사업 부문을 총괄하며ERP, HR, 플랫폼, 고객 경험 관리 솔루션 등 다양한 엔터프라이즈 소프트웨어 비즈니스를 이끌었다. 현 신임 대표는 서비스나우의 한국 사업을 총괄하며 서비스나우 플랫폼을 통해 기업의 디지털 혁신을 가속화하고, 국내 고객 및 파트너와의 협력을 강화하는 데 집중할 예정이다. 현상준 대표는 “기업들이 비즈니스 워크플로우를 자동화하고 AI 에이전트를 비롯한 혁신적인 솔루션을 통해 고객이 새로운 가치를 창출할 수 있도록 돕는 중요한 역할을 하고 있는 서비스나우에 합류하게 되어 기대가 크다”면서 “한국 고객이 직면한 다양한 과제를 해결하고, 일하는 방식에 변화를 가져올 차세대 AI 기술을 도입할 수 있도록 적극 지원하겠다"고 포부를 밝혔다. 멜리사 리스(Melissa Ries) 서비스나우 아시아 및 한국 그룹 부사장은 “현상준 대표를 서비스나우 코리아의 대표로 맞이하게 되어 매우 기쁘다”며 “현 대표는 IT 업계에서 쌓아온 깊은 경험과 전략적 리더십을 바탕으로 서비스나우의 한국 시장 성장에 중요한 역할을 할 것"이라고 전했다. 이어 “한국은 서비스나우의 핵심 시장인 만큼, 함께 더 큰 성공을 만들어가기를 기대한다”고 덧붙였다.  
작성일 : 2025-04-05
근사모델 기반의 최적화 vs. 직접 검색 기반의 최적화
최적화 문제를 통찰하기 위한 심센터 히즈 (2)   연재를 통해 제품 설계 과정에서 발생하는 다양한 문제에 대해서 최적화 방법론을 적용하고 올바른 결과를 도출하는 과정에서 심센터 히즈(Simcenter HEEDS)를 활용하는 방법에 대해 살펴보고자 한다. 이번 호에서는 최적화 기법 중에서 근사모델 기반 최적화와 직접 검색 기반 최적화에 대해 짚어보고, 심센터 히즈를 사용하여 근사 및 직접 최적화를 진행하는 과정을 소개한다.   ■ 연재순서 제1회 AI 학습 데이터 생성을 위한 어댑티브 샘플링과 SHERPA의 활용 제2회 근사모델 기반의 최적화 vs. 직접 검색 기반의 최적화 제3회 수집 또는 측정된 외부 데이터의 시각화 및 데이터 분석 제4회 산포특성을 가지는 매개변수의 상관성 및 신뢰성 분석 제5회 실험 측정과 해석 결과 간의 오차 감소를 위한 캘리브레이션 분석 제6회 프로세스 자동화 Ⅰ – 구조 설계 최적화 및 사례 제7회 프로세스 자동화 Ⅱ – 모터 설계 최적화 및 사례 제8회 프로세스 자동화 Ⅲ – 유로 형상 설계 최적화 및 사례 제9회 프로세스 자동화 Ⅳ – 다물리 시스템 최적화 및 사례 제10회 프로세스 자동화 Ⅴ – 제조 공정 효율성 최적화 및 사례   ■ 이종학 지멘스 디지털 인더스트리 소프트웨어에서 심센터 히즈를 비롯하여 통합 설루션을 활용한 프로세스 자동화와 데이터 분석, 최적화에 대한 설루션을 담당하고 있다. 근사최적화 기법 연구를 전공하고 다양한 산업군에서 15년간 유한요소해석과 최적화 분야의 기술지원과 컨설팅을 수행하였다. 홈페이지 | www.sw.siemens.com/ko-KR   최적화 기법의 중요성 최적화는 다양한 산업 분야에서 설계의 성능을 개선하고 자원을 효율적으로 활용하는 데 있어 필수 과정이다. 특히, 복잡한 공학 문제나 다목적 설계에서 최적화는 품질 향상과 비용 절감을 동시에 달성하는 핵심 도구로 활용된다. 현대 산업에서는 제품 개발 주기의 단축과 고성능 요구가 증가함에 따라, 신뢰성 있는 최적화 기법의 선택이 더욱 중요해지고 있다. 근사모델 기반 최적화와 직접 검색 기반 최적화는 이러한 요구를 충족하기 위해 자주 사용되며, 각 접근법은 문제의 특성과 목표에 따라 상이한 성능을 보인다.   근사모델 기반 최적화와 직접 검색 기반 최적화의 개요 근사모델 기반 최적화는 복잡한 시뮬레이션이나 계산 비용이 큰 문제에서 실험 데이터를 바탕으로 근사함수를 생성한 후, 해당 함수를 활용해 최적해를 탐색하는 방법이다. 근사함수를 생성하기 위해서는 주로 반응표면법(RSM), 머신러닝 모델 등이 사용되며, 계산 자원을 절감하고 빠른 최적해 도출이 가능하다는 장점이 있다. 반면, 모델 정확도에 따라 해의 품질이 좌우되고, 고차원 문제에서 모델링이 어려울 수 있다. 직접 검색 기반 최적화는 목적 함수의 수학적 형태를 몰라도 입력과 출력 간 관계를 직접 탐색하며 최적해를 구하는 방법이다. 비선형성이나 불연속성이 있는 문제에도 적용할 수 있는 장점이 있지만, 계산 비용이 크고 수렴 속도가 느릴 수 있어서 고비용 시뮬레이션 환경에서는 활용에 한계가 있을 수 있다.   최적화를 위한 예제 지난 호에서 사용한 외팔보의 처짐 문제를 사용하겠다. 외팔보의 체적을 최소화하는 최적화 문제를 다음과 같이 정의하였다. 빠른 계산을 위해 파이썬(Python)으로 계산한다.   그림 1   목적함수 외팔보 H빔의 체적을 최소화 제약 조건 최대 굽힘 응력(σ) ≤ 200 Mpa 최대 끝단 처짐(δ) ≤ 2 mm 설계 변수 Length : 5,000 mm Load P : 6,500 N E : 200 Mpa H : 50 mm ≤ H ≤ 100 mm h1 : 5 mm ≤ h1 ≤ 30 mm b1 : 50 mm ≤ b1 ≤ 100 mm b2 : 5 mm ≤ b2 ≤ 50 mm 외팔보의 체적, 응력, 처짐량은 다음의 관계식으로 계산한다. Volume = [2*h1*b1 + (H – 2*h1)*b2]*L Stress = P*L*H/(2*I) Deflection = P*L3/(3*E*I) where : I = 1/12*b2*(H-2*h1)^3 + 2*[1/12*b1*h13 + b1*h1*(H-h1) 2/4]   히즈 기본 설정 파이썬 포털(Python portal)을 사용하여 예제의 Input/Output file을 등록하였다.    그림 3     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-04-02
SAP, 하노버 메세에서 제조업계의 최선 이끌어 낼 AI 혁신 공개
SAP가 4월 4일(현지 시각)까지 독일 하노버에서 열리는 ‘하노버 산업박람회(하노버 메세)’에서 AI 기반 설루션을 공개했다. 매년 봄 열리는 하노버 메세는 13만 명이 참석하는 세계 최대 규모의 산업 박람회로, 최신 산업 동향과 인사이트를 살필 수 있어 국제적으로 중요한 행사다. 올해는 전체 산업 생태계를 위한 산업 간 설루션 및 인터페이스 기술을 선보인다. SAP는 ‘Ignite Innovation. Create Growth. Together’를 주제로 AI가 내제된 최신 제조, 공급망 및 클라우드 ERP 설루션이 어떻게 모든 규모의 기업을 지원하는지 집중 소개했다. 특히, SAP의 이번 전시에는 40곳 이상의 산업 및 전략 파트너가 참여하며 SAP가 구축한 생태계의 강점을 제시했다. SAP의 전략 파트너들이 운영하는 전시 공간은 이번 하노버 메세의 절반 이상을 차지한다. SAP의 도미닉 메츠거(Dominik Metzger) 공급망 관리 사장 겸 최고 제품 책임자는 “전 세계 기업은 시장 변화에 적응하는 동시에, 지속 가능성에 대한 높아지는 요구를 충족해야 하는 이중 과제에 직면해 있다”면서, “SAP는 생성형 AI와 같은 첨단 기술을 활용해 제조업체가 최고의 성과를 달성할 수 있도록 지원하고 있다”고 밝혔다. SAP 코리아는 이번 하노버 메세에 참가하는 국내 고객사와 함께 제조업계의 혁신을 살펴보는 자리를 마련했다. SAP 코리아는 가이드 투어를 통해 AI 기반 설루션이 가져올 산업 혁신을 국내 기업에 소개하고, 확장 중인 SAP 생태계와 핵심 설루션 및 기술을 직접 체험할 수 있도록 기획했다. 하노버 메세에 직접 참여하지 못한 고객들을 위한 행사도 이어진다. 4월 16일 열리는 CIO 포럼에서는 SAP 코리아의 제조산업 부문장인 정대영 박사가 ‘하노버 메세 2025’가 제시하는 최신 트렌드와 시사점을 발표한다. 이번 발표는 급변하는 글로벌 경영 환경에서 지속 가능한 비즈니스 전략을 수립하고, 이를 위해 AI 기반 설루션 도입을 검토하고 있는 경영인에게 인사이트를 제공할 전망이다. 또한, 4월 22일에는 ‘하노버 메세 2025 인사이트 및 AI 기반 공급망 혁신’ 세미나를 개최한다. 세미나에서는 하노버 메세 2025의 주요 시사점과 SAP 공급망 설루션의 최신 업데이트 및 고객 사례가 소개된다. 또한 실무진의 경험을 공유하는 파트너 세션도 함께 진행된다. 한편, SAP는 국내에서도 비즈니스 AI 분야를 선도하기 위한 활동을 진행 중이라고 전했다. 최근에는 SAP의 생성형 AI 코파일럿 쥴(Joule)의 한국어 지원 계획을 발표했다. 쥴은 다양한 AI 에이전트를 통합하여 업무 흐름을 자동화하는 업무 조율자(super orchestrator)이다. SAP는 2025년 말까지 주요 쥴 사용자의 생산성을 30% 높이는 것을 목표로 혁신을 이어가고 있다. 쥴의 한국어 서비스는 올해 2분기에 이뤄질 예정이다.
작성일 : 2025-03-31
오라클, 엔비디아 AI 엔터프라이즈 제공으로 분산형 클라우드 기능 확장
오라클이 오라클 클라우드 인프라스트럭처(OCI)에서 엔비디아 AI 엔터프라이즈(NVIDIA AI EntERPrise)를 제공한다고 밝혔다. 엔비디아 AI 엔터프라이즈는 데이터 과학을 가속화하고 운영 환경에서 사용 가능한 AI의 개발 및 배포를 간소화하는 엔비디아의 종단간(end-to-end) 클라우드 네이티브 소프트웨어 플랫폼이다. 엔비디아 AI 엔터프라이즈는 소버린 AI를 지원하고 기업 고객이 엔비디아의 가속화되고 안전하며 확장 가능한 플랫폼에 쉽게 액세스할 수 있도록 하기 위해 OCI의 분산형 클라우드 어디에서나 사용할 수 있으며, 기업 고객은 기존 오라클 유니버설 크레딧(Oracle Universal Credits)을 통해서도 사용할 수 있다. OCI는 마켓플레이스를 통해 사용 가능한 여타 엔비디아 AI 엔터프라이즈 오퍼링과 달리 OCI 콘솔(OCI Console)을 통한 네이티브 제공 방식으로 서비스 배포 시간이 단축되며, 직접 청구 및 고객 지원이 가능하다. 사용자는 생성형 AI 모델의 배포 간소화를 지원하는 최적화된 클라우드 네이티브 추론 마이크로서비스 모음인 엔비디아 NIM(NVIDIA NIM) 마이크로서비스를 비롯한 160개 이상의 훈련 및 추론용 AI 도구에 빠르고 간편하게 액세스할 수 있다. 또한 다양한 분산형 클라우드 배포 옵션에 걸쳐 종단간 트레이닝 및 추론 기능 모음을 애플리케이션 구축 및 데이터 관리를 지원하는 OCI 서비스와 결합할 수 있다. 오라클은 OCI 콘솔을 통해 엔비디아 AI 엔터프라이즈를 OCI 퍼블릭 리전을 비롯해, 정부 클라우드와 소버린 클라우드, OCI 전용 리전(OCI Dedicated Region), 오라클 알로이(Oracle Alloy), OCI 컴퓨트 클라우드앳커스터머(OCI Compute Cloud@Customer) OCI 로빙 엣지 디바이스(OCI Roving Edge Devices) 등의 오라클 서비스에 신속 간단히 배포할 수 있도록 지원한다. 고객은 OCI의 분산형 클라우드 전반에서 엔비디아 AI 엔터프라이즈를 사용해 엔터프라이즈 AI 스택의 개발, 배포, 운영 과정에 적용되는 보안, 주권, 규정, 규제 준수 요건을 충족할 수 있다. 엔비디아 AI 엔터프라이즈는 OCI 쿠버네티스 엔진(OCI Kubernetes Engine)을 사용하는 GPU 인스턴스 및 쿠버네티스 클러스터용 배포 이미지로 제공될 예정이다. OCI AI 블루프린트(OCI AI Blueprints)는 AI 배포 가속화를 지원하기 위해 직접 소프트웨어 스택 관련 결정을 내리거나 인프라를 수동으로 프로비저닝하지 않고도 빠르게 AI 워크로드를 실행할 수 있는 노코드 배포 레시피를 제공한다. 엔비디아 GPU, NIM 마이크로서비스, 사전 패키징된 통합 가시성 도구 등에 대한 명확한 하드웨어 권장 사항을 제공하는 OCI AI 블루프린트를 사용하면 확장 배포를 위한 GPU 온보딩 시간을 몇 주에서 단 몇 분으로 단축할 수 있다. 오라클의 카란 바타 OCI 담당 수석 부사장은 “오라클은 고객이 OCI에서 AI 설루션을 가장 신속하게 개발 및 배포할 수 있도록 지원한다”면서, “OCI 상의 엔비디아 AI 엔터프라이즈를 활용하면 최신 AI 인프라 및 소프트웨어 혁신의 이점을 누리는 동시에 분산형 클라우드가 제공하는 다양한 배포 옵션을 유연하게 활용할 수 있다. 고객은 운영, 위치, 보안에 대한 제어 능력을 강화함으로써 업계 최고의 AI 설루션을 활용해 소버린 AI를 가속화할 수 있다”고 말했다. 엔비디아의 저스틴 보이타노(Justin Boitano) 엔터프라이즈 소프트웨어 제품 부사장은 “엔비디아 AI 엔터프라이즈는 개발자가 최신 AI 애플리케이션을 개발할 수 있는 구성 요소를 제공한다”면서, “오라클은 OCI 콘솔에 엔비디아 AI 엔터프라이즈를 통합함으로써 다양한 리전에서 생성형, 에이전틱, 물리적 AI의 개발과 배포를 가속화할 수 있는 원활한 환경을 제공할 것”이라고 말했다.
작성일 : 2025-03-27
엔비디아, AI 팩토리 구축 위한 새 옴니버스 블루프린트 출시
  엔비디아가 미국 새너제이에서 열린 GTC에서 AI 팩토리의 설계와 최적화를 지원하는 새로운 엔비디아 옴니버스 블루프린트(NVIDIA Omniverse Blueprint)를 공개했다고 밝혔다. 이제 AI가 하나의 주류로 자리 잡으며, AI 훈련과 추론 전용 인프라이자 인텔리전스 생산의 핵심인 AI 팩토리에 대한 수요가 그 어느 때보다 급증하고 있다. 이러한 AI 팩토리(AI 훈련과 추론을 전담하는 특수 목적 인프라)의 대부분은 기가와트급 규모로 건설될 예정이다. 이러한 규모의 AI 팩토리를 구축하는 것은 엄청난 엔지니어링과 물류 작업이 필요한 일이다. 1기가와트 규모의 AI 팩토리 건설에는 공급업체, 건축가, 시공업체, 엔지니어 등 수만 명의 인력이 필요하며, 약 50억 개의 부품과 21만 마일 이상의 광케이블을 제작, 배송, 조립해야 한다. 엔비디아 창립자 겸 CEO인 젠슨 황(Jensen Huang)은 현지 시간으로 3월 18일 진행된 GTC 기조연설에서 엔비디아의 데이터센터 엔지니어링 팀이 옴니버스 블루프린트에서 1기가와트급 AI 팩토리를 계획, 최적화, 시뮬레이션할 수 있는 애플리케이션을 어떻게 개발했는지 그 과정을 소개했다. 엔지니어링 팀은 케이던스 리얼리티 디지털 트윈 플랫폼(Cadence Reality Digital Twin Platform)과 ETAP와 같은 선도적인 시뮬레이션 툴에 연결해 인프라 건설이 시작되기 훨씬 전, 전력과 냉각 그리고 네트워킹을 테스트하고 최적화할 수 있다. 시뮬레이션 우선 접근 방식을 채택하는 엔지니어링 AI 팩토리 AI 팩토리 설계와 운영을 위한 엔비디아 옴니버스 블루프린트는 오픈USD(Universal Scene Description, OpenUSD) 라이브러리를 사용한다. 이를 통해 개발자는 건물 자체, 엔비디아 가속 컴퓨팅 시스템, 슈나이더 일렉트릭(Schneider Electric)이나 버티브(Vertiv)와 같은 공급업체의 전력 또는 냉각 장치 등 서로 다른 소스에서 3D 데이터를 수집할 수 있다. 이 블루프린트는 수십억 개의 AI 팩토리 구성 요소에 대한 설계와 시뮬레이션을 통합함으로써 엔지니어가 다음과 같은 복잡한 문제를 해결할 수 있도록 돕는다. l  구성 요소 통합과 공간 최적화 - 엔비디아 DGX SupERPOD, GB300 NVL72 시스템 그리고 50억 개의 구성 요소의 설계와 시뮬레이션을 통합한다. l  냉각 시스템 성능과 효율성 - 엔비디아 쿠다(CUDA)와 옴니버스 라이브러리로 가속화된 케이던스 리얼리티 디지털 트윈 플랫폼을 사용해 버티브와 슈나이더 일렉트릭의 하이브리드 공랭식 또는 수랭식 솔루션을 시뮬레이션하고 평가한다. l  전력 분배와 신뢰성 - ETAP로 확장 가능한 이중화 전력 시스템을 설계해 전력 블록의 효율성과 신뢰성을 시뮬레이션한다. l  네트워킹 토폴로지(Networking topology)와 논리 - 엔비디아 스펙트럼-X(Spectrum-X) 네트워킹과 엔비디아 에어(Air) 플랫폼으로 고대역폭 인프라를 미세 조정한다. 옴니버스로 엔지니어링 사일로 해소 AI 팩토리 건설에서 가장 큰 과제 중 하나는 전력, 냉각, 네트워킹 등 각 분야의 팀이 개별적으로 운영되면서 비효율성과 잠재적인 오류를 초래한다는 점이다. 옴니버스 블루프린트를 활용하면 엔지니어들은 다음과 같은 방식으로 협업할 수 있다. l  맥락을 공유하며 협업 - 여러 엔지니어링 분야가 실시간 시뮬레이션을 공유하며 병렬로 설계하고 조정할 수 있어, 한 영역의 변경이 다른 영역에 미치는 영향을 즉시 파악할 수 있다. l  에너지 사용 최적화 - 실시간 시뮬레이션 업데이트를 통해 AI 워크로드에 가장 효율적인 설계를 도출할 수 있다. l  오류 발생 지점 제거 – 배포 전에 이중화 구성을 검증함으로써 비용이 많이 드는 다운타임 위험을 최소화할 수 있다. l  실제 환경 모델링 - 다양한 AI 워크로드가 냉각 성능, 전력 안정성, 네트워크 혼잡도에 미치는 영향을 예측하고 테스트할 수 있다. 이 블루프린트는 실시간 시뮬레이션을 각 엔지니어링 분야와 통합함으로써 운영 비용 모델링과 전력 활용 최적화를 위한 다양한 구성 방안을 탐색할 수 있도록 한다. 실시간 시뮬레이션으로 빨라지는 의사 결정 젠슨 황 CEO의 시연에서 엔지니어들은 실시간으로 AI 팩토리 구성 요소를 조정하고 그 영향을 즉시 확인할 수 있었다. 예를 들어, 냉각 레이아웃을 조금만 조정해도 효율성이 크게 개선됐는데, 이는 기존 문서 기반 설계에서는 놓치기 쉬운 요소이다. 또한, 기존에는 몇 시간씩 소요되던 시뮬레이션 결과를 단 몇 초 만에 확인해 전략을 테스트하고 개선할 수 있었다. 최적의 설계가 확정된 후에는 공급업체와 건설 팀과의 원활한 소통을 도와 실제 건축물이 모델 그대로 정확한 시공이 이루어질 수 있도록 보장했다. 미래를 대비하는 AI 팩토리 AI 워크로드는 지속적으로 변화한다. AI 애플리케이션의 차세대 물결은 전력, 냉각, 네트워킹에 대한 수요를 더욱 증가시킬 것이다. AI 팩토리 설계와 운영을 위한 옴니버스 블루프린트는 이러한 변화에 대비할 수 있도록 다음과 같은 기능을 제공한다. l  워크로드 인식 시뮬레이션 - AI 워크로드의 변화가 데이터센터 규모에서 전력과 냉각에 어떤 영향을 미칠지 예측한다. l  장애 시나리오 테스트 - 전력망 장애, 냉각 누수, 전력 급등을 모델링해 시스템 회복력을 보장한다. l  확장 가능한 업그레이드 - AI 팩토리 확장을 계획하고, 몇 년 후의 인프라 요구 사항을 예측한다. 또한 개조와 업그레이드를 계획할 때 비용과 다운타임을 쉽게 테스트하고 시뮬레이션해 미래에 대비한 AI 팩토리를 구축할 수 있다. AI 팩토리 운영자에게 있어 앞서 나간다는 것은 단순히 효율성을 높이는 것만이 아니라, 하루에 수백만 달러의 비용이 발생할 수 있는 인프라 장애를 방지하는 것이기도 하다. 1기가와트 AI 팩토리의 경우, 매일 발생하는 다운타임으로 1억 달러 이상의 비용이 발생할 수 있는데, 이 블루프린트는 인프라 문제를 미리 해결함으로써 위험과 배포 시간을 모두 줄여준다. AI 팩토리 운영을 위한 에이전틱 AI로 가는 길 엔비디아는 AI 기반 운영으로 확장하기 위한 다음 단계의 블루프린트를 마련하기 위해 버테크(Vertech)와 파이드라(Phaidra)와 같은 주요 기업들과 협력하고 있다. 버테크는 엔비디아 데이터센터 엔지니어링 팀과 협력해 고급 AI 팩토리 제어 시스템을 개발하고 있다. 이 시스템은 IT와 운영 기술 데이터를 통합해 운영 안정성과 가시성을 향상시킨다. 파이드라는 엔비디아와 협력해 강화 학습 기반 AI 에이전트를 옴니버스에 통합하고 있다. 이러한 에이전트는 실시간 시나리오 시뮬레이션을 통해 열 안정성과 에너지 효율을 최적화한다. 그리고 하드웨어와 환경 변화에 맞춰 지속적으로 적응하는 디지털 트윈을 생성한다. AI 데이터센터의 폭발적 성장 AI는 전 세계 데이터센터 환경을 빠르게 재편하고 있다. AI 기반 데이터센터 업그레이드에 1조 달러가 투자될 것으로 예상되는 가운데, 디지털 트윈 기술은 더 이상 선택이 아닌 필수다. AI 팩토리 설계와 운영을 위한 엔비디아 옴니버스 블루프린트는 엔비디아와 파트너 에코시스템이 이러한 변화를 주도할 수 있도록 지원한다. 이를 통해 AI 팩토리 운영자는 끊임없이 진화하는 AI 워크로드에 앞서 나가고, 다운타임을 최소화하며, 효율성을 극대화할 수 있다. 관련 링크 디지털 트윈을 활용해 기가와트급 AI 팩토리 구축하기    
작성일 : 2025-03-23
엔비디아, AI와 그래픽 융합 가속화하는 데이터센터 GPU ‘RTX PRO 6000 블랙웰 서버 에디션’ 발표
엔비디아가 GTC 2025에서 ‘엔비디아 RTX PRO 6000 블랙웰 서버 에디션(NVIDIA RTX PRO 6000 Blackwell Server Edition)’을 발표했다. RTX PRO 6000 블랙웰 서버 에디션은 비주얼 컴퓨팅과 엔터프라이즈 AI를 위해 구축된 첫 번째 블랙웰 기반 데이터센터 GPU이다. 이는 모든 산업에서 높은 성능을 요구하는 AI, 그래픽 애플리케이션을 신속하게 처리할 수 있도록 설계됐다. 이전 세대인 에이다 러브레이스(Ada Lovelace) 아키텍처 기반 L40S GPU에 비해 RTX PRO 6000 블랙웰 서버 에디션 GPU는 다양한 엔터프라이즈 워크로드에서 성능이 크게 향상된다. 예를 들어, 에이전틱 AI(Agentic AI) 애플리케이션을 위한 대규모 언어 모델(LLM) 추론 처리량은 최대 5배 증가되고, 유전체 염기서열 분석은 약 7배로 가속화되며, 텍스트-비디오 생성은 3.3배, 렌더링 속도는 2배 이상 빨라진다. RTX PRO 6000 블랙웰 서버 에디션은 워크스테이션과 서버 GPU로 이뤄진 엔비디아 RTX PRO 블랙웰 시리즈에 속한다. 이번 엔비디아 GTC에서 발표된 RTX PRO 라인업은 여러 산업의 AI와 창의적인 워크로드를 지원하는 데스크톱, 랩톱, 데이터센터 GPU로 구성된다. 여러 분야의 기업들은 RTX PRO 6000 블랙웰 서버 에디션을 통해 데이터 분석, 엔지니어링 시뮬레이션, 생성형 AI, 비주얼 컴퓨팅과 같은 워크로드에서 높은 성능을 구현할 수 있다. 여기에는 건축, 자동차, 클라우드 서비스, 금융 서비스, 게임 개발, 의료, 제조, 미디어, 엔터테인먼트, 소매업 등의 산업이 포함된다. 콘텐츠 제작, 반도체 제조, 유전체 분석 기업들은 이미 컴퓨팅 집약적인 AI 지원 워크플로를 가속화하기 위해 RTX PRO 6000 블랙웰 서버 에디션의 기능을 활용하고 있다.     RTX PRO 6000 블랙웰 서버 에디션은 데이터센터 환경에서 연중무휴 24시간 운영할 수 있게 설계된 수동 냉각 장치 형태로, 강력한 RTX AI와 그래픽 기능을 제공한다. 96GB의 초고속 GDDR7 메모리와 멀티 인스턴스 GPU(MIG)를 갖춘 RTX PRO 6000은 최대 4개의 완전히 격리된 인스턴스로 분할될 수 있다. 각 인스턴스는 24GB의 메모리를 사용할 수 있어, AI 워크로드와 그래픽 워크로드를 동시에 실행할 수 있다. RTX PRO 6000은 엔비디아 컨피덴셜 컴퓨팅(Confidential Computing)을 통해 안전한 AI를 구현하는 범용 GPU이다. 이는 강력한 하드웨어 기반 보안으로 AI 모델과 민감한 데이터를 무단 접근으로부터 보호한다. 이에 따라 물리적으로 격리된 신뢰할 수 있는 실행 환경을 제공해 데이터를 사용하는 동안 전체 워크로드를 보호한다. 또한, RTX PRO 6000은 엔터프라이즈급 배포에서 효과적으로 사용될 수 있도록 고밀도 가속 컴퓨팅 플랫폼으로 구성돼 분산 추론 워크로드를 수행할 수 있다. 더불어 엔비디아 vGPU 소프트웨어를 통해 가상 워크스테이션을 제공하며, AI 개발과 고도의 그래픽 애플리케이션을 구동하는 데 사용될 수 있다. RTX PRO 6000 GPU는 광범위한 AI 모델에 걸쳐 강력한 추론 성능을 제공하며, 복잡한 가상 환경의 사실적인 실시간 레이 트레이싱을 가속화한다. 여기에는 5세대 텐서 코어(Tensor Core), 4세대 RT 코어, DLSS 4, 통합된 미디어 파이프라인, FP4 정밀도를 지원하는 2세대 트랜스포머 엔진(Transformer Engine) 등 최신 블랙웰 하드웨어와 소프트웨어 혁신이 포함된다. 기업들은 RTX PRO 6000 블랙웰 서버 에디션 GPU에서 엔비디아 옴니버스(Omniverse)와 엔비디아 AI 엔터프라이즈(AI EntERPrise) 플랫폼을 대규모로 실행할 수 있다. 이를 통해 이미지와 비디오 생성, LLM 추론, 추천 시스템, 컴퓨터 비전, 디지털 트윈, 로보틱스 시뮬레이션 등의 에이전틱 AI, 물리 AI 애플리케이션 개발과 배포를 더욱 원활하게 진행할 수 있다. 엔비디아는 RTX PRO 6000 블랙웰 서버 에디션을 탑재한 플랫폼이 5월부터 전 세계 파트너를 통해 출시될 예정이라고 소개했다. 클라우드 서비스 제공업체와 GPU 클라우드 제공업체 중에서는 아마존 웹 서비스(AWS), 구글 클라우드, 마이크로소프트 애저, IBM 클라우드, 코어위브, 크루소, 람다, 네비우스, 벌처가 최초로 RTX PRO 6000 블랙웰 서버 에디션을 탑재한 인스턴스를 제공할 계획이다. 시스코, 델 테크놀로지스, 휴렛팩커드 엔터프라이즈(HPE), 레노버, 슈퍼마이크로는 RTX PRO 6000 블랙웰 서버 에디션을 탑재한 서버를 제공할 예정이다. 이 외에도 어드밴텍, 애티나, 에이브레스, 애즈락랙, 에이수스, 컴팔, 폭스콘, 기가바이트, 인벤텍, MSI, 페가트론, 퀀타 클라우드 테크놀로지(QCT), 미텍 컴퓨팅, 네이션게이트, 위스트론, 위윈 등의 기업도 이 서버를 제공할 계획이다.
작성일 : 2025-03-21
엔비디아, 개인용 AI 컴퓨터 ‘DGX 스파크’ 및 ‘DGX 스테이션’ 발표
엔비디아가 자사의 연례 콘퍼런스인 GTC에서 엔비디아 그레이스 블랙웰(NVIDIA Grace Blackwell) 플랫폼을 기반으로 한 엔비디아 DGX 개인용 AI 슈퍼컴퓨터 ‘DGX 스파크(DGX Spark)’와 ‘DGX 스테이션(DGX Station)’을 발표했다. DGX 스파크와 DGX 스테이션은 블랙웰 울트라(Blackwell Ultra) 플랫폼을 기반으로 한 고성능 그레이스 블랙웰 데스크톱 슈퍼컴퓨터이다. 이들 제품은 AI 개발자, 연구자, 데이터 과학자, 학생이 데스크톱에서 대규모 모델을 프로토타입 제작, 미세 조정, 추론할 수 있도록 지원한다. 사용자는 이러한 모델을 로컬에서 실행하거나 엔비디아 DGX 클라우드(DGX Cloud), 기타 가속 클라우드, 데이터센터 인프라에 배포할 수 있다. DGX 스파크와 DGX 스테이션은 기존에 데이터센터에서만 사용할 수 있었던 그레이스 블랙웰 아키텍처의 성능을 데스크톱으로 가져온다. DGX 스파크와 DGX 스테이션을 개발하는 글로벌 시스템 빌더로는 에이수스, 델 테크놀로지스, HP, 레노버 등이 있다.     DGX 스파크는 작은 크기의 AI 슈퍼컴퓨터로, 수백만 명의 연구자, 데이터 과학자, 로봇 개발자, 학생에게 높은 성능과 다양한 기능을 제공한다. 이를 통해 생성형 AI와 물리 AI의 한계를 뛰어넘을 수 있도록 지원한다. DGX 스파크의 핵심은 데스크톱 폼 팩터에 최적화된 엔비디아 GB10 그레이스 블랙웰 슈퍼칩(Grace Blackwell Superchip)이다. GB10은 5세대 텐서 코어(Tensor Core)와 FP4를 지원하는 엔비디아 블랙웰 GPU를 탑재해 초당 최대 1000조 회의 연산을 수행할 수 있다. 또한, 엔비디아 코스모스 추론(Cosmos Reason) 월드 파운데이션 모델과 엔비디아 GR00T N1 로봇 파운데이션 모델 비롯한 최신 AI 추론 모델을 통해 미세 조정과 추론을 수행할 수 있다. GB10 슈퍼칩은 엔비디아 NV링크(NVLink)-C2C 상호 연결 기술을 사용해 5세대 PCIe 대비 5배 높은 대역폭을 지원하는 CPU+GPU 코히어런트 메모리 모델을 구현한다. 이를 통해 GPU와 CPU 간 데이터에 액세스해 메모리 집약형 AI 개발자 워크로드 성능을 최적화할 수 있다. DGX 스파크 사용자는 엔비디아의 풀스택 AI 플랫폼을 사용해 코드를 거의 변경하지 않고도 모델을 데스크톱에서 DGX 클라우드 또는 기타 가속화된 클라우드나 데이터센터 인프라로 원활하게 이동할 수 있다. 이를 통해 그 어느 때보다도 쉽게 워크플로의 프로토타이핑, 미세 조정, 반복 작업을 수행할 수 있다. DGX 스테이션은 데스크톱에 AI 개발을 위한 데이터센터 수준의 성능을 구현한다. 이는 엔비디아 GB300 그레이스 블랙웰 울트라 데스크톱 슈퍼칩이 탑재된 첫 번째 데스크톱 시스템으로, 대규모 훈련과 추론 워크로드 가속화를 위한 784GB의 코히어런트 메모리 공간을 갖추고 있다. GB300 데스크톱 슈퍼칩은 최신 세대 텐서 코어와 FP4 정밀도를 갖춘 엔비디아 블랙웰 울트라 GPU를 탑재하고 있다. 또한 NV링크-C2C를 통해 고성능 엔비디아 그레이스 CPU에 연결돼 빠른 시스템 통신과 높은 성능을 지원한다. 또한, DGX 스테이션은 하이퍼스케일 AI 컴퓨팅 워크로드를 강화하도록 최적화된 엔비디아 커넥트X(ConnectX)-8 슈퍼NIC(SuperNIC)를 갖추고 있다. 초당 최대 800기가비트(Gb/s)의 네트워킹을 지원하는 커넥트X-8 슈퍼NIC는 빠르고 효율적인 네트워크 연결을 제공한다. 이를 통해 보다 큰 워크로드에서도 다수의 DGX 스테이션을 고속 연결하고, AI 워크로드를 위한 네트워크 가속 데이터 전송을 구현한다. 엔비디아는 “이러한 최첨단 DGX 스테이션 기능과 엔비디아 쿠다(CUDA)-X AI 플랫폼을 결합하면 탁월한 데스크톱 AI 개발 성능을 확보할 수 있다”고 설명했다. 또한 사용자는 엔비디아 AI 엔터프라이즈(AI EntERPrise) 소프트웨어 플랫폼을 사용해 엔비디아 NIM 마이크로서비스에 액세스할 수 있다. 이를 통해 엔터프라이즈 지원이 포함된 고도로 최적화되고 배포하기 쉬운 추론 마이크로서비스를 사용할 수 있다. 엔비디아에 따르면 DGX 스파크 시스템의 사전 예약은 3월 19일 시작하며, DGX 스테이션은 올해 하반기에 에이수스, BOXX, 델, HP, 람다 랩스, 슈퍼마이크로와 같은 제조 파트너를 통해 출시될 예정이다. 엔비디아의 젠슨 황(Jensen Huang) 창립자 겸 CEO는 “AI는 컴퓨팅 스택의 모든 계층을 변화시키고 있다. AI 네이티브 개발자와 AI 네이티브 애플리케이션을 위해 설계된 새로운 유형의 컴퓨터가 등장하는 것은 필연적인 일이다. 새로운 DGX 개인용 AI 컴퓨터를 통해 AI가 클라우드 서비스부터 데스크톱, 에지 애플리케이션까지 확장될 것”이라고 말했다.
작성일 : 2025-03-19