• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "AMD"에 대한 통합 검색 내용이 1,456개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
마이크로소프트, 2025년 주목해야 할 6가지 AI 트렌드 공개
마이크로소프트가 2025년 주목해야 할 AI 트렌드 6가지를 공개하면서, AI가 이끌어갈 혁신과 과제에 대한 주요 인사이트를 제시했다.  2024년은 전 세계 조직이 AI를 본격 도입하기 시작한 해로 평가된다. 마이크로소프트의 의뢰로 진행된 IDC 2024 AI 보고서에 따르면, 전 세계 조직의 AI 도입률은 지난해 55%에서 올해 75%로 증가했다. 이는 AI가 실험 단계를 넘어, 실제 비즈니스에서 가치를 창출하는 핵심 도구로 자리잡았음을 보여준다. 마이크로소프트는 이러한 변화에 따라 2025년이 AI가 일상과 업무에서 필수적인 기술로 자리 잡는 전환점이 될 것으로 전망하고 있다. AI는 높은 자율성을 기반으로 복잡한 문제를 해결하고, 업무 효율성을 크게 높이며 일상을 단순화할 것으로 기대된다. 나아가 과학, 의료 등 인류가 직면한 주요 과제 해결에도 적극적으로 활용될 것으로 내다보고 있다. 특히, 이러한 흐름은 AI의 논리적 사고와 데이터 처리 능력의 고도화를 통해 더욱 가속화될 것으로 예상된다. 마이크로소프트는 이러한 변화를 지원하기 위해 안전하고 신뢰할 수 있는 AI 기술 개발에 집중하고 있으며, 이를 사용자들이 안심하고 활용할 수 있도록 지원할 계획이다.  마이크로소프트의 크리스 영(Chris Young) 사업개발·전략·투자 담당 부사장은 “AI는 불가능해 보였던 많은 것을 가능하게 하고 있으며, 지난 한 해 동안 많은 조직이 실험 단계를 넘어 실질적인 도입 단계로 진입했다”고 말했다. 이어 그는 "AI 기술은 우리 삶의 모든 영역에 전면적인 변화를 가져올 전환점에 서 있다"고 강조했다.      마이크로소프트가 제시한 2025년 6가지 주요 AI 트렌드는 ▲더 유용하고 유능해질 AI 모델 ▲업무 형태를 변화시킬 AI 에이전트의 활약 기대 ▲모든 일상을 지원하는 AI 역할 확장 ▲지속 가능한 AI 인프라 구축 필요성 증대 ▲테스트와 맞춤화를 통한 책임 있는 AI 구축 ▲과학적 혁신을 가속화하는 AI 등이다. 첫 번째, AI 모델은 더 많은 일을 더 잘 수행할 것이다. 이 AI 모델들은 과학, 코딩, 수학, 법률 및 의학 등 여러 분야에서 혁신을 주도하며, 문서 작성부터 코딩 같은 복잡한 업무에 이르기까지 폭 넓은 업무를 수행할 수 있는 능력을 갖추게 될 것으로 보인다. 특히 AI의 추론 능력도 향상될 전망이다. 고급 추론 AI 모델인 오픈AI o1은 인간이 생각하는 방식과 유사한 논리적 과정을 거쳐 복잡한 문제를 단계적으로 해결하는 데 뛰어난 성능을 입증했다. 데이터 선별과 후속 학습도 AI 모델 발전에서 핵심적인 역할을 하게 된다. 마이크로소프트의 소형언어모델 파이(Phi)는 고품질 데이터를 활용해 모델 성능과 추론 능력을 효과적으로 개선할 수 있음을 보여줬다. 또한, 오르카(Orca) 및 오르카2(Orca 2) 모델은 합성 데이터를 활용한 학습으로 대규모 언어 모델에 준하는 성능을 구현하며 새로운 가능성을 열었다. 두 번째, 개인화된 차세대 AI 에이전트는 반복적이고 일상적인 업무를 자동화하는 데에서 나아가, 복잡하고 전문적인 작업까지 수행하며 조직의 업무 환경과 프로세스를 근본적으로 변화시킬 것으로 기대된다. AI 에이전트는 메모리, 추론, 멀티모달 기술의 발전을 통해 더욱 정교하게 작업을 처리할 수 있다. 예를 들어 조직의 재고 공급에 문제가 발생하면 AI 에이전트가 이를 관리자에게 알리고, 적합한 공급 업체를 추천하거나 직접 주문을 실행해 업무가 중단 없이 진행될 수 있도록 돕는다. 또한, 누구나 AI 에이전트를 설계하고 개발할 수 있는 환경도 마련된다. 마이크로소프트의 코파일럿 스튜디오(Copilot Studio)는 코딩 없이도 AI 에이전트를 개발할 수 있으며, 애저 AI 파운드리(Azure AI Foundry)는 복잡한 프로세스를 처리할 수 있는 고급 AI 에이전트 설계를 지원한다. 이러한 변화는 단순히 사용자와 협력하며 응답하는 프롬프트 기반 AI 에이전트에서, 독립적으로 업무를 수행하고 프로세스를 조율하는 완전 자율형 AI 에이전트까지 다양화될 것으로 예상된다. 세 번째, AI가 일상생활에서 차지하는 역할의 확장이다. 마이크로소프트 코파일럿(Microsoft Copilot)은 AI 동반자로서, 사용자가 하루 일과를 우선 순위에 따라 시간을 효율적으로 관리할 수 있도록 돕는다. 또한, 개인 정보와 데이터 보안을 강화해 보다 안전한 환경에서 AI를 사용할 수 있도록 설계됐다. 사용자는 일상에서 코파일럿을 더욱 밀접하게 활용할 수 있다. 예를 들어, 사용자는 하루를 시작하며 코파일럿 데일리(Copilot Daily)의 음성을 통해 최신 뉴스와 날씨 정보를 확인할 수 있다. 또한, 코파일럿 비전(Copilot Vision)은 사용자가 접속한 웹페이지를 분석해 관련 질문에 답하거나 다음 단계를 제안하는 등 보다 직관적인 상호작용을 지원한다. 코파일럿은 의사결정 과정에서도 유용하게 활용된다. 예를 들어, 새 아파트 인테리어를 위해 어울리는 가구를 추천하고, 효율적인 배치 방안을 제시해 사용자의 공간을 더 편리하고 실용적으로 꾸밀 수 있도록 돕는다. 이는 시작 단계이며, 앞으로 AI는 정서 지능의 고도화를 통해 보다 유연하고 자연스러운 상호작용을 제공할 전망이다. 네 번째, 에너지 자원 효율화를 통한 지속 가능한 AI 인프라 구축에 대한 노력이다. 실제로 전 세계 데이터 센터 처리량은 2010년부터 2020년까지 약 9배 증가했음에도 전력 소비량은 단 10% 증가에 그쳤다. 이는 마이크로소프트가 AMD, 인텔, 엔비디아 등과 협력해 반도체 칩 애저 마이아(Azure Maia)와 코발트(Cobalt), 그리고 대규모 AI 시스템 냉각을 위한 액체 냉각 열교환기 기술을 통해 하드웨어의 에너지 효율을 높인 결과다. 향후 몇 년 내에는 냉각에 물을 전혀 사용하지 않는 워터-프리 데이터센터가 도입될 예정이다. 동시에 초고효율 액체 냉각 기술인 콜드 플레이트(Cold plates)의 사용도 확대된다. 이러한 기술들은 지속 가능한 AI 인프라 조성을 위한 노력의 핵심이다. 이와 함께 마이크로소프트는 저탄소 건축 자재를 도입해 데이터센터 설계를 친환경적으로 혁신하고 있다. 탄소 배출이 거의 없는 철강, 콘크리트 대체 소재, 교차 적층 목재 등이 대표적인 예다. 이와 함께 풍력, 지열, 원자력 및 태양광 등 무탄소 에너지원에도 적극 투자하며, 2030년까지 탄소 네거티브, 워터 포지티브, 제로 웨이스트 목표를 달성하기 위한 장기적인 비전을 실행하고 있다. 다섯 번째, AI의 위험을 측정하고 평가하는 기준의 강화다. 2025년에는 책임 있는 AI를 구현하기 위해 ‘테스트’와 ‘맞춤화’에 대한 기준이 높아질 것으로 예상된다. 포괄적인 테스트 체계는 외부의 정교한 위협을 탐지하고, AI가 생성하는 부정확한 응답(환각)과 같은 내부 문제를 해결하는 데에 효과적이다. 마이크로소프트는 AI 모델이 직면할 수 있는 위협을 정밀하게 분석하고 개선하는 과정을 지속하며, 더욱 안전한 AI 환경 구축을 목표로 하고 있다. 특히 모델의 안전성이 높아질수록 테스트와 측정 기준도 더욱 정교해지고 있다. ‘맞춤화’와 ‘제어’는 미래 AI 응용 프로그램의 핵심으로 자리 잡을 것으로 보인다. 조직은 콘텐츠 필터링과 작업에 적합한 가드레일 설정 등 AI 활용 방식을 자유롭게 조정할 수 있다. 예를 들어, 게임사는 직원이 볼 수 있는 폭력 콘텐츠의 종류를 제한할 수 있다. 마이크로소프트 365 코파일럿은 업무 환경에 적합한 콘텐츠를 설정할 수 있는 맞춤형 제어 기능을 제공한다. 여섯 번째, AI가 과학 연구에 미치는 영향력 확대다. 이미 AI는 슈퍼컴퓨팅과 일기 예보 같은 분야의 연구 속도를 가속화하고 있으며, 앞으로는 자연 과학, 지속 가능한 소재 개발, 신약 연구 및 건강 분야에서 중요한 역할을 할 것으로 예상된다. 2024년, 마이크로소프트 리서치(MSR)는 생체 분자 과학 문제를 해결할 생체분자 역학 시뮬레이션(simulate biomolecular dynamics)을 개발했다. AI2BMD(AI-driven Biomolecular Dynamics)로 불리는 이 시스템은 단백질 설계, 효소 공학, 신약 개발 등의 분야에서 전례 없는 속도와 정밀도로 문제를 해결하며 생물 의학 연구에 새로운 가능성을 열었다. 2025년에는 AI가 지속 가능한 소재 설계와 신약 개발 같은 인류의 공동 과제 해결에 중요한 역할을 할 것으로 보인다. 이를 통해 과학 기관과 연구자들은 AI를 통해 연구 효율을 높이고, 지금까지 불가능했던 새로운 돌파구를 마련할 것으로 기대를 모으고 있다.
작성일 : 2024-12-09
AMD 기반 ‘엘 캐피탄’, 세계에서 가장 빠른 슈퍼컴퓨터로 등재
AMD는 세계에서 가장 빠른 슈퍼컴퓨터를 선정하는 톱500(Top500) 리스트에 AMD 기반 슈퍼컴퓨터가 6회 연속 등재되면서 고성능 컴퓨팅(HPC) 분야에서 리더십을 입증했다고 밝혔다. AMD 인스팅트(Instinct) MI300A APU로 구동되고 휴렛팩커드 엔터프라이즈(HPE)가 구축한 미국 로렌스 리버모어 국립 연구소(LLNL)의 엘 캐피탄(El Capitan) 슈퍼컴퓨터는 최신 톱500 리스트에서 1.742 엑사플롭스의 HPL(High-Performance Linpack) 스코어를 기록하며, 세계에서 가장 빠른 슈퍼컴퓨터로 선정되었다.  미국 핵안보국(NNSA)의 첫 번째 엑사스케일급 시스템인 엘 캐피탄은 NNSA의 트리랩스(Tri-Labs)인 LLNL과 로스앨러모스(Los Alamos) 및 샌디아(Sandia) 국립 연구소의 최고 컴퓨팅 자원으로 자리잡았다. 엘 캐피탄은 과학적 탐구와 국가 안보를 강화하는데 사용되며, 핵실험 없는 안전한 핵 억지력과 보안 및 신뢰성을 보장하는데 필요한 방대한 컴퓨팅 성능을 제공한다. 이 시스템은 노후 핵 비축물 인증과 같은 NNSA의 핵 비축물 관리 프로그램(Stockpile Stewardship Program)을 비롯해 확산 방지 및 대테러와 같은 주요 핵 안보 임무에 필수적인 모델링 및 시뮬레이션 기능을 지원한다.     LLNL과 NNSA의 다른 연구소들은 엘 캐피탄과 함께 AI 및 머신러닝 기반 데이터 분석을 수행하는 투올러미(Tuolumne) 시스템을 활용하여 빠르고 정확하게 예측 불확실성을 정량화할 수 있는 과학 모델을 생성하기 위한 LLNL의 AI 기반 목표를 더욱 가속화하고 있다. 엘 캐피탄은 AI를 적용하여 관성 봉입 핵융합(Inertial Confinement Fusion) 연구와 같은 고밀도 에너지 문제를 해결하는데 사용되고, 투올러미는 기후 모델링과 방역 및 신약 개발, 지진 모델링 등 비분류 공개 과학(Unclassified Open Science) 응용 분야에 활용될 예정이다. AMD의 최신 에픽 9005 시리즈 프로세서는 엔터프라이즈, AI 및 클라우드 환경을 위한 서버 CPU로, 고성능 컴퓨팅 및 AI 워크로드에서 이전 세대 대비 최대 37% 향상된 IPC(Instruction Per Cycle) 성능을 제공한다. 또한, 이 프로세서는 세계적인 난제를 해결하는 과학 및 고성능 컴퓨팅 애플리케이션에서 경쟁사 대비 최대 3.9배 더 빠른 인사이트 도출 시간을 제공한다. AMD 인스팅트 가속기는 AI 설루션에서 엑사스케일급 슈퍼컴퓨터에 이르기까지 다양한 규모의 데이터센터를 위한 고성능을 제공한다. AMD 인스팅트 MI300X 및 MI325X 가속기는 높은 AI 성능과 메모리 기능을 갖추고 있으며, CPU 및 GPU 코어와 적층형 메모리를 단일 패키지로 통합한 AMD 인스팅트 MI300A APU는 고성능 컴퓨팅 및 AI 워크로드를 위한 향상된 효율과 성능을 제공한다. AMD는 이외에도 오크리지 국립 연구소(Oak Ridge National Lab)의 엘 캐피탄과 프론티어(Frontier) 시스템이 그릭500(Green500) 리스트에서 각각 18위와 22위를 차지하면서, 고성능 컴퓨팅 워크로드를 지원하는 AMD 에픽 프로세서와 인스팅트 GPU의 성능 및 에너지 효율을 다시 한 번 입증했다고 전했다. AMD의 포레스트 노로드(Forrest Norrod) 수석 부사장 겸 총괄 책임자는 “엘 캐피탄이 엑사플롭의 장벽을 깨고, 세계에서 가장 빠른 AMD 기반 두 번째 슈퍼컴퓨터로 선정되어 매우 기쁘다. AMD 인스팅트 MI300 APU의 뛰어난 성능과 효율성을 입증한 이 획기적인 컴퓨터는 AMD와 LLNL 및 HPE 간의 헌신적인 협력의 결과물”이라면서, “AMD는 고성능 컴퓨팅과 AI의 컨버전스를 새롭게 정의하는 선도적인 성능과 기능을 통해 지속적으로 컴퓨팅의 미래를 주도하게 될 것”이라고 밝혔다. LLNL의 리버모어 컴퓨팅 최고기술책임자(CTO)인 브로니스 R. 드 수핀스키(Bronis R. de Supinski)는 “AMD 인스팅트 MI300A APU를 활용하여 절대적 한계치를 넘어서는 컴퓨팅 성능과 이전에는 상상하지 못한 뛰어난 에너지 효율성을 갖춘 시스템을 구축했다. 엘 캐피탄은 더욱 보편화되고 있는 AI를 기존의 시뮬레이션 및 모델링 워크로드와 통합함으로써 다양한 과학적 연구 분야에서 새로운 발견의 가능성을 높일 수 있게 되었다”고 전했다.
작성일 : 2024-11-19
델, AI 팩토리 포트폴리오에 최신 기술 적용한 서버/랙 시스템/전문 서비스 추가
델 테크놀로지스는 자사의 AI 설루션 포트폴리오인 ‘델 AI 팩토리(Dell AI Factory)’에 AI 구축 간소화를 위한 신규 인프라 설루션과 전문 서비스를 추가했다고 밝혔다. 델은 확장된 라인업을 통해 기업 및 기관이 AI 워크로드를 가속하고 데이터 관리를 효율화할 수 있도록 지원할 계획이다. 올해 새롭게 공개된 통합 랙 스케일러블 시스템인 ‘델 IRSS(Integrated Rack Scalable Systems)’는 플러그 앤 플레이 방식의 랙 스케일 시스템을 제공하는 공장 통합형 턴키 프로그램으로, 델 스마트 쿨링(Dell Smart Cooling) 기술이 적용되어 있다. IRSS는 전체 랙에 대한 원콜 서비스 및 지원 옵션을 통해 에너지 효율적인 AI 인프라스트럭처 구축을 더욱 간소화한다. 설치가 완료되면 델에서 패키징 폐기물 및 재활용을 처리하고 기존 노후 하드웨어의 재활용까지 지원한다. 표준 19인치 모델인 ‘델 IR5000(Dell Integrated Rack 5000)’에 탑재되는 서버로 ‘델 파워엣지 XE9685L(Dell PowerEdge XE9685L)’ 및 ‘델 파워엣지 XE7740(Dell PowerEdge XE7740)’이 추가됐다. 델 IR5000은 공간 효율적인 폼 팩터로 고집적 애플리케이션을 위해 설계되었으며, 고성능을 제공하는 동시에 에너지 효율을 유지한다.  델 파워엣지 XE9685L은 AI, 머신러닝, 고성능 컴퓨팅(HPC) 및 기타 데이터 집약적인 워크로드를 위해 설계된 고집적 4U 수랭식 서버이다. 최대 12개의 PCIe 젠 5.0 슬롯과 함께 엔비디아 HGX (NVIDIA HGX) H200 및 B200 GPU와 페어링된 듀얼 AMD 5세대 에픽(EPYC) CPU는 특정 컴퓨팅 요구 사항을 충족하는 맞춤형 구성, 최적화된 스토리지 연결 및 까다로운 워크로드를 위한 최대 IO 처리량을 지원한다. 이 플랫폼은 랙당 최대 96개의 엔비디아 GPU를 탑재할 수 있어 업계 최고 수준의 GPU 집적도를 제공한다.   ▲ 델 파워엣지 XE7740 서버   델 파워엣지 XE7740은 공랭식의 4U 모델로 2개의 인텔 제온 6(Intel Xeon) P-코어 프로세서와 인텔 가우디(Intel Gaudi) 3 PCIe 가속기 또는 엔비디아 H200 NVL 등 최대 8개의 더블 와이드 가속기, 또는 엔비디아 L4 텐서 코어(Tensor Core) GPU 등의 최대 16개의 싱글 와이드 가속기를 사용할 수 있다. 델은 “다양한 선택의 폭이 제공되는 만큼 생성형 AI 모델의 미세 조정이나 추론에서부터 대규모 데이터 세트에 대한 가치 추출에 이르기까지 규모에 맞게 서버 구성의 적절히 조정할 수 있다”고 설명했다.   델은 곧 출시될 엔비디아 GB200 그레이스 블랙웰 NVL4 슈퍼칩(Grace Blackwell NVL4 Superchip)을 델 IR7000용으로 설계된 새로운 델 파워엣지 XE 서버를 통해 50OU 표준 랙에서 랙당 최대 144개의 GPU를 지원할 계획이다. IR7000 랙은 100%에 가까운 열 포집 능력으로 고전력 및 액체 냉각을 필요로 하는 대규모 HPC 및 AI 워크로드를 지원한다. 또한, 델 테크놀로지스는 AI 작업을 위해 데이터를 효율적으로 관리하고 분석할 수 있는 최신 아키텍처 수요에 대응하게 위해 ‘델 데이터 레이크하우스(Dell Data Lakehouse)’도 업데이트 했다. 이 플랫폼은 AI에 최적화된 하드웨어와 풀 스택 소프트웨어 제품군을 기반으로 구축되었으며, 향후 대규모 분산 데이터 처리를 위한 아파치 스파크(Apache Spark)를 포함하도록 확장될 예정이다. 대량의 데이터를 관리하는 기업의 경우, 이를 통해 데이터 애널리틱스와 관리 및 처리에 이르기까지 통합된 접근 방식을 확보함으로써 효율성을 높이고 보다 신속하게 실행 가능한 인사이트를 얻을 수 있다. 한편, 델은 AI 에코시스템 전반의 파트너와 협력하여 AI 구축을 강화하고 간소화하는데 노력하고 있다고 전했다. 엔비디아 기반 델 AI 팩토리(Dell AI Factory with NVIDIA)는 AI 운영 및 활용 사례 구축을 위해 성능을 보다 가속화한다. 새로운 엔비디아 HGX H200 및 H100NVL 지원 옵션은 엔비디아 HGX H100 대비 최대 1.9배 더 높은 성능을 제공한다. 엔비디아 기반 델 AI 팩토리의 일부인 ‘엔비디아 기반 델 에이전틱 RAG(Dell Agentic RAG with NVIDIA)’를 통해 고객은 복잡한 쿼리를 수행하고 검색 증강 생성(RAG) 작업을 가속할 수 있다. 대규모 데이터 세트를 보유한 조직에서는 델의 이 설계를 기반으로 AI 에이전트를 사용하여 RAG 워크플로 성능을 개선하고, 복잡한 쿼리를 처리하며, 더 높은 품질의 결과를 제공할 수 있다. 이 설루션은 델 파워엣지와 델 파워스케일(Dell PowerScale)을 비롯해 니모 리트리버(NeMo Retriever) 마이크로서비스, 멀티모달 PDF 데이터 추출을 위한 ‘엔비디아 AI 블루프린트(NVIDIA AI Blueprint)’ 등 엔비디아 AI 엔터프라이즈(NVIDIA AI Enterprise) 소프트웨어를 활용한다. AI PC를 위한 델 검증 설계(Dell Validated Designs for AI PCs)는 NPU 기술이 탑재된 델 AI PC에서 AI 애플리케이션 개발을 촉진하기 위해 설계된 오픈 소스 가이드이다. 개발자는 모듈식 설계를 쉽게 맞춤화하여 LLM, 비전, 텍스트 및 음성 등의 기능을 애플리케이션에 통합할 수 있다. 또한 다양한 프로세서 종류나 플랫폼에 걸쳐 AI 애플리케이션을 배포할 수 있다. 이러한 확장 가능한 접근 방식을 통해 온디바이스 AI에서 일상적인 프로세스를 자동화하고 시간과 비용을 절감하고 데이터 보안을 개선할 수 있다. 델 프로페셔널 서비스(Dell Professional Services)는 AI 관련 전략 개발이나 구현에 어려움을 겪는 기업과 기관들이 AI 목표를 보다 효율적으로 달성할 수 있도록 지원한다. ‘지속 가능한 데이터 센터를 위한 자문 및 구현 서비스(Advisory and Implementation Services for Sustainable Data Centers)’는 지능형 전력 및 냉각 관리를 통해 저탄소, 에너지 효율적인 데이터 센터를 위한 전략을 수립하고 구현하는데 필요한 전문 지식을 제공한다. ‘데이터 관리 서비스(Data Management Services)’는 데이터를 검색, 분류, 정제하여 AI-레디 카탈로그를 제공하고 체계화된 고품질 데이터에 대한 안정적이고 간소화된 액세스를 보장한다. ‘AI 네트워킹을 위한 설계 서비스(Design Services for AI Networking)’는 더 빠른 속도, 지연 시간 단축, 향상된 확장성을 통해 AI 워크로드에 최적화된 네트워크 설계를 제공한다. ‘서비스나우 나우 어시스트를 위한 구현 서비스(Implementation Services for ServiceNow Now Assist)’는 AI 기반 요약을 통해 콘텐츠 수집을 간소화하여 결과를 자동화하고 생산성을 향상시키는 ‘나우 어시스트’를 통해 서비스 관리 워크플로에 생성형 AI 기능을 통합한다. 한국 델 테크놀로지스의 김경진 총괄사장은 “여러 고객들이 AI를 구축하고 실행하기까지 점점 더 다양한 도전과제에 직면하게 된다”면서, “델은 계속해서 진일보한 AI 오퍼링을 선보임으로써 고객이 AI를 통해 보다 스마트하고 유연하게 대응할 수 있는 미래를 만들어갈 수 있도록 하는데 집중하고 있다”고 밝혔다. 델 파워엣지 XE9685L과 델 파워엣지 XE7740은 2025년 1분기에 전 세계에 출시될 예정이며, 델 데이터 레이크하우스 업데이트는 현재 전세계에서 이용 가능하다. AI PC를 위한 델 검증 설계는 현재 전 세계에서 이용 가능하며, 엔비디아 기반의 델 생성형 AI 설루션의 GPU 업데이트는 올해 내에 제공될 예정이고, 엔터프라이즈 RAG 업데이트는 현재 이용이 가능하다. ‘델 데이터 관리 서비스’와 ‘지속 가능한 데이터 센터를 위한 델 서비스,’ ‘AI 네트워킹을 위한 델 설계 서비스,’ ‘서비스나우 나우 어시스트를 위한 델 구현 서비스’는 현재 일부 국가에서 제공되고 있다.
작성일 : 2024-11-19
HPE, 직접 수냉 방식 HPC 설루션 및 대규모 AI 모델 학습을 위한 AI 서버 발표
HPE는 리더십급 ‘HPE 크레이 슈퍼컴퓨팅 EX’ 설루션과 대규모 언어 모델(LLM) 학습, 자연 언어 프로세싱(NLP) 및 멀티 모달 모델 학습에 최적화된 시스템 2종을 포함한 새로운 HPC 및 인공지능(AI) 인프라 포트폴리오를 발표했다. HPE 크레이 슈퍼컴퓨팅 EX 시스템을 기반으로 하는 전체 리더십급 HPC 포트폴리오의 신제품은 세계의 난제 해결을 맡은 연구 기관과 소버린 AI 이니셔티브를 개발하는 정부 기관을 위해 설계되었다. 이 포트폴리오는 100% 팬리스 직접 수냉 방식(Fanless DLC) 시스템 아키텍처를 기반으로 하며 컴퓨팅 노드, 네트워킹, 스토리지를 포함한 HPE 슈퍼컴퓨팅 설루션의 모든 레이어에 걸쳐 새로운 소프트웨어 오퍼링으로 보완된다. 단일 캐비닛에서 최대 9만 8304개의 코어를 제공할 수 있는 HPE 크레이 슈퍼컴퓨팅 EX4252 2세대 컴퓨팅 블레이드(HPE Cray Supercomputing EX4252 Gen 2 Compute Blade)는 슈퍼컴퓨팅을 위한 강력한 원랙 유닛 시스템을 구현하는 제품이다. 8개의 5세대 AMD 에픽(EPYC) 프로세서를 탑재한 이 컴퓨팅 블레이드는 CPU 집적도의 이점을 제공하여 고객이 동일한 공간 내에서 더 높은 성능의 컴퓨팅을 실현할 수 있도록 지원한다. HPE Cray 슈퍼컴퓨팅 EX4252 2세대 컴퓨팅 블레이드는 2025년 봄에 출시될 예정이다.     슈퍼컴퓨팅 워크로드를 완료하는 데 걸리는 시간을 단축하기 위해 HPE 크레이 슈퍼컴퓨팅 EX154n 가속기 블레이드(HPE Cray Supercomputing EX154n Accelerator Blade)는 단일 캐비닛에 최대 224개 엔비디아 블랙웰(NVIDIA Blackwell) GPU를 탑재할 수 있다. 각 가속기 블레이드는 엔비디아 GB200 그레이스 블랙웰 NVL4 슈퍼칩(NVIDIA GB200 Grace Blackwell NVL4 Superchip)을 탑재하고 있으며, 엔비디아 NV링크-C2C를 통해 2개의 엔비디아 그레이스 CPU와 통합된 4개의 엔비디아 NV링크 연결 블랙웰(NVIDIA NVLink-connected Blackwell) GPU를 보유하고 있다. HPE 크레이 슈퍼컴퓨팅 EX154n 가속기 블레이드는 2025년 말에 공급될 예정이다. 차세대 엑사스케일 지원 HPE 인터커넥트 포트폴리오는 초당 400GB 속도의 네트워크 인터페이스 컨트롤러(NIC), 케이블 및 스위치를 제공한다. HPE 슬링샷 인터커넥트 400(HPE Slingshot interconnect 400)은 이전 세대보다 2배 빠른 회선 속도를 제공하는 동시에 자동화된 혼잡 관리 및 초저 테일 레이턴시(ultra-low tail latency)를 위한 어댑티브 라우팅과 같은 기능을 제공하여 고객이 더 적은 네트워크 인프라로 대규모 워크로드를 실행할 수 있도록 지원한다. 이 버전의 HPE 슬링샷은 2025년 하반기부터 HPE Cray 슈퍼컴퓨팅 EX 시스템 기반 클러스터에 적용될 예정이다 HPE 크레이 슈퍼컴퓨팅 스토리지 시스템 E2000은 이전 세대 대비 입출력(I/O) 성능이 두 배 이상 향상되었다. 대규모 슈퍼컴퓨터용으로 설계된 이 시스템은 오픈 소스 러스터(Lustre) 파일 시스템을 기반으로 하며, I/O 작업 중 유휴 시간을 줄여 CPU 및 GPU 기반 컴퓨팅 노드 모두의 활용도를 높일 수 있다. 이 HPC 스토리지 시스템은 2025년 초에 HPE 크레이 슈퍼컴퓨팅 EX 시스템에서 일반적으로 제공될 예정이다. 또한, HPE는 컴퓨팅 집약적 워크로드 실행의 사용자 경험을 개선하는 새로운 소프트웨어 제품을 출시한다. 현재 이용 가능한 HPE 크레이 슈퍼컴퓨팅 사용자 서비스 소프트웨어에는 고객이 시스템 효율성을 최적화하고 전력 소비를 조절하며 슈퍼컴퓨팅 인프라에서 다양한 워크로드를 유연하게 실행하는 데 도움이 되는 기능이 포함되어 있다. 한편, HPE는 고객이 대규모 고성능 AI 클러스터를 간소화할 수 있도록 지원하는 새로운 카테고리의 서버를 계속 선보이고 있다고 전했다. 자체 AI 모델을 학습하는 SP와 대기업을 위해 설계된 HPE 프로라이언트 컴퓨트 XD 서버는 대규모 AI 시스템 설치 및 배포에 대한 HPE의 전문성을 활용한다. HPE의 최첨단 제조 시설 내에서 설루션의 구축, 맞춤화, 통합, 검증, 전체 테스트를 지원하는 HPE 서비스 옵션을 활용하면 신속한 온사이트 배포가 가능하다. HPE 프로라이언트 컴퓨트 서버에서만 사용 가능한 HPE iLO(Integrated Lights-Out) 관리 기술을 사용하면 일부 권한이 있는 직원이 서버에 대한 대역 외 원격 제어 액세스를 허용하여 표준 대역 내 네트워크 액세스보다 보안을 강화할 수 있다. 가격 대비 성능을 염두에 두고 최적화된 공냉 방식 HPE 프로라이언트 컴퓨트 XD680 서버는 복잡한 AI 학습, 튜닝 및 추론 워크로드를 처리하도록 설계되었다. HPE가 설계한 섀시에는 단일 컴팩트 노드에 8개의 인텔 가우디 3 AI 가속기가 탑재되어 있다. 인텔 가우디 3가 탑재된 HPE 프로라이언트 컴퓨트 XD680 서버는 2024년 12월에 출시될 예정이다. HPE는 성능, 경쟁 우위, 에너지 효율성을 우선시하는 고객을 위해 대규모의 복잡한 AI 모델에 대한 학습을 가속화할 수 있는 엔비디아 GPU가 탑재된 새로운 버전의 HPE 프로라이언트 컴퓨트 XD685 서버가 출시될 예정이다. 이 서버는 5개의 랙 유닛 섀시에 8개의 엔비디아 H200 SXM 텐서 코어 GPU 또는 엔비디아 블랙웰 GPU로 구동되며, 수냉식 냉각 분야에서 수십 년간 쌓아온 HPE의 전문성을 활용하여 GPU, CPU 및 스위치를 효율적으로 냉각시킨다. HPE 프로라이언트 컴퓨트 XD685 서버의 엔비디아 HGX H200 8-GPU 버전은 2025년 초에 출시될 예정이며, 엔비디아 블랙웰 GPU 버전은 출시에 맞춰 선보일 예정이다. HPE의 트리시 댐크로거(Trish Damkroger) HPC 및 AI 인프라 설루션 부문 수석 부사장 겸 총괄은 “소버린 AI 이니셔티브에 투자하는 서비스 제공업체와 국가들은 발견과 혁신을 가속화하기 위한 대규모 AI 학습을 가능하게 하는 중요한 백본으로 HPC를 점점 더 많이 고려하고 있다”면서 “고객은 세계 최고의 HPC 설루션과 완전 통합형 시스템 제공, 배포 및 서비스 분야에서 수십 년간 쌓아온 경험을 활용하여 더 빠르고 효율적으로 가치를 실현하면서 AI 시스템 배포를 빠르게 진행하기 위해 HPE에 주목하고 있다”고 밝혔다.
작성일 : 2024-11-15
AMD, 2세대 버설 프리미엄 시리즈 SoC 공개
AMD는 광범위한 워크로드에서 높은 수준의 시스템 가속 성능을 달성할 수 있도록 설계된 적응형 SoC 플랫폼인 2세대 버설 프리미엄 시리즈(AMD Versal Premium Series Gen 2)를 공개했다. 2세대 버설 프리미엄 시리즈는 CXL 3.1(Compute Express Link 3.1)과 PCIe 젠6(PCIe Gen6) 및 LPDDR5X를 하드 IP 형태로 지원하는 디바이스이다. AMD는 차세대 인터페이스와 메모리 기술을 통해 프로세서와 가속기 간의 데이터 이동 및 액세스를 빠르고 효율적으로 처리할 수 있다고 설명했다. 또한, CXL 3.1과 LPDDR5X는 더 많은 메모리 자원을 보다 빠르게 활용할 수 있어 데이터센터, 통신, 테스트 및 측정, 항공우주 및 방위 산업 등 데이터 집약적 애플리케이션에서 요구하는 실시간 프로세싱 및 스토리지 요구사항을 충족한다.     AMD는 FPGA 기반 가속기와 같은 디바이스 및 프로세서 간의 상호 연결을 위한 개방형 산업 표준인 CXL을 지원한다. 2세대 버설 프리미엄 디바이스는 업계에서 PCIe 젠 6 및 CXL 3.1을 통해 호스트 CPU와 가속기 간의 고대역폭 연결을 지원한다. AMD는 “PCIe 젠 6은 PCIe 젠 4 또는 젠 5를 지원하는 경쟁 FPGA에 대비 2배~4배 빠른 속도를 발휘하며, PCIe 젠 6으로 실행되는 CXL 3.1은 CXL 2.1을 사용하는 경젱 제품에 비해 유사한 지연시간으로 두 배의 대역폭, 향상된 패브릭 및 일관성(coherency)을 제공한다”고 설명했다. 시스템 개발자는 2세대 버설 프리미엄 시리즈와 AMD 에픽(EPYC) CPU를 함께 사용하여 CXL 또는 PCIe를 통해 고성능 CPU에 연결된 최신 AMD FPGA 기반 디바이스를 활용할 수 있다. 이는 데이터 집약적 애플리케이션을 가속화하고, 급속도로 증가하는 데이터 요구를 충족한다. 이외에도, CXL은 메모리 일관성(memory coherency)을 제공하여 이기종 가속 컴퓨팅을 가능하게 한다.  AMD 2세대 버설 프리미엄 시리즈 적응형 SoC는 최대 속도 8533Mb/s의 LPDDR5X를 통해 메모리 대역폭을 개선함으로써 데이터 전송 및 실시간 응답 속도를 향상시킨다. 이러한 향상된 초고속 DDR 메모리를 통해 기존 LPDDR4 및 5 메모리를 탑재한 동급 경쟁 디바이스에 비해 최대 2.7배 더 빠른 호스트 연결을 제공한다는 것이 AMD의 설명이다. 또한, CXL 메모리 확장 모듈과의 연결을 통해 LPDDR5X 메모리만 사용할 때보다 최대 2.7배 더 높은 총 대역폭을 활용할 수 있다. 이를 통해 2세대 버설 프리미엄 시리즈는 여러 가속기로 확장 및 동적 할당이 가능한 메모리 풀링(Memory Pooling)을 지원함으로써 메모리 활용도를 최적화하고, 메모리 대역폭과 용량을 증가시킬 수 있다. 2세대 버설 프리미엄 시리즈 적응형 SoC는 여러 디바이스로 메모리 풀을 동적으로 할당하여 MH-SLD(Multi-Headed Single Logic Device)의 메모리 활용도를 개선한다. 이를 통해 패브릭이나 스위치를 사용하지 않고도 동작이 가능하며, 최대 두 개까지 CXL 호스트를 지원한다. 보안 기능이 강화된 2세대 버설 프리미엄 시리즈는 데이터 이동 및 저장 시 빠르고 안전하게 데이터를 전송한다. 이 디바이스는 하드 IP 형태로 통합된 PCIe IDE(PCIe Integrity and Data Encryption)를 지원하는 FPGA이다. 하드웨어 구조의 DDR 메모리 컨트롤러에 내장된 인라인 암호화(Inline Encryption)는 휴면 데이터를 보호하고, 400G의 고속 암호화 엔진은 디바이스가 최대 2배 더 빠른 속도로 사용자 데이터를 보호하고, 더 빠르고 안전한 데이터 트랜잭션을 제공할 수 있도록 지원한다. AMD는 2세대 버설 프리미엄 시리즈 개발 툴을 2025년 2분기에 출시하고, 반도체 샘플은 2026년 초에 제공될 예정이라고 밝혔다. 양산 제품은 2026년 하반기부터 출하될 예정이다. AMD의 적응형 및 임베디드 컴퓨팅 그룹 총괄 책임자인 살릴 라지(Salil Raje) 수석 부사장은 “시스템 설계자는 더 많은 데이터를 더 작은 공간에 저장하고, 보다 효율적으로 시스템 부품 간 데이터 이동을 처리할 수 있는 방법을 지속적으로 모색하고 있다”면서, “이번에 2세대 버설 제품군에 추가된 최신 제품은 AMD의 고객이 전반적인 시스템 처리량과 메모리 리소스 활용도를 개선하여 클라우드에서 에지까지 까다로운 애플리케이션에서 최상의 성능 및 역량을 달성할 수 있도록 지원한다”고 전했다.
작성일 : 2024-11-13
라이젠 AI 프로 300 시리즈 : 차세대 기업용 PC를 위한 AI 프로세서
개발 및 공급 : AMD 코리아 주요 특징 : AMD 프로 기술로 높은 AI 컴퓨팅 성능 및 긴 배터리 사용 시간 제공, 기업 사용자에게 향상된 생산성 제공, 높은 수준의 보안 및 관리 기능 지원 등      AMD는 실시간 자막 생성, 언어 번역 및 고급 AI 이미지 생성 등을 포함하는 코파일럿+(Copilot+) 기능을 지원하고 혁신적인 비즈니스 생산성을 제공하고자 개발된 3세대 기업용 AI 모바일 프로세서를 공개했다.  새로운 라이젠 AI 프로 300(Ryzen AI PRO 300) 시리즈 프로세서는 이전 세대 대비 최대 3배의 AI 성능을 제공하며, AI 컴퓨 팅 및 일상적인 워크로드에서 높은 성능을 발휘한다. AMD 프로 기술(AMD PRO Technologies)을 탑재한 라이젠 AI 프로 300 시리즈 프로세서는 IT 운영을 간소화하고 비즈니스 환경에서 탁월한 ROI를 보장하도록 설계되었으며, 높은 수준의 보안 및 관리 기능을 지원한다.  라이젠 AI 프로 300 시리즈 프로세서는 AMD의 ‘젠 5(Zen 5)’ 아키텍처를 탑재해 향상된 CPU 성능을 제공하며, 코파일럿+ 엔터프라이즈 PC에 대응하는 기업용 프로세서 라인업이다. 라이젠 AI 프로 300 시리즈 프로세서가 탑재된 노트북은 업계가 요구하는 까다로운 워크로드를 처리하도록 설계되었다. AMD는 “특히 최상위 제품인 라이젠 AI 9 HX 프로 375는 경쟁 제품인 인텔 코어 울트라7 165U 대비 최대 40% 더 빠른 성능과 최대 14% 더 높은 생산성을 제공한다”고 주장했다.  AMD 라이젠 AI 프로 300 시리즈 프로세서는 내장 NPU를 구동하는 XDNA 2 아키텍처가 탑재되어 초당 수조 회에 달하는 연산이 가능한 50 NPU TOPS 이상의 AI 처리 능력을 갖췄으며, 마이크로소프트의 코파일럿+ 지원 AI PC 요건을 상회하고 최신 비즈니스 환경에 적합한 AI 연산 능력 및 생산성을 제공한다. 4nm 의 미세 공정을 기반으로 혁신적인 전력 관리 기능을 갖춘 새로운 프로세서는 작동 시 지속적으로 성능 및 생산성 유지가 가능하며 최적의 배터리 수명도 갖추고 있다.  AMD의 컴퓨팅 및 그래픽 그룹 총괄 매니저인 잭 후인(Jack Huynh) 부사장은 “기업들은 일상적인 업무는 물론, 까다로운 워크로드를 처리하기 위해 더욱 높은 컴퓨팅 성능과 효율성을 요구하고 있다. 기업용 PC를 위해 설계된 가장 강력한 AI 프로세서인 라이젠 AI 프로 300 시리즈를 자사 모바일 프로세서 포트폴리오에 추가하게 되어 기쁘다”면서, “자사의 3세대 기업용 AI 지원 프로세서는 뛰어난 배터리 사용 시간, 주요 애플리케이션에 대한 완벽한 호환성은 물론, 최상의 AI 처리 능력을 제공한다”고 전했다.    표. AMD 라이젠 AI 프로 300 시리즈 모바일 프로세서   AMD 프로 기술을 통한 보안 및 관리 기능 AMDAMD 보안 프로세서(AMD Secure Processor), AMD 섀도우 스택(AMD Shadow Stack) 및 AMD 플랫폼 보안 부트(AMD Platform Secure Boot)에 이어, 새로운 보안 및 관리성 기능을 더한 AMD 프로 기술 라인업을 한층 확장했다. AMD 프로 기술이 탑재된 프로세서에는 IT 팀이 클라우드를 통해 시스템을 지속적으로 복구하여 매끄럽고 지속적인 운영을 보장하는 클라우드 베어 메탈 복구(Cloud Bare Metal Recovery), 공급망 전반에 걸쳐 추적이 가능한 새로운 기능의 공급망 보안(AMD Device Identity), 추가적인 감지 및 복구 프로세스와 함께 기존의 복원 지원을 기반으로 하는 워치 도그 타이머(Watch Dog Timer)를 기본으로 제공한다. 일부 ISV 파트너의 경우 AMD 프로 기술을 통해 AI 기반 맬웨어 탐지 기능을 추가로 제공하며, 이러한 새로운 보안 기능은 통합 NPU를 통해 일상적인 성능에 영향을 주지 않고 AI 기반 보안 워크로드를 실행한다.    기업용 OEM 생태계 지속 확장  OEM 파트너들은 기업 고객에게 균형 잡힌 성능 및 호환성을 제공하는 라이젠 AI 프로 300 시리즈 프로세서 기반의 새로운 PC 제품을 포함해, 기업용 제품군을 지속적으로 확장하고 있다. 향상된 성능을 갖춘 차세대 라이젠 프로세서 기반 기업용 PC는 마이 크로소프트 코파일럿+를 포함한 로컬 AI 프로세싱의 가능성을 한층 확장한다. 라이젠 AI 프로 300 시리즈 기반 OEM 시스템은 올 해 말부터 공급될 예정이다.  마이크로소프트의 파반 다불루리(Pavan Davuluri) 코파일럿+ 디바이스 부문 부사장은 “마이크로소프트와 AMD의 파트너십 및 라이젠 AI 프로 프로세서의 코파일럿+ PC 통합은 고객에게 강력한 AI 기반 경험을 제공하기 위해 양사가 공동으로 집중하고 있음을 보여준다”면서, 라이젠 AI 프로의 성능은 윈도우 11의 최신 기능과 결합하여 생산성, 효율성 및 보안성을 개선한다”라고 말했다.  또한 그는 “개선된 윈도우 검색, 리콜, 클릭 투 두(Click to Do)와 같은 기능은 PC 사용 환경을 더욱 직관적이고 즉각적으로 만든다. 마이크로소프트 플루톤 보안 프로세서와 윈도우 헬로의 향상된 로그인 보안 등은 고객의 데이터를 더욱 안전하게 보호한다. 우리는 AMD와 긴밀하게 협력해 온 지금까지의 역사를 자랑스럽게 생각하며, 이러한 혁신을 시장에 선보이게 되어 기쁘다”고 전했다.      ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2024-11-04
AMD, 게이밍 성능 높이는 ‘라이젠 7 9800X3D’ 프로세서 발표
AMD가 향상된 게이밍 성능을 제공하는 새로운 데스크톱 컴퓨팅 제품을 공개했다. ‘젠 5(Zen 5)’ 아키텍처를 기반으로 AMD의 2세대 3D V-캐시(3D V-Cache) 기술을 활용한 첫 번째 신제품으로 AMD 라이젠 7(Ryzen 7) 9800X3D 데스크톱 프로세서를 발표했다. AMD 라이젠 7 9800X3D 프로세서는 2세대 AMD 3D V-캐시 기술로 재설계된 최첨단 온칩 메모리 설루션을 탑재했다. 이 설루션은 젠 5 코어의 온도를 낮추고, 클럭 속도를 높이기 위해 64MB의 캐시 메모리를 프로세서 아래로 재배치함으로써, CCD(Core Complex Die)를 냉각 설루션에 더 가깝게 배치되도록 설계되었다. 또한, 배치 변경을 통해 높은 오버클러킹 성능을 제공한다. AMD는 “이를 통해 AMD의 이전 세대 프로세서에 비해 최대 평균 8%까지 게이밍 성능을 향상시키고, 경쟁 제품 대비 최대 평균 20% 더 빠른 속도를 제공한다”고 소개했다.  라이젠 7 9800X3D는 8개의 젠 5 프로세서 코어와 16개의 프로세싱 스레드를 통해 보다 신속하게 게이밍 및 생산성 작업을 처리할 수 있는 PC 게임용 설루션이다. 4.7GHz의 기본 클럭 속도와 5.2GHz의 최대 부스트 클럭으로 X3D 칩렛 중에서 높은 클럭 속도를 제공한다. 또한 프로세서가 작업을 수행하는데 필요한 성능을 발휘할 수 있도록 120W의 TDP와 총 104MB에 이르는 캐시를 제공한다.     라이젠 7 9800X3D의 평균 FPS는 기존 세대에 비해 약 8% 향상되었지만, ‘스타워즈 아웃로(Star Wars Outlaws)’ 등 다양한 게임에서 기존 세대 대비 두 자릿수 비율의 성능 향상을 경험할 수 있다는 것이 AMD의 설명이다. 또한, 이 프로세서는 기존 세대와 평균 프레임 속도는 비슷하지만, 최소 프레임 속도가 대폭 향상됨에 따라 끊김이 적은 보다 매끄러운 게이밍 환경을 제공한다. 예를 들어, ‘더 라스트 오브 어스 : 파트 1(The Last Of Us : Part 1)’의 경우, 라이젠 7 9800X3D와 경쟁 제품의 평균 프레임 속도는 비슷하지만, 1%로 프레임에서는 31% 더 높은 성능을 보여준다. AMD의 컴퓨팅 및 그래픽 부문 총괄 책임자인 잭 후인(Jack Huynh) 수석 부사장은 “AMD는 데스크톱 컴퓨팅의 성능과 혁신의 한계를 지속적으로 넓혀가며, 게이머와 크리에이터의 요구를 뛰어넘는 설루션을 제공하고 있다. 첨단 젠 5 아키텍처 기반의 라이젠 7 9800X3D 프로세서가 출시되면서 완전히 새로운 차원의 향상된 게이밍 성능을 경험할 수 있게 되었다”며, “혁신적인 2세대 AMD 3D V-캐시 기술을 탑재한 이 프로세서는 업계 기준을 새롭게 재정의하는 AMD의 지속적인 노력과 혁신을 다시 한 번 입증한 것”이라고 밝혔다.
작성일 : 2024-11-01
HPE, 복잡한 AI 모델 학습 가속화를 위한 AMD 기반 신규 서버 출시
HPE는 5세대 AMD 에픽(EPYC) 프로세서와 AMD 인스팅트(Instinct) MI325X 가속기를 탑재한 복합 AI 모델 학습용 ‘HPE 프로라이언트 컴퓨트 XD685(HPE ProLiant Compute XD685)’ 서버를 출시했다. 새로운 HPE 시스템은 대규모 언어 모델(LLM) 학습, 자연어 처리 및 멀티 모달 학습을 위한 고성능의 에너지 효율적 인공지능(AI) 클러스터를 신속하게 배포할 수 있도록 최적화되었다. HPE 프로라이언트 컴퓨트 XD685는 HPE가 설계한 새로운 모듈형 섀시를 통해 대규모 AI 모델 학습 및 조정 프로젝트에 신속한 솔루션을 제공한다. 모듈형의 컴팩트한 5U 섀시는 솔루션의 시장 출시 시간을 단축시키고 다양한 GPU, CPU, 구성 요소, 소프트웨어 및 냉각 방식을 수용할 수 있는 유연성을 제공한다. 또한, 수십 년간 축적된 HPE의 직접 수냉 방식(DLC) 노하우와 HPE iLO의 보안 혁신을 결합해 지속가능하고 안전한 고성능 솔루션을 구현한다.     AMD CDNA 3 아키텍처로 구동되는 AMD 인스팅트 MI325X 가속기는 학습 및 추론 작업에서 더 적은 GPU로 향상된 AI 성능과 효율을 제공한다. MI325X 가속기는 초당 6 테라바이트(TB)의 메모리 대역폭을 갖춘 HBM3e 메모리 용량을 통해 성능을 최적화하고 총소유비용(TCO)을 절감한다. HPE가 설계한 5U 서버 섀시는 랙당 8노드 구조로 컴팩트하게 구성되어 8웨이 GPU 시스템의 랙 집적도를 높인다. HPE 프로라이언트 컴퓨트 XD685는 8개의 AMD 인스팅트 MI325X 또는 AMD 인스팅트 MI300X 가속기, 최신 AMD 에픽 9005 시리즈 프로세서 2개, 공랭 혹은 직접 수냉 방식 방식을 지원한다. HPE 서비스는 대규모 AI 클러스터를 전 세계 어디에서나 안정적이고 우수한 운영으로 설치 및 배포할 수 있도록 모든 범위의 맞춤형 유연성 서비스를 제공한다. 전문 서비스 팀이 공장에서 솔루션을 구축, 통합, 검증, 테스트 및 맞춤화하여 현장 배포 시간을 단축시킨다. HPE iLO는 HPE 프로라이언트 컴퓨트 XD685 시스템을 안전하게 관리하여, 공급망에서부터 시작해 실리콘에 내재된 업계 최고 수준의 보안 혁신과 원활한 관리를 제공한다. HPE 퍼포먼스 클러스터 매니저(HPE Performance Cluster Manager)는 완전 통합 시스템 관리 소프트웨어로, 베어메탈에서 자동화된 설정으로 복잡한 시스템을 빠르게 운영할 수 있도록 지원하며, 상세한 텔레메트리, GPU 스트레스 테스트 등을 통해 클러스터를 안정적으로 유지 및 운영한다. HPE의 트리시 댐크로거(Trish Damkroger) HPC 및 AI 인프라 솔루션 부문 수석 부사장 및 책임자는 “대규모 언어 모델을 효율적으로 학습하려면 뛰어난 확장성, 대규모 병렬 컴퓨팅 성능, 그리고 HPE의 고성능 컴퓨팅 솔루션만이 제공할 수 있는 독보적인 서비스가 필요하다. 세계에서 가장 강력하고 에너지 효율적인 시스템을 제공하는 선두 기업으로서, AMD와 협력해 HPE 프로라이언트 컴퓨트 XD685로 이 혁신을 확장하고, AI 모델 개발자 시장의 수요에 부응하며, 산업 전반에서 과학과 공학의 혁신을 가속화할 것”이라고 말했다. AMD의 포레스트 노로드(Forrest Norrod) 데이터센터 솔루션 그룹 부사장 겸 총괄 매니저는 “최신 AMD 에픽 프로세서와 인스팅트 가속기의 강력한 조합을 통해 HPE 프로라이언트 컴퓨트 XD685 고객들은 시장 출시 시간을 단축하고 AI 성능과 효율성에서 진정한 리더십을 경험할 수 있다. HPE와의 협력을 통해 대규모 언어 모델 학습에 대한 수요 증가에 대응하며, AI 노력을 극대화하고, 업계의 경쟁력 있는 혁신을 촉진하는 유연하고 고성능의 솔루션을 지속적으로 제공하고 있다”고 말했다. HPE 프로라이언트 컴퓨트 XD685는 2025년 1분기부터 다양한 구성으로 순차적으로 출시될 예정이다.
작성일 : 2024-10-16
인텔-AMD, x86 생태계 자문 그룹 발족
인텔과 AMD는 전 세계에서 널리 사용되는 컴퓨팅 아키텍처의 미래 조성을 위해 기술 리더들이 참여한 ‘x86 생태계 자문 그룹’을 설립한다고 발표했다. X86은 지난 40년 이상 현대 컴퓨팅의 기반이 되어 왔으며, 전 세계 데이터센터와 PC에서 주요한 아키텍처로 자리매김했다. 동적인 AI 워크로드, 맞춤형 칩렛, 3D 패키징 및 시스템 아키텍처의 발전으로 특징지어지며 오늘날의 진화하는 환경에서 견고하고 확장되는 x86 생태계의 중요성이 그 어느 때보다 중요해졌다. 이번에 설립된 x86 생태계 자문 그룹은 플랫폼 간 호환성을 지원하고 소프트웨어 개발을 간소화하며 개발자에게 미래를 위한 혁신적이고 확장 가능한 솔루션을 개발하기 위한 아키텍처 요구사항과 기능을 파악할 수 있는 플랫폼을 제공함으로써, x86 생태계를 확장하는 데에 주력할 계획이다. 자문 그룹에는 구글 클라우드, 델 테크놀로지스, 레드햇, 레노버, 마이크로소프트, 메타, 브로드컴, HP, 오라클, 휴렛 팩커드 엔터프라이즈 등이 참여한다. 또한 에픽게임즈의 팀 스위니 CEO와 리눅스를 만든 리누스 토발즈가 이름을 올렸다. 인텔과 AMD를 비롯한 자문 그룹 참가자들은 이 이니셔티브가 x86 제품 전반의 호환성, 예측 가능성 및 일관성을 향상시킬 것으로 보고, 이를 위해 x86 하드웨어 및 소프트웨어 커뮤니티에 필수 기능과 특징에 대한 기술적 의견을 모을 예정이다.     자문 그룹이 기대하는 성과는 ▲하드웨어와 소프트웨어 전반에 걸쳐 고객의 선택권과 호환성을 강화하는 동시에 새로운 최신 기능의 혜택을 빠르게 활용할 수 있도록 가속화 ▲아키텍처 가이드라인을 간소화하여 인텔과 AMD의 x86 제품 전반에 걸쳐 소프트웨어 일관성과 인터페이스를 향상 ▲운영체제(OS), 프레임워크 및 애플리케이션에 새로운 기능을 더욱 효율적으로 통합 등이다.  이 자문 그룹은 업계 리더들을 하나로 묶어 보다 통일된 지침과 아키텍처 인터페이스를 통해 x86의 미래를 설계하고 개발자의 혁신을 촉진하는 것을 목표로 한다. 또한 협업을 통해 데이터센터, 클라우드, 클라이언트, 에지 및 임베디드 디바이스 등 모든 부문으로 확장된 주요 x86 아키텍처 기능 및 프로그래밍 모델의 일관되고 호환 가능한 구현을 촉진함으로써, 궁극적으로 고객에게 다운스트림 혜택을 제공할 수 있을 것이라는 기대도 나타냈다. 인텔의 팻 겔싱어 CEO는 “우리는 현재와 미래의 고객 요구를 충족하는 데 필요한 새로운 수준의 커스터마이징, 호환성 및 확장성을 갖춘 x86 아키텍처 및 생태계에서 수십 년 만에 가장 중요한 변화의 정점에 서 있다”면서, “우리는 AMD 및 이 자문 그룹의 창립 멤버들과 함께 컴퓨팅의 미래를 밝힐  수 있을 것”이라고 밝혔다. AMD 리사 수 회장 겸 CEO는 “x86 생태계 자문 그룹을 설립함으로써 x86 아키텍처는 개발자와 고객 모두가 선택하는 컴퓨팅 플랫폼으로 계속 발전할 것”이라며, “업계와 함께 향후 아키텍처 개선에 대한 방향을 제시하고 x86의 놀라운 성공을 향수 수십년간 이어나갈 수 있게 되어 기쁘다”고 밝혔다.
작성일 : 2024-10-16
슈퍼마이크로, 신규 AI 데이터센터 최적화 서버 및 GPU 가속 시스템 출시
슈퍼마이크로컴퓨터가 AMD 에픽(EPYC) 9005 시리즈 프로세서 및 AMD 인스팅트 MI325X GPU 기반의 새로운 서버 포트폴리오, GPU 가속 시스템, 그리고 스토리지 서버를 출시한다고 밝혔다. 슈퍼마이크로가 이번에 출시한 H14 서버 포트폴리오는 슈퍼마이크로의 하이퍼 시스템, 트윈 멀티노드 서버, 그리고 AI 추론 GPU 시스템을 포함하고 있으며, 모든 제품이 공냉식 또는 수냉식 옵션으로 제공된다. AMD의 젠5(Zen5) 프로세서 코어 아키텍처는 CPU 기반 AI 추론을 위한 전체 데이터 경로 AVX-512 벡터 명령어를 구현하며, 사이클 당 명령어 처리 횟수(IPC)가 기존의 4세대 EPYC 프로세서 대비 17% 개선돼 더욱 향상된 코어당 성능을 제공한다.   새로운 H14 서버 포트폴리오는 5세대 AMD 에픽 프로세서를 사용해 CPU당 최대 192개의 코어, 최대 500W 열 설계 전력(TDP)을 지원한다. 슈퍼마이크로는 높아진 열 요구 사항을 충족하기 위해 H14 포트폴리오에 하이퍼 및 플렉스트윈 시스템을 구축했다. H14는 AI 훈련 및 추론 워크로드용 시스템 3개를 포함하며, 최대 10개의 GPU를 지원한다. 세 시스템은 AMD 에픽 9005 시리즈 CPU를 호스트 프로세서로 탑재하며, 이 중 2개는 AMD 인스팅트 MI325X GPU를 지원한다. 슈퍼마이크로는 점프스타트 프로그램(JumpStart Program)을 통해 AMD 에픽 CPU가 탑재된 H14 서버에 대한 테스트 액세스도 지원할 예정이다.     슈퍼마이크로의 찰스 리앙(Charles Liang) 사장 겸 CEO는 “슈퍼마이크로의 H14 서버는 에픽 9005 64코어 CPU를 탑재해 2세대 에픽 7002 시리즈 CPU를 사용하는 슈퍼마이크로의 H11 서버 대비 2.44배 더 빠른 SPECrate2017_fp_base1 성능을 제공한다. 이런 성능 향상으로 인해 고객은 데이터센터의 총 면적을 3분의 2 이상 줄이고 새로운 AI 처리 기능을 추가할 수 있다. 이는 데이터센터의 전력 효율성으로 이어진다. H14 서버 포트폴리오는 슈퍼마이크로의 공냉식 및 수냉식 옵션, 다양한 시스템 설계, 검증된 빌딩 블록 솔루션을 통해 최고의 성능, 집적도, 전력 효율성을 제공한다”고 말했다.
작성일 : 2024-10-15