• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "HPC"에 대한 통합 검색 내용이 645개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
슈퍼마이크로, X14 서버 제품군에 6세대 인텔 제온 프로세서 탑재 예정
슈퍼마이크로컴퓨터(SMCI)가 향후 6세대 인텔 제온 프로세서를 지원할 X14 서버 포트폴리오를 공개했다. 이번 신제품에는 슈퍼마이크로의 빌딩 블록 아키텍처, 랙 플러그 앤 플레이 및 수냉식 냉각 솔루션, 그리고 인텔 제온 6 프로세서 제품군이 결합됐으며, 이를 통해 다양한 워크로드와 규모에 최적화된 솔루션을 높은 성능과 효율성으로 제공하는 데에 초점을 맞추었다. 슈퍼마이크로는 고객이 솔루션 구축 기간을 단축할 수 있도록 조기 배송 프로그램을 통해 일부 고객에게 새로운 서버에 대한 조기 액세스를 제공하고, 점프스타트 프로그램으로 테스트 및 검증용 무료 원격 액세스도 지원할 예정이다. 랙 스케일의 신규 X14 서버는 공용 인텔 플랫폼을 활용해 통합 아키텍처를 갖춘 인텔 제온 6 프로세서에 대한 소켓 호환성을 지원한다. 이 프로세서 포트폴리오는 클라우드, 네트워킹, 분석 및 확장 워크로드에 대해 와트당 성능을 높이는 E-코어(효율 코어) SKU와 AI, HPC, 스토리지 및 에지 워크로드에 대해 코어당 성능을 높이는 P-코어(성능 코어) SKU로 제공된다. 인텔 AMX(Intel Advanced Matrix Extensions)에서 FP16을 새롭게 지원하는 인텔 엑셀러레이터 엔진도 내장된다. 새로운 슈퍼마이크로 X14 서버는 노드당 최대 576개의 코어는 물론 PCIe 5.0, 모든 장치 유형에 대한 CXL 2.0, NVMe 스토리지 및 최신 GPU 가속기를 지원해 AI 워크로드를 구동하는 사용자의 애플리케이션 실행 시간을 단축시킨다. 고객은 광범위한 슈퍼마이크로 X14 서버에서 E-코어 및 P-코어를 갖춘 인텔 제온 6 프로세서를 활용할 수 있으며, 이로 인해 소프트웨어 재설계를 최소화하고 새로운 서버 아키텍처의 이점을 누릴 수 있다.     인텔의 라이언 타브라(Ryan Tabrah) 부사장 겸 제온 E-코어 제품 부문 총괄은 “제온 6 CPU는 공용 소프트웨어 스택을 포함한 공통 플랫폼 설계에서 각각 최적화된 두 개의 마이크로아키텍처를 제공한다. 고객은 온프레미스, 클라우드, 또는 에지에서 업계 또는 배포 모델과 관계없이 다양한 워크로드 요구사항에 대한 최고의 가치를 얻을 수 있다. 슈퍼마이크로와의 강력한 파트너십은 차세대 프로세서의 이점을 고객에게 제공하는 데 도움이 될 것”이라고 설명했다. 슈퍼마이크로의 찰스 리앙(Charles Liang) CEO는 “슈퍼마이크로는 수냉식 100kW 랙 1,350개를 포함해 전 세계적으로 매월 5000개의 랙을 생산할 수 있는 능력을 지녔으며, 2주의 짧은 리드 타임을 제공한다. 현재 가장 진보된 AI 하드웨어를 비롯해 완전한 맞춤형 워크로드 최적화 솔루션을 랙 스케일로 설계, 구축, 검증 및 제공하는 것에서 타의 추종을 불허한다”면서, “슈퍼마이크로는 폭넓은 애플리케이션 최적화 솔루션의 설계 및 제공하는 것에 있어서 업계를 선도하고 있다. 인텔 제온 6 프로세서를 탑재한 X14 서버는 광범위한 슈퍼마이크로의 포트폴리오를 한층 더 확대할 것”이라고 전했다.
작성일 : 2024-04-17
엔비디아, AI 개발 가속화 위해 구글 클라우드와 협력
엔비디아가 구글 클라우드와 협력을 통해 전 세계 스타트업의 생성형 AI 애플리케이션과 서비스 개발 가속화를 지원한다고 발표했다. 양사의 이번 협력은 다양한 규모의 기업이 생성형 AI 애플리케이션을 개발하는데 드는 비용을 절감하고 장벽을 완화하기 위해 공개된 일련의 발표들 중 가장 최근에 이뤄진 것이다.  특히 스타트업은 AI 투자에 대한 높은 비용으로 인해 많은 제약을 받고 있다. 이번 협업으로 엔비디아와 구글 클라우드는 클라우드 크레딧, 시장 진출 지원, 그리고 기술 전문 지식에 대한 접촉 기회 확대를 통해 고객에게 더 빠르게 스타트업의 가치를 제공하도록 지원한다. 1만 8000개 이상의 스타트업을 지원하는 엔비디아 인셉션 글로벌 프로그램의 회원은 특히 AI에 중점을 둔 스타트업의 경우 최대 35만 달러의 구글 클라우드 크레딧을 제공받고 구글 클라우드 인프라 사용 가속화 경로를 확보할 수 있다. 구글 포 스타트업 클라우드 프로그램 멤버는 엔비디아 인셉션에 가입해 기술 전문 지식, 엔비디아 딥 러닝 인스티튜트(Deep Learning Institute) 과정 크레딧, 엔비디아 하드웨어와 소프트웨어 등을 이용할 수 있다. 또한 구글 포 스타트업 클라우드 프로그램의 스타트업 회원은 해당 분야에 관심이 있는 벤처 투자 기관에 노출될 기회를 주는 엔비디아 인셉션 캐피탈 커넥트(Inception Capital Connect) 플랫폼에 참여할 수 있다. 두 프로그램 모두에서 급성장한 신생 소프트웨어 제조업체는 구글 클라우드 마켓플레이스(Marketplace) 등록해 공동 마케팅, 제품 개발 가속화 지원을 우선적으로 받을 수 있다.     구글 딥마인드(DeepMind)는 지난 2월 최첨단 개방형 모델 제품군 젬마(Gemma)를 공개했는데,  엔비디아는 최근 구글과 협력해 모든 젬마 전용 엔비디아 AI 플랫폼에 대한 최적화를 실시했다. 젬마는 구글 딥마인드의 가장 뛰어난 모델인 제미나이(Gemini) 제작에 사용된 동일한 연구와 기술로 구축됐다. 양사의 긴밀한 협력으로 거대 언어 모델(LLM) 추론 최적화를 위한 오픈 소스 라이브러리 엔비디아 텐서RT-LLM(TensorRT-LLM)을 통해 엔비디아 GPU로 젬마를 실행, 젬마의 성능을 발전시켰다. 젬마 7B(Gemma 7B), 리커런트젬마(RecurrentGemma), 코드젬마(CodeGemma)를 포함한 젬마 모델 제품군은 엔비디아 API 카탈로그에서 사용 가능하며, 사용자는 이를 브라우저에서 사용하거나, API 엔드포인트로 프로토타입을 제작하거나, NIM을 통한 셀프 호스팅을 할 수 있다. 구글 클라우드를 사용하면 GKE와 구글 클라우드 HPC 툴킷으로 플랫폼 전반에 엔비디아 네모(NeMo) 프레임워크를 배포하기 쉬워진다. 이를 통해 개발자는 생성형 AI 모델의 훈련과 제공을 확장하고 자동화할 수 있으며, 개발 과정에 빠르게 착수하는 맞춤형 청사진을 통해 턴키 환경을 신속히 구축할 수 있다. 엔비디아 AI 엔터프라이즈의 일부인 엔비디아 네모는 구글 클라우드 마켓플레이스에서도 이용 가능하다. 이를 통해 고객들은 네모 및 기타 프레임워크에 쉽게 액세스해 AI 개발을 가속할 수 있다. 구글 클라우드는 엔비디아 생성형 AI 가속 컴퓨팅의 가용성 확대를 위해 5월 A3 메가(Mega)의 정식 출시를 발표했다. 이 인스턴스는 엔비디아 H100 텐서 코어(H100 Tensor Core) GPU로 구동되는 A3 가상 머신(VM) 제품군의 확장으로, A3 VM에서 GPU 대 GPU 네트워크 대역폭이 두 배로 늘었다. A3에 탑재된 구글 클라우드의 새로운 컨피덴셜(Confidential) VM에는 컨피덴셜 컴퓨팅에 대한 지원도 포함돼 있어, 고객이 H100 GPU 가속에 액세스하는 동안 코드를 변경하지 않고도 민감 데이터의 기밀성과 무결성을 보호하고 학습과 추론 도중 애플리케이션과 AI 워크로드를 보호할 수 있다. 이 GPU 기반 컨피덴셜 VM은 올해 미리보기로 제공될 예정이다. 한편, 블랙웰(Blackwell) 플랫폼에 기반한 엔비디아의 최신 GPU는 2025년 초에 엔비디아 HGX B200과 엔비디아 GB200 NVL72 등 두 가지 버전으로 구글 클라우드에 출시될 예정이다. HGX B200은 가장 까다로운 AI, 데이터 분석 그리고 고성능 컴퓨팅 워크로드를 위해 설계됐으며, GB200 NVL72는 차세대, 대규모, 조 단위의 매개변수 모델 학습과 실시간 추론을 위해 설계됐다. 엔비디아 GB200 NVL72는 각각 2개의 엔비디아 블랙웰 GPU와 엔비디아 그레이스 CPU(Grace CPU)가 결합된 36개의 그레이스 블랙웰 슈퍼칩을 900GB/s의 칩투칩(chip-to-chip) 인터커넥트를 통해 연결한다. 이는 하나의 엔비디아 NV링크(NVLink) 도메인에서 최대 72개의 블랙웰 GPU와 130TB/s의 대역폭을 지원한다. 통신 병목 현상을 극복하고 단일 GPU처럼 작동해 이전 세대 대비 30배 빠른 실시간 LLM 추론과 4배 빠른 트레이닝을 제공한다. 엔비디아는 지난 3월 생성형 AI의 요구사항에 최적화된 엔터프라이즈 개발자용 AI 플랫폼인 엔비디아 DGX 클라우드를 H100 GPU 기반의 A3 VM에서 사용할 수 있다고 발표했다. GB200 NVL72가 탑재된 DGX 클라우드는 2025년 구글 클라우드에서도 제공될 예정이다.
작성일 : 2024-04-12
슈나이더 일렉트릭-엔비디아, AI 데이터센터 인프라 최적화 위한 파트너십 체결
슈나이더 일렉트릭이 엔비디아와 데이터센터 인프라 최적화 및 디지털 트윈 기술 기반 마련을 위한 파트너십을 체결했다고 밝혔다. AI 애플리케이션이 산업 전반에 걸쳐 주목을 받고 있는 동시에, 기존 컴퓨팅보다 더 많은 리소스에 대한 수요가 높아지며 처리 능력에 대한 필요성이 기하급수적으로 증가하고 있다. 특히 데이터센터 설계와 운영이 눈에 띄게 변화하고 복잡해지면서, 업계에서는 운영의 효율성과 확장성을 모두 갖춘 안정적인 데이터센터 시스템을 신속하게 구축하고 운영하기 위해 노력하고 있다. 슈나이더 일렉트릭은 이번 파트너십을 통해 엔비디아의 첨단 AI 기술과 자사의 데이터센터 인프라에 대한 전문성을 바탕으로 데이터센터 레퍼런스 디자인을 출시해 업계 전반에 공개할 예정이다. 슈나이더 일렉트릭은 데이터센터 에코시스템 내 AI 배포 및 운영의 기준을 재정의함으로써 업계 발전의 중요한 이정표가 될 것으로 전망하고 있다.     슈나이더 일렉트릭은 데이터 처리, 엔지니어링 시뮬레이션, 전자 설계 자동화 등을 위해 구축된 엔비디아의 가속 컴퓨터 클러스터에 최적화된 데이터센터 레퍼런스 디자인을 소개할 예정이다. 이 디자인은 특히 고밀도 클러스터를 위한 간략 시운전과 안정적인 운영을 보장하는 고전력 분배, 액체 냉각 시스템 및 제어 기능을 구현하는데 중점을 뒀다. 슈나이더 일렉트릭은 이번 협력으로 AI 솔루션을 데이터센터 인프라에 원활하게 통합하고, 효율  및 안정적인 수명 주기를 보장하는데 필요한 도구 및 리소스를 제공하는 것을 목표로 한다고 밝혔다. 슈나이더 일렉트릭이 제공하는 데이터센터 레퍼런스 디자인은 파트너, 엔지니어 및 기업이 기존 데이터센터 운영에 참고할 수 있으며, 고밀도 AI 서버 및 액체 냉각AI 클러스터에 최적화된 새로운 데이터센터를 구축하는데도 활용할 수 있다. 또한 슈나이더 일렉트릭은 자회사인 아비바의 디지털 트윈 플랫폼을 엔비디아 옴니버스(NVIDIA Omniverse)에 연결해 가상 시뮬레이션 및 협업을 위한 통합 환경을 제공할 예정이다. 이 환경에서 설계자, 엔지니어 및 데이터센터 운영자는 상호 원활한 협업을 할 수 있으며, 복잡한 시스템의 설계 및 구축을 가속화하는 동시에 출시 기간과 비용을 절감할 수 있다. 엔비디아의 이안 벅(Ian Buck) 하이퍼스케일 및 HPC 부분 부사장은 “슈나이더 일렉트릭과의 협력을 통해 우리는 차세대 엔비디아 가속 컴퓨팅 기술을 사용해 AI 데이터센터 설계를 제공하게 됐다”면서, “이는 조직이 AI의 잠재력을 활용하고 산업 전반에 걸쳐 혁신과 디지털 전환을 추진하는데 필요한 인프라는 제공한다”고 설명했다. 슈나이더 일렉트릭의 판카즈 샤르마(Pankaj Sharma) 시큐어파워 사업부 데이터센터 비즈니스 총괄 부사장은 “데이터센터 솔루션에 대한 슈나이더 일렉트릭의 전문성과 엔비디아의 AI 기술 리더십을 결합하여 기업이 데이터 센터 인프라의 한계를 극복하고 AI의 잠재력을 최대한 활용할 수 있도록 도울 것”이라며, “엔비디아와의 협력을 통해 보다 효율적이고 지속가능한 미래를 만드는데 큰 기여를 할 수 있을 것이라 생각한다”고 전했다.
작성일 : 2024-04-11
알테어, 국내 제조 기업의 AI 기술 도입 위한 'AI 워크숍' 개최
알테어가 지난 4월 4일 서울 역삼동 포스코타워에서 ‘AI(인공지능) 워크숍’을 진행했다고 밝혔다. ‘AI for Engineers(엔지니어를 위한 AI)’를 주제를 내건 이번 워크숍은 AI 기술 도입 전략 및 산업 동향을 공유하는 자리로 마련됐다. 현장에는 주요 제조업체 실무진 및 오피니언 리더 300여 명이 참석했다. 알테어의 문성수 아시아태평양 수석부사장은 환영사에서 “제조업체가 AI 기술을 도입할 때에는 그들의 도메인 전문성을 바탕으로 AI 기술을 누구나 활용할 수 있는 환경을 마련해야 한다”면서, “알테어는 데이터 비전공자도 쉽게 활용할 수 있는 로코드/노코드 기반 데이터 분석 및 AI 시뮬레이션 소프트웨어를 제공하여 국내 업체들의 고민을 해소하고자 한다”고 전했다. 첫 번째 발표자로 나선 알테어의 수디르 파다키 글로벌 데이터 분석 디렉터는 “최근 제조업계는 전통적인 시뮬레이션 데이터 활용에서 데이터 기반의 AI 활용으로 전환하는 추세이다. 이를 위해 알테어는 자사 데이터 분석 소프트웨어 래피드마이너에 ‘CAE 커넥터’를 추가해, CAE 결과 파일을 바로 읽어들여 코딩 없이 다양한 변수에 따른 해석 결과를 얻을 수 있도록 했다”고 소개했다. 이어 “요즘 기업에서 생성형 AI 시스템 구축에 많은 관심을 보이고 있는데, 래피드마이너에 내장된 생성형 AI 기능을 활용하면 채팅창에서 데이터 분석 요구사항을 쉽게 요청할 수 있다. 한국어 자연어 처리도 지원해 한국 사용자에게도 편리할 것”이라고 말했다. 한국알테어의 이승훈 기술 총괄 본부장은 “해석 결과를 얻는 과정은 제품 개발 단계에서 상당한 시간을 차지한다. 하지만 AI 기술을 적용해 해석 결과를 학습하고 적용하니 3시간 이상 걸리던 작업도 단 3초 만에 해석 결과를 얻을 수 있게 되었다. AI 기술 도입은 제품 개발 단계를 대폭 단축시키며, 빠른 예측 결과를 통해 효율성을 극대화할 수 있다.”고 말했다.     알테어의 이번 워크숍에서는 산학연 영역의 여러 연사가 다양한 전문 분야와 관련된 AI 트렌드를 다뤘다. 황보현우 하나은행 자문위원이 ‘AI 시대의 경쟁 우위 전략’, 현대자동차 한용하 연구위원이 ‘자동차 CAE 부문에서의 AI 적용 사례 소개’, 계명대학교 김양석 교수는 ‘AI 시대의 셀프서비스 분석’을 주제로 최신 연구 결과와 산업 동향을 소개했다. 또한 ‘엔지니어링 분야에서의 AI 적용: 엔지니어들의 기회와 도전’ 를 주제로 진행한 패널 토론에는 LG전자,  현대자동차, 계명대학교에서 참가해 AI 기술 적용에 대한 의견과 경험을 공유하는 시간을 가졌다. 알테어의 라비 쿤주 최고제품및전략책임자(CPSO)는 “다양한 전문성을 갖추지 않고는 AI 기술을 효과적으로 도입하고 활용하는 것이 어렵다”며, “알테어는 시뮬레이션과 AI, HPC 기술과 자원을 통합한 ‘알테어원’ 플랫폼을 통해 기업들의 AI 기술 도입 부담을 줄이고 현실적으로 구현할 수 있도록 지원하겠다”고 전했다.
작성일 : 2024-04-05
케이던스, AI 시대의 데이터센터 설계를 위한 디지털 트윈 플랫폼 출시
케이던스 디자인 시스템즈는 지속 가능한 데이터센터 설계와 최신화를 촉진하는 종합 AI 기반 디지털 트윈 솔루션을 출시하면서, 데이터센터 에너지 효율과 운영 용량 최적화를 지원한다고 밝혔다. 국제에너지기구(IEA)에 따르면 미국 내 데이터센터가 전기 사용 총량에서 차지하는 비중이 2023년 기준으로 4%를 넘어섰으며, 향후 수십 년간 기하급수적으로 증가할 전망이다. 케이던스의 리얼리티 디지털 트윈 플랫폼은 데이터센터 설계자 및 운영자가 데이터센터의 복잡한 시스템을 탐색하고 데이터센터 컴퓨팅 및 냉각 리소스의 비효율적인 사용에 따른 용량 부족 문제를 해결함으로써, 전력 부족 시대에 AI 기반 워크로드 최적화로 환경에 미치는 영향을 완화하는데 도움을 줄 수 있다.  케이던스의 리얼리티 디지털 트윈 플랫폼(Cadence Reality Digital Twin Platform)은 전체 데이터센터를 가상화하고 AI, 고성능 컴퓨팅(HPC) 및 물리 기반 시뮬레이션을 사용하여 데이터센터의 에너지 효율을 개선해준다. 물리적 데이터센터의 포괄적인 디지털 트윈을 생성함으로써, 진화하는 비즈니스 및 환경 관련 요구사항에 발맞춰 정밀한 인프라 계획, 분석 및 관리 능력을 제공하는 것이다.      케이던스 리얼리티 디지털 트윈 플랫폼은 모델 생성 및 시뮬레이션에 AI를 사용하여 공기 흐름, 풍속, 공기 흡입을 막는 장애물, 내/외부 온도 변화 등 데이터센터 운영에 영향을 미치는 물리적인 외부 요인을 예측한다. 고급 모델링 기능을 통해 광범위한 설계 시나리오 및 운영 전략을 시뮬레이션하고, 각 데이터센터별로 에너지 효율이 가장 큰 솔루션을 찾아낸다. 그리고, 설계 프로세스에 외부 환경 요인을 통합하여 탄력적인 개발뿐 아니라 지속 가능한 데이터센터 운영을 가능하게 한다. 이 플랫폼은 각 프로젝트의 세부 요건에 맞는 자동화된 상세 리포트를 제공하여, 잠재적인 에너지 절감 및 효율성 향상에 대한 심층적인 이해를 지원한다. 또한, 여러 냉각 시스템이 에너지 소비에 미치는 영향을 평가하여 가장 효과적인 냉각 솔루션에 대한 통찰력을 제공한다. 이외에도 케이던스의 멀티피직스(multi-physics) 솔버에 통합되어 칩렛(chiplet)에서 기후에 이르기까지 동일한 정확성을 갖는 고용량 멀티 도메인 엔진을 구현할 수 있는 것이 특징이다. 케이던스는 이 플랫폼을 통해 모든 산업서 차세대 데이터센터 및 AI 공장의 개발을 가속화할 수 있으며, 엔비디아 옴니버스(NVIDIA Omniverse) 개발 플랫폼과 통합되어 최대 30배 더 빠른 설계 및 시뮬레이션 워크플로를 구현할 수 있다고 설명했다. 케이던스의 톰 베클리(Tom Beckley) 커스텀 IC &PCB 그룹 수석 부사장 겸 총괄은 “데이터센터가 AI의 급속한 성장에 직면하여 지속가능성과 에너지 효율에 우선순위를 두어야 한다는 압박을 받고 있는 상황”이라면서, “리얼리티 디지털 트윈 플랫폼이 데이터센터 설계 및 운영의 모든 측면을 최적화하여 에너지 효율을 개선하고, 보다 더 효율적이고 탄력적이며 환경 친화적인 길을 열어줄 것”이라고 설명했다.
작성일 : 2024-04-02