• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "메모리"에 대한 통합 검색 내용이 2,694개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
Arm, “네오버스 기반의 AWS 그래비톤4 프로세서로 클라우드 혁신 가속화 지원”
Arm은 AWS의 그래비톤4(Graviton4) 프로세서를 통해 개발자와 기업이 클라우드 워크로드의 잠재력을 발휘할 수 있도록 지원하면서, 특수 실리콘 및 컴퓨팅을 제공하고 보다 효율적이고 지속 가능하며 강력한 클라우드를 위한 기반을 마련하고자 AWS와 협력을 진행 중이라고 소개했다. 클라우드 컴퓨팅 환경은 AI의 폭발적인 성장에 힘입어 극적인 변화를 겪고 있다. AI 애플리케이션이 더욱 정교하고 복잡해짐에 따라 강력하며 효율적이고, 비용 효율적인 컴퓨팅 설루션에 대한 필요성이 그 어느 때보다 커지고 있다. 클라우드에 워크로드를 배포하는 고객들은 이러한 최신 워크로드의 요구사항을 충족하기 위해 어떤 인프라가 필요한지 재고하고 있다. 고객들의 요구사항은 성능 향상과 비용 절감부터, 규제 또는 지속 가능성 목표를 위한 에너지 효율성의 새로운 벤치마크 달성까지 다양하다. Arm의 네오버스 V2(Neoverse V2)에 기반한 AWS 그래비톤4 프로세서는 이전 세대인 그래비톤3 프로세서보다 최대 30% 향상된 컴퓨팅 성능, 50% 더 많은 코어, 75% 더 많은 메모리 대역폭을 제공한다. 이러한 장점 덕분에 현재 에코시스템과 고객들이 AWS 프로세서를 많이 채택하고 있다는 것이 Arm의 설명이다. Arm 네오버스 V2 플랫폼에는 고성능 부동 소수점 및 벡터 명령어 지원과 같은 Armv9 아키텍처의 새로운 기능이 포함되어 있으며, SVE/SVE2, Bfloat16 및 Int8 MatMul과 같은 기능은 AI/ML 및 HPC 워크로드에 강력한 성능을 제공한다. AI 워크로드 채택을 더욱 촉진하기 위해 Arm은 2024년 초 선도적인 AI 프레임워크 및 소프트웨어 에코시스템과 협력하여 전체 ML 스택이 Arm에서 즉시 사용 가능한 추론 성능 최적화의 이점을 누릴 수 있도록 Arm Kleidi를 출시했고, 이를 통해 개발자가 별도의 Arm 관련 전문 지식 없이도 워크로드를 구축할 수 있도록 했다. Arm은 파이토치(PyTorch)에서 이러한 최적화를 통해 초당 토큰 수(tokens/sec)와 첫 토큰 생성 시간(time-to-first-token) 지표를 개선하여, AWS 그래비톤4에서 라마(Llama) 3 70B 및 Llama 3.1 8B와 같은 LLM(대규모 언어 모델)을 실행할 수 있는 방법을 선보였다. HPC 워크로드의 경우, 그래비톤4는 코어당 16% 더 많은 메인 메모리 대역폭과 vCPU당 두 배의 L2 캐시를 제공하는 등 그래비톤3E에 비해 성능이 크게 향상되었다. 이는 주로 메모리 대역폭에 제한이 있는 HPC 애플리케이션의 성능에 매우 중요하다. EDA 워크로드의 경우, Arm의 엔지니어링 팀이 프로덕션 실행을 통해 측정한 결과, 그래비톤4는 RTL 시뮬레이션 워크로드에서 그래비톤3보다 최대 37% 더 높은 성능을 제공하는 것으로 나타났다. 한편, Arm은 지난 몇 년 동안 소프트웨어 에코시스템 전반에서 최종 고객이 AWS 그래비톤 프로세서에 다양한 클라우드 워크로드를 배포하면서 도입이 지속적으로 증가했다고 전했다. “고객들은 비용을 절감하고, 더 향상된 성능을 경험하며, 탄소 및 지속 가능성 발자국을 개선하고 있다”는 것이 Arm의 설명이다.
작성일 : 2024-12-23
알테어, “래피드마이너의 AI 에이전트로 기업 업무 자동화 혁신 지원”
알테어가 데이터 분석 및 인공지능(AI) 플랫폼인 알테어 래피드마이너(Altair RapidMiner)의 AI 에이전트 프레임워크를 발표했다. 이번 프레임워크는 기업이 생성형 AI를 통해 업무 자동화를 혁신할 수 있는 기반 환경을 제공한다.   알테어 래피드마이너의 AI 에이전트는 다양한 고급 기능을 통해 조직의 혁신적인 자동화 시스템 구축을 지원하는 것이 핵심이다. 주요한 특징은 AI 패브릭 기반의 지능형 에코시스템을 구현한다는 것이다. 이 시스템은 데이터, 행동, 주체를 유기적으로 연결해 사용자와 다양한 시스템이 실시간으로 상호작용하며 상황에 맞게 유연하게 대응할 수 있는 운영 환경을 제공한다.   또한 다양한 데이터 간의 관계와 패턴을 시각화하고 분석하는 지식 그래프 기반 인텔리전스 기능과 여러 AI 에이전트가 실시간으로 소통하며 협업할 수 있는 동적 협업 기능을 제공한다. 특히 내장된 거버넌스 시스템은 에이전트의 모든 행동을 추적하고 관리하여 완전한 투명성과 책임성을 보장한다.     AI 에이전트는 자연어 이해, 멀티 에이전트 관리, 상황 인식 메모리 등 고급 기능을 통해 사용자의 지속적인 개입 없이도 자율적으로 협업 자동화 시스템을 구축하도록 돕는다. 알테어는 이를 통해 기업들이 AI 기술을 실질적으로 활용하면서, 더 지능적이고 효율적인 자동화 프로세스를 구현할 수 있도록 지원한다는 계획이다.   알테어의 샘 마할링감 최고기술책임자(CTO)는 “래피드마이너는 AI 에이전트를 통해 한 차원 높은 진화를 이뤘다”면서, “고객에게 자율적 AI 에이전트를 제공함으로써, AI 기술은 단순한 도구를 넘어 사용자 역량을 강화하고 기업 운영을 더욱 스마트하게 지원할 수 있는 새로운 가능성이 될 것”이라고 전했다.
작성일 : 2024-12-19
엔비디아, 생성형 AI의 활용 범위 넓히는 슈퍼컴퓨터 ‘젯슨 오린 나노 슈퍼’ 출시
엔비디아가 소형 생성형 AI 슈퍼컴퓨터 신제품인 ‘젯슨 오린 나노 슈퍼 개발자 키트(Jetson Orin Nano Super Developer Kit)’를 공개했다. 엔비디아는 소프트웨어 업그레이드를 통해 이전 모델에 비해 성능을 높이고 가격은 낮췄다고 밝혔다. 손바닥만한 크기의 새로운 엔비디아 젯슨 오린 나노 슈퍼 개발자 키트는 상업용 AI 개발자부터 취미로 AI를 다루는 사람, 학생에 이르기까지 다양한 사람들에게 생성형 AI 기능과 성능을 제공한다. 가격은 기존의 499달러에서 249달러로 인하됐다. 이 제품은 이전 모델에 비해 생성형 AI 추론 성능이 1.7배 향상됐고, 성능은 67 INT8 TOPS로 70% 증가했으며, 메모리 대역폭은 102GB/s로 50% 증가했다. 젯슨 오린 나노 슈퍼는 검색 증강 생성(RAG) 기반의 대규모 언어 모델(LLM) 챗봇 생성, 시각적 AI 에이전트(AI agent) 구축, AI 기반 로봇 배포 등에 적합한 설루션을 제공한다. 젯슨 오린 나노 슈퍼는 생성형 AI, 로보틱스, 컴퓨터 비전 기술 개발에 관심이 있는 사람들에게 적합하다. AI 세계가 작업별 모델에서 파운데이션 모델로 이동함에 따라 아이디어를 현실로 전환할 수 있는 접근 가능한 플랫폼도 제공한다. 젯슨 오린 나노 슈퍼의 향상된 성능은 모든 인기 있는 생성형 AI 모델과 트랜스포머 기반 컴퓨터 비전을 위한 이점을 제공한다.     개발자 키트는 젯슨 오린 나노 8GB 시스템 온 모듈(SoM)과 레퍼런스 캐리어 보드로 구성돼 에지 AI 애플리케이션 프로토타입에 적합한 플랫폼을 제공한다. 이 SoM은 텐서 코어가 포함된 엔비디아 암페어(Ampere) 아키텍처 GPU와 6코어 Arm CPU를 갖추고 있어, 여러 개의 동시 AI 애플리케이션 파이프라인과 고성능 추론을 용이하게 한다. 또한, 최대 4개의 카메라를 지원할 수 있으며 이전 버전보다 더 높은 해상도와 프레임 속도를 제공한다. 젯슨은 로보틱스를 위한 엔비디아 아이작(Isaac), 비전 AI를 위한 엔비디아 메트로폴리스(Metropolis), 센서 처리를 위한 엔비디아 홀로스캔(Holoscan)을 비롯한 엔비디아 AI 소프트웨어를 실행한다. 합성 데이터 생성을 위한 엔비디아 옴니버스 리플리케이터(Omniverse Replicator)와 NGC 카탈로그에서 사전 훈련된 AI 모델을 미세 조정하기 위한 엔비디아 타오 툴킷(TAO Toolkit)을 사용하면 개발 시간을 단축할 수 있다. 한편, 엔비디아는 새로운 젯슨 오린 나노 슈퍼에 제공되는 소프트웨어 업데이트가 이미 젯슨 오린 나노 개발자 키트를 보유하고 있는 사용자의 생성형 AI 성능도 향상시킨다고 밝혔다. 1.7배의 생성형 AI 성능을 향상시키는 소프트웨어 업데이트는 젯슨 오린 NX와 오린 나노 시리즈 시스템 모듈에서도 사용할 수 있다. 기존 젯슨 오린 나노 개발자 키트 소유자는 지금 바로 젯팩 SDK(JetPack SDK)를 업그레이드해 향상된 성능을 활용할 수 있다. 엔비디아는 “젯슨 생태계 파트너는 추가적인 AI와 시스템 소프트웨어, 개발자 도구, 맞춤형 소프트웨어 개발을 제공한다. 또한, 카메라와 기타 센서, 캐리어 보드, 제품 설루션을 위한 설계 서비스도 지원 가능하다”고 덧붙였다.
작성일 : 2024-12-19
샌디스크, 새로운 기업 브랜딩 발표
샌디스크가 새로운 기업 브랜딩과 크리에이티브 전략을 공개하며, 2025년 초 예정된 독립적인 플래시 및 메모리 기술 혁신 기업으로서의 출범을 예고했다. 샌디스크는 ‘Mindset of Motion’이라는 크리에이티브 전략을 통해 한계를 극복할 수 있는 새로운 길과 가능성을 여는 미래 지향적인 철학을 바탕으로 샌디스크가 지금의 순간과 희망을 결합한다는 의미를 제시하고 있다.      샌디스크는 새로운 워드마크 로고를 소개하면서, “하나의 픽셀부터 희망을 위한 플랫폼까지 혁신을 구현하기 위해 디자인됐다”고 설명했다. 이번 로고의 라인과 미니멀한 디자인은 플래시 기술의 속도와 효율성을 반영하며, 아이코닉한 오픈형 ‘D’ 글자 형태는 신선한 픽셀 중심의 ‘S’와 결합해 협력과 파트너십을 상징하며 기술의 미래를 담았다. 가로 및 세로 형태의 워드마크 로고를 통해 한계에 도전한다는 의미를 담았다는 것이 샌디스크의 설명이다. 샌디스크는 “이번에 변경된 워드마크 로고는 원활하고 탄력적인 데이터 활용과 스토리지의 세계를 가능하게 하는 기동성과 유연함의 헤리티지를 나타낸다”면서, “샌디스크의 혁신은 열망을 이어가고 가능성을 발전시키며, 개인과 기업이 어디에서나 데이터를 활용할 수 있게끔 지원한다”고 전했다. 샌디스크의 조엘 데이비스(Joel Davis) 크리에이티브 부문 부사장은 “많은 이들이 데이터의 잠재력을 경험하고 희망을 현실로 만드는 것이 샌디스크가 하는 일의 핵심이며 이를 구현할 수 있는 워드마크 로고를 만들기 위해 노력했다”며, “샌디스크의 비주얼 브랜드 철학은 미래와 고객이 데이터를 소비하는 다양한 방법에서 영감을 받았다. 하나의 픽셀에서 시작된 샌디스크의 워드마크 로고는 발전은 하나의 종착점이 아니라 존재의 방식이라는 생각을 기반으로 강력한 시각적 언어를 활용한다”고 말했다.
작성일 : 2024-12-18
애즈락, 인텔 아크 B 시리즈 B580/B570 그래픽카드 3종 출시
애즈락(ASRock)이 인텔 아크(Intel Arc) B580과 B570 GPU를 기반으로 한 신제품 라인업 ‘Steel Legend’와 ‘Challenger’ 시리즈 그래픽카드 3종을 공개했다. 애즈락의 신제품 인텔 아크 B 시리즈 그래픽카드는 Xe2-HPG 아키텍처를 기반으로 1440p와 1080p 해상도에서 고성능 게임 경험을 제공하며, 더 높은 성능과 높은 이미지 충실도를 위한 AI 강화 업스케일링과 게임 경험을 한 차원 높여주는 인텔 Xe 슈퍼 샘플링 기술(XeSS)을 통해 지금까지 선보인 아크 시리즈 그래픽카드 중 가장 진화한 기술이 적용됐다. 핵심 기술별 특징을 살펴보면 Intel XeSS Frame Generation과 Intel Xe Super Sampling(XeSS)는 더 높은 성능과 높은 이미지 충실도를 위한 AI 강화 업스케일링으로 게임 경험을 한 차원 높여주며, Intel Xe Low Latency 기술은 게임을 더욱 매끄럽고 빠르게 플레이할 수 있도록 한다. Intel Xe Matrix eXtensions(XMX) AI 엔진은 AI로 향상된 게임, 제작 및 미디어 생성을 가속화한다. 또한, Advanced Media Engine을 통해 AV1을 포함한 다양한 미디어 포맷의 빠른 트랜스코딩을 지원해 콘텐츠 제작 효율을 가속화한다. 애즈락 인텔 아크 B 시리즈 그래픽카드는 냉각 효율을 높이기 위한 스트라이프 링 팬과 축형 팬과 울트라 핏 히트파이프, 견고한 디자인의 메탈 백플레이트, 화려한 효과를 구현하는 Polychrome SYNC 조명 기술을 갖추고 있다.     애즈락 인텔 아크 B580 Steel Legend 12GB OC 모델은 사전 오버클럭된 최대 클럭 2800MHz 으로 동작하며, 12GB GDDR6 메모리(19Gbps)를 장착했다. 트리플 팬 디자인의 스트라이프 링 팬, 울트라 핏 히트파이프를 적용해 냉각 효율을 높였다. 후면 메탈 백플레이트는 구조적 강성을 높이고 PCB 휨을 방한다. Polychrome SYNC를 지원하는 ARGB 팬과 조명 패널을 통해 사용자가 조명 효과를 자유롭게 설정할 수도 있다. 화이트 테마의 PC 빌드를 선호하는 사용자를 위한 화이트 버전도 있다. 애즈락 인텔 아크 B580 Challenger 12GB OC 모델은 최대 클럭 2740MHz 으로 동작하며, 12GB GDDR6 메모리(19Gbps)를 탑재했다. 스트라이프 축 팬과 울트라 핏 히트파이프를 적용한 듀얼 팬 쿨링 설계를 적용 냉각했다. 특히 콤팩트한 듀얼 슬롯 디자인으로 케이스 호환성을 높였다. 프리 오버클럭을 지원하며 후면 메탈 백플레이트와 LED 인디케이터를 탑재해 내구성과 심미성을 모두 충족한다. 애즈락 인텔 아크 B570 Challenger 10GB OC 모델은 그래픽 클럭 최대 2600MHz 으로 동작하며, 10GB GDDR6 메모리(19Gbps)를 탑재했다. 스트라이프 축 팬과 울트라 핏 히트파이프를 적용한 듀얼 팬 설계가 열을 빠르게 제어하며, 견고한 메탈 백플레이트, 콤팩트한 듀얼 슬롯 디자인으로 케이스 호환성도 높다. 프리 오버클럭을 지원하며, 새롭게 디자인한 LED 인디케이터를 적용했다. 애즈락의 한국 홍보 및 마케팅을 담당하고 있는 김성현 실장은 “애즈락은 더욱 진화한 인텔 아크 B 시리즈 그래픽카드를 시장에 선보인다. 진화한 AI 기술에 게이밍을 위한 기술까지 담아낸 아크 B580 스틸 레전드 12GB OC, 아크 B580 챌린저 12GB OC, 아크 B570 챌린저 10GB OC 그래픽카드는 시스템 통합업체와 메인스트림 시장에서 높은 만족을 안겨줄 것”이라고 전했다.
작성일 : 2024-12-13
구글, ‘제미나이 2.0’ 출시와 함께 ‘에이전트형 시대’ 발표
구글이 새로운 에이전트 시대를 위한 ‘에이전트형(agentic) AI 모델’인 ‘제미나이 2.0’을 출시했다. 제미나이 2.0은 네이티브 이미지 및 오디오 출력, 네이티브 툴 사용 등 향상된 멀티모달 기능을 제공하여 텍스트, 이미지, 동영상, 오디오, 코드 등 다양한 형태의 정보를 자연스럽게 이해하고 처리할 수 있다.  구글은 “제미나이 2.0는 지금까지 선보인 모델 중 가장 뛰어난 성능을 자랑한다”면서, “리서치, 보고서 작업 등 다양한 방면의 복잡한 작업을 수행하는 ‘에이전트’ 기능을 갖춘 AI 시대를 본격적으로 열어갈 것”이라고 밝혔다.  제미나이 2.0은 네이티브 이미지 및 오디오 출력, 네이티브 툴 사용 등 향상된 멀티모달 기능을 바탕으로 이용자 경험을 혁신할 뿐 아니라, 개발자에게도 강력한 AI 기반 애플리케이션을 구축할 수 있는 툴을 제공한다. 전 세계 제미나이 이용자는 데스크톱과 모바일 웹에서 제미나이 2.0을 사용할 수 있다. 데스크톱과 모바일 웹의 모델 드롭다운 메뉴에서 ‘2.0 플래시 실험 버전’을 선택하면 채팅에 최적화된 제미나이 2.0을 바로 사용해 볼 수 있으며, 이는 제미나이 모바일 앱에도 곧 적용될 예정이다.     제미나이 2.0을 기반으로 새롭게 개선된 ‘프로젝트 아스트라(Project Astra)’는 다국어 대화, 구글 툴(구글 검색, 구글 렌즈, 맵스 등) 사용, 최대 10분 동안의 대화를 기억하는 향상된 메모리, 빠른 응답 속도 등의 기능을 제공한다. 구글은 이러한 기능을 구글의 AI 어시스턴트인 제미나이 앱 등 구글 제품은 물론, 다른 폼 팩터에도 도입할 계획이다.  ‘프로젝트 마리너(Project Mariner)’는 웹 브라우저에서 작동하는 에이전트 프로토타입으로, 픽셀 및 텍스트, 코드, 이미지, 양식과 같은 웹 요소를 포함해 브라우저 화면의 정보를 이해하고 추론한 다음, 실험적인 크롬 확장 프로그램(Chrome extension)을 통해 해당 정보를 활용해 작업을 완료한다. 개발자를 위한 AI 에이전트인 ‘줄스(Jules)’는 깃허브(GitHub) 워크플로에 직접 통합돼 개발자의 지시와 감독 하에 이슈를 처리하고, 계획을 세우고 실행하는 기능을 제공한다.  구글은 제미나이 2.0을 사용해 비디오 게임의 가상 세계 탐색을 지원하는 에이전트를 구축했다. 이 에이전트는 화면의 동작만을 기반으로 게임에 대해 추론하고, 실시간 대화를 통해 다음에 무엇을 해야 할지 제안할 수 있다. 가상 게임의 동반자 역할은 물론, 구글 검색을 활용해 웹 상의 풍부한 게임 지식을 제공할 수도 있다. 이 외에도 구글은 제미나이 2.0의 공간 추론 기능을 로봇 공학에 적용해 물리적 세계에서 도움을 줄 수 있는 에이전트를 실험하고 있다. 한편, 구글은 제미나이 2.0가 구글 검색의 AI 개요(AI Overview) 기능에도 적용되어, 고급 수학 방정식, 멀티모달 쿼리, 코딩 등 더욱 복잡한 질문에 대한 답변을 제공하도록 개선될 예정이라고 밝혔다.  전 세계 제미나이 이용자는 데스크톱 및 모바일 웹에서 제미나이 앱을 통해 제미나이 2.0 플래시(Gemini 2.0 Flash) 실험 버전을 AI 어시스턴트로 사용할 수 있다. 제미나이 2.0 플래시 실험 모델은 구글 AI 스튜디오(Google AI Studio) 및 버텍스 AI(Vertex AI)를 통해 모든 개발자가 사용할 수 있다. 개발자들은 제미나이 2.0을 활용하여 텍스트, 오디오 및 이미지를 포함한 통합 응답을 생성하고, 구글 검색 및 코드 실행과 같은 툴을 활용하는 애플리케이션을 구축할 수 있다.
작성일 : 2024-12-12
마이크로소프트, 2025년 주목해야 할 6가지 AI 트렌드 공개
마이크로소프트가 2025년 주목해야 할 AI 트렌드 6가지를 공개하면서, AI가 이끌어갈 혁신과 과제에 대한 주요 인사이트를 제시했다.  2024년은 전 세계 조직이 AI를 본격 도입하기 시작한 해로 평가된다. 마이크로소프트의 의뢰로 진행된 IDC 2024 AI 보고서에 따르면, 전 세계 조직의 AI 도입률은 지난해 55%에서 올해 75%로 증가했다. 이는 AI가 실험 단계를 넘어, 실제 비즈니스에서 가치를 창출하는 핵심 도구로 자리잡았음을 보여준다. 마이크로소프트는 이러한 변화에 따라 2025년이 AI가 일상과 업무에서 필수적인 기술로 자리 잡는 전환점이 될 것으로 전망하고 있다. AI는 높은 자율성을 기반으로 복잡한 문제를 해결하고, 업무 효율성을 크게 높이며 일상을 단순화할 것으로 기대된다. 나아가 과학, 의료 등 인류가 직면한 주요 과제 해결에도 적극적으로 활용될 것으로 내다보고 있다. 특히, 이러한 흐름은 AI의 논리적 사고와 데이터 처리 능력의 고도화를 통해 더욱 가속화될 것으로 예상된다. 마이크로소프트는 이러한 변화를 지원하기 위해 안전하고 신뢰할 수 있는 AI 기술 개발에 집중하고 있으며, 이를 사용자들이 안심하고 활용할 수 있도록 지원할 계획이다.  마이크로소프트의 크리스 영(Chris Young) 사업개발·전략·투자 담당 부사장은 “AI는 불가능해 보였던 많은 것을 가능하게 하고 있으며, 지난 한 해 동안 많은 조직이 실험 단계를 넘어 실질적인 도입 단계로 진입했다”고 말했다. 이어 그는 "AI 기술은 우리 삶의 모든 영역에 전면적인 변화를 가져올 전환점에 서 있다"고 강조했다.      마이크로소프트가 제시한 2025년 6가지 주요 AI 트렌드는 ▲더 유용하고 유능해질 AI 모델 ▲업무 형태를 변화시킬 AI 에이전트의 활약 기대 ▲모든 일상을 지원하는 AI 역할 확장 ▲지속 가능한 AI 인프라 구축 필요성 증대 ▲테스트와 맞춤화를 통한 책임 있는 AI 구축 ▲과학적 혁신을 가속화하는 AI 등이다. 첫 번째, AI 모델은 더 많은 일을 더 잘 수행할 것이다. 이 AI 모델들은 과학, 코딩, 수학, 법률 및 의학 등 여러 분야에서 혁신을 주도하며, 문서 작성부터 코딩 같은 복잡한 업무에 이르기까지 폭 넓은 업무를 수행할 수 있는 능력을 갖추게 될 것으로 보인다. 특히 AI의 추론 능력도 향상될 전망이다. 고급 추론 AI 모델인 오픈AI o1은 인간이 생각하는 방식과 유사한 논리적 과정을 거쳐 복잡한 문제를 단계적으로 해결하는 데 뛰어난 성능을 입증했다. 데이터 선별과 후속 학습도 AI 모델 발전에서 핵심적인 역할을 하게 된다. 마이크로소프트의 소형언어모델 파이(Phi)는 고품질 데이터를 활용해 모델 성능과 추론 능력을 효과적으로 개선할 수 있음을 보여줬다. 또한, 오르카(Orca) 및 오르카2(Orca 2) 모델은 합성 데이터를 활용한 학습으로 대규모 언어 모델에 준하는 성능을 구현하며 새로운 가능성을 열었다. 두 번째, 개인화된 차세대 AI 에이전트는 반복적이고 일상적인 업무를 자동화하는 데에서 나아가, 복잡하고 전문적인 작업까지 수행하며 조직의 업무 환경과 프로세스를 근본적으로 변화시킬 것으로 기대된다. AI 에이전트는 메모리, 추론, 멀티모달 기술의 발전을 통해 더욱 정교하게 작업을 처리할 수 있다. 예를 들어 조직의 재고 공급에 문제가 발생하면 AI 에이전트가 이를 관리자에게 알리고, 적합한 공급 업체를 추천하거나 직접 주문을 실행해 업무가 중단 없이 진행될 수 있도록 돕는다. 또한, 누구나 AI 에이전트를 설계하고 개발할 수 있는 환경도 마련된다. 마이크로소프트의 코파일럿 스튜디오(Copilot Studio)는 코딩 없이도 AI 에이전트를 개발할 수 있으며, 애저 AI 파운드리(Azure AI Foundry)는 복잡한 프로세스를 처리할 수 있는 고급 AI 에이전트 설계를 지원한다. 이러한 변화는 단순히 사용자와 협력하며 응답하는 프롬프트 기반 AI 에이전트에서, 독립적으로 업무를 수행하고 프로세스를 조율하는 완전 자율형 AI 에이전트까지 다양화될 것으로 예상된다. 세 번째, AI가 일상생활에서 차지하는 역할의 확장이다. 마이크로소프트 코파일럿(Microsoft Copilot)은 AI 동반자로서, 사용자가 하루 일과를 우선 순위에 따라 시간을 효율적으로 관리할 수 있도록 돕는다. 또한, 개인 정보와 데이터 보안을 강화해 보다 안전한 환경에서 AI를 사용할 수 있도록 설계됐다. 사용자는 일상에서 코파일럿을 더욱 밀접하게 활용할 수 있다. 예를 들어, 사용자는 하루를 시작하며 코파일럿 데일리(Copilot Daily)의 음성을 통해 최신 뉴스와 날씨 정보를 확인할 수 있다. 또한, 코파일럿 비전(Copilot Vision)은 사용자가 접속한 웹페이지를 분석해 관련 질문에 답하거나 다음 단계를 제안하는 등 보다 직관적인 상호작용을 지원한다. 코파일럿은 의사결정 과정에서도 유용하게 활용된다. 예를 들어, 새 아파트 인테리어를 위해 어울리는 가구를 추천하고, 효율적인 배치 방안을 제시해 사용자의 공간을 더 편리하고 실용적으로 꾸밀 수 있도록 돕는다. 이는 시작 단계이며, 앞으로 AI는 정서 지능의 고도화를 통해 보다 유연하고 자연스러운 상호작용을 제공할 전망이다. 네 번째, 에너지 자원 효율화를 통한 지속 가능한 AI 인프라 구축에 대한 노력이다. 실제로 전 세계 데이터 센터 처리량은 2010년부터 2020년까지 약 9배 증가했음에도 전력 소비량은 단 10% 증가에 그쳤다. 이는 마이크로소프트가 AMD, 인텔, 엔비디아 등과 협력해 반도체 칩 애저 마이아(Azure Maia)와 코발트(Cobalt), 그리고 대규모 AI 시스템 냉각을 위한 액체 냉각 열교환기 기술을 통해 하드웨어의 에너지 효율을 높인 결과다. 향후 몇 년 내에는 냉각에 물을 전혀 사용하지 않는 워터-프리 데이터센터가 도입될 예정이다. 동시에 초고효율 액체 냉각 기술인 콜드 플레이트(Cold plates)의 사용도 확대된다. 이러한 기술들은 지속 가능한 AI 인프라 조성을 위한 노력의 핵심이다. 이와 함께 마이크로소프트는 저탄소 건축 자재를 도입해 데이터센터 설계를 친환경적으로 혁신하고 있다. 탄소 배출이 거의 없는 철강, 콘크리트 대체 소재, 교차 적층 목재 등이 대표적인 예다. 이와 함께 풍력, 지열, 원자력 및 태양광 등 무탄소 에너지원에도 적극 투자하며, 2030년까지 탄소 네거티브, 워터 포지티브, 제로 웨이스트 목표를 달성하기 위한 장기적인 비전을 실행하고 있다. 다섯 번째, AI의 위험을 측정하고 평가하는 기준의 강화다. 2025년에는 책임 있는 AI를 구현하기 위해 ‘테스트’와 ‘맞춤화’에 대한 기준이 높아질 것으로 예상된다. 포괄적인 테스트 체계는 외부의 정교한 위협을 탐지하고, AI가 생성하는 부정확한 응답(환각)과 같은 내부 문제를 해결하는 데에 효과적이다. 마이크로소프트는 AI 모델이 직면할 수 있는 위협을 정밀하게 분석하고 개선하는 과정을 지속하며, 더욱 안전한 AI 환경 구축을 목표로 하고 있다. 특히 모델의 안전성이 높아질수록 테스트와 측정 기준도 더욱 정교해지고 있다. ‘맞춤화’와 ‘제어’는 미래 AI 응용 프로그램의 핵심으로 자리 잡을 것으로 보인다. 조직은 콘텐츠 필터링과 작업에 적합한 가드레일 설정 등 AI 활용 방식을 자유롭게 조정할 수 있다. 예를 들어, 게임사는 직원이 볼 수 있는 폭력 콘텐츠의 종류를 제한할 수 있다. 마이크로소프트 365 코파일럿은 업무 환경에 적합한 콘텐츠를 설정할 수 있는 맞춤형 제어 기능을 제공한다. 여섯 번째, AI가 과학 연구에 미치는 영향력 확대다. 이미 AI는 슈퍼컴퓨팅과 일기 예보 같은 분야의 연구 속도를 가속화하고 있으며, 앞으로는 자연 과학, 지속 가능한 소재 개발, 신약 연구 및 건강 분야에서 중요한 역할을 할 것으로 예상된다. 2024년, 마이크로소프트 리서치(MSR)는 생체 분자 과학 문제를 해결할 생체분자 역학 시뮬레이션(simulate biomolecular dynamics)을 개발했다. AI2BMD(AI-driven Biomolecular Dynamics)로 불리는 이 시스템은 단백질 설계, 효소 공학, 신약 개발 등의 분야에서 전례 없는 속도와 정밀도로 문제를 해결하며 생물 의학 연구에 새로운 가능성을 열었다. 2025년에는 AI가 지속 가능한 소재 설계와 신약 개발 같은 인류의 공동 과제 해결에 중요한 역할을 할 것으로 보인다. 이를 통해 과학 기관과 연구자들은 AI를 통해 연구 효율을 높이고, 지금까지 불가능했던 새로운 돌파구를 마련할 것으로 기대를 모으고 있다.
작성일 : 2024-12-09
AWS, 딥러닝 및 생성형 AI를 위한 트레이니움2 인스턴스 출시
아마존웹서비스(AWS)는 ‘AWS 리인벤트’ 행사에서 AWS 트레이니움2(AWS Trainium2) 칩 기반의 아마존 EC2(Amazon EC2) 인스턴스를 공식 출시했다고 발표했다. 또한, AWS는 대규모 언어 모델(LLM) 및 파운데이션 모델(FM)의 학습과 추론을 지원하는 트레이니움2 울트라서버(Trn2 UltraServers)와 차세대 트레이니움3(Trainium3) 칩도 함께 공개했다. Trn2 인스턴스는 16개의 트레이니움2 칩을 탑재하여 최대 20.8 페타플롭스(PF)의 연산 성능을 제공한다. 이는 수십억 개의 매개변수를 가진 LLM의 학습 및 배포에 적합하다. Trn2 인스턴스는 동일한 비용으로 기존 GPU 기반 EC2 P5e 및 P5en 인스턴스 대비 30~40% 더 나은 가격 대비 성능을 제공하며, 메모리 대역폭도 개선되어 비용 효율성이 높다는 것이 AWS의 설명이다. Trn2 울트라서버는 새로운 EC2 제품군으로, 초고속 뉴런링크(NeuronLink) 기술을 사용해 64개의 트레이니움2 칩을 연결하여 최대 83.2 피크 페타플롭스의 연산 성능을 제공한다. 이는 단일 Trn2 인스턴스 대비 연산, 메모리, 네트워킹 성능을 각각 4배로 확장해 대규모의 모델 학습과 배포를 가능하게 한다. Trn2 인스턴스는 현재 미국 동부(오하이오) AWS 리전에서 사용 가능하며, 추가 리전에서도 곧 제공될 예정이다. Trn2 울트라서버는 현재 프리뷰 상태로 제공되고 있다. 한편, AWS는 앤스로픽(Anthropic)과 협력해 수십만 개의 트레이니움2 칩을 포함하는 EC2 울트라클러스터(UltraClusters)를 구축하고 있다고 밝혔다. 이 프로젝트는 ‘프로젝트 레이니어(Project Rainier)’로 명명되었으며, 현재 세대의 최첨단 AI 모델 훈련에 사용된 엑사플롭스의 5배 이상의 성능을 갖출 것으로 기대된다. 이외에도 AWS는 차세대 AI 학습 칩인 트레이니움3를 공개했다. 트레이니움3는 트레이니움2 대비 최대 2배 성능과 40% 개선된 에너지 효율성을 제공하며, 이를 통해 고객은 더 큰 모델을 더 빠르게 구축하고 실시간 성능을 극대화할 수 있다. AWS의 데이비드 브라운(David Brown) 컴퓨팅 및 네트워킹 부문 부사장은 “트레이니움2는 AWS가 개발한 칩 중 가장 강력한 성능을 자랑하며, 대규모 및 최첨단 생성형 AI 워크로드를 지원하기 위해 설계되었다. 이 칩은 학습과 추론 모두에서 최고의 가격 대비 성능을 제공한다”면서, “매개변수가 수조 개에 달하는 모델이 등장하면서, 고객들에게 대규모 모델을 효율적으로 학습하고 운영할 수 있는 새로운 접근 방식이 필요해졌다. Trn2 울트라서버는 AWS에서 가장 빠른 학습 및 추론 성능을 제공하며, 모든 규모의 조직이 세계 최대 모델을 더 빠르고 비용 효율적으로 학습하고 배포할 수 있도록 돕는다”고 전했다.
작성일 : 2024-12-04
인텔, 고성능과 게이밍 기능 앞세운 아크 B-시리즈 그래픽 카드 출시
인텔은 인텔 아크 B-시리즈(Intel Arc B-Series) 그래픽 카드 신제품(코드명 배틀메이지)를 발표했다. 인텔 아크 B580 및 B570 GPU는 대다수의 게이머가 접근 가능한 가격대에서 동급 최고 수준의 성능과 최신 게이밍 기능을 제공하는 데에 초점을 맞추었으며, AI 워크로드를 가속화할 수 있도록 설계되었다. 인텔 Xe 매트릭스 익스텐션(XMX) AI 엔진이 포함되어 성능, 시각적 유동성 및 응답성을 향상시키는 3개 기술로 구성된 최신 XeSS 2를 지원한다. 인텔 아크-B시리즈 GPU는 인텔의 최신 Xe2 아키텍처를 사용하며, 향상된 효율성과 더 높은 코어당 성능을 제공하고 소프트웨어 오버헤드를 줄이도록 최적화되었다. 2세대 Xe-코어는 최신 워크로드에 필요한 견고한 컴퓨팅 성능을 제공하며 고성능 XMX AI 엔진을 포함하고 있다. 새로운 Xe-코어는 더 뛰어난 성능의 레이 트레이싱 유닛, 향상된 메시 셰이딩 성능, 향상된 주요 그래픽 기능 지원을 통해 최신 게임 엔진의 성능 효율성을 향상시켜 준다.     XeSS 2는 ‘XeSS 초해상도(XeSS Super Resolution)’, ‘XeSS 프레임 생성(XeSS Frame Generation)’, ‘Xe 저지연(Xe Low Latency)’의 세 가지 기술로 구성되었다. XeSS 초해상도는 지난 2년간 AI 기반 업스케일링을 제공해왔고, 현재 150개 이상의 게임을 지원하는 1세대 XeSS의 기반이 된 핵심 기술이다. 새로운 AI 기반 XeSS 프레임 생성은 광학 플로 및 모션 벡터 리프로젝션을 사용하여 보간(interpolated) 프레임을 추가해 더욱 유동적인 게이밍을 제공한다. 또한 새로운 Xe 저지연 기술은 게임 엔진과 통합되어 게이머의 입력에 더 빠르게 반응한다. 세 가지 기술이 모두 활성화된 XeSS 2는 초당 프레임(fps)을 최대 3.9배 이상 끌어올려 까다로운 AAA급 게임에서도 고성능을 제공할 수 있다는 것이 인텔의 설명이다. 새로운 인텔 아크-B 시리즈 GPU는 이전 세대 대비 Xe 코어당 성능은 70%, 와트당 성능은 50% 향상되었다. B580 GPU는 인텔 아크 A750 GPU와 비교시 1440p에서 평균 24% 더 빠르고 일부 게임에서는 최대 78% 더 빠른 속도를 보였다. 인텔은 “경쟁 제품과 비교 시 인텔 아크 B580 GPU가 가격 대비 최대 32%더 높은 성능을 제공한다”고 주장했다. 인텔 아크 B580은 12GB 전용 GPU 메모리를, 인텔 아크 B570은 10GB 전용 GPU 메모리를 탑재했으며, 게이머들은 AI 기반 XeSS 2 기술을 통해 1440p 초고화질 설정에서 고성능 게임을 기대할 수 있다. 한편, 새로운 인텔 그래픽 소프트웨어는 색상 및 스케일링 모드와 가변 주사율(VRR) 지원을 포함한 디스플레이 설정에 접근할 수 있게 하며, 프레임 제한 및 드라이버 수준의 저지연 모드를 포함한 3D 그래픽 설정도 제공한다. 성능 제어 기능으로는 기본 및 고급 오버클럭 설정과, 프레임 생성 및 지연 측정을 지원하는 오픈소스 프레젠트몬(PresentMon) 기반의 메트릭스 기능이 포함되며, 프레임 생성 및 지연 시간 측정도 지원된다. 인텔은 아크 B580 한정판 그래픽 카드 및 에이서, 애즈락, GUNNIR, 오닉스, 맥스썬, 스파클의 보드 파트너 모델이 12월 13일부터 구매 가능하다고 밝혔다. 시작 가격은 249 달러이다. 인텔 아크 B570 그래픽 카드는 2025년 1월 16일 219 달러부터 구매 가능하다. 인텔의 비비안 리엔(Vivian Lien) 클라이언트 그래픽 부문 총괄 매니저는 “새로운 인텔 아크 B-시리즈 GPU는 게이머를 위한 업그레이드 제품이다. 이 제품은 XeSS 2, 2세대 레이 트레이싱 엔진, XMX AI 엔진을 통한 뛰어난 1440p 게이밍 경험과 최고의 가격 대비 성능을 제공한다”고 전했다.
작성일 : 2024-12-04
AMD 기반 ‘엘 캐피탄’, 세계에서 가장 빠른 슈퍼컴퓨터로 등재
AMD는 세계에서 가장 빠른 슈퍼컴퓨터를 선정하는 톱500(Top500) 리스트에 AMD 기반 슈퍼컴퓨터가 6회 연속 등재되면서 고성능 컴퓨팅(HPC) 분야에서 리더십을 입증했다고 밝혔다. AMD 인스팅트(Instinct) MI300A APU로 구동되고 휴렛팩커드 엔터프라이즈(HPE)가 구축한 미국 로렌스 리버모어 국립 연구소(LLNL)의 엘 캐피탄(El Capitan) 슈퍼컴퓨터는 최신 톱500 리스트에서 1.742 엑사플롭스의 HPL(High-Performance Linpack) 스코어를 기록하며, 세계에서 가장 빠른 슈퍼컴퓨터로 선정되었다.  미국 핵안보국(NNSA)의 첫 번째 엑사스케일급 시스템인 엘 캐피탄은 NNSA의 트리랩스(Tri-Labs)인 LLNL과 로스앨러모스(Los Alamos) 및 샌디아(Sandia) 국립 연구소의 최고 컴퓨팅 자원으로 자리잡았다. 엘 캐피탄은 과학적 탐구와 국가 안보를 강화하는데 사용되며, 핵실험 없는 안전한 핵 억지력과 보안 및 신뢰성을 보장하는데 필요한 방대한 컴퓨팅 성능을 제공한다. 이 시스템은 노후 핵 비축물 인증과 같은 NNSA의 핵 비축물 관리 프로그램(Stockpile Stewardship Program)을 비롯해 확산 방지 및 대테러와 같은 주요 핵 안보 임무에 필수적인 모델링 및 시뮬레이션 기능을 지원한다.     LLNL과 NNSA의 다른 연구소들은 엘 캐피탄과 함께 AI 및 머신러닝 기반 데이터 분석을 수행하는 투올러미(Tuolumne) 시스템을 활용하여 빠르고 정확하게 예측 불확실성을 정량화할 수 있는 과학 모델을 생성하기 위한 LLNL의 AI 기반 목표를 더욱 가속화하고 있다. 엘 캐피탄은 AI를 적용하여 관성 봉입 핵융합(Inertial Confinement Fusion) 연구와 같은 고밀도 에너지 문제를 해결하는데 사용되고, 투올러미는 기후 모델링과 방역 및 신약 개발, 지진 모델링 등 비분류 공개 과학(Unclassified Open Science) 응용 분야에 활용될 예정이다. AMD의 최신 에픽 9005 시리즈 프로세서는 엔터프라이즈, AI 및 클라우드 환경을 위한 서버 CPU로, 고성능 컴퓨팅 및 AI 워크로드에서 이전 세대 대비 최대 37% 향상된 IPC(Instruction Per Cycle) 성능을 제공한다. 또한, 이 프로세서는 세계적인 난제를 해결하는 과학 및 고성능 컴퓨팅 애플리케이션에서 경쟁사 대비 최대 3.9배 더 빠른 인사이트 도출 시간을 제공한다. AMD 인스팅트 가속기는 AI 설루션에서 엑사스케일급 슈퍼컴퓨터에 이르기까지 다양한 규모의 데이터센터를 위한 고성능을 제공한다. AMD 인스팅트 MI300X 및 MI325X 가속기는 높은 AI 성능과 메모리 기능을 갖추고 있으며, CPU 및 GPU 코어와 적층형 메모리를 단일 패키지로 통합한 AMD 인스팅트 MI300A APU는 고성능 컴퓨팅 및 AI 워크로드를 위한 향상된 효율과 성능을 제공한다. AMD는 이외에도 오크리지 국립 연구소(Oak Ridge National Lab)의 엘 캐피탄과 프론티어(Frontier) 시스템이 그릭500(Green500) 리스트에서 각각 18위와 22위를 차지하면서, 고성능 컴퓨팅 워크로드를 지원하는 AMD 에픽 프로세서와 인스팅트 GPU의 성능 및 에너지 효율을 다시 한 번 입증했다고 전했다. AMD의 포레스트 노로드(Forrest Norrod) 수석 부사장 겸 총괄 책임자는 “엘 캐피탄이 엑사플롭의 장벽을 깨고, 세계에서 가장 빠른 AMD 기반 두 번째 슈퍼컴퓨터로 선정되어 매우 기쁘다. AMD 인스팅트 MI300 APU의 뛰어난 성능과 효율성을 입증한 이 획기적인 컴퓨터는 AMD와 LLNL 및 HPE 간의 헌신적인 협력의 결과물”이라면서, “AMD는 고성능 컴퓨팅과 AI의 컨버전스를 새롭게 정의하는 선도적인 성능과 기능을 통해 지속적으로 컴퓨팅의 미래를 주도하게 될 것”이라고 밝혔다. LLNL의 리버모어 컴퓨팅 최고기술책임자(CTO)인 브로니스 R. 드 수핀스키(Bronis R. de Supinski)는 “AMD 인스팅트 MI300A APU를 활용하여 절대적 한계치를 넘어서는 컴퓨팅 성능과 이전에는 상상하지 못한 뛰어난 에너지 효율성을 갖춘 시스템을 구축했다. 엘 캐피탄은 더욱 보편화되고 있는 AI를 기존의 시뮬레이션 및 모델링 워크로드와 통합함으로써 다양한 과학적 연구 분야에서 새로운 발견의 가능성을 높일 수 있게 되었다”고 전했다.
작성일 : 2024-11-19