• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "에지"에 대한 통합 검색 내용이 448개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
인텔, 최신 LLM 라마 3.1 최적화 업데이트 지원
인텔은 메타(Meta)의 최신 LLM(대규모 언어 모델)인 라마 3.1(Llama 3.1)에 데이터센터, 에지 및 클라이언트 AI 제품 전반에 걸친 성능 데이터 및 최적화를 제공한다고 밝혔다. 인텔은 ‘AI 에브리웨어’ 전략을 위해 AI 소프트웨어 생태계에 지속적으로 투자하고 있으며, 새로운 모델이 인텔의 AI 하드웨어에 최적화되도록 보장하고 있다. 메타는 지난 4월 라마 3 출시에 이어, 7월에는 현재까지 가장 성능이 뛰어난 모델인 라마 3.1을 출시했다. 라마 3.1은 공개적으로 사용 가능한 가장 큰 파운데이션 모델인 라마 3.1 405B(4천 50억개 모델)를 포함해 다양한 규모와 기능에서 여러 새로운 업데이트 모델을 제공한다. 이 새로운 모델들은 파이토치(PyTorch) 및 인텔 파이토치 익스텐션(Intel Extension for PyTorch), 딥스피드(DeepSpeed), 허깅 페이스 옵티멈 라이브러리(Hugging Face* Optimum libraries), vLLM 등 개방형 생태계 소프트웨어를 통해 인텔 AI 제품에서 활성화 및 최적화된다. 또한 생태계 전반에서 최고의 혁신을 활용하는 개방형, 멀티 벤더, 강력하고 컴포저블한 생성형 AI 솔루션을 만들기 위한 LF AI 및 데이터 재단(LF AI & Data Foundation)의 새로운 오픈 플랫폼 프로젝트인 OPEA(Open Platform for Enterprise AI) 역시 이 모델들을 지원한다. 라마 3.1 다국어 LLM 컬렉션은 8B, 70B, 405B 크기(텍스트 인/텍스트 아웃)의 사전 학습 및 조정(인스트럭션 튜닝)된 생성 모델 컬렉션으로, 모든 모델은 8개 구술어에 걸쳐 긴 컨텍스트 길이(128k)를 지원한다. 라마 3.1 405B는 일반 지식, 조작성, 수학, 도구 사용 및 다국어 번역에 있어 최첨단 기능을 갖추고 있다. 이를 통해 커뮤니티는 합성 데이터 생성 및 모델 증류(model distillation)와 같은 새로운 기능을 활용할 수 있게 될 것이다. 한편, 인텔은 생성형 AI 및 대형 언어 모델(LLM)의 고성능 가속을 위한 가우디(Intel Gaudi) 가속기 및 일반 컴퓨팅의 유비쿼터스 백본 역할을 하는 인텔 제온(Intel Xeon) 프로세서, 클라이언트와 에지에서 높은 온디바이스 AI 추론 성능을 제공하는 인텔 코어 울트라(Intel Core Ultra) 프로세서 및 인텔 아크(Intel Arc) 그래픽이 탑재된 AI PC를 포함해 인텔 AI 제품 포트폴리오 상에서의 라마 3.1 모델 초기 성능 측정 결과를 소개했다.   ▲ 16대의 인텔 가우디 가속기 상에서의 라마 3.1 405B 추론 결과   ▲ 5세대 인텔 제온 스케일러블 프로세서 상에서의 라마 3.1 추론 지연 시간   ▲ 인텔 아크 GPU가 내장된 인텔 코어 울트라 7 165H 기반의 AI PC에서 라마 3.1 추론 다음 토큰 대기 시간
작성일 : 2024-07-26
지멘스-BAE 시스템즈, 항공산업의 디지털 혁신 가속 위해 협력
지멘스가 BAE 시스템즈(BAE Systems)와 엔지니어링·제조 기술 혁신을 위한 협약을 체결했다고 발표했다. 이를 기반으로 양사는 디지털 전환을 도입하고 프로그램 수명 주기 전반에 걸쳐 디지털 역량을 활용한다. 이번 5년 협약은 BAE 시스템즈 내 설계, 제조 부문 전반에 걸쳐 미래 엔지니어링과 미래 공장 역량에 대한 전략적 청사진을 모색하고 개발하기 위해 수립됐다. 이는 지멘스 엑셀러레이트(Siemens Xcelerator) 산업용 소프트웨어 포트폴리오의 일부인 제품 엔지니어링용 NX 소프트웨어와 제품 수명 주기 관리(PLM)를 위한 팀센터(Teamcenter) 소프트웨어의 최신 버전을 기반으로 구축되고 활용된다. 에지 컴퓨팅 솔루션과 기술 검증도 여러 캐터펄트(catapult)와 기술 센터에서 사용되고 있다. 이번 협약으로 양사는 지속 가능성, 산업 디지털화, 공급망 현대화 분야에서 국내외적으로 협력해, 기술 개발 및 적응 범위 내에서 BAE 시스템즈의 상용 애플리케이션 이점을 가속하기 위한 프레임워크를 개발할 예정이다. 이 프레임워크는 지멘스와 BAE 시스템즈의 수십 년간 파트너십에 기반한다. 여기에는 지멘스의 다양한 기술 개발과 공급, 엔지니어 간 지식 공유, 업계 포럼에서의 공동 솔루션 쇼케이스가 포함된다. 양사는 기존 이니셔티브를 계속해서 혁신하고 새로운 디지털 제조 접근법을 개발해 BAE 시스템즈의 미래 공장(Factory of the Future) 이니셔티브를 지원할 계획이다.     지멘스 디지털 인더스트리의 브라이언 홀리데이(Brian Holliday) 영국 및 아일랜드 지역 총괄 디렉터는 “이번 협약은 BAE 시스템즈와 지멘스 간 성공적으로 진행됐던 기존 협력을 기반으로 한다. 기술은 제조업을 개선할 수 있는 수많은 기회를 열어주고 있다. BAE 시스템즈와의 협력은 영국에서 4차 산업혁명 발전을 위해 디지털 전환을 어디까지 진행시킬 수 있을지에 대한 진정한 테스트베드를 제공한다”고 말했다. 그는 이어 “이 관계는 고객과의 협력 방식에 대한 지멘스의 광범위한 비전을 보여주는 핵심 사례다.  지멘스의 비전은 현실 세계와 디지털 세계를 연결해 더 나은 결과를 달성하는 데 도움을 주는 것이다. 또한 협업을 통해 보다 쉽고 빠른 대규모 디지털 전환 가속화를 지원하는 글로벌 엑셀러레이트 비즈니스 플랫폼 원칙과도 일치한다”고 덧붙였다. BAE 시스템즈의 이안 민튼(Iain Minton) 기술 역량 제공 책임자는 “양사의 협업은 우리가 디지털 스레드 지원 기술을 보다 통합되고 원활한 방식으로 개발하고 투자할 수 있도록 돕는다. 지멘스는 BAE 시스템즈의 운영 환경 복잡성을 잘 이해하고 있어 아이디어를 구현 단계까지 매우 빠르게 발전시킬 수 있다. 일례로 새로운 엔지니어링, 지원, 제조 기능을 구현, 최적화하고자 할 때를 들 수 있다. 이것이 바로 이 협업의 진정한 가치다. 양사가 함께 구축한 신뢰와 이해가 항공우주 부문의 성과를 이끌어내는 데 강력한 힘을 발휘한다”고 말했다. 지멘스 디지털 인더스트리 소프트웨어의 벤 시스(Ben Sheath) 영국 및 아일랜드 지역 부사장 겸 매니징 디렉터는 “지멘스와 BAE 시스템즈가 쌓아온 20년이 넘는 관계를 연장해 미래형 공장 구축을 위한 전략적 계획을 지속적으로 이행하게 돼 기쁘다. BAE 시스템즈 팀과 협업하며 4차 산업혁명의 힘을 활용해 BAE 시스템즈의 디지털 전환 목표 달성을 지원할 수 있길 기대한다. 이는 항공우주 분야 선도기업이 지멘스와 파트너십을 맺고 기업 디지털 전환의 근간으로 엑셀러레이터 포트폴리오를 도입한 우수 사례 중 하나”라고 말했다.
작성일 : 2024-07-24
혼합 오더 메시 커브
성공적인 유동 해석을 위한 케이던스의 CFD 기술 (10)   이번 호에서는 CFD에 유한요소법을 활용해 더 적은 요소 수로 해석 정확도를 높일 수 있는 곡선형 혼합 오더 메시(Mixed Order Mesh)를 생성하는 방법을 살펴본다.   ■ 자료 제공 : 나인플러스IT, www.vifs.co.kr   High-Order 메시 커브는 전산유체역학(CFD) 솔버 커뮤니티에서 유한요소법(FEM)을 활용하는 사람들에게 큰 도움이 될 새로운 기술이다. 유한요소기법은 유한 체적 및 유한 미분 방법과 같은 기존 CFD 방법보다 적은 요소 수로 정확도를 높인다. 선형 요소의 가장자리, 면, 내부에 버텍스(새로운 자유도)를 추가로 도입하여 정확도를 높일 수 있다. 곡선 지오메트리에 인접한 요소의 경우 이러한 새로운 자유도가 지오메트리에 위치해야 하므로 원래 선형 요소의 모양이 변경된다. 메시가 점성이 있는 경계를 향해 요소들이 모여 있는 경우 이 과정은 더 어렵다. 또한 내부 요소의 가장자리와 면은 요소 반전을 방지하기 위해 경계 요소 곡률에 따라 곡선을 만들어야 한다. 케이던스 피델리티 포인트와이즈(Cadence Fidelity Pointwise)에서 사용하는 WCN 스무딩에 대한 연구를 통해 혼합 오더 메시(Mixed Order Mesh)를 사용하여 지오메트리 곡률을 해결할 수 있다. 요소는 곡률이 심한 지오메트리 근처에서는 최대 4차 다항식(quartic)까지 올라갈 수 있으며, 곡률이 심한 지오메트리에서 멀리 떨어진 곳에서는 선형을 유지한다. 메시 평활화 방법은 비용 함수를 사용하여 원하는 요소 모양과 양의 자코비안을 각 요소에 적용한다. 요소가 지오메트리 근처에서 곡선이 될 때 점성 메시 간격이 유지된다. 결과는 복잡한 3D 구성에 대해 표시된다.   지오메트리 선형 메시를 올리고 표면 곡률에 따라 곡선을 그리려면 지오메트리에 쉽게 액세스하고 강력한 초기화 및 평활화 프로세스가 필요하다. 초기화 중에 고차 노드가 지오메트리에 정확하게 배치되고 메시 평활화 중에 표면에 유지되도록 하려면, 지오메트리에 대한 표면 검색작업이 필요하다. 엘리베이트 및 스무딩을 위한 지오메트리 액세스는 메시링크 API¹) 를 통해 제공된다. 메시링크는 지오메트리 및 메시 데이터를 관리하기 위한 라이브러리로, 메시 생성 및 메시 적응 애플리케이션과 관련된 함수를 쿼리할 수 있는 간단한 인터페이스를 제공한다.   혼합 오더 커브 프로세스 혼합 오더 메시 커브는 유효한 선형 메시로 시작하는 프로세스를 사용한다. 프로세스의 주요 구성 요소는 <그림 1>의 순서도에 나와 있다. 이 백서 전체에서 요소의 차수 또는 다항식 차수는 선형, 이차, 입방체와 같은 Q1~4 명명법을 사용하여 표시되며, 이차 요소는 각각 Q1, Q2, Q3, Q4이다. 고차 요소는 라그랑지안 기저 함수를 사용하여 요소의 가장자리, 면, 내부에 고차 노드를 고르게 분포시킨다. 이러한 물리적 노드는 하위 요소와 요소 모양을 적용하기 위해 WCN 방식에 필수이다.   그림 1. 혼합 오더 메시 커브 프로세스의 순서도에는 가장 안쪽 고도 루프를 통과하는 여러 경로가 포함되어 있다. 진입 지점에 따라 색상으로 구분된 화살표를 따라가게 된다.   고도 프로세스는 입력된 선형 메시에서 시작하여 사용자가 요청한 최종 차수인 Qfinal에 도달할 때까지 최대 차수인 Qmax를 한번에 하나씩 증가시킨다. 각 차수 패스동안 먼저 표면 요소와 볼륨 요소의 편차를 테스트한다. 고차 점이 지오메트리에서 너무 많이 벗어나는 서피스 요소(허용 오차 기준)는 높이가 올라가고, 그 섭동이 볼륨에 퍼진다. 마지막으로, 요소 반전을 수정하고 엘리베이션 프로세스에서 생성된 요소의 품질을 개선하기 위해 WCN 메시 스무딩이 수행된다. 각 스무딩 반복 후 각 볼륨 요소의 편차를 다시 테스트하여 추가 높이 조정이 필요한지 여부를 결정한다. 이 프로세스는 모든 요소가 편차 기준을 충족하거나 최종 정도에 도달할 때까지 반복되며, 메시 평활화 프로세스가 수렴한다. 품질 제약 조건은 인접한 요소가 한 차수 이상 차이가 나지 않도록 보장한다. 최종 출력은 같은 차수의 요소 간에 공유되는 고차 노드가 포함된 메시이다. 그러나 차수가 다른 요소 간에 공유되는 면과 가장자리는 동일한 인터페이스 노드를 공유하지 않다. 따라서 내보내기 전에 이러한 인터페이스에서 형상 적합성을 적용한다.   요소 편차 메트릭 편차 메트릭(Deviation Metric)은 엘리먼트 엘리베이션 프로세스 및 메시 스무딩 프로세스의 일부로, 엘리먼트 엘리베이션 프로세스를 제어한다. 편차 메트릭은 곡선 경계 또는 다른 볼륨 요소에 인접한 요소의 가장자리와 면에 있는 테스트 노드의 변위를 측정한다. 이러한 테스트 노드의 변위가 임계값 거리를 초과하면 해당 요소에 상승 플래그가 지정된다. 높이를 트리거하는 임계값은 요소 내의 최소 선형 에지 길이에 입력 편차 임계값 파라미터(일반적으로 1~5%)를 곱한 값이다.   서피스 요소 편차 곡선 경계에 인접한 요소의 경우 편차 메트릭은 6차 가우스 구적법 점 위치에 배치된 테스트 노드를 사용한다. 그런 다음 테스트 노드를 지오메트리에 투영하고, 원래 위치와 투영된 위치 사이의 거리를 측정한다. 편차량은 <그림 2>에서 선형 삼각형의 중심(청록색)에 있는 테스트 노드를 곡선 지오메트리 표면(주황색)에 투영하여 보여준다.   그림 2. 지오메트리에 투영된 표면 요소의 중심에 있는 테스트 노드     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2024-07-04
델, 산업용 모니터 제조업체 ‘테트라다인’에 클라이언트 솔루션∙서비스 공급
한국 델 테크놀로지스는 선박용 모니터 및 패널 PC 제조업체인 테트라다인이 비즈니스용 데스크톱 ‘델 옵티플렉스(Dell OptiPlex)’에 고객 맞춤형 해상용 시스템 플랫폼을 구축했다고 밝혔다. 테트라다인은 1999년 설립 이후, 장비용 모니터를 시작으로 조선 해양, 방산, 발전소 등 특수 산업 분야의 디스플레이 솔루션을 개발 및 제조하고 있다. 테트라다인은 2005년 이래 델 테크놀로지스의 워크스테이션, PC, 서버 등의 제품에 해상 진동 및 충격으로부터 플랫폼을 고정하고 보호하는 항진동 키트를 장착해 특수 산업 고객 맞춤형 플랫폼을 개발해왔다. 이 플랫폼은 한국 KR, 노르웨이 DNV GL, 미국 ABS 등 세계 선박용 7대 선급 인증을 획득해 조선해양 시장에 공급되고 있다. 코로나19 팬데믹 이후, 탈탄소화(decarbonization)와 디지털화(digitalization)가 글로벌 조선사들 간의 새로운 화두로 떠오르며 선박의 주요 시스템 장비를 고성능 IT 플랫폼으로 전환시키는 움직임이 가속화되고 있다. 이러한 추세에 따라 테트라다인은 고성능과 확장성이 특징인 델의 산업용 데스크톱 PC ‘옵티플렉스(OptiPlex) XE 시리즈’에 최적화된 항진동 키트인 ‘TD Kit’를 개발했으며, 향후 델 모니터 및 워크스테이션, 서버, 스토리지 등의 플랫폼으로 선박용 시스템 솔루션 라인업을 더욱 확장할 계획이다. 테트라다인이 채택한 델 옵티플렉스 XE4는 내구성을 갖춘 산업용 제품이다. 미국 국방부가 인정하는 군사 표준규격인 ‘MIL-STD 810G’ 테스트를 통과했고, 부식이 일어나거나, 최대 온도가 45℃까지 올라가는 에지 환경을 견디도록 설계됐다. 별다른 도구 없이도 간편하게 유지 관리를 할 수 있어 사용성도 높인 제품이다. 최대 125W CPU를 탑재한 12세대 인텔 코어 프로세서와 새로운 하이브리드 코어 기술을 통해 고집약적 워크로드를 원활히 처리하도록 설계됐으며, AI와 머신러닝 기술에 기반한 지능형 소프트웨어 최적화 솔루션인 ‘델 옵티마이저(Dell Optimizer)’도 지원한다. 테트라다인은 제품의 안정성과 신뢰성을 가장 중시하는 조선해양기자재 기업의 특성상, 델 테크놀로지스의 기술력과 솔루션의 안정성을 강점으로 꼽았으며, 다양한 업계 고객 사이에서 오랜 기간 축적한 브랜드 인지도와 신뢰도도 높이 평가했다. 또한, 코로나19 팬데믹 이후 전 세계에 닥친 공급망 불안에도 견고한 글로벌 공급망과 안정적인 납기, 기술 지원팀의 적극적인 협조와 신속한 대응을 강점으로 꼽았다. 테트라다인은 고객 맞춤형 하드웨어 구성을 필요로 하는 경우가 많은데, 델의 솔루션은 해상용 시스템 플랫폼의 전력, 기계 설계, 소프트웨어 등 요구사항에 맞게 구성하기가 용이하다. 또한, 솔루션 전환에 대한 온디맨드 보기 및 사전 대응 관련 알림을 제공해 IT 관리 프로세스를 간소화시킨다. 조선해양기자재 업계에서 사용할 수 있다는 선급 인증을 획득한 플랫폼으로 인증 테스트 및 검증 시간을 절감할 수 있으며, 궁극적으로 개발 시간을 단축할 수 있다는 점에 대해서도 긍정적으로 평가했다. 아울러, 델 옵티플렉스 XE4는 긴 라이프 사이클을 제공하고, 솔루션 상의 주요 변경 사항을 미리 파악할 수 있기 때문에 IT 예산과 자원을 효율적으로 관리하기에 적합하다. 원활한 글로벌 서비스 지원으로 AS 서비스에 대한 추가 비용을 절감할 수 있다는 점도 장점으로 꼽았다. 테트라다인의 한승혜 경영 및 품질관리 담당 이사는 “테트라다인은 디지털 전환이 빠르게 일어나고 있는 조선해양기자재 업계에서 차별화된 경쟁력과 우위를 확보하는 것을 목표로 삼고 있다”면서, “델 테크놀로지스와의 긴밀한 협업을 통해 델 옵티플렉스 XE 시리즈 외에도 워크스테이션, 서버, 스토리지 등으로 테트라다인의 선박용 시스템 솔루션 라인업을 다양화할 계획”이라고 밝혔다. 한국 델 테크놀로지스의 김경진 총괄사장은 “테트라다인과 함께 조선해양기자재 업계의 디지털 전환에 지속적으로 기여하길 기대한다. 향후에도 고성능 산업용 제품과 신속한 지원 서비스를 통해 테트라다인이 혁신을 이어 나갈 수 있도록 협력해 나갈 것”이라고 말했다.
작성일 : 2024-06-26
엔비디아, “AI로 전력망과 유틸리티의 에너지 효율 향상 가능”
엔비디아의 젠슨 황(Jensen Huang) CEO가 미국 및 국제 유틸리티 협회인 에디슨 전기협회(Edison Electric Institute, EEI)의 연례 회의에서 “전력망과 이를 관리하는 유틸리티는 AI와 가속 컴퓨팅이 주도하는 차세대 산업 혁명에서 중요한 역할을 담당하고 있다”고 전했다. 젠슨 황은 청중으로 참여한 천여 명 이상의 유틸리티와 에너지 업계 경영진 앞에서 "디지털 인텔리전스의 미래는 매우 밝으며, 그만큼 에너지 분야의 미래도 밝다"고 말했다. 다른 기업들과 마찬가지로 유틸리티도 직원 생산성을 높이기 위해 AI를 적용할 것으로 예상된다. 젠슨 황 CEO는 에디슨 인터내셔널의 CEO이자 EEI의 회장인 페드로 피사로(Pedro Pizarro)와의 대담에서 “가장 큰 영향력과 수익은 전력망을 통한 에너지 공급에 AI를 적용하는 데에 있다”면서, 전력망이 AI 기반 스마트 계량기를 사용해 고객이 여분의 전력을 이웃에게 판매할 수 있도록 하는 방법을 하나의 예시로 설명했다.     오늘날의 전력망은 주로 몇몇 대형 발전소와 많은 사용자를 연결하는 단방향 시스템이다. 그러나 앞으로는 태양광 패널, 배터리, 전기 자동차 충전기를 갖춘 가정과 건물을 연결하는 태양광과 풍력 발전소를 통해 양방향의 유연하고 분산된 네트워크가 될 것으로 예상된다. 이는 방대한 양의 데이터를 실시간으로 처리하고 분석하는 자율 제어 시스템을 필요로 하는 대규모 작업으로, AI와 가속 컴퓨팅에 적합한 작업이다. 엔비디아는 유틸리티가 에지에서 AI 모델을 사용해 실시간 전력망 데이터를 처리하고 분석하기 위해 배포하는 엔비디아 젯슨 플랫폼, 전력망 복원력을 강화하기 위해 디지털 트윈을 구축해 예측 유지보수를 개선하는 AI와 옴니버스(Omniverse) 등 자사의 기술을 기반으로 AI가 전력망 전반의 사용 사례에 적용되고 있다고 소개했다.  이러한 발전은 엔비디아가 AI 배포에 필요한 비용과 에너지를 절감하면서 이루어졌다. 젠슨 황 CEO는 최근 컴퓨텍스(COMPUTEX) 기조연설에서 “지난 8년 동안 엔비디아는 최첨단 대규모 언어 모델(LLM)에서 AI 추론 실행의 에너지 효율성을 4만 5000배 향상시켰다”고 말했다. 엔비디아 블랙웰(Blackwell) 아키텍처 GPU는 AI와 고성능 컴퓨팅을 위해 CPU보다 약 20배 더 높은 에너지 효율을 제공한다. 이러한 작업을 위한 모든 CPU 서버를 GPU로 전환하면 사용자는 연간 37테라와트시(TWh)를 절약할 수 있다. 이는 이산화탄소 2500만 메트릭 톤과 500만 가구의 전기 사용량에 해당하는 양이다.
작성일 : 2024-06-20
아비바-롯데 이노베이트와 플랜트 디지털 트윈을 위한 MOU 체결
아비바와 롯데이노베이트가 MOU를 맺고 디지털 트윈 파트너십을 강화한다고 밝혔다. 아비바와 롯데이노베이트는 상호 협력을 통해 플랜트 디지털 트윈과 통합 플랫폼의 운영전략 및 수행방안 도출을 위해 관련 기술을 개발하고 전문 역량 강화에 나선다. 나아가 양사의 상생발전을 위한 포괄적이고 전략적인 상호 협력을 지속할 계획이다. 이번 MOU를 통해 아비바는 플랜트의 기본 설계부터 시공, 가동, 운영 등 모든 단계를 지원하는 디지털 트윈 플랫폼을 제공한다. 산업 전반에서 데이터의 지능적인 활용이 중요해지는 가운데 복잡한 산업 환경에서의 데이터 표준화 및 수집, 통합이 디지털 혁신의 주요 과제로 떠오르고 있다.  아비바는 에지 투 클라우드 데이터 관리를 지원하는 PI 시스템을 통해 디지털 환경의 통찰력을 확보할 수 있게끔 돕는다. 운영, 에지 및 클라우드 전반에 걸친 데이터를 원활하게 통합하고, 데이터 무결성을 보장하는 동시에 안전하게 데이터를 공유할 수 있도록 하는 PI 시스템을 활용하면 신뢰할 수 있는 운영 데이터를 조직 전체에서 확보하여 효율성, 유연성, 지속가능성 및 탄력성을 높일 수 있다.     롯데이노베이트의 고두영 대표이사는 “플랜트 디지털 트윈 및 통합 플랫폼 구축을 통해 조직의 디지털/워크 트렌스포메이션 목표를 한 단계 성장시킬 수 있을 것으로 기대한다. 또한 그룹사 내 추가적인 영역에서도 각 시장을 선도할 수 있는 경쟁 우위의 기반을 마련할 것”이라고 전했다. 아비바코리아의 김상건 대표는 “롯데이노베이트는 그룹사 전반은 물론 다양한 산업 시장에서 고객의 비즈니스 전환을 주도하는 비전을 가진 혁신 동력원으로서, 아비바는 롯데와의 협업을 통해 강력한 영업망을 구축하고 신뢰할 수 있는 독보적인 디지털 트윈 프로바이더로서의 입지를 공고히 하고자 한다”고 말했다.
작성일 : 2024-06-19
ABB, 차세대 로봇 제어 플랫폼 ‘옴니코어’ 출시
ABB 로봇사업부는 더 빠르고 정확하며 지속가능한 지능형 자동화 플랫폼인 ‘OmniCore(옴니코어)’를 출시했다고 밝혔다. ABB가 차세대 로봇공학 분야에 1억7000만 달러 이상을 투자한 결과물인 옴니코어 플랫폼은 모듈화 미래형 제어 구조로 가는 단계적 변화다. ABB는 모듈화된 미래형 제어 아키텍처가 AI, 센서, 클라우드, 에지 컴퓨팅 시스템을 통합해 첨단 자율 로봇 애플리케이션 창출이 가능할 것으로 기대하고 있다. 옴니코어는 확장 가능한 모듈식 제어 구조를 기반으로 해 다양한 응용 프로그램을 만들 수 있는 기능을 제공한다. 여러 분야 중에서도 자동화를 수용하는 생명공학, 건설과 같은 새로운 분야와 기존 산업에 적합하다. ABB Absolute Accuracy 및 PickMaster Twin을 포함한 소프트웨어, 외부 축과 비전 시스템부터 필드 버스에 이르는 하드웨어 옵션 등 1000개 이상의 하드웨어 및 소프트웨어 기능을 통해 고객은 쉽게 설계, 운영, 유지 및 운영을 최적화할 수 있다. 옴니코어는 2026년 6월 단계적 단종 예정인 IRC5 컨트롤러를 대체한다. ABB는 로봇 잔여 수명 기간 기존 IRC5 사용 고객에게 부품 및 서비스를 계속 지원한다고 밝혔다. ABB 로봇 사업부의 마크 세구라(Marc Segura) 총괄 사장은 “옴니코어의 차별점은 모션, 센서 및 애플리케이션 장비를 전체적인 통합 단일 시스템에서 관리할 수 있다는 것”이라고 말했다. 이어 “옴니코어는 전체 ABB 로봇 하드웨어와 소프트웨어 포트폴리오를 단일 제어 플랫폼에서 어떤 조합이든 구성 가능하도록 지원해 무한한 가능성과 가치 창출을 위한 수많은 방법을 제공한다. 예를 들어 옴니코어는 자동차 제조사의 생산 속도를 높여 엄청난 경쟁 우위를 제공한다. 프레스 공정에서 생산 속도를 분당 12회에서 15회로 증가시켜 시간당 부품 900개를 생산할 수 있다. 로봇 50주년을 맞아 옴니코어가 더 많은 산업 혁신의 가능성을 제공하고, 모든 분야에 걸쳐 고객사가 마주한 도전과제에 대처하는데 힘을 실을 것으로 확신한다”고 강조했다. ABB의 로봇 자동화 사업영역 총괄대표인 사미 아티야 부회장은 “고객에게 있어 자동화는 전략적 필요 사항이다. 고객은 노동력 부족, 불확실성, 지속 가능한 운영 필요성과 같은 전세계 거시적 흐름에 대응하기 위해 더 높은 유연성, 단순화, 효율성을 추구한다”고 말하며, “첨단 기계전자공학(메카트로닉스), AI, 비전 시스템 발전으로 ABB 로봇은 그 어느 때보다 높은 접근성과 뛰어난 성능, 유연성, 이동성을 갖췄다. 그러나 다양한 장소에서 더 많은 작업을 효과적으로 수행하기 위해 끊임없는 협업이 필요하다. 50년 ABB 로봇 역사의 한 획을 긋는 옴니코어를 출시하게 된 이유다. 하드웨어와 소프트웨어 모든 범위를 통합하는 단일 언어며, 단일 플랫폼, 독특한 단일 제어 구조”라고 말했다.
작성일 : 2024-06-07
시스코, AI 기반 신기술 및 투자 계획 소개… “10억 달러 AI 펀드 마련”
시스코가 연례 행사인 ‘시스코 라이브 2024(Cisco LIVE 2024)’에서 자사의 전체 포트폴리오에 걸쳐 인공지능(AI) 기반 기능이 한층 더 강화된 네트워킹, 보안, 가시성 솔루션을 공개했다. 이번에 공개된 솔루션은 고객이 전체 디지털 발자국(digital footprint)을 연결 및 보호하고 디지털 회복탄력성을 구축하는 데 필요한 가시성과 인사이트를 제공한다. 시스코는 AI가 단지 ‘새롭게 부상한 기술적 터닝포인트’가 아니라, “전체 조직을 연결하고 보호하며 기업의 성장과 확장을 지원하고, 모두를 위한 포용적인 미래를 가능하게 하는 디지털 회복탄력성의 원천”이라고 설명했다.   ▲ 시스코 라이브 2024에서 연설하는 시스코 척 로빈스 회장   시스코는 AI와 네트워킹을 결합해 더 쉬운 인공지능을 구현할 수 있도록 지원한다고 밝혔다. 시스코가 엔비디아와 함께 개발한 시스코 넥서스 하이퍼패브릭(Cisco Nexus HyperFabric) AI 클러스터는 AI 포드 및 데이터센터 워크로드를 한 곳에서 손쉽게 설계, 배포, 모니터링, 품질 보증할 수 있는 것이 특징이다. 설계부터 검증된 배포, 모니터링, 품질 보증에 이르기까지 엔터프라이즈급 AI 인프라를 위한 모든 과정을 사용자에게 안내한다. 시스코 사우전드아이즈(Cisco ThousandEyes)에 탑재된 새로운 AI 네이티브 디지털 경험 어슈런스 기능은 고객이 언제 어디서나 모든 엔터프라이즈, 클라우드, 서비스형 소프트웨어(SaaS), 인터넷 네트워크에 대한 가시성을 확보하고 관리할 수 있게 지원한다.    AI와 보안을 결합해 안전한 인공지능 사용을 지원하는 것 또한 시스코가 내세우는 주요 전략 중 하나이다. 시스코는 시스코 시큐리티 클라우드에 도입된 신규 기능을 통해 복잡하고 초 분산된 환경에서 안전하게 기업을 보호할 수 있도록 지원한다. 고객은 방화벽 인프라, 새로운 텔레메트리 소스, 뛰어난 네트워크 가시성 및 AI 네이티브 관리 아키텍처로 뒷받침되는 AI 보안 태세를 구축할 수 있다. 시스코는 AMD 펜산도 데이터 처리 장치(DPU)와 인텔 인프라 처리 장치(IPU)에 시스코 하이퍼쉴드(Hypershield)를 지원한다고 발표했다. 이로써 기업들은 클라우드에서 데이터센터, 에지까지 AI 기반의 분산 보안 아키텍처를 구축할 수 있게 됐으며, 동시에 향상된 성능과 에너지 효율을 확보할 수 있다. 최근 스플렁크를 인수한 시스코는 이번 행사에서 신규 AI 어시스턴트와 스플렁크 로그 옵저버빌리티(Splunk Log Observability)의 기능을 시스코 앱다이나믹스 애플리케이션 성능 모니터링(APM)과 결합한 솔루션인 앱다이나믹스 로그 옵저버 커넥트(AppDynamics Log Observer Connect)를 출시했다고 발표했다. 사용자는 이를 이용해 의미 있는 가이던스와 인사이트를 확보하여 빠르고 정확하게 정보에 입각한 의사 결정을 내릴 수 있다. 웹엑스 고객센터에 탑재된 새로운 기능은 기업이 대화형 셀프서비스 경험을 직접 설계 및 관리하고, 고객센터 상담원을 위한 AI 어시스턴트를 제공하며, 서드파티 버추얼 에이전트 솔루션을 도입할 수 있도록 지원한다. 웹엑스 스위트용 AI 어시스턴트는 조만간 모든 고객 대상으로 제공될 예정이다. IT 관리자는 웹엑스 컨트롤 허브(Webex Control Hub)에서 원격 기기 접근 관리 기능을 활용할 수 있고, 시스코 스페이스 데스크 예약(Desk Reservation with Cisco Spaces)을 통해 사무 공간과 시스코 협업 기기를 쉽게 찾고 예약할 수 있도록 지원한다.  시스코의 척 로빈스(Chuck Robbins) 회장은 “시스코는 인프라와 데이터의 연결 방식, 기업 보호를 혁신하는 독보적인 위치에 있으며, AI 시대에 엔터프라이즈 고객에게 알맞은 전략적 파트너”라고 전했다. 한편, 시스코 인베스트먼트는 안전하고 신뢰할 수 있는 AI 솔루션을 개발하고 확장하기 위해 10억 달러(약 1조 3700억 원) 규모의 글로벌 AI 투자 펀드를 조성한다고 발표했다. 시스코는 고객 준비도, 컴퓨트 인프라, 파운데이션 모델, 모델 개발 및 트레이닝 등 여러 핵심 분야의 발전을 위해 기업용 대규모 언어 모델(LLM)로 유명한 캐나다의 인공지능 기업 코히어, 프랑스의 미스트랄 AI, 미국의 데이터 레이블링 스타트업 스케일 AI 등에 전략적 투자를 진행 중이다.
작성일 : 2024-06-05
인텔, 컴퓨텍스 2024에서 ‘AI 에브리웨어’ 구현 가속화하는 기술 소개
인텔은 대만에서 진행된 컴퓨텍스(Computex)에서 데이터센터, 클라우드와 네트워크에서 에지 및 PC에 이르기까지 AI 생태계를 가속화할 기술 및 아키텍처를 공개했다. 인텔은 “이를 통해 고객은 더 많은 처리 능력, 첨단 전력 효율성, 낮은 총소유비용(TCO)을 통해 AI 시스템에서의 가능성을 실현할 수 있다”고 설명했다. 인텔의 팻 겔싱어(Pat Gelsinger) CEO는 컴퓨텍스 기조연설에서 AI 기회를 가속화할 개방형 표준과 인텔의 생태계를 강조하면서, 인텔이 AI 혁신을 이끌고 차세대 기술을 예정보다 앞서 제공하고 있다는 점을 소개했다. 인텔은 6개월 만에 5세대 인텔 제온(5th Gen Intel Xeon) 프로세서를 출시한데 이어 제온 6 첫 제품을 선보였으며, 가우디 AI 가속기를 선공개하고 기업 고객에게 비용 효율적인 고성능 생성형 AI 훈련 및 추론 시스템을 제공했다. 또한, 800만 대 이상의 디바이스에 인텔 코어 Ultra(Intel Core Ultra) 프로세서를 탑재해 AI PC 시대를 열었고, 올해 말 출시 예정인 클라이언트 아키텍처도 공개했다. 디지털 혁신이 가속화됨에 따라 기업들은 노후화된 데이터센터 시스템을 교체하여 비용 절감, 지속 가능성 목표 달성, 물리적 공간 및 랙 공간 활용 극대화하고 기업 전반에 걸쳐 새로운 디지털 역량을 창출해야 한다는 압박에 직면해 있다. 제온 6 플랫폼 및 프로세서 제품군은 이러한 과제를 해결할 목적으로 효율 코어(Efficient -core) 및 성능 코어(Performance-core) 모델이 설계되었으며, AI 및 기타 고성능 컴퓨팅 요구사항부터 확장 가능한 클라우드 네이티브 애플리케이션에 이르기까지 폭넓은 워크로드 및 사용 사례를 처리할 수 있다는 점을 내세운다. E-코어와 P-코어는 모두 공통의 소프트웨어 스택과 하드웨어 및 소프트웨어 공급업체의 개방형 생태계와 호환 가능한 아키텍처를 기반으로 구축되었다. 가장 먼저 출시되는 제온 6 프로세서는 인텔 제온 6 E-코어(코드명 시에라 포레스트)이며, 제온 6 P-코어(코드명 그래나이트 래피즈)는 다음 분기에 출시될 예정이다. 고집적도 코어 및 높은 와트당 성능을 갖춘 인텔 제온 6 E-코어는 전력 비용을 낮추면서 효율적인 컴퓨팅을 제공한다. 향상된 성능 및 전력 효율성은 클라우드 네이티브 애플리케이션 및 콘텐츠 전송 네트워크, 네트워크 마이크로서비스, 소비자 디지털 서비스 등 가장 까다로운 고밀도 스케일아웃 워크로드에 적합하다. 또한, 제온 6 E-코어는 집적도를 높여 랙 수준을 3대 1로 통합할 수 있으며, 미디어 트랜스코딩 워크로드에서 2세대 인텔 제온 프로세서 대비 최대 4.2배의 랙 레벨 성능 향상과 최대 2.6배의 와트당 성능 향상을 고객에게 제공할 수 있다. 더 적은 전력과 랙 공간을 사용하는 제온 6 프로세서는 혁신적인 새로운 AI 프로젝트를 위한 컴퓨팅 용량과 인프라를 확보한다. 인텔 제온 프로세서는 AI 워크로드를 위해 특별히 설계된 인텔 가우디 AI 가속기와 함께 시스템에서 구동한다. 인텔은 “대규모 언어 모델(LLM)의 훈련 및 추론을 위한 MLPerf 벤치마크 결과에서 가우디 아키텍처는 엔비디아의 H100보다 낮은 총 운영 비용으로 빠른 배포 시간을 제공하는 가격 대비 성능의 이점을 제공하여 고객이 원하는 생성형 AI 성능을 제공할 수 있다”고 전했다. 시스템 공급업체(SP)에 제공되는 8개의 인텔 가우디 2 가속기와 범용 베이스보드(UBB)가 포함된 표준 AI 키트는 6만 5000 달러로 동급 경쟁 플랫폼 가격의 3분의 1 수준으로 예상된다. 8개의 인텔 가우디 3 가속기와 UBB가 포함된 키트는 12만 5000 달러에 판매되며, 이는 동급 경쟁 플랫폼 가격의 약 3분의 2 수준이다. 인텔 가우디 3 가속기는 생성형 모델 훈련 및 추론 작업에서 성능 향상을 제공하여 기업이 자체 데이터의 가치를 실현할 수 있도록 지원한다. 인텔은 “8192개 가속기 클러스터를 갖춘 인텔 가우디 3는 동급 규모의 엔비디아 H100 GPU 클러스터에 비해 학습 시간이 최대 40% 빠르며, 64개 가속기 클러스터의 경우 엔비디아 H100의 라마2 700억개(Llama2-70B) 모델에 비해 최대 15% 빠른 학습 처리량을 제공할 것으로 예상된다”면서, “또한 인텔 가우디 3는 라마2 700억개(Llama2-70B) 및 미스트랄 70억개(Mistral-7B)와 같은 LLM을 실행할 때 엔비디아 H100 대비 평균 최대 2배 빠른 추론7을 제공할 것으로 예상된다”고 전했다. 인텔은 데이터센터를 넘어 에지와 PC에서도 AI를 강화하고 있다. AI PC가 2027년까지 신규 PC 중 60%를 차지할 것으로 예상됨에 따라, 인텔은 AI PC를 위한 하드웨어 및 소프트웨어 플랫폼을 발빠르게 구축했다. 100개 이상의 독립 소프트웨어 제작사(ISV)와 협력해 300개의 기능을 제공하고, 코어 울트라 플랫폼 전반에 걸쳐 500개의 AI 모델을 지원하고 있다. 인텔은 AI PC용 차세대 플래그십 프로세서인 루나 레이크(Lunar Lake)의 아키텍처와 관련한 세부 내용을 공개했다. 그래픽과 AI 처리 성능에서 발전을 이루고, 얇고 가벼운 디자인을 위한 전력 효율적인 컴퓨팅 성능에 중점을 둔 루나 레이크는 최대 40% SoC 전력과 3배 이상의 AI 컴퓨팅을 제공한다. 연말 성수기를 겨냥해 2024년 3분기에 시장에 출시할 예정이다. 인텔은 “다른 기업들이 AI PC 시장에 진입할 준비를 하는 동안, 인텔은 이미 대규모로 제품을 공급하고 있으며, 2024년 1분기 동안 경쟁사를 모두 합친 것보다 더 많은 AI PC 프로세서를 공급하고 있다”면서, “루나 레이크는 20개의 PC 제조사를 통해 80개 이상의 다양한 AI PC 디자인을 공급할 예정이며, 올해 4000만 개 이상의 코어 울트라 프로세서 출하 목표 달성을 예상하고 있다”고 전했다. 겔싱어 CEO는 “AI는 업계 역사상 가장 중대한 혁신의 시대를 주도하고 있다. 실리콘의 마법은 다시 한번 기하급수적인 컴퓨팅 성능의 진전을 가져올 것이며 이는 인간의 잠재력의 한계를 뛰어넘고 향후 수년간 전세계 경제를 견인할 것”이라면서, “인텔은 반도체 제조부터 PC, 네트워크, 에지 및 데이터센터 시스템에 이르기까지 AI 시장 기회의 전 영역에 걸쳐 혁신을 창출하고 있는 기업이다. 인텔의 최신 제온, 가우디 및 코어 울트라 플랫폼은 인텔의 하드웨어 및 소프트웨어 생태계의 역량과 결합하여, 미래의 엄청난 기회를 극대화하는 데 필요한 유연하고 안전하며 지속가능하고 비용효율적인 솔루션을 고객에게 제공한다”고 전했다.
작성일 : 2024-06-04
AMD, 컴퓨텍스 2024에서 새로운 프로세서 및 AI 가속기 발표
AMD가 컴퓨텍스 2024 개막 기조연설에서 데이터 센터 및 PC에 이르기까지 엔드 투 엔드 AI 인프라를 지원하는 자사의 새로운 CPU, NPU 및 GPU 아키텍처를 공개했다.  AMD는 확장된 AMD 인스팅트(AMD Instinct) 가속기 로드맵을 공개하고 2024년 4분기 출시 예정인 인스팅트 MI325X 가속기를 포함한 AI 가속기 개발 계획을 소개했다. AMD는 5세대 AMD 에픽(AMD EPYC) 서버 프로세서도 발표했다. 이는 높은 성능과 효율성을 갖춘 제품으로, 2024년 하반기 출시를 목표로 하고 있다. 이와 함께 AMD는 AI 지원 모바일 프로세서의 3세대 제품인 AMD 라이젠 (AMD Ryzen) AI 300 시리즈와 노트북 및 데스크톱 PC용 라이젠 9000 시리즈 프로세서도 공개했다. AMD는 여러 세대에 걸친 가속기 로드맵을 공개했으며, 생성형 AI의 연간 주기에 따른 향후 성능 개발 및 메모리 탑재 등의 계획을 설명했다. 확장된 로드맵에는 2024년 4분기에 출시되는 AMD 인스팅트 MI325X 가속기도 포함되어 있는데, 이 제품은 288GB의 초고속 HBM3E 메모리를 탑재할 예정이다. 2025년 출시가 예상되는 차세대 AMD CDNA 4 아키텍처는 AMD 인스팅트 MI350 시리즈에 활용되며, 기존 AMD CDNA 3가 탑재된 AMD 인스팅트 MI300 시리즈 대비 최대 35배 향상된 AI 추론 성능을 제공할 전망이다. 또한, 지속적 성능 및 기능 개선을 통해 2026년 출시 계획인 MI400 시리즈 가속기에는 CDNA ‘넥스트(Next)’ 아키텍처를 활용할 계획이다.     리사 수 CEO는 마이크로소프트, HP, 레노버, 에이수스 등의 경영진과 함께 3세대 AMD 라이젠 AI 300 시리즈 프로세서 및 AMD 라이젠 9000 시리즈 데스크톱 프로세서로 구동되는 새로운 PC 경험에 대해 설명했다. 그리고 슈퍼컴퓨터와 클라우드에서 PC에 이르기까지 높은 성능과 에너지 효율 제공을 염두에 두고 개발된 차세대 ‘젠 5’ CPU 코어에 대한 정보를 공개했다. 또한, 생성형 AI 워크로드에서 50 TOPs의 AI 연산 성능, 이전 세대 대비 최대 2배의 예상 전력 효율성을 제공하는 AMD XDNA 2 NPU 코어 아키텍처를 발표했다. 한편, 이번 컴퓨텍스 기조 연설에서 AMD는 자사의 AI 및 적응형 컴퓨팅 기술이 어떻게 에지 AI 혁신의 차세대 물결을 이끌어 나가고 있는지 설명했다. AMD는 전체 에지 AI 애플리케이션 가속화에 필요한 모든 IP를 결합할 수 있는 기업이라는 점을 내세운다. 새로운 AMD 버설 AI 에지(AMD Versal AI Edge) 시리즈의 2세대 제품은 실시간 프리-프로세싱을 위해 프로그래밍 가능한 FPGA 로직, 효율적인 AI 추론을 위한 XDNA 기술 기반 차세대 AI 엔진, 포스트-프로세싱을 위한 임베디드 CPU를 결합하여 고성능을 갖춘 단일 칩 기반의 적응형 솔루션을 에지 AI 환경에 제공한다. AMD의 리사 수(Lisa Su) CEO는 “최근 AI 도입의 가속화로 인해 AMD의 고성능 컴퓨팅 플랫폼에 대한 수요가 증가하고 있다. 이번 컴퓨텍스에서 차세대 라이젠 데스크톱 및 노트북 프로세서 기반 제품을 출시할 마이크로소프트, HP, 레노버, 에이수스 등 전략적 파트너들과 함께 하게 되어 자랑스럽다. 또한, 차세대 에픽 프로세서의 선도적인 성능을 미리 공개하고, 향후 AMD 인스팅트 AI 가속기의 로드맵을 발표하게 되어 기쁘다”고 밝혔다.
작성일 : 2024-06-03