• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "포털"에 대한 통합 검색 내용이 808개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
마이크로소프트, AI 기반 통합 보안 솔루션 ‘코파일럿 포 시큐리티’ 공개
마이크로소프트가 새로운 생성형 AI 솔루션인 ‘마이크로소프트 코파일럿 포 시큐리티(Microsoft Copilot for Security)’를 공식 출시하면서, AI 보안 생태계 강화에 나선다고 밝혔다. 코파일럿 포 시큐리티는 IT 및 보안 담당자를 위한 생성형 AI 보안 솔루션으로, 조직이 외부의 위협을 신속하게 감지하고 대응할 수 있도록 지원한다. 이 솔루션은 약 78조 개 이상의 보안 신호를 포함한 대규모 데이터와 위협 인텔리전스를 활용해 정보를 처리하고, 대규모 언어 모델(LLM)과 결합해 인사이트를 제공한다. 이를 통해 조직은 대량의 데이터를 효과적으로 처리해 보안 시스템을 더욱 효율적으로 운영할 수 있다. 이번에 출시되는 코파일럿 포 시큐리티는 마이크로소프트의 보안 포트폴리오 6개 제품군 내의 50개 이상의 제품 범주와 통합되는 엔드 투 엔드 솔루션을 제공한다. 이를 통해 ▲보안 ▲규정 준수 ▲ID ▲디바이스 관리 ▲개인 정보 보호에 걸친 환경을 보호한다. 이로써 보안 담당자들은 기술 역량을 강화하고 보다 팀원과 원활하게 협업하며, 위협에 더 빠르게 대응할 수 있게 된다.     코파일럿 포 시큐리티의 주요 기능으로는 ▲사용자가 보안 작업 및 업무를 위한 자연어 프롬프트를 직접 지정해 생성 및 저장할 수 있는 ‘사용자 지정 프롬프트북’ ▲‘코파일럿 포 시큐리티’를 사용자 비즈니스 방식에 맞게 조정하고, 자체적으로 만든 단계별 가이드에 따라 활동을 수행하는 지식 기반 통합 기능(프리뷰) ▲다국어 지원을 통해 사용자가 입력한 8개 언어로 된 명령을 이해하고 처리하며, 25개 언어의 인터페이스 지원 ▲글로벌 파트너사들과 협력해 외부 제3자가 개발하고 있는 다양한 솔루션 및 서비스 통합 ▲디펜더 EASM 연결을 통해 사용자가 지정한 조직의 외부 공격 대상에 연결해 위험에 대한 최신 정보를 식별 및 분석 ▲특정 사용자 또는 이벤트와 관련된 감사 로그를 자연어로 요약해 보안 조사 및 IT 문제 분석에 대한 인사이트를 제공하는 마이크로소프트 엔트라(Microsoft Entra) 감사 및 진단 로그 ▲코파일럿 사용량에 대한 대시보드 인사이트를 제공해 최적의 사용 환경을 파악 등이 있다. 코파일럿 포 시큐리티는 몰입형 독립 포털(Immersive Standalone Portal) 또는 기존 마이크로소프트 시큐리티 제품과 통합되는 두 가지 형태로 출시된다. 보안 담당자는 기존 제품과의 통합을 통해 생산성 분석 연구에서 입증된 속도와 품질로 제품을 사용할 수 있다.  특히 통합 보안 운영 플랫폼은 SIEM 및 XDR용 디펜더 포털에 내장돼 사용자가 외부의 위협을 조사하고 대응할 때 코파일럿을 사용할 수 있도록 지원한다. 코파일럿은 사용자에게 위협 관련 정보를 요약해 제공하며, 특정 상황에서 취해야 할 대응 방법에 대한 가이드된 답변도 제공한다. 이와 함께 NL(자연어)를 KQL(쿠스토 쿼리 언어)로 변환하고 스크립트 또는 파일을 분석하는 등의 작업을 수행할 수 있는 권한을 부여한다. 마이크로소프트 위협 인텔리전스(Microsoft Threat Intelligence)를 활용해 위험을 평가할 수도 있다.  프리뷰로 제공되는 코파일럿 인 마이크로소프트 엔트라 유저 리스크 인베스티게이션(Copilot in Microsoft Entra user risk investigation)은 마이크로소프트 엔트라에 내장된 기능으로, 사용자의 개인정보 유출을 보호하고, 보안 위협이 발생했을 때 빠르게 대처할 수 있도록 돕는다. 특히 사용자의 위험을 파악해 적절한 가이드를 제공하며, 향후 발생할 수 있는 위협도 예측해 해결 방법을 제시한다. 최근 생성형 AI가 다양한 산업에 도입되면서 데이터 유출 및 신원 도용과 같은 새로운 위험 요소가 증가하고 있다. 이에 따라 마이크로소프트는 보안 기능을 강화해 고객이 안전하게 AI를 사용할 수 있는 환경을 조성하고 있다고 소개했다. 먼저 AI의 잠재적 위험을 발견하고 데이터를 보호하는 기능을 제공한다. 이 기능은 조직이 AI 사용과 관련된 위험을 사전에 파악하고, 잠재적인 위험에 대응할 수 있도록 지원한다. AI 앱과 데이터를 보호하는 기능도 제공한다. 조직이 사용하는 AI 앱에서 생성되는 데이터를 보호하고, 데이터 유출이나 신원 도용 등의 위험을 최소화한다. AI 앱 사용 관리도 수월하게 할 수 있다. 해당 기능은 AI 앱의 사용 현황을 파악해 규제 또는 조직 정책 위반을 탐지한다. 이를 통해 조직은 안전하고 책임감 있게 AI를 활용할 수 있다. 디지털 자산을 보호하기 위한 엔드투엔드 보안을 강화하는 새로운 보안 솔루션도 공개된다. 마이크로소프트의 보안 포트폴리오는 조직이 생성형 AI를 도입할 때 더욱 안전하고 효율적인 보안 솔루션을 구축할 수 있도록 돕는다. 특히 보안 위협에 대한 더 큰 가시성과 제어력을 확보할 수 있으며, 비용을 최적화하고 거버넌스를 강화할 수도 있다. 먼저 마이크로소프트 시큐리티 익스포져 매니지먼트(Microsoft Security Exposure Management)는 조직의 보안 상태를 한눈에 파악하고, 보안 강화를 위한 우선순위를 알려준다. 또한 마이크로소프트 퍼뷰의 기능 중 하나인 어뎁티브 프로텍션(Adaptive Protection)은 마이크로소프트 엔트라 조건부 접근과 연동돼 내부 데이터 유출, 지적 재산 도난, 기밀 위반 등의 위험으로부터 조직을 보호한다. 마이크로소프트의 바수 자칼(Vasu Jakkal) 보안 부문 기업 부사장은 “사일로화된 환경으로 보안 격차가 발생하고 있는 상황에서 이를 해결할 수 있는 통합 보안 솔루션의 중요성이 그 어느때보다 높아지고 있다”며, “이번에 출시되는 코파일럿 포 시큐리티는 엔드 투 엔드 솔루션으로 구성된 전체 마이크로소프트의 보안 포트폴리오의 완성도를 높이는 제품”이라고 강조했다. 이어 “앞으로도 마이크로소프트는 AI 보안 분야를 선도하는 기업으로서 조직들이 안전하고 책임감 있게 AI를 배포하고 사용할 수 있는 보안 솔루션을 지속 선보일 것”이라고 말했다.
작성일 : 2024-03-14
레드햇, 생산성 및 협업 향상 위한 개발자 허브 정식 출시
레드햇이 ‘레드햇 개발자 허브(Red Hat Developer Hub)’를 출시한다고 발표했다. 레드햇 개발자 허브는 오픈소스 클라우드 네이티브 컴퓨팅 재단(CNCF) 프로젝트인 백스테이지(Backstage)를 기반으로 하는 엔터프라이즈급 내부 개발자 플랫폼(IDP)이다. 셀프 서비스 포털, 표준화된 소프트웨어 템플릿, 동적 플러그인 관리, 엔터프라이즈 역할 기반 액세스 제어(RBAC), 프리미엄 지원을 제공하는 레드햇 개발자 허브는 조직이 데브옵스 병목 현상을 극복하고 복잡성, 표준화 부족, 인지 부하 등의 문제를 해결할 수 있는 도구와 기능을 제공한다. 레드햇 개발자 허브는 보다 일관되고 표준화된 파이프라인을 통해 모든 플랫폼에서의 개발과 배포 가속화를 돕는다. 또한, 오픈 하이브리드 클라우드 전반에 걸쳐 운영을 표준화하고자 하는 조직을 위해 레드햇 오픈시프트(Red Hat OpenShift)와 통합돼 인공지능(AI) 및 클라우드 애플리케이션 아키텍처와 같은 혁신을 실현할 수 있게 한다. 디지털퍼스트(digital-first) 경제 환경에서 비즈니스와 경쟁이 가속화되면서, 디지털 제품과 서비스, 경험을 통해 새로운 가치의 원천을 창출해야 한다는 압박이 심화됐다. 이에 따라 기업 내 IT 부서는 IT 복잡성의 급증과 개발 툴체인의 미흡한 표준화로 인한 광범위한 기술 부채와 기술 격차, 아키텍처 제약 및 보안 위험 등의 문제점에 직면하게 됐다. 레드햇 개발자 허브는 다양한 콘솔에 대한 액세스와 통합 소프트웨어 카탈로그, 최신 문서 등 개발자에게 필요한 모든 정보를 동일한 저장소에 모아두는 셀프 서비스 포털을 통해 이와 같은 문제들을 해결한다. 이는 팀에게 관리 용이성을 제공할 뿐만 아니라, 새로운 팀원들이 도구와 프로세스에 익숙해짐에 따라 필요한 것을 더욱 쉽게 찾을 수 있게 도와 생산성 향상을 가속화한다. 표준화된 소프트웨어 템플릿은 개발과 배포 프로세스를 지연시킬 수 있는 부수적인 작업과 기술 세부사항을 축약해 애플리케이션과 개발자의 온보딩을 더욱 간소화한다. 개발자는 버튼 클릭 한 번으로 플랫폼 엔지니어링 팀이 제공하는 모범사례와 사전설계된 구성요소 등 필요한 모든 것을 자동으로 구축하고 바로 사용할 수 있어 애플리케이션 개발과 배포를 즉시 시작할 수 있다. 레드햇 개발자 허브는 백스테이지 프로젝트와 동일한 플러그인 아키텍처를 갖추고 있어, 사용자가 개발 툴체인에 새로운 기능을 통합할 수 있다. 새로운 동적 플러그인 관리 기능은 소스코드 수정이나 기본 백스테이지 환경 재구축, 재배포 등을 위한 다운타임 없이 빠르고 쉽게 플러그인을 설치·업데이트·삭제할 수 있다. 레드햇 개발자 허브는 현재 사용 가능한 RBAC(Role Based Access Control, 역할 기반 액세스 제어) 플러그인으로 사용자 관리를 간소화하고 표준화한다. RBAC 플러그인은 관리자 또는 프로젝트 리더가 팀 내 역할에 따라 포털에 대한 사용자 액세스를 관리할 수 있게 지원한다. 이 플러그인은 조직의 인증 제공자(authentication provider)에 연결되고 사용자 지정 워크스트림 역할에 매핑돼 사용자가 소프트웨어 카탈로그 및 관련 데이터에 대한 적절한 권한을 얻을 수 있게 한다. 또한 레드햇 개발자 허브는 레드햇 트러스티드 소프트웨어 서플라이 체인(Red Hat Trusted Supply Chain)을 보완하고 통합한다. 레드햇 트러스티드 소프트웨어 서플라이 체인은 소프트웨어 공급망 취약성에 대한 복원력을 강화하는 보안 솔루션이다. 이러한 도구는 레드햇 개발자 허브 포털에서 사용되는 언어와 프레임워크, 종속성 등에 대한 출처와 증명을 제공하며 플랫폼 엔지니어가 보안 및 규정 준수를 위한 업데이트에 보다 신속히 대응할 수 있도록 지원한다. 레드햇 트러스티드 애플리케이션 파이프라인(Red Hat Trusted Application Pipelines), 레드햇 트러스티드 프로파일 애널라이저(Red Hat Trusted Profile Analyzer), 레드햇 트러스티드 아티팩트 사이너(Red Hat Trusted Artifact Signer)는 현재 기술 프리뷰 버전으로 제공되며, 이번 분기 중 정식 출시될 예정이다.
작성일 : 2024-01-22
엔비디아, KT의 초거대 AI 모델 구축 위한 플랫폼 제공
엔비디아는 KT가 엔비디아 DGX 슈퍼팟(NVIDIA DGX SuperPOD) 플랫폼을 기반으로 초거대 AI 모델 ‘믿음(Mi:dm)’을 구축했다고 전했다. KT는 경량 모델부터 초대형 모델에 이르기까지 기업 규모와 사용 목적에 맞게 완전 맞춤형으로 사용 가능한 AI 모델을 제공한다. 또한 AI 풀스택을 통해 KT클라우드와 함께 믿음의 기업 전용 AI인 믿음 클라우드팜(Mi:dm CloudFarm)을 패키지로 제공한다. 이를 통해 기업은 별도 개발과 학습 인프라가 없어도 합리적인 비용으로 초거대 AI를 활용한 서비스를 개발할 수 있다. KT는 초거대 AI를 활용하고 학습하고자 하는 모든 기업에게 믿음의 파운데이션 모델(foundation model)을 개방하고 있다. 이를 위해 KT 믿음 스튜디오(KT Mi:dm Studio)라는 전용 포털을 오픈해 고객에게 편리한 개발 환경을 제공한다. 여기서는 KT 믿음의 파운데이션 모델을 직접 선택해 학습 및 서빙할 수 있는 맞춤형 환경이 구성된다.  KT는 LLM(대규모 언어 모델)의 B2B 사업화를 가속하고, 궁극적으로 기업들이 원하는 AI 사업 모델과 응용 서비스의 확산을 이끌어낸다는 계획이다. 또한, 기존 대비 약 27% 가까운 GPU 학습 비용 절감이 가능한 KT 클라우드의 HAC(Hyperscale AI Computing) 서비스, 추론 비용을 기존 대비 50% 절감한 리벨리온(Rebellions)의 NPU 인프라 등 AI 풀스택을 효율적인 AI 개발 환경을 위한 맞춤형 통합 패키지로 함께 제공할 예정이다.     KT는 엔비디아 DGX 슈퍼팟 플랫폼을 기반으로 믿음을 개발했다. 믿음은 대규모의 데이터를 학습한 LLM으로, 설계된 목적 외 다양한 과제에 대한 답변도 생성 가능하다. 또한 목적에 따라 개별의 데이터 수집, 학습, 추론이 필요했던 기존 모델과 달리 하나의 모델로 여러가지 업무를 동시에 수행한다. 엔비디아의 네모 프레임워크(NeMo Framework)는 믿음 파운데이션 모델 학습에 활용됐다. 안전하고 확장 가능한 AI를 지원하는 엔비디아 AI 엔터프라이즈(AI Enterprise) 소프트웨어 제품군에 포함된 네모 프레임워크는 데이터 처리, 학습, 평가, 생성형 AI 모델 추론 등 LLM 파이프라인 전반에 걸친 솔루션이다. 엔비디아 네모는 대규모로 LLM을 신속하게 학습, 사용자 맞춤화, 배포함으로써 투자수익률(ROI)을 향상시킨다. 아울러 멀티 노드와 멀티 GPU 학습으로 처리량을 극대화해 LLM 학습 시간도 줄인다. 엔비디아는 KT와 협력해 최적의 3D 병렬처리(parallelism)를 찾아 초거대 AI인 믿음 학습에 사용되는 계산 처리량을 극대화했다. KT 믿음의 또 다른 장점은 강력한 신뢰 패키지(reliable package)를 제공한다는 것이다. 그간 생성형 AI가 산업 현장에서 폭넓게 사용되는데 큰 장애물로 여겨진 문제점은 ‘AI의 환각 답변(할루시네이션)’이었다. KT는 “검색과 추론, 답변 모든 단계에서 신뢰성을 높일 기술을 개발해 믿음에 적용했으며, 이로 인해 할루시네이션 현상을 일반 생성형 AI 서비스 대비 최대 70% 가까이 줄일 수 있다”고 설명했다. KT는 믿음의 출시를 계기로 기업 전용 LLM 사업화, 새로운 AI 혁신 사업 발굴 등 B2B 시장에 집중할 예정이다. 이후 스타트업 개방 생태계를 통해 초거대 AI 기반 비즈니스 혁신에 나선다는 계획이다. 한편 KT는 AICC와 지니TV, AI 통화비서 등 기존 AI 사업의 인공지능을 믿음으로 고도화하고, KT의 무선 서비스, IVI, 로봇 등에도 초거대 AI를 적용한 사업화를 계획하고 있다. 룰베이스(rule based) 모델을 통해 정해진 답변만 제공하는 것에서 나아가, 앞으로는 생성형 AI의 창의적 답변에 신뢰성 있는 정보를 더해 제공할 수 있을 전망이다. 아울러 믿음을 적용해 내부 업무 프로세스와 고객 서비스도 개선하고, 금융과 통신영역, 지니TV 마케팅, 시니어와 육아상담 등의 영역에서도 믿음을 적용한 업무 프로세스 개선이 진행될 예정이다. KT는 엔비디아 네모 프레임워크를 통해 믿음 서비스에서 파운데이션 모델을 쉽고 빠르고 안정적으로 훈련하고 배포할 수 있을 것으로 보고 있다. 또한, 엔비디아와 협업으로 최첨단 미세 조정과 정렬 기술을 적용해 모델 성능을 향상시켰으며, 특히 양자화같은 엔비디아 TRT-LLM 소프트웨어의 다양한 기술 덕분에 총소유비용(TCO)을 절감할 수 있었다.
작성일 : 2024-01-16
알티움, 전자제품 개발에서 부품 조달 과정의 개선 돕는 알티움 365 BOM 포털 출시
알티움(Altium)이 ‘알티움 365’ 플랫폼 내에 ‘BOM 포털(BOM Portal)’을 출시한다고 발표했다. BOM 포털은 엔지니어링 팀과 조달 팀 간의 협업을 획기적으로 개선할 수 있도록 설계되었으며, 전자제품 설계에서 BOM(자재 명세서) 관리에 대한 통합된 접근 방식을 제공하는 솔루션이다. 알티움 365 BOM 포털을 통해 구매 전문가는 출시될 디자인을 출시 전에 파악할 수 있어, 개발 프로세스 초기에 문제를 파악하는 데에 도움을 받을 수 있다. 조달 팀과 엔지니어링 팀은 생산 중인 모든 BOM을 모니터링하고, 부품 공급 문제에 대한 즉각적인 인사이트를 제공하는 포괄적인 대시보드의 이점을 누릴 수 있다. 알티움 365의 BOM 포털은 제품 라이프사이클 전반에 걸쳐 효율적인 협업과 정보에 기반한 의사결정을 촉진한다. 이 포털은 옥토파트(Octopart), 실리콘엑스퍼트(SiliconExpert), S&P 글로벌(S&P Global) 등의 데이터 소스와 통합하여 기업에게 정확한 부품 데이터를 실시간으로 제공한다. 알티움은 이런 기능이 데이터에 기반한 현명한 의사결정을 내리는 데 중요하다고 짚었다. 알티움 365 BOM 포털은 하드웨어 개발과 통합된 BOM 관리를 제공한다. 엔지니어링 팀과 조달 팀 간의 장벽을 허물어 직접적인 커뮤니케이션을 촉진하고, 잘못된 의사소통이나 실수 또는 지연의 위험을 줄인다. BOM 포털은 옥토파트, S&P 글로벌(구 IHS 마킷), 실리콘엑스퍼트, 그리고 곧 출시될 Z2Data의 실시간 상세 부품 정보에 대한 액세스를 제공하여 조달 및 설계 프로세스를 개선한다. 또한, BOM 포털은 부품 세부 정보 및 라이프사이클 정보로 데이터를 자동으로 보강하는 등 효율적인 BOM 관리를 위한 도구를 사용자에게 제공하며, BOM 포털은 잠재적인 공급망 중단과 부품 노후화를 사전에 파악하여 부품 및 시장 변동에 적시에 대응할 수 있도록 지원한다. 비용 및 시간 효율을 높이는 것도 주요한 기능 중 하나이다. PCB 설계의 최대 80%는 부품 교체가 필요하며, 소싱 문제를 해결하는 데 긴 시간이 걸리는 경우가 많은데, 데이터 통합과 결합된 BOM 포털의 기능은 이런 시간을 줄여서 설계 프로세스를 가속화하고 시장 출시 기간을 단축할 수 있도록 돕는다. 알티움의 아난스 아바(Ananth Avva) 클라우드 플랫폼 담당 수석 부사장은 “BOM 포털은 현대 전자제품 개발의 복잡성에 대응하며, 특히 조달, 제조 및 엔지니어링 전문가가 효과적으로 협업할 수 있도록 지능적으로 지원하는 디지털 BOM을 생성한다”면서, “이번 BOM 포털의 출시는 위험을 줄이고 일관된 워크플로를 보장함으로써 전자제품 설계 프로세스를 혁신하겠다는 확고한 의지에 바탕을 두고 있다. 또한, 이러한 노력은 실리콘엑스퍼트, IHS, Z2Data와 같은 전략적 파트너와 함께 구축 중인 에코시스템으로 확장되고 있다”고 전했다.  
작성일 : 2024-01-15
지멘스, 몰입형 엔지니어링과 AI로 구현한 산업용 메타버스 소개
지멘스가 CES 2024에서 현실 세계와 디지털 세계를 결합해 현실을 재정의하는 혁신 기술을 공개했다. 이와 함께 지멘스는 산업용 메타버스를 구현하기 위한 새로운 파트너십과 AI, 몰입형 엔지니어링 분야의 혁신을 발표했다. 그리고 이러한 기술이 자사의 개방형 디지털 비즈니스 플랫폼인 엑셀러레이터(Siemens Xcelerator)를 통해 전 세계 혁신가의 성공을 어떻게 지원하고 있는지에 대해 강조했다. 지멘스와 소니는 지멘스의 엑셀러레이터 산업용 소프트웨어 포트폴리오와 소니의 공간 콘텐츠 제작 시스템을 결합한 새로운 솔루션을 선보인다. 2024년 하반기 출시 예정인 지멘스의 NX 이머시브 디자이너(NX Immersive Designer)는 지멘스의 제품 설계 소프트웨어인 NX와 소니의 기술이 결합된 통합 솔루션이다. 이는 지멘스의 대표 제품 엔지니어링 솔루션에 몰입형 설계와 협업 제품 엔지니어링 역량을 제공한다. 이 솔루션은 고품질 4K OLED 마이크로 디스플레이와 컨트롤러를 갖춘 XR 헤드 마운트 디스플레이를 통해 3D 객체와 직관적으로 상호작용할 수 있도록 지원한다. 지멘스는 새로운 솔루션이 설계자와 엔지니어가 몰입형 작업 공간에서 설계 콘셉트를 만들고 탐색할 수 있도록 지원하며, 산업용 메타버스를 위한 콘텐츠 제작을 촉진할 것으로 기대하고 있다.   ▲ 이미지 출처 : 지멘스 소프트웨어 유튜브 영상 캡처   또한, 지멘스와 아마존웹서비스(AWS)는 다양한 규모와 산업의 기업이 생성형 AI 애플리케이션을 보다 쉽게 구축하고 확장할 수 있도록 지원한다. 지멘스는 엑셀러레이터 포트폴리오 중 하나인 멘딕스(Mendix) 로코드 플랫폼과 보안, 개인 정보 보호 및 책임감 있는 AI 기능과 함께 단일 API를 통해 선도적인 AI 기업의 고성능 기반 모델을 선택할 수 있는 서비스인 아마존 베드락(Amazon Bedrock)을 통합한다. 지멘스 디지털 인더스트리 세드릭 나이케(Cedrik Neike) CEO는 “지멘스는 산업용 메타버스에 대한 접근성을 높여 고객이 현실의 문제를 더 빠르고 지속 가능하며 효율적으로 해결할 수 있도록 지원하고 있다. 뿐만 아니라 모든 규모의 기업이 산업용 메타버스를 활용할 수 있도록 함으로써 획기적인 아이디어가 세상을 바꾸는 혁신으로 이어질 있도록 할 것”이라고 말했다. 지멘스의 롤랜드 부쉬(Roland Busch) CEO는 “지멘스는 산업용 메타버스를 현실과 거의 구분할 수 없는 가상 세계로 생각하며, 이는 사람들이 AI와 함께 실시간으로 협업해 현실의 과제를 해결할 수 있도록 지원한다. 이를 활용해 고객들은 혁신을 가속하고, 지속가능성을 강화하며, 새로운 기술을 규모에 맞게 빠르게 채택해 전체 산업과 일상 생활에 큰 변화를 가져올 수 있다”고 전했다. 한편, 지멘스는 CES 2024에서 고객이 엑셀러레이터의 개방형 비즈니스 플랫폼을 사용해 생활, 업무, 놀이, 생산 방식을 어떻게 혁신하고 있는지를 강조했다. 주요한 내용으로는 스마트 홈 에너지 관리 포트폴리오인 인햅(Inhab), 소니 및 레드불 레이싱(Red Bull Racing)과의 협력으로 개발된 차세대 산업용 메타버스, 맞춤화와 확장이 가능한 저가의 의족 및 의수를 설계한 언리미티드 투모로우(Unlimited Tomorrow), 여러 지역에 분산된 식품과 맞춤형 영양 공장의 네트워크를 구축해 식량 불안정을 해결할 수 있는 블렌드허브(Blendhub) 등이 있다. 이외에도 지멘스는 CES 2024에서 고객, 파트너, 개발자를 위한 기회를 확대할 것이라고 밝혔다. 지멘스는 ‘엑셀러레이터 개발자 포털(Siemens Xcelerator Developer Portal)’을 출시해 지멘스의 모든 API와 개발자 리소스를 통합한 플랫폼을 제공할 계획인데, 이 포털은 개방성과 협업의 원칙을 기반으로 개발자가 지멘스와 파트너 API를 탐색하고 액세스할 수 있는 통합된 공간을 제공한다. 그리고 마이크로소프트와의 협력을 통해 개발자 포털은 개발 경험을 향상시키기 위한 AI 동반자를 제공하는 챗봇을 제공한다. 이를 통해 지멘스는 검색에서 배포까지 간소화되고 개발자 친화적인 여정을 제공하겠다는 계획이다.
작성일 : 2024-01-09
유동 해석 소프트웨어, Simcenter Flotherm
유동 해석 소프트웨어, Simcenter Flotherm   주요 CAE 소프트웨어 소개    ■ 개발 : 지멘스 디지털 인더스트리 소프트웨어, www.plm.automation.siemens.com/global/ko ■ 자료 제공 : 지멘스 디지털 인더스트리 소프트웨어, 02-3016-2000, www.plm.automation.siemens.com/global/ko / 델타이에스, 070-8255-6001, www.deltaes.co.kr    Simcenter Flotherm(심센터 플로섬)은 온도 및 공기 흐름을 시뮬레이션할 수 있는 전자 제품의 열 디지털 트윈을 생성한다. SmartParts(히트싱크, 팬, 인클로저, TEC, PCM 등)와 사용자 정의 가능한 부품 라이브러리 시스템을 사용해 전자 제품에 대한 열 디지털 트윈을 쉽게 만들 수 있다. 더불어 모든 MCAD 시스템에서 나온 지오메트리를 SmartParts로 가져와 효율적으로 변환할 수 있다. ODB++와 같은 표준 EDA 형식 지원 기능으로 열 디지털 트윈을 설계 과정에 존재하는 모든 PCB 레이아웃 도구와 동기화할 수 있다. Simcenter Flotherm의 Instamesh 직교 기반 그리드 시스템은 어느 디지털 트윈에든 즉시 그리고 일관적으로 생성할 수 있으며, 수천 개 파트가 포함된 디지털 트윈도 문제 없다. Instamesh 시스템을 사용하면 열 엔지니어가 그리드 품질 문제 없이 Command Center(내장 파라메트릭 및 최적화 모듈)를 사용해 설계를 탐색할 수 있다. Simcenter T3STER와도 측정을 사용한 자동 교정으로 대개 99% 이상 열 디지털 트윈의 정확도를 유지한다. 1. 주요 기능 (1) 강력한 ECAD 연결성 Simcenter Flotherm의 EDA Bridge 모듈을 이용하여 Mentor의 BoardStation 및 Xpedition 제품군, Cadence Allegro 및 Zuken CR5000에 대한 데이터를 활용할 수 있다. IDF 및 ODB++ 파일 가져오기를 지원하여 Mentor의 PADS 및 기타 EDA 소프트웨어를 지원한다. EDA Bridge 모듈을 사용하면 라이브러리에서 열 모델로 교체할 수 있으며 크기, 파워 그리고 파워 밀도를 바탕으로 필터링할 수 있다. 또한 csv 파일 형태의 파워 리스트를 가져오거나 내보낼 수 있다. HyperLynx PI에서 계산한 파워맵 정보를 가져와서 해석하는데 활용할 수 있다. (2) 빠르고 강력한 메싱 및 솔루션 Simcenter Flotherm의 구조화되지 않은 Cartesian 기반 InstaMesh 기술은 현대 전자제품에서 발견되는 복잡성 수준과 개별 개체 수를 처리할 수 있는 Windows 및 Linux의 멀티 코어 병렬 솔버를 통해 즉각적이고 강력한 메싱을 제공한다. 메시 설정은 객체가 모델 내에서 이동되거나 향후 사용 및 공유를 위해 라이브러리에 추가되는 경우 형상의 해상도를 유지한다. (3) 전자 어셈블리 모델링 Simcenter Flotherm은 광범위한 PCB 모델링 레벨을 제공하여 개발 워크플로에서 데이터를 사용할 수 있게 되면 솔루션 속도와 정확성을 극대화한다. 간단한 블록 모델은 보드 또는 레이아웃의 세부 사항이 명확해지기 전에 초기 설계에서 효과적인 PCB 열전도도를 계산하기 위해 분석 접근 방식을 사용한다. 후기 설계에서 Simcenter Flotherm의 금속 분포 이미지 기반 처리는 기판 전체에 걸쳐 구리 변동의 국부적 효과를 효율적으로 포착한다. (4) 디자인 공간 탐색 및 최적화 Simcenter Flotherm과 함께 제공되는 Command Center 모듈에는 DoE(Design-of-Experiment) 및 RSO(Response Surface Optimization)가 포함되어 있으며, 어떤 입력 매개변수 조합이 구성 요소 온도와 같은 선택된 출력 변수에 가장 큰 영향을 미치는지 식별하는 상관 매트릭스가 있다. Simcenter Flotherm은 HEEDS를 사용한 다 분야 최적화를 위해 HEEDS 포털을 통해 액세스할 수 있다.     좀더 자세한 내용은 'CAE가이드 V1'에서 확인할 수 있습니다. 상세 기사 보러 가기 
작성일 : 2024-01-01
클라우드 플랫폼, ScaleX
클라우드 플랫폼, ScaleX   주요 CAE 소프트웨어 소개   ■ 개발 및 자료 제공 : Rescale, 070-4735-8118, www.rescale.com/kr 1. Rescale 플랫폼 Rescale(리스케일)의 ScaleX(스케일엑스) 플랫폼은 Public 클라우드를 기반으로 CAE를 위하여 필요한 다양한 소프트웨어 및 하드웨어, 관리 시스템을 포함하는 플랫폼이다. 사용자들은 Rescale 플랫폼에서 AWS, Azure, GCP 등 다양한 클라우드 업체의 연산 자원들을 활용하여 각 워크로드별로 최적의 하드웨어 유형을 선택할 수 있어 시뮬레이션 소요 시간을 단축하고, 기존 On-premise에서 연산 자원의 한계로 수행하기 어려웠던 대규모 시뮬레이션을 진행할 수 있다. 아울러 Rescale ScaleX 플랫폼은 HPC 운용에 필요한 모든 항목들을 단일 플랫폼에서 제공하므로 이를 통하여 IT 자원 관리의 효율성을 향상할 수 있으며, HPC 클라우드 환경을 제공하는 것뿐만 아니라 On-premise와의 하이브리드 구성 등 기업이 보유하고 있는 기존 자원을 최대로 활용하면서 HPC 클라우드의 장점을 최대로 누릴 수 있도록 지원하고 있다. Rescale 플랫폼의 특징을 요약하면 다음과 같다. (1) 600개 이상의 어플리케이션(소프트웨어) 분류 주요 소프트웨어 Commercial Fluent, CFX, STAR-CCM+, ABAQUS, LS-DYNA, HyperWorks, MATLAB, Nastran, HFSS, CST, PowerFlow, MoldFlow, etc. Open-Source OpenFOAM, SU2, GROMACS, LAMMPS, CalculiX, Code_Aster, etc. Container Singularity Bring Your Own In-House code using MPICH, Intel MPI, Open MPI, Platform MPI Others FireFox, VS Code, PyCharm, Anaconda, BeeGFS, Intel Parallel Studio (2) 100개 이상의 코어타입(하드웨어 유형) 분류 설명 및 주요 용도 General Purpose 일반적인 사양의 유형으로 다양한 작업에 대응 가능 High Interconnect 노드간 데이터 전송속도가 빠른 유형(500코어 이상 필요한 작업) High Memory 대용량 메모리로 구성된 유형(코어당 16GB, 노드당 256GB 이상) High Clock-speed CPU 주파수가 높은 유형(적은 수라도 빠른 CPU가 필요한 작업) High Disk 대용량 스토리지로 구성된 유형(결과의 크기가 수 TB 이상인 작업) GPU GPU로 구성된 유형(머신러닝/딥러닝, GPGPU 활용 작업) (3) 관리자 포털 ■ 효율적인 플랫폼 사용을 위한 성능, 비용, 보안 대시보드 제공 ■ 팀, 프로젝트별 예산, 사용 가능 어플리케이션 및 코어타입 설정 등 개별적으로 플랫폼 최적화를 위한 설정 기능 제공 2. Rescale 플랫폼에서의 시뮬레이션 앞서 소개한 내용과 같이 Rescale 플랫폼은 HPC에서 필요한 모든 항목들이 단일 플랫폼에 구축되어 있으며 사용자의 업무 환경, 특성에 맞추어 최적화할 수 있도록 다양한 작업 유형 및 관련 기능들을 제공하며 이를 요약하면 다음과 같다. 사용자가 작업을 실행할 수 있는 방법은 총 3가지이며 각각의 특징은 다음과 같다. ■ Rescale WebUI : 가장 일반적으로 사용하는 방법으로 웹 페이지에 접속하여 입력 파일을 업로드하고, 사용할 소프트웨어 및 하드웨어 설정을 완료한 후 작업 실행 ■ Rescale CLI : 작업 실행에 필요한 항목들을 Rescale에서 프로그램으로 제작한 것으로 사용자는 이를 활용하여 WebUI에 접속하지 않고 간단한 명령어를 통하여 작업 실행 ■ Rescale API : CLI에서 수행하기 어려운 복잡한 절차의 시뮬레이션의 경우 사용자가 Python 혹은 CURL을 활용하여 스크립트로 구성하여 WebUI에 접속하지 않고 작업 실행 Rescale 플랫폼에서 제공하는 작업 유형은 총 4가지이며 각각의 특징은 다음과 같다. ■ Basic : Rescale 플랫폼에서 가장 많이 사용되는 유형으로 일반적으로 말하는 Batch 작업과 동일하게 하나의 작업을 생성해서 한 개의 시뮬레이션만 수행하거나, 순차적으로 여러 개의 시뮬레이션을 수행 가능 ■ End-To-End Desktop : 리눅스 기반의 GUI 환경을 제공하는 유형으로 시뮬레이션 진행 도중 수렴 데이터를 확인하며 필요시 진행 중인 작업을 중지하고 해석 파라미터를 변경하여 재시작하는 등 Interactive하게 시뮬레이션을 수행 가능 ■ Optimization : 파라미터 최적화 시 사용되는 유형으로 Isight, LS-OPT, 그리고 자체 개발한 Python 최적화 코드를 활용할 수 있으며, Basic 유형에서 사용 가능한 모든 시뮬레이션 소프트웨어를 Optimization 유형에서도 사용 가능 ■ DOE : 시뮬레이션을 활용한 실험계획법 수행 시 사용되는 유형으로 변수를 생성하는 방법과 그에 따른 변화를 반영하는 결과 값을 지정하고 각 케이스를 동시에 여러 개의 클러스터로 계산하여 각 인자의 영향도를 분석 가능 ■ Optimization vs DOE - Optimization은 목적 함수를 만족할 때까지 지정한 파라미터를 조정하면서 반복적으로 하나의 클러스터를 활용하여 계산을 수행 - DOE는 지정한 총 케이스들을 계산을 완료할 때까지 각 변수의 조합들을 여러 개의 클러스터를 활용하여 동시에 계산을 수행 - 예를 들어, Optimization에서 Emerald 코어 타입을 3 노드로 지정하여 클러스터를 생성하면 1개의 시뮬레이션 케이스가 108개의 코어로 계산되며, DOE에서 Emerald 코어 타입을 3 슬롯, 1 노드로 지정하여 클러스터를 생성하면 동시에 3개의 시뮬레이션 케이스가 각각 36코어로 계산됨 Rescale 플랫폼에서는 계산을 위한 작업 유형 외에도 시뮬레이션 모델의 전처리 및 후처리를 수행할 수 있는 Virtual Desktop 또한 제공하며 그 특징은 다음과 같다. ■ OS 유형은 윈도우 및 리눅스 모두를 지원하며, GPU 및 대용량 메모리로 구성된 코어 타입들을 기반으로 활용 가능 ■ 기존에 완료된 시뮬레이션 결과를 가져오거나, 가상 데스크탑 내에서 작업한 내용을 이후 계산 작업에서 사용할 수 있도록 내보내기 가능 ■ 특히, 연구소 내 인터넷 회선의 속도가 느리거나 계산된 시뮬레이션 결과 파일의 크기가 매우 클 경우(1TB 이상) Virtual Desktop 활용을 추천 ■ Virtual Desktop vs End-To-End Desktop - Virtual Desktop의 경우 시뮬레이션 데이터의 전처리 및 후처리가 주요 목적이므로 정해진 설정 값 외에 코어 수를 변경하거나 여러 개의 노드를 사용하는 것은 불가능 - End-To-End Desktop의 경우 계산이 주요 목적이며 필요 시 사용자가 interactive하게 작업을 할 수 있도록 GUI를 추가로 제공해주는 것이므로 사용자가 자유롭게 코어 수 혹은 노드 수를 조정하는 것이 가능 - 다만 시뮬레이션 모델의 검증 및 계산 부하가 적은 시뮬레이션의 경우 Virtual Desktop에서 모델 구성 후 이어서 시뮬레이션까지 진행하는 것이 효율적임 3. Rescale 플랫폼을 활용 Tip(Basic 작업 유형) ■ 기본적으로 사용 가능한 애플리케이션 실행 명령어 외에도 필요한 명령어를 추가하거나, 시뮬레이션에 사용하는 코어 수를 직접 지정하는 것이 가능하다. - 자동으로 생성되는 환경 변수로 계산에 사용할 코어 수를 지정하거나, 해당 파라미터에 직접 숫자를 입력 가능(-np 이후 항목 참조) - 애플리케이션 실행 명령어를 여러 줄로 입력하여 하나의 입력 파일에 대하여 코어 수에 따른 성능 평가를 수행하거나, 여러 개의 입력 파일을 업로드한 후 순차적으로 시뮬레이션 수행 가능 ■ ANSYS HPC Pack과 같이 코어 수에 따라서 Pack 사용량이 달라지는 경우 라이선스의 효율적인 사용을 위하여 생성한 클러스터의 모든 코어를 활용하는 것이 아닌 라이선스의 제약에 맞추도록 설정하는 것이 가능하다. 예를 들어, HPC Pack을 4개 가지고 있는 경우 Emerald 3 노드(144 코어)로 클러스터를 생성하여 시뮬레이션을 실행할 경우 12코어를 더 쓰기 위해서 Pack 1개가 추가로 사용되나, Pack이 1개 증가 시 활용 가능한 코어 수가 4배가 되는 것을 고려하면 불필요한 낭비가 되므로 하드웨어 자원을 일부 활용하지 않더라도 코어 수를 작게 지정하는 것이 필요하다. - $RESCALE_CORES_PER_SLOT을 사용하면 자동으로 활용 가능한 모든 코어 수를 시스템 변수에서 확인 후 시뮬레이션 시 사용 - 숫자를 지정하여 입력하면 해당 코어 수만큼만 시뮬레이션 시 사용 ■ Live Tailing은 시뮬레이션 진행 상황을 실시간으로 확인할 수 있는 탭으로 다음과 같은 기능이 있다. - 시뮬레이션 결과로 생성되는 텍스트 파일들(log, message, out 등)의 실시간 모니터링 - 시뮬레이션 결과로 생성되는 그림 파일들(jpg, png 등)의 확인 - 시뮬레이션 진행 도중 좌측의 Snapshot 버튼을 활용하여 현재까지 생성된 결과를 압축하여 저장한 후 Files 페이지에서 해당 파일을 다운로드 가능 ■ In-Browser terminal은 시뮬레이션이 시작되면 Live Tailing과 함께 자동으로 활성화되는 기능으로 계산이 진행 중인 노드에 원격으로 접속하여 특정 파일의 모니터링, 중간 결과의 압축 등의 작업을 수행 가능하다. - 2개 이상의 소프트웨어를 활용하여 Coupling 시뮬레이션 수행이 필요할 경우 소프트웨어 선택 창에서 필요한 소프트웨어들을 모두 선택하면 클러스터 생성 시 모두 로드되어 동시에 사용 가능 4. Rescale 플랫폼 활용 Tip(코어타입 설정) 앞서 플랫폼 소개의 내용과 같이 Rescale 플랫폼에서는 워크로드 특성에 맞추어 필요한 연산 성능을 제공할 수 있도록 다양한 코어타입들이 있으므로 사용자는 어플리케이션 및 시뮬레이션 모델의 크기에 따라 적절한 코어타입을 선택하는 것이 필요하다. STAR-CCM+의 공식 Benchmark 모델인 LeMans 104M Cells 모델로 테스트한 결과를 예시로 코어타입 설정에 대하여 설명하면 다음과 같다. 일반적으로 모델의 크기가 커질수록 계산 시 더 많은 코어 수의 활용이 불가피한데, 코어 수(노드 수)가 증가함에 따라 계산 노드간 데이터 전송이 많아져 전체 시뮬레이션 성능이 저하될 수 있어 이에 따른 영향도를 최소화하기 위하여 노드간 네트워크 속도가 빠른(100 Gbps 이상) 코어타입의 선택이 필요하다. 위 그림에서의 결과와 같이 Interconnect가 10 Gbps인 Ferrite와 Onyx같은 경우 약 400 코어 부근부터 코어 수 증가 대비 시뮬레이션 속도 향상의 폭이 크게 저하되는 것에 비하여 상대적으로 Interconnect가 빠른 Emerald, Luna(25 Gbps) 그리고 Carbon(100 Gbps)의 경우 더 많은 코어 수에서도 코어 수가 증가함에 따라 시뮬레이션 속도 또한 거의 일정한 비율로 증가하게 된다. Ferrite와 Carbon의 CPU는 Intel Xeon Platinum 8268(Skylake)2.7GHz CPU로 동일하나 Interconnect의 차이로 전체적인 계산 성능에서 차이가 나타난다. 위의 경우와 같이 Rescale의 코어타입들은 같은 CPU를 사용하는 경우에도 가상머신의 구성에 따라 노드당 코어 수, 메모리 용량, 저장장치 용량, 노드간 네트워크 속도 등이 다르므로 실제 시뮬레이션 업무에서 사용하는 모델을 활용하여 코어타입별로 성능 평가가 또한 필요한데 소프트웨어, 시뮬레이션 워크로드마다 병렬 처리 효율이 달라지기 때문이다. 추가적으로 시뮬레이션에 사용할 코어 수를 설정할 때 병렬 처리 효율과 클라우드의 과금 체계를 동시에 고려하는 것이 필요한데 가상의 시나리오를 예시로 설명하면 다음과 같다. ■ 코어 수의 증가에 따른 시뮬레이션 계산 속도 향상의 폭이 1:1에 가까울 경우 2배의 코어 수로 계산하면 시뮬레이션은 2배 빠르게 완료되나 비용을 차이가 없음 ■ 실제로는 Interconnect 속도가 200 Gbps 정도로 높더라도 코어 수(노드 수) 증가 시 1:1로 계산 속도가 향상되지 않으므로 비용 대비 성능이 가장 잘 나오는 값을 찾는 것이 필요 Rescale에서는 사용자들이 On-premise 환경에서 HPC 클라우드 환경으로 변화 시 Soft landing을 위하여 성능 평가 결과에 기반한 코어타입 추천, 시뮬레이션 워크플로우 효율성 향상을 위한 API 자동화, 기존 On-premise와의 하이브리드 구축 등 다양한 방법에 대한 가이드를 드리고 있으므로 도움이 필요하시면 info.korea@rescale.com으로 문의하기 바란다.     좀더 자세한 내용은 'CAE가이드 V1'에서 확인할 수 있습니다. 상세 기사 보러 가기 
작성일 : 2023-12-31
[무료다운로드] E-CAD를 전장설계에 활용하기 위한 제언
국내 E-CAD 시장 분석과 전장설계 활용을 위한 제언 (2)   지난 호에서는 전기 설계를 위한 E-CAD 시장의 전반적인 규모와 현황 및 산업 분야에서 많이 쓰이는 주요 솔루션에 대해 살펴보았다. 이번 호에서는 전장 설계 분야에서 E-CAD가 정착하기 위해서는 무엇이 필요하며, E-CAD의 적용과 활성화를 위해 어떤 전략을 고민해야 할 지에 대해 짚어보고자 한다.   ■ 연재순서 제1회 국내 E-CAD 제품 시장 분석 제2회 E-CAD를 전장설계에 활용하기 위한 제언   ■ 구형서 전기 CAD 솔루션 공급기업인 이플랜코리아의 지사장을 지냈다. 그 전에는 기구 분야 PLM 공급사에서 엔지니어, 마케팅, 사업개발 및 영업을 담당했다. 이메일 | koo.max39@gmail.com   전장 설계에 E-CAD가 안착되지 않는 이유 현재 E-CAD 구매자 중에 75%는 잘 사용하지 못하고 있고 그 이유도 다양하다. 공급사의 정책과 엔지니어링 서비스도 한몫하지만, 소비자 입장에서 E-CAD를 단순히 CAD의 대체재로 여기고 현재 업무 프로세스나 문화와 융합시키는 것에 대한 반감도 한몫한다. 과거에 제도기가 CAD로 대체될 때를 보면, CAD가 기존 종이 도면 기반의 업무에도 맞춰야 하지만 고객 역시 컴퓨터라는 시스템과 설계 새로운 방식으로 변화해야 한다.  다음은 E-CAD가 실무에 잘 사용되지 못하는 이유를 내부 그리고 외부로 나눈 것이다.   고객 내부적인 이유 전장 엔지니어의 특이성 자동화 장비를 개발하는 기업에서 전장 엔지니어는 회사 내에서 소수자이다. 전장 및 프로그램은 전체 엔지니어에서 10%~15%이다. 한국만의 특이성은 아니고 다른 제조 선진국도 비슷하다. 일반 기계 기업의 경우에는 심지어 전장 설계 담당자가 없는 경우도 많다. 하지만 전체 장비 제작원가에서 전장 부품이 차지하는 비중은 25%~30%로 상대적으로 높고, 자동화의 복잡성이나 스마트 공장의 영향으로 전장 부분이 더 높아질 것으로 예상된다. 이렇듯 원가 비중은 높아지고 담당자가 적다 보니 타 부서에서 요구하는 자료에 대한 대응과 짧아지는 납기에 대한 압력이 심하다.     팀 단위 운영 프로젝트 관리를 엔지니어링 공정별로 나누지 않고 전장 분야는 한 명이나 한 팀의 책임하에 전 공정을 맡는다. 납기가 짧고 소수의 인원이다 보니 설계에서 구매, 제작, 납품, 그리고 유지보수까지 한 팀이 책임지는 경우가 많다. 도면은 한 엔지니어가 본인의 설계 및 제작 의도를 다른 엔지니어에게 전달하고 기록하기 위한 엔지니어의 언어이다. 그런데 한 팀으로 모든 공정을 관리하니 굳이 도면을 구체적이고 상세히 만들 필요가 없다. 음악으로 치면 악보로 연주하는 관현악단이 아니고 즉흥적인 재즈 팀에 가깝다. 그러니 상세한 도면이 필요 없다. 외주로 판넬 설계나 배선을 맡긴다 해도 상세한 도면 없이 오랫동안 같이 해왔거나 이전 동료 직원이 있는 업체에 의뢰한다.    공정상의 위치 전장 설계는 전체 엔지니어링 공정 후반부에 투입된다. 특별하게 다른 분야에 하자가 없는 한 전장 팀이 고객 현장에 투입되어서 최종 납품을 책임진다. 그러니 다양한 이유로 발생하는 설계 변경을 직접적으로 수용해야 하는데, 이 모든 변경 사항을 도면에 수시로 반영하기란 거의 불가능하다. 그리고 때로는 도면을 현장에 가지고 갈 수 없는 상황에 처하기도 한다. 이렇듯 현장에 장비를 공급하고 시운전 및 안정적인 운영까지 확인하고 회사에 복귀하면 수 개월이 지나서 이전에 배운 E-CAD가 손에 익지 않아 다시 CAD로 돌아가는 경우가 많다. 전장 설계자는 업무량도 많고, 근무 강도도 높으며, 해외 근무 등 장기 출장도 잦아서 이직률이 높다. 그래서 기업 입장에서 고급 인재 확보가 어렵다. 취업 포털 사람인의 2020년 조사에 따르면 전기/전자 분야의 신입사원 평균 근속연수는 2.4년으로, 석유화학(4.2년)이나 일반제조(3년)보다 짧다. 인원이 적고 공정상 후반부에 있다 보니 온갖 책임을 다 감당해야 하고 배우고 신경 쓸 게 많아서이다. 또한 신규 직원 교육에 많은 시간과 인력이 투입되고 실력을 조금 갖추면 회사를 떠나, 정작 실력 있는 오래된 직원에게는 잡무를 포함한 A to Z까지 맡기게 된다. 이는 기업 입장에서는 효율이 낮고 개인 입장에서는 새로운 성장의 기회가 많지 않아 업무에 흥미를 갖기 어렵다.       ■ 자세한 기사 내용은 PDF로 제공됩니다. 이 기사는 한시적으로 무료로 제공됩니다.
작성일 : 2023-12-04
델-허깅 페이스, 기업들의 온프레미스 생성형 AI 구축 지원
델 테크놀로지스가 자사의 인프라 솔루션과 허깅페이스(Hugging Face)의 커뮤니티를 활용해 손쉽게 오픈소스 생성형 AI를 구축하고, 미세 조정하여, 운영할 수 있도록 지원할 계획이라고 밝혔다. 허깅페이스는 머신러닝 모델을 구축, 배포 및 교육하기 위한 도구와 리소스를 개발하는 회사이자 오픈 소스 커뮤니티이다. 양사는 허깅페이스 플랫폼에 델 포털(Dell Portal)을 구축해서, 델의 인프라 솔루션에 맞춤형 거대 언어 모델(LLM)을 온프레미스로 구축할 수 있도록 지원할 예정이다. 허깅 페이스의 델 포털에는 커스텀, 전용 컨테이너, 스크립트 등이 제공될 예정이며, 기업에서는 이를 활용해 델 서버와 스토리지를 기반으로 허깅 페이스에 올라온 오픈소스 모델을 쉽고 안전하게 배포할 수 있다. 향후 델 인프라에 최적화된 컨테이너 업데이트를 지속적으로 릴리스하면서 새로운 생성형 AI 활용 사례 및 모델에 요구되는 성능 및 지원을 향상시켜 나갈 예정이다. 델 테크놀로지스의 제프 부드로(Jeff Boudreau) 최고 AI 책임자는 “델 테크놀로지스의 생성형 AI 경쟁력과 허깅 페이스의 데이터셋 및 라이브러리를 결합함으로써, 오픈소스 생성형 AI 모델의 이점과 온프레미스 환경의 데이터 보안 및 신뢰성을 모두 누릴 수 있을 것”이라고 설명하며, “이번 협업은 신뢰할 수 있는 델 인프라를 기반으로 구동되는 맞춤형 생성형 AI 모델을 보다 간단하게 구축함으로써 빠르게 기술 환경을 현대화할 수 있음을 의미한다”고 덧붙였다. 허깅 페이스의 제프 부디에(Jeff Boudier) 제품 및 성장 총괄은 “델 테크놀로지스와 협력하여 온프레미스 인프라 환경의 기업들이 오픈소스 AI를 손쉽게 사용할 수 있게끔 지원하게 된 것에 큰 기대를 걸고 있다. 기업들이 오픈소스 커뮤니티의 놀라운 혁신을 활용해 고유한 AI 시스템을 구축하는 데 큰 힘이 될 것으로 믿는다”고 말했다. 한국 델 테크놀로지스의 김경진 총괄사장은 "생성형 AI의 새로운 모델을 구축하고 확장하기 위한 전략적 투자가 빠르게 늘어나고 있다. 그러나 이를 구현하는 과정에서 원치 않는 복잡성으로 어려움을 겪는 것도 사실”이라고 진단하며, “생성형 AI 사용을 간소화하고, 확장성을 부여하기 위해 델과 허깅 페이스가 새로운 협력을 선보임으로써, 고객들은 신뢰가 보장되는 담대한 혁신을 이어갈 수 있을 것으로 기대한다”고 말했다.
작성일 : 2023-11-15