• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "파라미터"에 대한 통합 검색 내용이 191개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
엔비디아, 주요 클라우드 기업과 AI 관련 협력 강화 계획 소개
엔비디아는 GTC 행사에서 디지털 트윈과 인공지능 등 다양한 영역에서 업계 주요 기업과의 파트너십 내용을 소개했다. 이 가운데 AWS, 마이크로소프트, 구글 클라우드, 오라클 등과는 클라우드 상에서 AI 활용을 확대하는 것을 중심으로 협력을 강화할 계획이다.   AWS : 차세대 GPU 플랫폼 및 AI 인프라 제공 엔비디아는 차세대 GPU 플랫폼인 블랙웰(NVIDIA Blackwell)이 AWS에 제공된다고 발표했다. AWS는 5세대 엔비디아 NV링크로 상호 연결된 72개의 블랙웰 GPU와 36개의 그레이스 CPU로 구성된 GB200 NVL72를 갖춘 엔비디아 블랙웰 플랫폼을 제공할 예정이다. 엔비디아는 엔비디아 블랙웰이 AWS상에서 상당한 양의 컴퓨터 리소스를 필요로 하는 수조 개의 파라미터의 언어 모델의 추론 작업을 크게 향상시킬 것으로 전망하고 있다. 엔비디아와 AWS는 양사의 기술을 지속적으로 통합해 나가는 파트너십을 강화할 계획이다. 여기에는 차세대 엔비디아 블랙웰 플랫폼과 AI 소프트웨어를 비롯해 AWS의 니트로 시스템(Nitro System)과 AWS KMS(키 관리 서비스)의 고급 보안, 엘라스틱 패브릭 어댑터(EFA) 페타비트 규모의 네트워킹, 아마존 EC2(엘라스틱 컴퓨트 클라우드) 울트라클러스터 하이퍼스케일 클러스터링 등이 있다. 양사는 이런 기술을 함께 사용함으로써 아마존 EC2에서 이전 세대 엔비디아 GPU보다 더 빠르고, 저렴한 비용으로 대규모로 수조 개의 파라미터 거대 언어 모델(LLM)에 대한 실시간 추론을 구축, 실행할 수 있을 것으로 보고 있다. AWS는 엔비디아 H100 기반 EC2 P5 인스턴스의 성공을 기반으로, 대규모로 생성형 AI 훈련과 추론을 가속화하는 EC2 울트라클러스터에 배치된 새로운 B100 GPU를 탑재한 EC2 인스턴스를 제공할 계획이다. 또한 AWS에서 공동으로 만들어진 AI 플랫폼인 엔비디아 DGX 클라우드에서도 GB200을 사용할 수 있다.    마이크로소프트 : 생성형 AI 및 디지털 트윈 기술을 클라우드에서 통합 엔비디아는 GTC에서 마이크로소프트 애저(Azure), 애저 AI 서비스, 마이크로소프트 패브릭(Fabric), 마이크로소프트 365에 최신 엔비디아 생성형 AI와 옴니버스(Omniverse) 기술을 통합한다고 밝혔다. 엔비디아 옴니버스 클라우드 API(Omniverse Cloud API)는 올해 말 마이크로소프트 애저에서 먼저 제공되며, 개발자들은 기존 소프트웨어 애플리케이션에서 향상된 데이터 상호운용성, 협업, 물리 기반 시각화를 이용할 수 있도록 지원할 예정이다. 엔비디아 GPU와 엔비디아 트리톤 추론 서버(Triton Inference Server)는 마이크로소프트 365용 마이크로소프트 코파일럿에서 AI 추론 예측을 지원한다.  또한, 마이크로소프트는 엔비디아 그레이스 블랙웰 GB200과 고급 엔비디아 퀀텀-X800 인피니밴드(Quantum-X800 InfiniBand) 네트워킹의 성능을 애저에 도입할 예정이다. 이외에도 마이크로소프트는 엔비디아 H100 NVL 플랫폼에 기반한 애저 NC H100 v5 VM(가상머신)의 정식 출시를 발표했다. 미드레인지 훈련과 추론을 위해 설계된 NC 시리즈 VM은 이는 고객들에게 1개에서 2개의 엔비디아 H100 94GB PCIe 텐서 코어(Tensor Core) GPU로 구성된 두 등급의 VM을 제공하며, 엔비디아 멀티 인스턴스 GPU(MIG) 기술을 지원한다.   구글 클라우드 : 생성형 AI 앱의 구축과 관리 지원 엔비디아는 구글 클라우드와의 파트너십을 강화해 머신러닝(ML) 커뮤니티가 생성형 AI 애플리케이션을 쉽게 구축, 확장, 관리할 수 있도록 지원할 예정이다. 구글은 자사 제품과 개발자에게 AI 혁신을 지속적으로 제공하기 위해 새로운 엔비디아 그레이스 블랙웰(Grace Blackwell) AI 컴퓨팅 플랫폼을 도입하고, 구글 클라우드에 엔비디아 DGX 클라우드(DGX Cloud) 서비스를 적용한다고 발표했다. 아울러 엔비디아 H100 기반 DGX 클라우드 플랫폼은 이제 구글 클라우드에서 정식으로 사용할 수 있다. 구글은 최근 개방형 모델인 젬마(Gemma) 제품군 최적화를 위한 협력을 기반으로, 엔비디아 NIM 추론 마이크로서비스도 도입한다고 밝혔다. 이를 통해 구글은 개발자들이 선호하는 툴과 프레임워크를 사용해 훈련하고 배포할 수 있는 개방적이고 유연한 플랫폼을 제공할 계획이다. 또한, 양사는 엔비디아 GPU와 엔비디아 H100 그리고 L4 텐서 코어(L4Tensor Core) GPU 기반의 버텍스 AI(Vertex AI) 인스턴스에서 JAX를 지원한다고 발표했다.   오라클 : 데이터 관리용 가속 컴퓨팅과 생성형 AI 솔루션 제공 엔비디아는 자사의 풀스택 AI 플랫폼과 오라클 엔터프라이즈 AI를 결합해 운영, 위치, 보안에 대한 제어력을 강화한 AI 솔루션을 제공한다. 오라클 엔터프라이즈 AI는 OCI 전용 리전(OCI Dedicated Region), 오라클 알로이(Oracle Alloy), 오라클 EU 소버린 클라우드(Oracle EU Sovereign Cloud), 오라클 정부 클라우드(Oracle Government Cloud)에 배포 가능하다. 양사의 통합 솔루션은 퍼블릭 클라우드 또는 특정 위치의 고객 데이터센터에 유연한 운영 제어를 통해 배포할 수 있다. 오라클은 어디서나 로컬로 AI와 전체 클라우드 서비스를 제공할 수 있는 역량을 내세우면서, 배포 유형에 관계없이 일관적인 서비스와 가격을 통해 계획, 이동성, 관리를 간소화한다고 강조했다. 오라클 클라우드 서비스는 엔비디아 가속 컴퓨팅 인프라와 엔비디아 AI 엔터프라이즈 소프트웨어 플랫폼을 비롯한 다양한 엔비디아 스택을 활용한다. 또한, 새로 발표된 엔비디아 NIM 추론 마이크로서비스는 엔비디아 텐서RT(TensorRT), 엔비디아 텐서RT-LLM, 엔비디아 트리톤 추론 서버(Triton Inference Server)와 같은 엔비디아 추론 소프트웨어를 기반으로 구축된다.
작성일 : 2024-03-21
엔비디아, 구글과 협력해 AI 모델 ‘젬마’ 최적화
  엔비디아가 구글과 협력해 모든 엔비디아 AI 플랫폼에서 AI 모델 ‘젬마(Gemma)’를 위한 최적화를 진행해, 비용을 절감하고 도메인별 용도에 따라 작업 속도를 높였다고 밝혔다. 젬마는 구글의 새로운 경량 오픈 언어 모델로, 20억(2B) 개 파라미터와 70억(7B) 개 파라미터 크기로 제공된다. 젬마는 구글의 멀티모달 모델인 제미나이(Gemini) 개발에 사용된 동일한 연구와 기술을 기반으로 구축됐다. 엔비디아는 구글과 협력해 엔비디아 텐서RT-LLM(TensorRT-LLM)으로 젬마의 성능을 가속화했다. 텐서RT-LLM은 데이터센터, 클라우드 혹은 엔비디아 RTX GPU가 탑재된 PC에서 대규모 언어 모델(LLM) 추론을 최적화하는 오픈 소스 라이브러리이다. 이를 통해 개발자는 전 세계 고성능 AI PC에 탑재된 1억 개 이상의 엔비디아 RTX GPU를 활용할 수 있다. 개발자들은 클라우드 상의 엔비디아 GPU에서도 젬마를 실행할 수 있다. 여기에는 H100 텐서 코어(H100 Tensor Core) GPU를 기반으로 하는 구글 클라우드 A3인스턴스(A3 instances)가 포함되며, 초당 4.8테라바이트의 141GB HBM3e 메모리를 갖춘 엔비디아 H200 텐서 코어 GPU도 합류할 예정이다. 구글은 올해 안에 이를 배포할 예정이라고 전했다. 엔비디아는 네모 프레임워크(NeMo Framework)가 적용된 엔비디아 AI 엔터프라이즈(AI Enterprise)와 텐서RT-LLM을 비롯한 광범위한 도구를 갖추고 있다. 엔터프라이즈 개발자는 이들을 추가로 활용해 젬마를 미세 조정하고 최적화된 모델을 프로덕션 애플리케이션에 배포할 수 있다. 한편, 엔비디아는 자사의 기술 데모인 챗 위드 RTX(Chat with RTX)에 곧 젬마가 추가로 지원될 예정이라고 전했다. 챗 위드 RTX는 검색 증강 생성(Retrieval-augmented generation : RAG)과 텐서RT-LLM 소프트웨어를 사용해 로컬 RTX 기반의 윈도우 PC에서 사용자에게 생성형 AI 기능을 제공하는 기술이다. 사용자는 챗 위드 RTX를 통해 PC의 로컬 파일을 LLM에 쉽게 연결하고, 자신의 데이터로 챗봇을 개인화할 수 있다. 챗 위드 RTX는 로컬에서 모델이 실행되므로 결과가 빠르게 제공되며 사용자 데이터가 디바이스에 유지된다. 클라우드 기반 LLM 서비스에 대신 챗 위드 RTX를 사용하면 민감한 데이터를 제3자와 공유하거나 인터넷에 연결할 필요 없이 로컬 PC에서 처리할 수 있다.
작성일 : 2024-02-23
마이크로소프트, 2024년 주목해야 할 3가지 AI 트렌드 공개
마이크로소프트는 2024년에도 인공지능(AI)이 사람들의 일상과 업무 방식을 크게 변화시킬 것으로 전망했다. 나아가 인공지능 기술 통합과 발전으로 가장 어려운 문제 해결을 돕는 기술에 보다 쉽게 접근할 수 있으며, 인류의 삶을 더 풍요롭게 만들어 줄 것으로 기대하고 있다.   생성형 AI는 지난 한 해 동안 놀라운 발전을 이루며 인류의 일상 속에 자리잡았다. 특히 챗GPT, 마이크로소프트 코파일럿(Microsoft Copilot)과 같은 도구를 통해 연구실에서부터 일상생활에 이르기까지 수많은 사람들이 인공지능을 활용하며 가능성을 확인했다. 마이크로소프트는 2024년 주목해야 할 주요 인공지능 트렌드로 ▲인공지능 연구와 혁신을 촉진하는 소형 언어 모델 ▲인간의 인지 능력을 활용하는 멀티모달 AI ▲과학 분야의 새로운 가능성을 여는 인공지능 등 세 가지를 꼽았다.     마이크로소프트는 소형 언어 모델(SLM)이 인공지능 분야에서 더욱 중요한 역할을 하게 될 것으로 예상했다. 수십억 개의 파라미터(언어 모델이 문장을 생성하거나 해석할 때 사용되는 변수)로 이뤄진 소형 언어 모델은 학습에 필요한 시간과 자원을 적게 소모해 모바일 기기에서도 쉽게 실행할 수 있고, 인터넷이 지원되지 않는 오프라인 상태에서도 언제 어디서나 사용할 수 있다는 장점이 있다. 또한 선별된 고품질 학습 데이터를 사용해 보다 정확한 결과를 얻을 수 있다. 마이크로소프트 연구진은 특정 분야에서 대형 언어 모델(LLM)과 동등하거나 더 나은 성능을 보이는 두개의 소형 언어 모델인 파이(Phi)와 오르카(Orca)를 개발해 성능에 대한 새로운 기준점을 찾기 위해 노력하고 있다. 특히 2024년에는 개선된 모델을 출시해 더 많은 연구와 혁신 촉진에 기여할 것으로 기대하고 있다. 이와 함께 멀티모달 AI(Multi-Modal AI)가 인간의 인지 능력과 더욱 유사하게 발전할 것으로 보인다. 이 기술은 텍스트·이미지·오디오·비디오 등 다양한 형태의 데이터를 동시에 처리해 검색 도구부터 크리에이티브 앱까지 다양한 기술의 성능을 향상시킨다. 마이크로소프트의 코파일럿은 멀티모달 AI 기술을 활용해 이미지, 자연어, 빙(Bing) 검색 데이터를 처리한다. 이를 통해 사용자는 본인이 업로드한 이미지에 담긴 역사적 배경과 같은 관련 정보를 파악할 수 있다. 멀티모달 AI 기술은 마이크로소프트 디자이너(Microsoft Designer) 그래픽 디자인 앱에도 적용된다. 이 앱은 사용자가 원하는 이미지에 대한 설명을 기반으로 이미지를 생성할 수 있으며, 사용자 지정 신경망 음성(Custom Neural Voice) 기능을 통해 텍스트 리더기 및 청각 장애인용 도구에 사용 가능한 자연스러운 음성을 지원한다. 마지막으로 마이크로스프트는 인공지능 기술이 국제적 문제인 기후 변화, 에너지 위기, 질병 등 과학 분야에서도 혁신적인 해결책을 제시할 수 있을 것으로 내다봤다. 마이크로소프트는 인공지능을 활용해 기후 변화 완화와 농부의 효율적인 작업을 목표로 향상된 일기예보 시스템과 탄소 측정기를 개발하는 등 지속가능한 농업을 위한 도구를 구축하고 있다. 또한 잡초의 정보를 파악하고 트랙터의 상태를 체크할 수 있는 등 농부들이 현장에서 사용 가능한 인공지능 챗봇도 개발하고 있다. 생명과학 분야에서는 연구원들이 암 퇴치를 위한 세계 최대 규모 이미지 기반 인공지능 모델과 공동 연구를 진행 중이며, 감염병 신약과 혁신 의약품을 위한 새로운 분자를 찾기 위해 첨단 인공지능을 활용하고 있다. 이를 통해 수년 이상 소요되는 검증 과정을 수 주 또는 수 개월로 단축 가능하다. 재료과학 분야에서도 마이크로소프트는 스위스의 제약회사인 노바티스(Novartis)와 함께 인공지능과 고성능 컴퓨팅 기술을 활용해 저독성 배터리 소재 발견을 위한 검색 가속화에 성공했다.
작성일 : 2024-02-14
Visual Crash Studio : 충돌 구조물의 설계 해석 및 최적화 프로그램
개발 : Impact Design Europe 주요 특징 : 설계 초기 단계부터 차량의 충돌 성능 평가/개선 및 최적화 지원, SFE 및 SBE 기반으로 충돌하중을 받는 박판구조물의 설계/해석/최적화, 간편한 모델링 및 설계 변경, 빠른 계산 속도 및 신뢰성 있는 결과 도출, 사용자 친화적인 통합 작업 환경 등 사용 환경 : 윈도우 PC/랩톱 자료 제공 : 브이에스텍   그림 1. 유한요소 모델   그림 2. VCS 모델   차량 충돌 안전 법규 및 상품성 평가는 실제 충돌 상황을 최대한 반영하고 승객의 사망 및 심각한 상해를 줄이기 위하여 지속적으로 강화되고 있고, 자동차 제조업체는 이러한 평가 프로토콜에 따라 차량의 안전 등급을 높이기 위해 노력하고 있다. 다양한 충돌 테스트는 제품 설계 및 개발 프로세스를 가속화하기 위해 가상 엔지니어링 모델링 및 시뮬레이션 기술에 크게 의존하는 차량 제조업체에 상당한 부담을 주고 있다. 일반적으로 각 설계 단계에서 CAD 모델 준비, 각 하중 케이스/물리적 테스트에 대한 유한요소(FE) 모델 생성, 평가 및 개선 작업이 필요하므로 복잡하고 많은 시간이 소비되어, 간편하고 빠르게 차량의 충돌 성능을 평가하고 개선하는 것이 큰 관심사이다. 특히, 프로토타입 제작 및 개발 프로세스 후반의 설계 변경으로 인한 시간과 비용을 줄이기 위해서는 초기 콘셉트 단계에서부터 다양한 설계에 대한 충돌 성능의 평가 및 개선을 통한 충돌 성능의 최적화가 필요하다. 매크로요소법(Macro Element Method)을 사용하는 Visual Crash Studio(VCS)는 비전형적 모델링 및 시뮬레이션 접근 방식으로 단순한 설계 환경에서 빠르고 신뢰할 수 있는 결과를 제공하며, 설계 초기 단계부터 차량의 충돌 성능 평가/개선 및 최적화가 가능한 CAE 소프트웨어이다.   그림 3   VCS의 주요 특징 매크로요소법, 수퍼폴딩요소(SFE : Super-folding Element) 및 수퍼빔요소(SBE : Super-beam Element) 개념을 기반으로 객체지향유한요소(OOEF : Object Oriented Finite Element) 정식화와 결합된 충돌하중을 받는 박판구조물의 설계, 해석 및 최적화가 가능 다양한 재료의 박판구조물의 대변형 붕괴 거동의 예측에 성공적으로 적용이 가능하며, 유한요소 솔버와 경쟁이 아닌 보완 관계 매크로요소법에 기반한 간편한 모델링 및 설계 변경, 빠른 계산 속도 및 신뢰성 있는 결과의 도출을 통해 설계 초기 단계에서부터 충돌 부재의 충돌 성능 분석 및 최적화 가능 사용자 친화적인 통합(all-in-one) 작업 환경 주요 기능 : Material Editor, Cross Section Editor, 3D environment, Cross Section Optimizer, Chart Wizard 단면 수준에서 부재의 충돌 특성 파악 및 설계를 위한 2D 환경 제공 부재, 어셈블리 및 전체 구조물 등의 복잡한 충돌 해석 및 설계를 위한 3D 환경 제공 2D 및 3D 환경에서 독립적으로 설계 수정 및 계산이 가능하며, 각 환경에서의 수정 및 계산 결과는 자동으로 전 모델에 반영 통합 전/후처리 도구 : 솔버와 통합된 전/후처리 프로세스로 모델링 및 설계 변경이 간단하여 다양한 설계안의 충돌 성능 평가가 빠른 시간에 가능하고 챗 위저드(Chart Wizard) 등으로 다양한 결과의 비교 분석이 용이   그림 4. VCS의 일반적 설계 및 계산 프로세스   VCS의 작업 프로세스 박판 충돌구조물의 설계, 해석 및 최적화는 통합 환경에서 수행되며, 일반적인 작업 프로세스는 <그림 4>와 같다. <그림 5>는 VCS의 메인 뷰(Main View) 화면이며, 메인 툴바(Main Toolbar)는 작업 프로세스에 따른 툴 그룹(File, Model, Calculate and Results, Analysis, View 및 Help Tool)으로 구성된다. ‘Model Tool’은 모델 생성 프로세스에 필요한 모든 도구(Select, Nodes, Beams, Spine-line, Rigid, Contact, Group, Special, Measure 등)를 제공하며, ‘Calculate and Results Tool’은 계산 및 결과 비교에 유용한 처리 장치(Processing Unit), Chart Wizard, 애니메이션 도구 모음 등의 기능이 있다. ‘Analysis Tool’은 단면자동분석(Cross Section Analyzer) 기능 전용이며 ‘View Tool’은 추가 3D 보기 도구를 제공한다. ‘Help Tool’에서는 VCS 소프트웨어의 모든 기능에 대한 최신 설명서와 도움말 정보를 찾을 수 있다. 또한 개발사 홈페이지에서도 모든 사용 매뉴얼과 따라하기 매뉴얼을 다운로드할 수 있다.   그림 5. VCS의 메인 뷰 화면   VCS의 작업 프로세스의 순서에 따른 주요 기능은 다음과 같다.   FE Mesh/Initial geometry import 다양한 FE 데이터 및 CAD 지오메트리(geometry) 불러오기 기능을 제공한다.   재료 정의(Material Editor) 재료상수(Material Constraint) : Hardening Factor, Mass Density, Poisson Ratio, Proof Strain, Proof Stress, Young Modulus 응력-변형률(Stress-Strain) 특성 : Array, Power Law, Polynomial, User Function-2D, Array 3D 변형률속도(strain rate) 특성 : Cowper Symonds, Modified Cowper Symonds, User defined function-3D, Johnson Cook   Fracture Indicator : Surface strains, Cockcroft-Latham/Norris LS-DYNA MAT24(MAT_PIECEWISE_LINEAR_PLASTICITY) 호환 Material & Characteristic Repository 기능   2D Structure(Cross Section Editor) : Cross Sections & Cross Section analysis Cross Section Editor는 단면의 충돌 성능 최대화를 위한 설계, 계산 및 최적화를 위한 편집기이다. 여기서 처리된 단면은 3D 수퍼빔요소(SBE)에 사용되며, Cross Section Editor의 이론적 배경의 핵심은 수퍼폴딩요소(SFE)이다. Point, plate, segment, SFE 및 connection으로 모든 단면을 생성할 수 있으며, 쉽고 편리한 단면 형상 및 재료 특성의 변경으로 다양한 디자인의 빠른 변경이 가능하다. Cross Section 계산 결과 단면 상태에서는 7가지의 충돌 거동(Axial Response, Design Recommendations, Bending Response, Lateral Response, Denting Response, Torsion Response, Elastic Properties-축/굽힘/전단 강성 등)을 결과로 표시 각 결과는 주어진 붕괴 응답 모드에 대한 특성 파라미터((최대 하중 및 모멘트, 에너지 흡수 능력, 굽힘힌지의 총 회전 등과 같은 변형제한 값)의 정보 표시 Design Recommendations   효과적인 축방향 붕괴를 위한 단면 최적화 프로세스 : 결함이 있는 단면은 점진적 붕괴가 발생하지 않고 불규칙한 접힘으로 인해 많은 에너지 흡수가 적음 상세 단면 형상 근사화를 위한 단순화 모델링 과정을 통한 결함 제거 : 단면 수준에서 허용 가능한 접힘 모드를 선택하면 다음단계로 단면에 대한 각 SFE에 대해 결함 제거 과정을 수동으로 진행 단면 계산 결과 비교 툴 제공 및 결과 report 생성   3D Structure : Super Beams 3D 가상 설계 공간은 SBE를 기반으로 한 부재 및 박판구조물의 모델링과 계산에 사용 유한요소 모델로부터 SFE를 바로 생성할 수 있는 도구 제공 VCS 3D 모델을 구성하는 모든 객체는 빔(beam)과 강체(rigid body)를 정의할 수 있는 노드(node)로 구성되며, 노드는 VCS 객체에 대한 공간 참조 point로 사용 노드 속성 : 형상(CoG, Origine), 질량(mass, Concentrated Mass) 및 관성(Concentrated Inertia, Principal Moments, Transformed Moments) SBE는 두개의 노드로 구성되고 2D 계산에서 사용된 단면 형상이 적용되며, 하나의 노드에 다수의 SBE가 연결될 수 있다. 또한 동적 해석(초기/구속 조건 등)을 위해 필요한 많은 데이터를 포함한다. 3차원 공간에서 구조물(부재, 어셈블리, 전체 차량)의 생성을 위해서는 Node, Beam, Rigid body 등이 사용되며, 매크로요소법에 기반한 SFE가 포함된 SBE의 생성으로 시작 다양한 충돌 하중조건에 대한 풀 카(full car)의 해석을 위해 VCS 전용 배리어가 제공 차량 충돌 설계를 위해 매크로요소법을 사용하는 데 있어 유한요소법 대비 주요 장벽은 구조물 조인트의 강성을 정확하게 모델링하는 것이다. VCS는 구조적 조인트에 대해 교차하는 하중 전달 빔의 기하학적 중심에서 연결되며, X, Y 및 Z 오프셋은 위치와 길이를 수정하기 위해 교차하는 빔의 시작과 끝에 적용할 수 있어 구조물의 실제 형상과 조인트의 강체 코어를 보다 사실적으로 근사화할 수 있다.   3D : Additional elements & Mass distribution 엔진 및 기어박스와 같이 충격 하중 동안 거의 변형되지 않는 부품은 강체로 모델링 강체를 생성하기 위해 부품의 무게 중심에 있는 노드가 정의되고 이 노드에 총 질량 및 관성 행렬(inertia matrix)이 할당 노드는 나머지 구조물에 직접 연결되는 반면, 여러 장착 위치의 경우 간단한 원형 단면을 갖는 SBE를 사용할 수 있음 3D 환경에서 생성된 각 객체의 질량 정보는 해당 요소가 정의된 노드에 위치하며, 추가 질량은 노드에 집중질량으로 정의하거나 정의된 질량/또는 밀도로 새로운 강체를 생성하여 추가   Initial & Boundary conditions 및 Contact settings 초기 및 경계조건(Kinematic Constraints-Angular Velocities & Linear Velocities, Concentrated Loadings- Forces & Moments)은 모두 노드에 정의 전체 모델이 구축되면 접촉을 정의하며, 접촉 정의에 필요한 부품의 부피를 나타내기 위해 질량이 없는 강체(sphere, cone, cylinder and box 형상)가 이 절점에서 생성되고, 모델의 형상에 따라 배치한 후 접촉 정의 - 전용 접촉 감지 루틴으로 물리적 접촉 메커니즘을 구현 변형체의 접촉 정의를 위해 변형가능 배리어(Deformable barrier) 툴 제공   Solution Settings Solution Explorer tree에서 자세한 솔루션 파라미터를 정의 : Attributes, Animation Progress, Time Stepping Routine, Fields and global parameters, Settings 및 Statistics section 특히, Statistics section은 모델 확인의 마지막 단계에서 유용하며, 모델의 요소 수, 질량 및 무게중심에 대한 정보 제공   Calculations & Animation 계산 프로세스는 Process Unit에서 한번의 클릭으로 진행되며, Process Unit 창에서 시각적으로 진행 상황을 모니터링 전체 차량 충돌 해석은 일반 데스크탑 PC/노트북에서 1분 내외로 계산이 완료되며, 다중 계산이 가능하여 계산시간 추가 단축 가능 계산 프로세스가 완료된 후 하중 조건에 따른 해석 결과를 애니메이션으로 확인할 수 있으며, SBE를 색깔 별로 간단히 구분하여 SBE의 순간 변형 상태를 쉽게 분석   Results : Chart Wizard 애니메이션과 함께 다양한 결과를 그래프로 생성하며, 사용자는 VCS 결과 파일 내에서 어느 객체든 선택 후 결과를 볼 수 있음 3D view에서 선택한 VCS 모델의 각 객체는 Selection Window에 자동으로 추가   VCS의 도입 효과 설계 초기 콘셉트 안으로 충돌 부재 단면 최적화가 가능하여 제품 개발 프로세스 촉진 장비 도입/운영 비용 절감 : 매크로 요소법에 기반한 빠른 계산으로 랩톱에서도 수초 또는 수분내에 계산이 가능 단순한 작업 환경에서 간편한 설계 변경이 가능하여, 해석 엔지니어가 아닌 설계 엔지니어도 쉽게 활용 가능   VCS의 주요 적용 분야 자동차 산업 및 조선산업 등에서 충돌하중을 받는 박판구조물의 설계, 해석 및 최적화 충돌/충격 부재의 단면 충돌 특성 평가/개선 및 최적화 컴포넌트(에너지 흡수 구조 부품, bumper back beam, FR Side 멤버, Fillar component 등)의 충돌 특성 평가 및 개선 부분 충돌 모델 및 풀 카 충돌 모델의 충돌 성능 평가 및 개선   ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-02-01
멀티피직스 해석, Strand7
멀티피직스 해석, Strand7   주요 CAE 소프트웨어 소개   ■ 개발 정보 : Strand7 Pty Ltd, www.strand7.com  ■ 자료 제공 : 씨앤지소프텍, 02-529-0841, www.cngst.com Strand7(스트랜드7)은 복잡한 모델을 정확하게 분석하기 위한 고도의 자동화된 모델링 기능을 이용하여 구조, 열, 전자기 및 유체, 동역학 등을 포함하는 멀티피직스 문제를 간편하게 분석할 수 있는 유한요소 모델링 기능과 강력한 해석 솔버를 제공하고 있는 범용 유한요소 해석 소프트웨어이다. 2. 주요 특징 (1) 파라메트릭 및 기하 모델링 직관적이고 쉬운 그래픽 사용자 인터페이스는 전체 모델링 프로세스를 처음부터 끝까지 작업이 가능하다. 번거로운 Geometry 수정 작업을 거치지 않고 바로 모델링 작업을 수행할 수 있으며, 국부적인 영역에 대한 메시 사양을 정의와 CAD와의 커플링을 통해 CAD에서 정의한 영역 및 파라미터 정보를 가져올 수 있다.  (2) General Equation Input 수학 방정식을 사용하여 다양한 수식 데이터를 입력할 수 있다. (3) 모델 호환 DXF, IGES, STEP, Stereo-Lithography file Import / Export MSC/NASTRAN, ANSYS, STAAD-Pro, SAP2000 file Import / Export. (4) 요소 및 재료 Strand7은 1D Beam, 2D Plate & Shell, 3D Brick, Con-tact, Cable, Damper 등의 다양한 요소 및 전 세계 다양한 규격의 Beam Library를 제공한다. Strand7은 Isotropic, Orthotropic, Anisotropic, Lami-nate, Rubber, Carbon Fiber, Glass, Timber, Fluid, Soil 및 사용자정의 재료 물성을 지원한다.   (5) Automatic Mesh Generation Strand7에는 매우 직관적이고 간편한 강력한 자동 Mesh Generation 기능이 포함되어 있다. 이 기능은 자동 Mesh Generation 기능을 이용하여, 2D Plate/Shell 모델링이나 3D Brick 모델링을 매우 빠르고 간편하게 생성할 수 있다. (6) Verification Tools 복잡한 매시와 수치 입력 데이터의 검증을 그래픽을 통하여 체크할 수 있는 툴로, 구조물에 입력 오류나 입력 위치 등을 그래픽 Contour를 사용하여 사용자가 쉽게 검증하고 찾을 수 있도록 제공한다. (7) API 함수 기능 Strand7 API (응용 프로그래밍 인터페이스)를 사용하면 외부 컴퓨터 프로그램을 통해 Strand7과 상호 작용할 수 있다. Strand7 API에서 지원되는 언어는 C, C ++, C #, Pascal, Delphi, Visual Basic, FORTRAN, Matlab, Python 등 Win-dows DLL 파일을 동적으로 구성할 수 있는 모든 프로그램 언어이다. (8) 해석 기능 Strand7은 정적해석, 동적해석, 재료비선형해석, 열전달과 열응력해석까지 매우 다양한 해석을 수 행할 수 있다. Strand7의 Solver 기능은 다음과 같다. - Linear & Nonlinear Static - Natural Frequency - Response Spectra and Harmonic Dynamic - Linear and Nonlinear Transient Dynamic - Linear and Nonlinear Buckling - Heat Transfer & 콘크리트 수화열 - Collapse, 피로도 & Creep  - 대변형 해석 (현수교, 사장교, Cable Structure) - Laminated 복합소재 해석 - 막구조(Membrane) 해석 - 이동하중 해석 (영향선 및 영향면) - 시공단계별 해석 - 지반 해석 (9) Post Processing Strand7은 해석된 결과를 응력도, 변위, Cutting Plane, 그래프, 레포트 등의 다양한 플롯 기능과 3차원 애니메이션 기능을 통해 명확하고 정확한 분석이 가능하다.   3. 적용 분야 Strand7은 건축/토목 강구조, 콘크리트 구조, 지반구조물 등에 활용 가능하고, 중공업 분야와 기계 분야, 항공기/선박디자인, 의용공학, 전자기, 복합소재 등 다양하고 광범위한 분야의 설계 분야에서 활용이 기능하다. 4. 지원 전략 Strand7 지속적인 연구, 개발과 벤치마크 테스트를 통한 검증결과를 및 검증 문서와 예제 파일 사용자에게 제공하고 어떠한 에러 발생시, 사용자에게 문제 해결을 위한 즉각적인 기술 지원을 한다. Strand7은 프로그램에서 사용된 각종 유한요소이론에 대한 설명과 정보들을 자세하게 기술한 Theoretical 매뉴얼을 제공하여 사용자로 하여금 해석 결과에 대한 신뢰도를 더욱 높일 수 있게 한다.     좀더 자세한 내용은 'CAE가이드 V1'에서 확인할 수 있습니다. 상세 기사 보러 가기 
작성일 : 2024-01-06
클라우드 플랫폼, ScaleX
클라우드 플랫폼, ScaleX   주요 CAE 소프트웨어 소개   ■ 개발 및 자료 제공 : Rescale, 070-4735-8118, www.rescale.com/kr 1. Rescale 플랫폼 Rescale(리스케일)의 ScaleX(스케일엑스) 플랫폼은 Public 클라우드를 기반으로 CAE를 위하여 필요한 다양한 소프트웨어 및 하드웨어, 관리 시스템을 포함하는 플랫폼이다. 사용자들은 Rescale 플랫폼에서 AWS, Azure, GCP 등 다양한 클라우드 업체의 연산 자원들을 활용하여 각 워크로드별로 최적의 하드웨어 유형을 선택할 수 있어 시뮬레이션 소요 시간을 단축하고, 기존 On-premise에서 연산 자원의 한계로 수행하기 어려웠던 대규모 시뮬레이션을 진행할 수 있다. 아울러 Rescale ScaleX 플랫폼은 HPC 운용에 필요한 모든 항목들을 단일 플랫폼에서 제공하므로 이를 통하여 IT 자원 관리의 효율성을 향상할 수 있으며, HPC 클라우드 환경을 제공하는 것뿐만 아니라 On-premise와의 하이브리드 구성 등 기업이 보유하고 있는 기존 자원을 최대로 활용하면서 HPC 클라우드의 장점을 최대로 누릴 수 있도록 지원하고 있다. Rescale 플랫폼의 특징을 요약하면 다음과 같다. (1) 600개 이상의 어플리케이션(소프트웨어) 분류 주요 소프트웨어 Commercial Fluent, CFX, STAR-CCM+, ABAQUS, LS-DYNA, HyperWorks, MATLAB, Nastran, HFSS, CST, PowerFlow, MoldFlow, etc. Open-Source OpenFOAM, SU2, GROMACS, LAMMPS, CalculiX, Code_Aster, etc. Container Singularity Bring Your Own In-House code using MPICH, Intel MPI, Open MPI, Platform MPI Others FireFox, VS Code, PyCharm, Anaconda, BeeGFS, Intel Parallel Studio (2) 100개 이상의 코어타입(하드웨어 유형) 분류 설명 및 주요 용도 General Purpose 일반적인 사양의 유형으로 다양한 작업에 대응 가능 High Interconnect 노드간 데이터 전송속도가 빠른 유형(500코어 이상 필요한 작업) High Memory 대용량 메모리로 구성된 유형(코어당 16GB, 노드당 256GB 이상) High Clock-speed CPU 주파수가 높은 유형(적은 수라도 빠른 CPU가 필요한 작업) High Disk 대용량 스토리지로 구성된 유형(결과의 크기가 수 TB 이상인 작업) GPU GPU로 구성된 유형(머신러닝/딥러닝, GPGPU 활용 작업) (3) 관리자 포털 ■ 효율적인 플랫폼 사용을 위한 성능, 비용, 보안 대시보드 제공 ■ 팀, 프로젝트별 예산, 사용 가능 어플리케이션 및 코어타입 설정 등 개별적으로 플랫폼 최적화를 위한 설정 기능 제공 2. Rescale 플랫폼에서의 시뮬레이션 앞서 소개한 내용과 같이 Rescale 플랫폼은 HPC에서 필요한 모든 항목들이 단일 플랫폼에 구축되어 있으며 사용자의 업무 환경, 특성에 맞추어 최적화할 수 있도록 다양한 작업 유형 및 관련 기능들을 제공하며 이를 요약하면 다음과 같다. 사용자가 작업을 실행할 수 있는 방법은 총 3가지이며 각각의 특징은 다음과 같다. ■ Rescale WebUI : 가장 일반적으로 사용하는 방법으로 웹 페이지에 접속하여 입력 파일을 업로드하고, 사용할 소프트웨어 및 하드웨어 설정을 완료한 후 작업 실행 ■ Rescale CLI : 작업 실행에 필요한 항목들을 Rescale에서 프로그램으로 제작한 것으로 사용자는 이를 활용하여 WebUI에 접속하지 않고 간단한 명령어를 통하여 작업 실행 ■ Rescale API : CLI에서 수행하기 어려운 복잡한 절차의 시뮬레이션의 경우 사용자가 Python 혹은 CURL을 활용하여 스크립트로 구성하여 WebUI에 접속하지 않고 작업 실행 Rescale 플랫폼에서 제공하는 작업 유형은 총 4가지이며 각각의 특징은 다음과 같다. ■ Basic : Rescale 플랫폼에서 가장 많이 사용되는 유형으로 일반적으로 말하는 Batch 작업과 동일하게 하나의 작업을 생성해서 한 개의 시뮬레이션만 수행하거나, 순차적으로 여러 개의 시뮬레이션을 수행 가능 ■ End-To-End Desktop : 리눅스 기반의 GUI 환경을 제공하는 유형으로 시뮬레이션 진행 도중 수렴 데이터를 확인하며 필요시 진행 중인 작업을 중지하고 해석 파라미터를 변경하여 재시작하는 등 Interactive하게 시뮬레이션을 수행 가능 ■ Optimization : 파라미터 최적화 시 사용되는 유형으로 Isight, LS-OPT, 그리고 자체 개발한 Python 최적화 코드를 활용할 수 있으며, Basic 유형에서 사용 가능한 모든 시뮬레이션 소프트웨어를 Optimization 유형에서도 사용 가능 ■ DOE : 시뮬레이션을 활용한 실험계획법 수행 시 사용되는 유형으로 변수를 생성하는 방법과 그에 따른 변화를 반영하는 결과 값을 지정하고 각 케이스를 동시에 여러 개의 클러스터로 계산하여 각 인자의 영향도를 분석 가능 ■ Optimization vs DOE - Optimization은 목적 함수를 만족할 때까지 지정한 파라미터를 조정하면서 반복적으로 하나의 클러스터를 활용하여 계산을 수행 - DOE는 지정한 총 케이스들을 계산을 완료할 때까지 각 변수의 조합들을 여러 개의 클러스터를 활용하여 동시에 계산을 수행 - 예를 들어, Optimization에서 Emerald 코어 타입을 3 노드로 지정하여 클러스터를 생성하면 1개의 시뮬레이션 케이스가 108개의 코어로 계산되며, DOE에서 Emerald 코어 타입을 3 슬롯, 1 노드로 지정하여 클러스터를 생성하면 동시에 3개의 시뮬레이션 케이스가 각각 36코어로 계산됨 Rescale 플랫폼에서는 계산을 위한 작업 유형 외에도 시뮬레이션 모델의 전처리 및 후처리를 수행할 수 있는 Virtual Desktop 또한 제공하며 그 특징은 다음과 같다. ■ OS 유형은 윈도우 및 리눅스 모두를 지원하며, GPU 및 대용량 메모리로 구성된 코어 타입들을 기반으로 활용 가능 ■ 기존에 완료된 시뮬레이션 결과를 가져오거나, 가상 데스크탑 내에서 작업한 내용을 이후 계산 작업에서 사용할 수 있도록 내보내기 가능 ■ 특히, 연구소 내 인터넷 회선의 속도가 느리거나 계산된 시뮬레이션 결과 파일의 크기가 매우 클 경우(1TB 이상) Virtual Desktop 활용을 추천 ■ Virtual Desktop vs End-To-End Desktop - Virtual Desktop의 경우 시뮬레이션 데이터의 전처리 및 후처리가 주요 목적이므로 정해진 설정 값 외에 코어 수를 변경하거나 여러 개의 노드를 사용하는 것은 불가능 - End-To-End Desktop의 경우 계산이 주요 목적이며 필요 시 사용자가 interactive하게 작업을 할 수 있도록 GUI를 추가로 제공해주는 것이므로 사용자가 자유롭게 코어 수 혹은 노드 수를 조정하는 것이 가능 - 다만 시뮬레이션 모델의 검증 및 계산 부하가 적은 시뮬레이션의 경우 Virtual Desktop에서 모델 구성 후 이어서 시뮬레이션까지 진행하는 것이 효율적임 3. Rescale 플랫폼을 활용 Tip(Basic 작업 유형) ■ 기본적으로 사용 가능한 애플리케이션 실행 명령어 외에도 필요한 명령어를 추가하거나, 시뮬레이션에 사용하는 코어 수를 직접 지정하는 것이 가능하다. - 자동으로 생성되는 환경 변수로 계산에 사용할 코어 수를 지정하거나, 해당 파라미터에 직접 숫자를 입력 가능(-np 이후 항목 참조) - 애플리케이션 실행 명령어를 여러 줄로 입력하여 하나의 입력 파일에 대하여 코어 수에 따른 성능 평가를 수행하거나, 여러 개의 입력 파일을 업로드한 후 순차적으로 시뮬레이션 수행 가능 ■ ANSYS HPC Pack과 같이 코어 수에 따라서 Pack 사용량이 달라지는 경우 라이선스의 효율적인 사용을 위하여 생성한 클러스터의 모든 코어를 활용하는 것이 아닌 라이선스의 제약에 맞추도록 설정하는 것이 가능하다. 예를 들어, HPC Pack을 4개 가지고 있는 경우 Emerald 3 노드(144 코어)로 클러스터를 생성하여 시뮬레이션을 실행할 경우 12코어를 더 쓰기 위해서 Pack 1개가 추가로 사용되나, Pack이 1개 증가 시 활용 가능한 코어 수가 4배가 되는 것을 고려하면 불필요한 낭비가 되므로 하드웨어 자원을 일부 활용하지 않더라도 코어 수를 작게 지정하는 것이 필요하다. - $RESCALE_CORES_PER_SLOT을 사용하면 자동으로 활용 가능한 모든 코어 수를 시스템 변수에서 확인 후 시뮬레이션 시 사용 - 숫자를 지정하여 입력하면 해당 코어 수만큼만 시뮬레이션 시 사용 ■ Live Tailing은 시뮬레이션 진행 상황을 실시간으로 확인할 수 있는 탭으로 다음과 같은 기능이 있다. - 시뮬레이션 결과로 생성되는 텍스트 파일들(log, message, out 등)의 실시간 모니터링 - 시뮬레이션 결과로 생성되는 그림 파일들(jpg, png 등)의 확인 - 시뮬레이션 진행 도중 좌측의 Snapshot 버튼을 활용하여 현재까지 생성된 결과를 압축하여 저장한 후 Files 페이지에서 해당 파일을 다운로드 가능 ■ In-Browser terminal은 시뮬레이션이 시작되면 Live Tailing과 함께 자동으로 활성화되는 기능으로 계산이 진행 중인 노드에 원격으로 접속하여 특정 파일의 모니터링, 중간 결과의 압축 등의 작업을 수행 가능하다. - 2개 이상의 소프트웨어를 활용하여 Coupling 시뮬레이션 수행이 필요할 경우 소프트웨어 선택 창에서 필요한 소프트웨어들을 모두 선택하면 클러스터 생성 시 모두 로드되어 동시에 사용 가능 4. Rescale 플랫폼 활용 Tip(코어타입 설정) 앞서 플랫폼 소개의 내용과 같이 Rescale 플랫폼에서는 워크로드 특성에 맞추어 필요한 연산 성능을 제공할 수 있도록 다양한 코어타입들이 있으므로 사용자는 어플리케이션 및 시뮬레이션 모델의 크기에 따라 적절한 코어타입을 선택하는 것이 필요하다. STAR-CCM+의 공식 Benchmark 모델인 LeMans 104M Cells 모델로 테스트한 결과를 예시로 코어타입 설정에 대하여 설명하면 다음과 같다. 일반적으로 모델의 크기가 커질수록 계산 시 더 많은 코어 수의 활용이 불가피한데, 코어 수(노드 수)가 증가함에 따라 계산 노드간 데이터 전송이 많아져 전체 시뮬레이션 성능이 저하될 수 있어 이에 따른 영향도를 최소화하기 위하여 노드간 네트워크 속도가 빠른(100 Gbps 이상) 코어타입의 선택이 필요하다. 위 그림에서의 결과와 같이 Interconnect가 10 Gbps인 Ferrite와 Onyx같은 경우 약 400 코어 부근부터 코어 수 증가 대비 시뮬레이션 속도 향상의 폭이 크게 저하되는 것에 비하여 상대적으로 Interconnect가 빠른 Emerald, Luna(25 Gbps) 그리고 Carbon(100 Gbps)의 경우 더 많은 코어 수에서도 코어 수가 증가함에 따라 시뮬레이션 속도 또한 거의 일정한 비율로 증가하게 된다. Ferrite와 Carbon의 CPU는 Intel Xeon Platinum 8268(Skylake)2.7GHz CPU로 동일하나 Interconnect의 차이로 전체적인 계산 성능에서 차이가 나타난다. 위의 경우와 같이 Rescale의 코어타입들은 같은 CPU를 사용하는 경우에도 가상머신의 구성에 따라 노드당 코어 수, 메모리 용량, 저장장치 용량, 노드간 네트워크 속도 등이 다르므로 실제 시뮬레이션 업무에서 사용하는 모델을 활용하여 코어타입별로 성능 평가가 또한 필요한데 소프트웨어, 시뮬레이션 워크로드마다 병렬 처리 효율이 달라지기 때문이다. 추가적으로 시뮬레이션에 사용할 코어 수를 설정할 때 병렬 처리 효율과 클라우드의 과금 체계를 동시에 고려하는 것이 필요한데 가상의 시나리오를 예시로 설명하면 다음과 같다. ■ 코어 수의 증가에 따른 시뮬레이션 계산 속도 향상의 폭이 1:1에 가까울 경우 2배의 코어 수로 계산하면 시뮬레이션은 2배 빠르게 완료되나 비용을 차이가 없음 ■ 실제로는 Interconnect 속도가 200 Gbps 정도로 높더라도 코어 수(노드 수) 증가 시 1:1로 계산 속도가 향상되지 않으므로 비용 대비 성능이 가장 잘 나오는 값을 찾는 것이 필요 Rescale에서는 사용자들이 On-premise 환경에서 HPC 클라우드 환경으로 변화 시 Soft landing을 위하여 성능 평가 결과에 기반한 코어타입 추천, 시뮬레이션 워크플로우 효율성 향상을 위한 API 자동화, 기존 On-premise와의 하이브리드 구축 등 다양한 방법에 대한 가이드를 드리고 있으므로 도움이 필요하시면 info.korea@rescale.com으로 문의하기 바란다.     좀더 자세한 내용은 'CAE가이드 V1'에서 확인할 수 있습니다. 상세 기사 보러 가기 
작성일 : 2023-12-31
최적설계 소프트웨어, PIAnO
최적설계 소프트웨어, PIAnO   주요 CAE 소프트웨어 소개   ■ 개발 및 자료 제공 : 피도텍, 02-2295-3984, www.pidotech.com PIAnO(Process Integration, Automation and Optimization, 피아노)는 시뮬레이션을 통해 실시간으로 획득할 수 있는 엔지니어링 데이터 또는 이미 존재하는 데이터를 기반으로 해당 제품의 최적화된 설계안을 도출한다. 이를 통해 제품개발 과정에서 설계비용 절감, 제품의 성능 및 품질 향상을 실현하여 제품의 최대 가치를 이끌어낼 수 있다. 최근에는 자사의 인공지능 플랫폼 Bruce를 기반으로 개발된 다양한 의사결정 도구들을 지속적으로 탑재하는 중이다.  PIAnO는 데이터가 제공될 수 있는 모든 엔지니어링 분야에서 활용될 수 있으며, 제품 및 공정설계뿐 아니라 최적의 파라미터 선정에 대한 의사결정이 필요한 그 어떤 곳에서도 혁신적 가치를 제공할 수 있다. 1. 주요 특징  (1) 필요한 작업 별 최적의 접근성과 사용성 그리고 시너지 효과 PIAnO는 4개의 독립 애플리케이션(Composer, Reviewer, Sampler, Metamodeler)들로 구성되어 있어 사용자가 원하는 작업에 최적화된 접근성 및 사용성을 제공하며, 필요에 따라 유기적으로 연동될 수 있어 높은 시너지를 발휘할 수 있다. (2) 효율성을 강조한 실용적인 최적화 기법 고비용 시뮬레이션 데이터를 이용하는 최적화 과정을 위해서, 비용을 최소화하면서 최적 설계안을 탐색할 수 있는 효율적인 기법들을 제공한다.  (3) 불확실성 평가와 확률 민감도 해석 불확실성을 고려한 설계 최적화를 수행하기 위해서 필요한, 효율적인 불확실성 평가 기법(eDR) 및 확률 민감도 해석(PSA) 기법을 제공한다. (4) 실험계획을 위한 도구 Sampler Sampler는 실험계획을 위한 독립 애플리케이션이다. 전통적인 기법뿐 아니라 공간 충진을 위한 특별한 기법들도 제공하며, 문제에 맞는 기법을 자동 선택해 주는 도구도 포함되어 있다. (5) 인공지능 기반 고급 메타모델링을 위한 Metamodeler Metamodeler는 메타모델링을 위한 독립 애플리케이션이다. 전통적으로 사용되어 왔던 다양한 종류의 메타모델 이외에도 최신의 머신러닝 기법들이 포함되어 있다. 또한 자사의 인공지능 플랫폼 Bruce를 기반으로 개발된 메타모델 자동선정 도구인 BruceMentor가 데이터에 맞는 최적의 메타모델을 추천할 수 있다. (6) 데이터 기반 설계공간 탐색 및 분석을 위한 Reviewer Reviewer는 Composer를 통해 구성된 다양한 스터디들의 실행 결과 데이터들을 목적에 맞게 특화된 기능들을 이용하여 분석하는 독립 애플리케이션이다. 또한 Reviewer는 주어진 데이터들을 이용하여 설계 최적화를 위한 공간 탐색 및 시각화를 수행할 수 있으며, 전역 주요변수 탐색을 위한 인공지능 기반 스마트 스크리닝 도구도 제공한다.   좀더 자세한 내용은 'CAE가이드 V1'에서 확인할 수 있습니다. 상세 기사 보러 가기 
작성일 : 2023-12-30
구조/충돌/진동소음/내구 해석, MeshWorks
  주요 CAE 소프트웨어 소개   ■ 개발 및 자료 제공 : DEP, 02-3446-9220, www.depusa.com   DEP의 MeshWorks(메시웍스) 소프트웨어는 국내 뿐 아니라 지엠, 포드, 크라이슬러와 캐터필러, 유럽의 마세라티, 메르세데스, 르노, 푸조, 일본 토요타, 혼다, 이스즈, 아이신, 인도의 타타, 마힌드라, 중국의 베이징자동차, 창안포드등 글로벌 OEM에서 사용되고 있다. 다중 최적화를 통한 기존 차량의 중량 절감 뿐 아니라 신규 차종의 개발 단계를 혁신적으로 단축함으로써 비용과 시간에서 많은 효과를 입증하고 있다. MeshWorks에는 4개의 코어 모델러, 즉 Parametric, Integrated, Automated 및 Associative modeler가 있으며, 그 특징은 다음과 같다. ■ Parametric modeler : 메시웍스에서 생성된 CAE 모델에서 파라미터 모델을 별도의 공정 없이 DEP의 특허 기술인 feature 인식 기술과 사용자 템플릿을 조합하여 파라미터 자동 생성이 가능하다. 이를 통해 추가적 모델링 부분에 대한 공수 절감이 가능하다. ■ Integrated modeler : 하나의 캐드 모델로 충돌, 내구, NVH 등 성능별 해석 모델을 동시에 생성 가능하며, 모든 해석 속성은 동시에 자동 업데이트되어 통합 모델 이용 시 해석공수 절감 및 다중 최적화에 응용에 용이하다.  ■ Automated modeler : 비전문 프로그래머도 반복적인 CAE 프로세스를 손쉽게 자동화할 수 있는 툴로서, 모델과 독립적으로 GUI를 이용하여 전체 워크플로에 통합시킬 수 있다. ■ Associative modeler : CAD와 CAE 데이터간의 긴밀한 결합성을 양방향으로 보장한다.  도면 업데이트 시 접촉, 하중, 경계조건 등 해석조건이 업데이트되고, 마찬가지로 메시가 모핑되면 CAD도 따라서 업데이트된다.   이러한 코어 모델러를 기반으로, MeshWorks는 그림과 같이 다양한 기능으로 구성되어 있으며, 이는 제품개발 주기 단축 및 표준 템플릿 활용으로 균일한 해석결과를 도출할 수 있게 한다.   1. 모핑 & 파라메터라이제이션 MeshWorks의 모핑 & 파라메터라이제이션 기능은 기존 FE/CFD 모델을 신규 형상에 맞게 신속하게 변형할 수 있는 Crtl Block 모핑, Freefrom 모핑, Curve based 모핑 등 여러 모핑 기법을 지원한다. 또한 파라미터 기능 및 auto DOE 기능을 활용하여 다중 최적화를 효과적으로 수행할 수 있다.   2. ConceptWorks ConceptWorks는 도면부재 시 개념설계 초기 단계에 신속한 신규 멤버 생성 및 기존 멤버 변경을 위한 기능을 추가하여, 세단에서 SUV 개조 혹은 엔진 차량을 친환경차로 개조하는 데에 유용하게 쓰인다.                       3. 모델 어셈블리                      모델 어셈블리 기능은 오토 점용접, SEAM 용접, 접착제 접착과 볼트 생성을 지원하며 특정 부품의 교체도 간편하게 수행할수 있다. 이 경우, 접촉과 리지드 정보는 자동적으로 업데이트될 뿐 아니라 솔버 데크도 변환된다.  4. Tetra/Hex 메시 또다른 메시웍스의 특장점은 고도로 자동화된 Tetra/Hex 메시 기능이다. 테트라 메시는 자동화된 템플릿 기반으로 고품질의 메시를 생성할 수 있으며 필렛, 튜브등 여러 요소들을 인식할 수 있고, 요소 제거 기능도 있다. Auto-Hexa 메시를 사용하면 한번의 버튼 조작으로 복잡한 형상의 고품질 Hexa 메시가 가능하며 시트폼, 범퍼폼, 캘리퍼 등에 쓰인다. Extrude Hexa는 주로 로터, 하우징 등에 사용된다. 5. CAD Morphing DEP의 특허 기술로 개발된 CAD 모핑은 캐드 데이터 모핑을 수행하는 기능이다. 완성차와 서브시스템에 적용할 경우 모핑된 캐드 모델은 높은 정밀도를 유지하며, 신속한 도면변경이 가능하다.  CAD 모핑 활용이 유용한 주요 3가지 경우는 아래와 같다.  ■ 개념설계에 신규 스타일링 데이터를 타깃으로 도면 모핑 가능 ■ 기존 도면에 신규 단면 정보를 반영하여 신규 도면 자동 업데이트 가능 ■ 기존 도면에 최적화 해석 결과를 반영한 도면 업데이트 가능   6. 디자인 어드바이저 디자인 어드바이저는 머신러닝과 AI 기술이 접목된 새로운 기능으로, 사용자가 형상 변경과 파라미터라이제이션을 진행하면서 해석 특성과 성능을 직관적으로 확인할 수 있도록 즉각적으로 변형값을 계산해서 화면에 표시한다.  BIW의 개념설계 단계에서 효용성이 매우 크며, 3D 캐드와 mid-mesh를 포함, 캐드-메시 비교를 통해서 기존 메시를 최대한 재사용할 수 있다.  메시웍스는 다양한 캐드, 해석 및 최적화 소프트웨어와 연계되어 글로벌 자동차 OEM과 중장비 업체에서 제품 품질 개선, 중량 절감, 신제품 개발 등 다양한 목적으로 사용되고 있다.     좀더 자세한 내용은 'CAE가이드 V1'에서 확인할 수 있습니다. 상세 기사 보러 가기 
작성일 : 2023-12-25
인텔, “5세대 제온 및 코어 울트라 프로세서로 AI PC 시대를 주도한다”
인텔은 데이터 센터부터 클라우드, 네트워크, PC, 에지 등 다양한 인프라에서 AI 솔루션을 구현할 수 있도록 지원하는 5세대 인텔 제온 프로세서와 인텔 코어 울트라 프로세서를 출시했다. 5세대 인텔 제온(Intel Xeon) 프로세서 제품군은 모든 코어에 AI 가속기를 내장해 AI 성능 및 전반적인 성능을 높이고 총소유비용(TCO)을 줄인다. 그리고 노트북용 인텔 코어 울트라(Intel Core Ultra) 프로세서 제품군은 인텔 4 공정 기술 및 40년 만에 최대 규모로 변화한 아키텍처를 기반으로 설계된 프로세서로 높은 전력 효율을 제공한다. 또한, 인텔은 2024년 출시 예정인 차세대 AI 가속기 ‘인텔 가우디3(Intel Gaudi3)’에서 기업의 대규모 언어 모델(LLM) 및 딥러닝 워크로드 실행에 최적화된 성능을 제공할 예정이라고 밝혔다.   ▲ 5세대 인텔 제온 스케일러블 프로세서를 선보인 인텔코리아 나승주 상무   5세대 인텔 제온 프로세서 제품군은 이전 세대 제품 대비 성능과 효율성에서 큰 폭의 개선을 보이면서, 초대형 AI 모델뿐 아니라 에지 및 클라이언트에서 점차 증가하는 민첩한 소규모 AI 모델 수요를 충족시키며 하이브리드 AI 성장을 지원한다. 4세대 제온과 비교해, 새로운 제온 프로세서는 동일한 전력 범위 내에서 평균 21% 향상된 범용 컴퓨팅 성능을 제공하며, 평균 36% 향상된 와트당 성능을 제공해 기업의 광범위한 워크로드 요구사항을 충족시킨다. 인텔은 5년 주기로 업그레이드하는 고객 및 이전 세대에서 업그레이드하는 고객이 최대 77%까지 TCO를 절감할 수 있다고 전했다. 제온은 AI 가속기를 내장한 메인스트림 데이터 센터 프로세서다. 새롭게 출시되는 5세대 제온은 최대 200억 개 파라미터 규모의 대형 모델 상에서 최대 42% 향상된 추론 및 미세 조정 성능을 구현한다. 그 밖에도 MLPerf 훈련 및 추론 벤치마크 결과에서 일관적으로 성능을 향상시켜 온 것으로 나타났다. 제온에 내장된 AI 가속기는 통신 서비스 제공업체, 콘텐츠 전송 네트워크 및 소매·의료·제조를 포함한 다양한 시장을 대상으로 최적화된 소프트웨어 및 향상된 텔레메트리(원격자료송수신) 기술과의 결합을 통해 까다로운 네트워크 및 에지 워크로드를 더욱 손쉽고 효율적으로 배포할 수 있도록 지원한다. 인텔코리아의 나승주 상무는 “5세대 인텔 제온 프로세서는 AI 워크로드를 효율적으로 처리하기 위해 설계된 제품으로, 고객이 클라우드, 네트워크에서 에지에 이르는 광범위한 인프라에서 AI 역량을 갖추도록 지원할 것”라며, “인텔은 AI 인프라 구축 및 배포를 쉽게 만드는 하드웨어와 소프트웨어를 함께 제공함으로써 개발자가 어디서나 AI를 구현할 수 있도록 지원할 것”이라고 말했다.   ▲ 인텔 코어 울트라 프로세서를 선보인 인텔코리아 최원혁 상무   인텔 코어 울트라는 인텔 최초의 클라이언트 온칩 AI 가속기인 ‘신경처리장치(NPU)’가 새로 탑재돼 이전 세대와 비교해 2.5배 높은 전력 효율성을 제공하며, AI 가속 기능을 지원한다. 높은 수준의 GPU 및 CPU가 탑재돼 AI 솔루션 실행 속도를 더욱 가속화시킨다. 인텔 코어 울트라는 2024년 전 세계 노트북 및 PC 제조사의 230여 가지의 제품에 탑재돼 AI 가속 기능을 지원할 예정이며, 인텔은 앞으로 100여 개의 독립 소프트웨어 공급업체(ISV)와 협력해 PC 시장에 AI로 개선된 수백 가지의 애플리케이션을 선보일 계획이다. 인텔은 일반 소비자 및 기업 고객이 자신의 PC에서 이전보다 더 큰 규모로 더욱 광범위해진 AI 기반 애플리케이션의 성능을 활용할 수 있게 될 것으로 보고 있으며, AI의 성능 향상 이점에 힘입어 AI PC가 2028년까지 PC 시장에서 80%의 비중을 차지할 것으로 예상한다. 인텔코리아의 최원혁 상무는 “앞으로 2년 동안 인텔은 전용 AI 가속기를 탑재한 1억 개의 클라이언트 프로세서를 공급할 것이며, 이는 시장에서 가장 많은 물량을 공급하는 것”이라면서, “인텔은 폭넓은 하드웨어와 소프트웨어 파트너사들이 포함된 생태계와 협력해 차세대 컴퓨팅인 AI PC에서 최고의 위치를 점유해 나갈 것”이라고 설명했다. 인텔은 5세대 제온과 코어 울트라가 다양한 분야에서 에지 컴퓨팅의 새로운 활용 사례를 제시할 것으로 전망했다. 에지 컴퓨팅은 컴퓨팅 시장에서 가장 빠르게 성장하고 있으며, 향후 10년 안에 전 세계적으로 4450억 달러(약 578조 550억 원)의 가치를 지닌 시장으로 성장할 전망이다. 특히 에지 및 클라이언트 장치는 데이터 센터와 비교해 1.4배 더 많은 AI 추론 수요를 견인하고 있으며, AI는 가장 빠르게 성장하는 에지 컴퓨팅 워크로드가 됐다. 한편, 인텔은 “개발자가 사용하는 AI 프레임워크에 대한 최적화 기능 및 원API(oneAPI)를 통한 라이브러리 제공, AI 워크로드/솔루션에 하드웨어 가속 기능을 적용한 고급 개발자 도구 등 AI 하드웨어 기술의 접근성과 사용 편의성을 높이기 위해 노력하고 있다”면서, 딥러닝 및 대규모 생성형 AI 모델용 차세대 AI 가속기인 ‘인텔 가우디3(Intel Gaudi3)’가 2024년 출시될 것이라고 밝혔다. 인텔은 경쟁력 높은 TCO 및 가격대와 함께 더욱 향상된 성능 혜택을 바탕으로 가우디 파이프라인을 빠르게 확장하고 있다. 인텔은 생성형 AI 솔루션 수요가 증가하면서 2024년에는 가우디가 주도하는 AI 가속기 제품군을 주축으로 가속기 시장 점유율을 넓히겠다는 전략도 제시했다. 인텔코리아의 권명숙 사장은 “현재 전 산업의 디지털 전환 수요가 고도화되는 가운데, AI 혁신의 가속화로 인해 현재 GDP의 약 15%를 차지하는 디지털 경제의 비중이 앞으로 10년 안에 약 25%로 증가할 것이며, AI는 이를 가속화해 결국엔 GDP의 1/3 규모로 성장할 것”이라면서, “인텔은 효율적인 최상의 AI 성능을 제공하는 하드웨어 및 소프트웨어 솔루션을 지원해 고객이 클라우드, 네트워크는 물론 PC와 에지 인프라까지 AI를 원활하게 구축하고 확장해나갈 수 있도록 지원할 것”이라고 전했다.
작성일 : 2023-12-18