• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "아키텍처"에 대한 통합 검색 내용이 1,225개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
오라클, 클라우드용 지능형 데이터 아키텍처 ‘엑사데이터 엑사스케일’ 발표
오라클이 인공지능(AI) 벡터 처리와 데이터 분석, 트랜잭션을 포함한 모든 종류, 모든 규모의 오라클 데이터베이스 워크로드를 위한 성능을 제공하는 클라우드용 지능형 데이터 아키텍처인 ‘엑사데이터 엑사스케일(Exadata Exascale)’을 정식 출시했다.  엑사데이터 엑사스케일을 통해 기업 조직은 규모를 망라하여 오라클 엑사데이터(Oracle Exadata)에 내장된 성능과 안정성, 가용성, 보안 관련 기능의 활용 비용을 절감할 수 있다. 엑사데이터 엑사스케일은 엑사스케일 인프라스트럭처 기반의 엑사데이터 데이터베이스 서비스(Exadata Database Service on Exascale Infrastructure) 및 오라클 클라우드 인프라스트럭처(OCI) 기반의 오라클 데이터베이스 23ai(Oracle Database 23ai)와 함께 사용 가능하다. 엑사데이터 엑사스케일은 기업 고객이 엑사데이터 클라우드 인프라스트럭처를 이용할 수 있는 새로운 방식이다. 가상화된 데이터베이스에 최적화된, 공유 컴퓨트 및 스토리지 풀에 기반한 인프라를 활용하는 지능형 데이터 아키텍처를 통해 극도로 탄력적인 확장성 및 사용량 기반 요금 정책을 지원한다. 결과적으로 대기업에서 중소기업에 이르기까지 적게는 매월 수십만원대 수준의 저렴한 요금으로도 이용이 가능해, 이제 합리적인 비용으로 엑사데이터 데이터베이스 플랫폼의 기술을 활용해 데이터 워크로드 관련 혁신을 가속화할 수 있게 됐다.     엑사스케일의 리소스는 추가 IOPS(초당 입력, 출력 명령어 처리 수)에 대한 비용 없이 탄력적인 종량제 요금제를 통해 이용할 수 있다. 사용자가 필요로 하는 데이터베이스 서버 ECPU 수와 스토리지 용량을 지정하면 모든 데이터베이스가 풀링(pooling)된 스토리지 서버에 자동으로 분산되어 최고의 성능 및 가용성을 제공하므로 전용 데이터베이스 및 스토리지 서버를 별도로 프로비저닝할 필요가 없다. 결과적으로 엑사데이터 데이터베이스 서비스 엔트리 수준의 인프라 비용을 최대 95% 절감하고, 온라인 리소스를 최대한 유연하고 세밀하게 확장할 수 있다.   오라클은 엑사스케일을 통해 RDMA 지원 스토리지 클라우드 서비스를 제공한다. 지능형 스토리지 클라우드 서비스인 엑사스케일은 사용 가능한 모든 스토리지 서버에 데이터베이스를 분산하고, 데이터 인식 지능형 스마트 스캔을 통해 수천 개의 CPU 코어를 사용하여 모든 데이터베이스 쿼리의 속도를 향상시킨다. 또한 3개의 서로 다른 스토리지 서버에 데이터를 복제하여 높은 수준의 내결함성을 제공한다. 엑사스케일 스토리지 클라우드는 핫데이터(hot data) 또는 자주 액세스하는 데이터를 디스크로부터 메모리 또는 플래시 드라이브로 지능적인 방식으로 이동시키므로 사용자는 DRAM의 성능, 플래시 드라이브의 IOPS 속도, 디스크의 용량을 모두 활용할 수 있다. 엑사스케일은 독자적 기능인 AI 스마트 스캔(AI Smart Scan)을 사용하여 데이터 및 컴퓨트 집약적인 AI 벡터 검색 작업을 엑사스케일 지능형 스토리지 클라우드로 오프로드(offload)한다. AI 스마트 스캔 및 엑사데이터 시스템 소프트웨어 24ai(Exadata System Software 24ai)를 통해 주요 벡터 검색 작업을 최대 30배 빠르게 처리하여 고객이 다중 사용자 환경에서 수천 건의 AI 벡터 검색을 동시에 실행할 수 있도록 지원한다. 또한, 엑사스케일은 서버 간의 지능형 통신을 바탕으로 엑사스케일 가상 머신(Exascale Virtual Machine) 클러스터 전반에 걸친 고성능 데이터베이스 확장을 제공하고, 지능형 저지연 OLTP IO를 통해 미션 크리티컬 트랜잭션을 신속히 완료하고 더 많은 동시 사용자를 지원한다. 엑사데이터 엑사스케일은 2880GB/초의 처리량을 제공하며, 지연시간은 17마이크로초이다. 엑사스케일은 고유한 데이터 인텔리전스가 데이터 집약적 SQL 쿼리를 엑사스케일 지능형 스토리지 클라우드로 자동 오프로드하여 데이터 분석을 위한 처리량 확장을 지원한다. 자동 컬럼화 기능을 통해 데이터를 초고속 인메모리 컬럼 형식으로 변환하고, 엑사스케일 인텔리전트 스토리지 클라우드의 플래시 캐시를 자동적으로 사용하여 기능 및 성능을 향상시킬 수 있다. 사용자는 엑사스케일 지능형 스토리지 클라우드 및 쓰기 시 재지정 기술을 사용하여 데이터베이스의 전체 복제본 또는 신 복제본(thin clones)을 즉시 생성할 수 있다. 또한 고급 스냅샷 기능을 통해 읽기/쓰기 소스를 사용하여 플러그형(pluggable) 또는 컨테이너 데이터베이스의 공간 효율적 복제본을 간단하게 생성 가능하다. 새롭게 생성한 개발, 테스트 또는 복구용 복제본은 즉시 사용 가능하고, 소스 데이터베이스와 동일한 네이티브 엑사데이터 데이터베이스의 성능 및 확장성을 지원한다. 오라클의 코탄다 우마마지스와란(Kothanda Umamageswaran) 엑사데이터 및 수평 확장 기술 담당 수석 부사장은 “엑사데이터 엑사스케일은 멀티테넌트와 초탄력적 클라우드용으로 재구성된 엑사데이터이자 모든 오라클 데이터베이스 클라우드 서비스의 미래형 아키텍처”라면서 “인프라 비용을 최대 95% 절감시켜주는 엑사데이터 엑사스케일을 통해 이제 중소기업이나 적은 규모의 워크로드 및 클라우드 환경에서도 오라클 데이터베이스용 오라클 엑사데이터의 이점을 활용할 수 있게 됐다”고 설명했다.
작성일 : 2024-07-15
랭체인 아키텍처 및 동작 메커니즘 분석
BIM 칼럼니스트 강태욱의 이슈 & 토크   이번 호에서는 랭체인(LangChain) 아키텍처와 동작 방법을 분석한다. 현재 챗GPT(ChatGPT)와 비슷한 인공지능 챗봇 서비스 개발 등에 대중적으로 사용되는 랭체인은 LLM(Large Language Model : 대규모 언어 모델) 통합과 PDF 등 다양한 데이터 소스를 지원하여 LLM 모델 활용성을 극대화한다. 이 글을 통해 LLM 서비스 개발에 필요한 랭체인의 아키텍처와 동작 원리를 이해할 수 있을 것이다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | http://www.facebook.com/groups/digestpodcast   그림 1   랭체인은 LLM에 원하는 결과를 얻을 수 있도록 다양한 프롬프트 입력 및 구조화된 출력, RAG, 튜닝과 같은 기능을 제공하는 라이브러리다. 랭체인 설치는 다음과 같이 진행할 수 있다.  pip install langchain   랭체인의 기본 사용법 랭체인은 모델 입출력, 데이터 검색, 에이전트 지원, 체인, 컨텍스트 메모리 기능을 제공하며, LCEL(LangChain Expression Language)을 이용해 각 구성요소를 유기적으로 연결시킬 수 있다. LCEL은 유닉스 파이프라인 개념을 차용했다. 다음은 LCEL의 예시를 보여준다.  from langchain.chat_models import ChatOpenAI from langchain.prompts import ChatPromptTemplate from langchain.schema import BaseOutputParser # LCEL 예시 chain = ChatPromptTemplate() | ChatOpenAI() | CustomOutputParser() 이와 더불어 목적에 맞는 다양한 프롬프트 템플릿, 구조화된 출력을 제공한다. from langchain.output_parsers.json import SimpleJsonOutputParser json_prompt = PromptTemplate.from_template(     "Return a JSON object with `birthdate` and `birthplace` key that answers the following question: {question}" ) json_parser = SimpleJsonOutputParser() # JSON 파서 # 프롬프트, 모델, 파서 체인 생성 json_chain = json_prompt | model | json_parser  # 유닉스 파이프라인 개념 차용함. result_list = list(json_chain.stream({"question": "When and where was Elon Musk born?"})) print(result_list)   그림 2   랭체인 구조 분석 패키지 구조 랭체인 구조를 분석하기 위해, 깃허브(GitHub)의 랭체인 소스코드를 다운로드한 후 UML로 모델링해 본다. 주요 패키지는 <그림 3>과 같다.  랭체인 소스코드 : https://github.com/langchain-ai/langchain   그림 3   cli는 랭체인의 커맨드 라인 인터페이스(command line interface), core는 랭체인의 핵심 구현 코드가 정의된다. 이 부분은 <그림 4>와 같은 패키지로 구성된다.    그림 4   참고로, 이 패키지들은 <그림 5>의 일부이다.   그림 5. 랭체인 v.0.2.0 패키지   LCEL 언어 동작 구조 이 중에 핵심적인 것만 분석해 본다. 우선, LCEL의 동작 방식을 위해 어떤 디자인 패턴을 구현하였는지 확인한다. 이 부분은 runnables 패키지가 담당한다. 이 언어는 유닉스의 파이프라인 처리를 다음과 같이 흉내낸다.  z = a | b | c z.stream('abc') 이를 위해 파이썬(Python) 문법을 적극 사용하고 있다. 우선 ‘|’ 연산자를 오버로딩(overloading)하기 위해, 파이썬 Runnable 클래스를 정의해 ‘__or__’ 연산자를 구현한다. 이 연산자는 self object와 right object 두 객체를 입력받아 리스트를 만든 후 리턴하는 역할을 한다. 앞의 예시에서 보면, ‘a | b’를 실행 가능한 객체 리스트로 만들어 리턴한다. 결론적으로 a, b, c 객체를 리스트로 만들고 이 리스트를 z에 할당한다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2024-07-04
[포커스] 지멘스 DISW, “디지털 엔지니어링으로 자동차 개발을 혁신”
지멘스 디지털 인더스트리 소프트웨어(지멘스 DISW)는 지난 6월 4일 ‘오토모티브 엔지니어링 이노베이션 데이’를 진행했다. 이번 행사에서 지멘스 DISW는 최근 자동차 산업의 주요 이슈인 전기자동차(EV), 자율주행 자동차(AV), 소프트웨어 정의 자동차(SDV), 인공지능(AI) 등에 대한 자사의 비전과 솔루션, 사례 등을 소개했다. ■ 정수진 편집장     포괄적인 기술로 디지털 엔지니어링 구현 지멘스 DISW 코리아의 오병준 지사장은 “지멘스는 ECU(전자 제어 유닛) 칩부터 스마트 시티까지 아우르는 토털 아키텍처 및 솔루션으로 우리의 삶은 윤택하게 만든다는 ‘칩 투 시티’ 비전을 지향한다”면서, “디지털 엔지니어링 환경은 데이터의 흐름으로 직결된다. 데이터 환경 없이는 디지털 전환이 불가능하다. 지멘스는 통합 개발 환경으로 자동차 산업의 타임 투 마켓을 줄이는 동시에, 인공지능/머신러닝을 통한 자율주행의 완성까지 지원하고 있다”고 덧붙였다. 또한, 오병준 지사장은 NX, 팀센터, 심센터, 테크노매틱스, 폴라리온, 캐피탈, 멘딕스 등 지멘스의 솔루션 포트폴리오를 도입해 BOM을 통합하고 설계부터 생산까지 일관 프로세스 구축을 추진 중인 BYD 및 폴라리온 ALM(애플리케이션 수명주기 관리)을 통해 AI/ML 및 ECU의 통합 개발을 추진하고 있는 니오 등 자동차 업체 사례를 소개했다. 그리고, 자사의 포괄적인 솔루션 포트폴리오와 글로벌 엔지니어링 서비스를 통해 SDV, AI 등 자동차 산업의 이슈에 대응할 수 있는 역량을 제공한다고 전했다.   자동차 개발을 위한 시뮬레이션과 디지털 스레드 지멘스 DISW의 스티븐 돔(Steven Dom) 오토모티브 인더스트리 솔루션즈 디렉터는 ‘EV/AV 시대의 심센터 디지털 스레드 전략’에 대해 소개했다. 전기자동차와 SDV는 자동차 엔지니어링의 복잡성을 크게 늘렸다. 컴포넌트가 통합되고 하드웨어와 소프트웨어가 통합되면서 개발에 더 많은 시간과 리소스가 필요해진 것이다. 돔 디렉터는 “디지털화는 이런 복잡성의 문제를 해결할 수 있는 유효한 수단이며, 엔지니어링의 총체적인 전환을 통해 복잡성을 경쟁력으로 바꿀 수 있다”고 짚었다. 지멘스는 CAD 모델이나 해석 모델 기반의 디지털 트윈에 그치지 않고, 디지털 데이터의 연결된 흐름을 구현하는 디지털 스레드가 이런 문제를 해결할 수 있는 수단이 될 것으로 보고 있다. 특히 지멘스의 포괄적인 솔루션 포트폴리오인 엑셀러레이터(Xcelerator) 가운데 심센터(Simcenter)는 시뮬레이션과 테스트의 통합 및 다분야 엔지니어링을 통해 제품 혁신에 도움을 주고, 산업 전문성 및 베스트 프랙티스를 제공하면서 전체 제품 수명주기에 통합돼 프로세스 효율 향상을 지원하는 솔루션 라인업이다. 돔 디렉터는 이런 심센터가 제품 개발과 엔지니어링에 관한 자동차 업계의 문제를 해결할 수 있다고 소개했다. “심센터는 효율적인 협업 엔지니어링을 지원해 디지털 트윈에서 수명주기 전반의 가치를 창출할 수 있게 돕는다. 심센터가 제공하는 MBD(모델 기반 설계) 접근법은 가상 프로토타입 어셈블리(VPA)를 통해 차량의 NVH(소음 진동) 퍼포먼스를 예측할 수 있도록 한다. 또한 지멘스의 ‘실행 가능한 디지털 트윈(xDT)’은 스마트 버추얼 센서, 모델 기반의 시스템 테스트, 인 서비스 데이터 주도의 설계 등을 가능하게 한다”는 것이 그의 설명이다. 한편, 돔 디렉터는 디지털 트윈과 머신러닝의 결합 방법에 대해서도 소개했다. 인공지능/머신러닝은 더 빠른 의사결정을 지원하고, 물리 데이터 및 시뮬레이션 데이터의 품질을 높일 수 있으며, 사용자 경험(UX) 개선에도 활용이 가능하다. 지멘스의 심센터 스튜디오(Simcenter Studio)는 생성형 엔지니어링을 통한 제품의 개념 평가를 지원하며, 히즈 AI 시뮬레이션 프레딕터(HEEDS AI Simulation Predictor)는 물리 기반 시뮬레이션과 AI/ML을 결합해 설계 대안에 대한 평가와 의사결정을 더욱 빠르게 만들 수 있다.   ▲ 전동 파워트레인의 디지털 스레드 개발 워크플로   자동차 산업에서 AI와 가상 제품 개발의 활용 사례 소개 현대자동차의 한용하 연구위원은 “멀티피직스/멀티스케일/멀티레벨을 고려한 모델 기반의 자동차 개발 요구가 늘고 있으며, AI와 데이터 과학의 연계도 화두가 되고 있다”면서, 자동차 CAE 영역에서 현대자동차가 AI를 적용하고 있는 사례를 소개했다. 현대자동차는 프로덕트 AI/엔터프라이즈 AI/엔지니어링 AI 등 R&D를 위한 AI를 추진하고 있다. 그리고 AI 활용을 활성화하기 위한 핵심 요소로 R&D 데이터 허브 마련, AI 역량 강화, AI 활용 인프라 구축 등을 설정했다. 한용하 연구위원은 CAE/성능 예측 영역에서 AI가 성공하기 위한 요소로 데이터 정의 및 준비, 워크플로 구축, 도메인 지식을 꼽았다. 특히 “AI에서는 데이터가 핵심이다. 데이터의 준비 작업부터 데이터 재정의, 활용 시나리오를 고려한 체계적인 수집 방법론 등 폭넓은 고민이 필요하다”고 전했다. GM테크니컬코리아의 김태헌 상무는 물리 기반의 자동차 개발에서 가상 개발 환경으로의 변화에 대해 소개했다. 자동차 산업에서 가상 제품 개발의 한 가지 사례로는 ADAS(첨단 운전 보조 시스템)를 들 수 있다. ADAS의 개발 과정에서 도로의 데이터를 입력하는 데에 VR(가상현실)을 활용함으로써 개발 시간을 줄이고, 다양한 조건을 생성해 학습할 수 있도록 해 준다. 또한, 기존 데스트의 데이터와 CAE를 결합하면 풍동 실험을 대체할 수도 있다. 김태헌 상무는 “시뮬레이션은 눈으로 확인하기 어려웠던 것을 볼 수 있게 해 줘서 제품에 대해 더 잘 이해할 수 있는 기회를 제공하기도 한다”면서, “이전에는 테스트에 참고하기 위한 CAE 및 테스트 기반의 개발을 진행했다면, 이제는 전체 가상 차량을 만들어 다양한 시뮬레이션으로 자동차를 개발함으로써 프로토타입을 1/10로 줄일 수 있게 되었다. 가까운 장래에는 ‘제로 프로토타입’이 실현될 것”이라고 소개했다. 또한, “가상화의 종착점은 판매 가능한 완성도를 실현하고, 실물 테스트를 완전히 제거하며, 철저하고 엄격한 엔지니어링을 실현하는 것이 될 것”이라고 전했다. 한편, 지멘스 DISW는 이번 ‘오토모티브 엔지니어링 이노베이션 데이’에서 통합 디지털 개발 프레임워크, EV 전자장비의 열 문제 해결을 위한 시뮬레이션 전략, 자율주행 차량/모터의 설계와 검증 및 NVH 해석을 위한 솔루션과 사례, 모델 기반 개발과 AI ROM(축소 차수 모델)의 활용, EV/AV 엔지니어링 서비스 등의 내용을 소개했다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-07-03
[포커스] 매스웍스, 디지털 제품 개발 위한 MBD 비전 제시
매스웍스코리아가 6월 11일 연례 기술 콘퍼런스인 ‘매트랩 엑스포 2024 코리아’를 진행했다. 이번 행사에서는 매트랩(MATLAB)과 시뮬링크(SIMULINK) 등 자사 솔루션을 활용한 제품 개발 향상 방안과 활용사례가 소개됐는데, 매스웍스는 디지털 엔지니어링과 MBD(모델 기반 설계)가 향후 제품 개발의 핵심이 될 것이라고 강조했다. ■ 정수진 편집장   디지털 엔지니어링의 중심, MBD 매트랩 엑스포는 매스웍스의 고객과 기술 전문가들이 인공지능, 전동화, 무선 및 신호처리 등 주요 기술 트렌드에 대한 모범 사례와 인사이트를 공유하는 종합 기술 콘퍼런스이다. 작년에는 온 . 오프라인 하이브리드 행사로 진행됐는데, 올해는 오프라인 행사로 진행하면서 규모를 키웠다는 것이 매스웍스코리아의 설명이다. 매스웍스의 아룬 멀퍼(Arun Mulpur) 인더스트리 디렉터는 이번 행사에서 ‘디지털 엔지니어링을 위한 MBD의 영향력과 방향’에 대해 소개하면서, “디지털 엔지니어링의 핵심은 모델 중심, 데이터 통합, 팀 문화의 변혁이며 이런 디지털 엔지니어링의 근간에는 MBD가 있다”고 짚었다.   ▲ 디지털 엔지니어링과 MBD의 가치를 설명한 매스웍스 아룬 멀퍼 디렉터   통합된 MBD 플랫폼으로 제품 개발의 복잡성 해결 매스웍스가 바라보는 MBD는 설계 데이터뿐 아니라 제품에 관련된 다양한 데이터를 디지털 모델로 활용하는 것이다. 폭넓은 데이터의 복잡성을 처리하기 위해 모델링과 시뮬레이션(M&S)을 활용하고, 물리 모델링/신호 처리/소프트웨어 등 다양한 영역을 통합 처리하는 것이 매스웍스가 바라보는 MBD의 역할이다. 멀퍼 디렉터는 “디지털 엔지니어링의 개념을 많은 기업에서 도입하고 있으며, 이를 실현하기 위한 수단으로 MBD에 주목하고 있다”고 설명했다.  개발해야 하는 제품 시스템이 복잡해지면서 다양한 엔지니어링 기술이 투입되는데, 여러 엔지니어링 분야 사이에는 요구되는 전문지식이 달라서 커뮤니케이션과 협업이 어려운 경우가 생긴다. MBD는 엔지니어링의 상위 단계에서 가상 플랫폼으로 시스템을 검증할 수 있도록 해서 이를 해결할 수 있다는 것이 매스웍스의 설명이다. 가상 환경에서 제품을 개발하는 것뿐 아니라 현실 데이터를 기반으로 가상 모델의 파라미터를 튜닝할 수 있다는 것도 매스웍스가 내세우는 MBD의 이점이다. 멀퍼 디렉터는 “복잡성은 예상하지 못한 문제의 원인이 되는 경우도 많다. 매스웍스는 수백만 개의 시뮬레이션을 클라우드에서 동시에 수행해서 복잡성을 처리할 수 있도록 한다. 또한, 다양한 툴과 환경을 사용할 수 있는 플랫폼을 제공해 매스웍스뿐 아니라 더 넓은 생태계를 활용할 수 있도록 돕는다”고 전했다.   디지털 엔지니어링 위한 자율화, 연결성, 전동화에 대응 자율화(autonomous), 연결성(connectivity), 전동화(electrification) 등 산업 애플리케이션 트렌드는 엔지니어의 개발 업무에도 영향을 주고 있다. 이런 상황에서 매스웍스는 시스템 엔지니어링의 성장, 소프트웨어 중심 개발의 확대, 인공지능(AI)의 활용 등이 엔지니어링 업무의 주요한 흐름이 될 것으로 보고 있다. 멀퍼 디렉터는 디지털 엔지니어링을 성공시키기 위해 매스웍스가 제공하는 기술 요소를 다음과 같이 소개했다. 모든 것의 자동화 : 자동화는 MBD의 근간이 되어 왔다. 이제는 연산 기술과 소프트웨어를 결합해 라이프사이클 전체의 관리를 자동화해야 한다. 복잡한 시스템으로의 확장 : 컴포넌트/서브시스템에서 나아가 복잡한 시스템 아키텍처를 설계하기 위해 소프트웨어 중심의 아키텍처(Soffware-Oriated Architecture : SOA)가 필요하다. 코드 생성 자동화 : 이는 MBD의 장점 중 하나이다. 이미 수천에서 수백만 라인의 코드를 자동으로 생성해 만든 제품이 일상에서 쓰이고 있다. 매스웍스는 인피니온 등 반도체 기업과 파트너십을 통해 이를 지원한다. 결함의 조기 방지 : MBD의 핵심 가치 중 하나는 포괄적으로 결함을 빠르게 검증 및 제거하는 것이다. 매스웍스는 디자인/테스트/코드/인증 등 여러 단계서 결함 검증 툴을 제공하며, 이를 통해 더욱 초기 단계에서 결함을 수정하기 위한 투자를 진행할 수 있다. 앱 표준 소프트웨어 워크플로 : 국내서는 현대자동차, 국방과학연구소 등에서 이를 활용하고 있다. 컨티넨탈은 매트랩으로 산출물 처리, 요구사항 관리, 코드 제작 등을 수행하면서 워크플로를 향상시켰다. 클라우드 기반 설계 및 시뮬레이션 : 매스웍스는 시뮬링크에서의 코드 생성부터 시높시스 환경에서의 검증까지 AWS 클라우드에서 구동할 수 있도록 지원한다. 인공지능을 활용한 설계 : 코드 자동 생성에 인공지능과 ROM(축소 차수 모델)을 사용하거나, 제품 설계 후 인공지능을 칩이나 클라우드에 배포할 수 있다. 매스웍스는 단일 생태계를 통해 파이썬 . 매트랩 . 오픈소스 코드 배포의 자동화까지 지원한다.   ▲ 매스웍스가 제시하는 AI와 MBD의 결합   한편, 매스웍스코리아의 이종민 대표이사는 “한국 지사인 매스웍스코리아는 자동차, 통신, 국방 등 산업을 핵심 시장으로 삼아 지난 20년간 꾸준히 성장하면서, 매년 비즈니스 목표를 달성하고 있다”면서, “매스웍스는 새로운 기능을 꾸준히 추가하면서 타깃 산업을 넓히고 있다. 특히 최근에는 시뮬링크와 인공지능을 결합해 AI 시뮬레이션을 구현하는 데에 초점을 맞추고 있다”고 소개했다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-07-03
CAD&Graphics 2024년 7월호 목차
  INFOWORLD   People&Company 17 머티리얼라이즈 윌프리드 반크란 의장 3D 프린팅에 대한 새로운 시각이 성장 기회를 만들 것 36 트림블 코리아 김동준 상무 설계부터 운영까지, AI로 건설산업 전반의 혁신 지원   Focus 20 PLM/DX 베스트 프랙티스 컨퍼런스 2024, 제조산업의 디지털 전환 전략과 사례 소개 28 지멘스 DISW, “디지털 엔지니어링으로 자동차 개발을 혁신” 30 매스웍스, 디지털 제품 개발 위한 MBD 비전 제시 32 미르, 물류/자재 관리 혁신 위한 자율이동로봇 기술 소개 34 AWS-에티버스, “클라우드 ∙ AI ∙ 디지털 트윈이 제조 엔지니어링의 미래 이끈다”   New Products 39 게임 및 비주얼 콘텐츠 제작 전반의 기능과 편의성 강화 유니티 6 프리뷰 48 산업 디자이너를 위한 시각화 기능 향상 트윈모션 2024.1 52 기계/제조 분야의 활용성 높인 2D CAD 지더블유캐드 2025 54 HDD급 용량과 SSD 성능을 겸비한 스토리지 솔루션 샌디스크 데스크 드라이브 56 이달의 신제품   On Air 58 캐드앤그래픽스 CNG TV 지식방송 지상중계 레빗을 활용한 배관설계 패러다임 전환 59 캐드앤그래픽스 CNG TV 지식방송 지상중계 AI 시대의 로봇 기술 트렌드와 발전 방향   Column 60 디지털 지식전문가 조형식의 지식마당 / 조형식 디지털 엔지니어링의 히든 챔피언, 디지털 스레드 그리고 인생 디지털 스레드 63 현장에서 얻은 것 No.17 / 류용효 PLM과 챗GPT의 활용 방안   66 New Books   Directory 123 국내 주요 CAD/CAM/CAE/PDM 소프트웨어 공급업체 디렉토리   CADPIA    AEC 68 BIM 칼럼니스트 강태욱의 이슈 & 토크 / 강태욱 랭체인 아키텍처 및 동작 메커니즘 분석 74 새로워진 캐디안 2024 살펴보기 (7) / 최영석 캐디안 2024 SE의 시작 페이지 기능 77 복잡한 모델에서 인사이트를 얻고 설계 의사결정을 돕는 직스캐드 (4) / 이소연 파일 비교 기능 80 데스크톱/모바일/클라우드를 지원하는 아레스 캐드 2025 (3) / 천벼리 3D 비주얼 스타일 86 GPT 시대의 교육과 학습 / 양승규 GPT 시대의 슬기로운 AI 생활을 위해   Manufacturing 92 미래 공장을 위한 스마트 기계 르네상스 / 오병준 디지털 기반의 새로운 생산 환경과 제조 혁신   Analysis 96 앤시스 워크벤치를 활용한 해석 성공사례 / 김재은 우주발사체 하우징의 금속 적층제조 공정 시 과열 영역 예측 및 해결 방안 101 성공적인 유동 해석을 위한 케이던스의 CFD 기술 (11) / 나인플러스IT 혼합 오더 메시 커브 106 시뮤텐스 소프트웨어를 활용한 복합소재 해석 (4) / 씨투이에스코리아 고급 복합재 후변형 시뮬레이션을 위한 시뮤워프   Mechanical 109 제품 개발 혁신을 가속화하는 크레오 파라메트릭 11.0 (2) / 김주현 매스캐드 프라임 10.0 업데이트   Reverse Engineering 116 문화유산 분야의 이미지 데이터베이스와 활용 사례 (7) / 유우식 필사본 고서 데이터베이스     캐드앤그래픽스 2024년 7월호 목차 from 캐드앤그래픽스  
작성일 : 2024-06-27
HP, 차세대 AI PC ‘HP 옴니북 X’ 및 ‘HP 엘리트북 울트라’ 출시
HP가 차세대 AI PC인 HP 옴니북 X(HP Omnibook X)와 HP 엘리트북 울트라(HP Elitebook Ultra)를 국내 출시한다고 밝혔다. 두 제품은 강력하고 안전한 초경량 AI PC로 사용자에게 혁신적인 업무 환경 제공과 창작 경험을 제공할 예정이다. HP 옴니북 X와 비즈니스용 HP 엘리트북 울트라는 최신 암(ARM) 아키텍처 기반의 AI PC로 45 TOPS(초당 최대 45조 회 연산) 처리 속도를 제공하는 퀄컴 스냅드래곤 X 엘리트(Snapdragon X Elite)와 전용 신경망처리장치(NPU)를 탑재해 온디바이스에서 언어 모델과 생성형 AI를 실행한다. 또한 마이크로소프트의 ‘코파일럿+’를 지원해 소비자에게 보다 강력하고 개인화된 PC 경험을 제공한다. 더 나아가 HP 옴니북 X와 HP 엘리트북 울트라에 탑재된 AI 지원 소프트웨어는 사진, 오디오, 비디오의 생성과 편집 속도도 높였다.   ▲ HP 옴니북 X(왼쪽)와 HP 엘리트북 울트라(오른쪽)   HP의 차세대 AI PC는 AI 기능을 자체적으로 실행해 최대 성능, 효율, 프라이버시를 제공하고 혁신적인 배터리 수명을 지원한다. HP 옴니북 X와 HP 엘리트북 울트라는 세련된 디자인에 AI로 강화된 성능, 이동성을 갖추며 기술 분야 프리랜서와 업무 중 이동이 많은 사용자에게 향상된 PC 경험을 제공한다. 26시간의 배터리 수명을 제공하는 두 제품은 사용자의 생산성과 창의성을 끌어올리는데 초점을 맞췄다. 두 PC 모두 HP의 새로운 AI 헬릭스(Helix) 로고를 탑재해, AI에 최적화된 성능과 보안을 제공하는 HP AI 엔지니어링을 반영했다. 비즈니스용 PC인 HP 엘리트북 울트라는 높은 내구성과 얼룩을 방지하는 물리기상증착(PVD) 코팅 기술이 적용된 것이 특징이다. 사용자는 HP 옴니북 X와 HP 엘리트북 울트라를 이용해 높은 성능을 경험할 수 있다. 사용자는 용량이 큰 엑셀 파일을 약 2배 빠르게 열고, 최대 12시간 동안 마이크로소프트 팀즈(Teams) 통화를 하거나, 최대 22시간 동안 넷플릭스 스트리밍을 즐길 수 있다. 또한, 두 제품은 커버에 50% 재활용 알루미늄을 사용하고 포장재에는 100% 지속 가능한 자원을 사용했다. 두 제품은 미국 전자제품 친환경 인증제도에서 골드 등급 및 미 환경청이 고효율 제품에 부여하는 에너지 스타(ENERGY STAR) 인증을 획득했다. HP는 지속가능성 달성을 위한 노력을 지속하고 있으며, HP 엘리트북 울트라의 3년 보증은 다양한 환경에서 작업하는 전문가들에게 비용을 절감하고 시스템을 이용할 수 없는 시간인 다운타임을 줄인다. 한편, HP는 HP 옴니북 X와 HP 엘리트북 울트라에서 최신 AI 기능과 소프트웨어 경험을 활용할 수 있도록 설계했다고 전했다. 두 제품에 탑재된 폴리 카메라 프로(Poly Camera Pro)는 신경망처리장치인 NPU를 활용해 사용자가 움직일 때도 카메라가 자동으로 따라가며 화면 중앙에 위치하도록 하는 스포트라이트, 배경 흐림 및 교체, 자동 프레임 맞춤 등과 같은 AI 기능을 제공해 중앙처리장치(CPU) 성능을 보다 효율적으로 유지하면서 배터리 수명을 보존한다. 이번 HP AI PC에 처음으로 제공되는 HP AI 컴페니언(HP AI Companion)은 PC에 기본적으로 탑재된 AI 프로그램으로 더 높은 생산성을 위해 PC를 최적화한다. HP 엘리트북 울트라에는 HP의 울프 프로 세큐리티 NGAV(Wolf Pro Security Next Gen Antivirus)가 탑재돼 사용자에게 안전한 PC 환경을 제공한다. 이 보안 솔루션은 머신러닝을 통해 새로운 위협으로부터 사용자 정보를 보호한다. HP 코리아의 김대환 대표는 “AI 시대에서 ‘뛰어난 기기’는 더 이상 속도와 사양만으로 정의할 수 없다. 이제는 사용자가 기기를 이용해 얼마나 획기적인 경험을 만들어낼 수 있는지 또 가능하게 하는지에 초점을 맞춰야 할 때”라며, “AI 상용화로 개인용 PC 시장은 새로운 10년을 앞두고 있다. AI는 근본적으로 더 개인화된 그리고 창조적인 경험을 가능케 하고, 우리는 AI PC가 사용자의 개인적, 비즈니스적 삶에서 힘을 더해줄 것이라고 믿는다”고 말했다.
작성일 : 2024-06-25
엔비디아, “AI로 전력망과 유틸리티의 에너지 효율 향상 가능”
엔비디아의 젠슨 황(Jensen Huang) CEO가 미국 및 국제 유틸리티 협회인 에디슨 전기협회(Edison Electric Institute, EEI)의 연례 회의에서 “전력망과 이를 관리하는 유틸리티는 AI와 가속 컴퓨팅이 주도하는 차세대 산업 혁명에서 중요한 역할을 담당하고 있다”고 전했다. 젠슨 황은 청중으로 참여한 천여 명 이상의 유틸리티와 에너지 업계 경영진 앞에서 "디지털 인텔리전스의 미래는 매우 밝으며, 그만큼 에너지 분야의 미래도 밝다"고 말했다. 다른 기업들과 마찬가지로 유틸리티도 직원 생산성을 높이기 위해 AI를 적용할 것으로 예상된다. 젠슨 황 CEO는 에디슨 인터내셔널의 CEO이자 EEI의 회장인 페드로 피사로(Pedro Pizarro)와의 대담에서 “가장 큰 영향력과 수익은 전력망을 통한 에너지 공급에 AI를 적용하는 데에 있다”면서, 전력망이 AI 기반 스마트 계량기를 사용해 고객이 여분의 전력을 이웃에게 판매할 수 있도록 하는 방법을 하나의 예시로 설명했다.     오늘날의 전력망은 주로 몇몇 대형 발전소와 많은 사용자를 연결하는 단방향 시스템이다. 그러나 앞으로는 태양광 패널, 배터리, 전기 자동차 충전기를 갖춘 가정과 건물을 연결하는 태양광과 풍력 발전소를 통해 양방향의 유연하고 분산된 네트워크가 될 것으로 예상된다. 이는 방대한 양의 데이터를 실시간으로 처리하고 분석하는 자율 제어 시스템을 필요로 하는 대규모 작업으로, AI와 가속 컴퓨팅에 적합한 작업이다. 엔비디아는 유틸리티가 에지에서 AI 모델을 사용해 실시간 전력망 데이터를 처리하고 분석하기 위해 배포하는 엔비디아 젯슨 플랫폼, 전력망 복원력을 강화하기 위해 디지털 트윈을 구축해 예측 유지보수를 개선하는 AI와 옴니버스(Omniverse) 등 자사의 기술을 기반으로 AI가 전력망 전반의 사용 사례에 적용되고 있다고 소개했다.  이러한 발전은 엔비디아가 AI 배포에 필요한 비용과 에너지를 절감하면서 이루어졌다. 젠슨 황 CEO는 최근 컴퓨텍스(COMPUTEX) 기조연설에서 “지난 8년 동안 엔비디아는 최첨단 대규모 언어 모델(LLM)에서 AI 추론 실행의 에너지 효율성을 4만 5000배 향상시켰다”고 말했다. 엔비디아 블랙웰(Blackwell) 아키텍처 GPU는 AI와 고성능 컴퓨팅을 위해 CPU보다 약 20배 더 높은 에너지 효율을 제공한다. 이러한 작업을 위한 모든 CPU 서버를 GPU로 전환하면 사용자는 연간 37테라와트시(TWh)를 절약할 수 있다. 이는 이산화탄소 2500만 메트릭 톤과 500만 가구의 전기 사용량에 해당하는 양이다.
작성일 : 2024-06-20
AWS, ‘생성형 AI 액셀러레이터’에 2억 3000만 달러 투자 발표
아마존웹서비스(AWS)가 전 세계 스타트업의 생성형 AI 애플리케이션 개발 가속화를 위해 2억 3000만 달러를 지원한다고 발표했다. 이를 통해 AWS는 초기 단계 스타트업이 인공지능(AI) 및 머신러닝(ML) 기술을 활용을 확대할 수 있도록 AWS 크레딧, 멘토링 및 교육 등을 제공할 예정이다.  이번 투자는 ‘AWS생성형 AI 액셀러레이터(AWS Generative AI Accelerator)’ 프로그램의 두 번째 그룹에 대한 자금을 지원한다. AWS 생성형 AI 액셀러레이터는 생성형 AI를 활용해 복합적인 문제를 해결하고자 하는 상위 80개 초기 단계 스타트업에 업계 전문 지식과 최대 100만 달러의 AWS 크레딧을 제공하는 프로그램으로, 오는 7월 19일까지 AWS 웹페이지에서 신청이 가능하다. 스타트업은 AWS 크레딧을 사용해 AWS 컴퓨팅, 스토리지 및 데이터베이스 기술 뿐만 아니라 최저 비용으로 고성능을 제공하는 에너지 효율적인 AI칩 AWS 트레이니움(AWS Trainium)과 AWS 인퍼런시아2(AWS Inferentia 2)를 이용할 수 있다. 이 크레딧은 또한 기업이 자체 파운데이션 모델(FM)을 구축, 훈련할 수 있도록 지원하는 완전 관리형 서비스인 아마존 세이지메이커(Amazon SageMaker)에서 사용할 수 있으며, 아마존 베드록(Amazon Bedrock)을 통해 생성형 AI 애플리케이션을 쉽고 안전하게 구축하는 모델과 툴에 접근할 수 있다. AWS 생성형 AI 액셀러레이터는 금융 서비스, 의료 및 생명 과학, 미디어 및 엔터테인먼트, 비즈니스, 기후 변화 등의 분야에서 발생하는 복합적인 문제를 해결하기 위해 생성형 AI를 사용하고 있는 초기 단계의 스타트업을 발굴한다. 참여 기업은 ML 성능 향상, 스택 최적화, 시장 진출 전략에 관한 세션에 참여할 수 있다. 10주 동안 진행되는 이 프로그램은 참가자들의 관심사 및 산업 분야에 맞춰 비즈니스 및 기술 멘토와 연결해준다. 각각의 스타트업에게는 생성형 AI 솔루션 구축, 교육, 테스트 및 출시에 이용할 수 있는 최대 100만 달러의 AWS 크레딧이 제공된다. 또한, 이 프로그램의 파트너사인 엔비디아의 업계 전문가, 장비, 기술 세션을 이용할 수 있으며, 최첨단 스타트업 육성 프로그램인 엔비디아 인셉션(NVIDIA Inception)참가 기회도 주어진다. AWS 생성형 AI 액셀러레이터의 두번째 그룹에 대한 선정 결과는 9월 10일에 발표될 예정이며, 프로그램은 10월 1일 아마존 시애틀 캠퍼스에서 대면으로 시작된다. 선정된 80여개의 모든 스타트업은 12월 라스베이거스에서 열리는 리인벤트(re:Invent) 2024에서 잠재 투자자, 고객, 파트너, AWS 리더들에게 솔루션을 선보일 수 있는 기회를 얻는다. 생성형 AI 액셀러레이터 프로그램에 더하여, AWS는 아시아태평양 및 일본 지역의 스타트업을 대상으로 하는 ‘AWS 생성형 AI 스포트라이트’ 프로그램을 론칭했다. ‘AWS 생성형 AI 스포트라이트’는 생성형 AI 애플리케이션을 개발하는 아시아태평양 및 일본 지역의 프리 시드 및 시드 단계 스타트업을 위한 4주 간의 액셀러레이터 프로그램이다. 국내 15개의 스타트업을 포함해 최대 120개의 프리 시드 및 시드 단계 스타트업이 선정될 예정이다. 이 프로그램에 선정된 스타트업은 업계 전문가, 창업자, 투자자들로부터 비즈니스 및 기술 지식과 전문 지식을 습득하고, 아태지역 전역의 동료 그룹 멤버 혁신가 커뮤니티로부터 지원을 받아 AWS의 생성형 AI 도구와 서비스에 대한 이해와 숙련을 가속화할 수 있도록 지원한다. 또한 참가자들은 AWS 스타트업 플래그십 프로그램인 AWS 액티베이트(AWS Activate) 프로그램을 이용할 수 있으며, 액셀러레이터 약관 및 AWS의 재량에 따라 맞춤형 클라우드 크레딧을 제공받을 수 있다.  AWS 생성형 AI 스포트라이트 프로그램은 국내에서는 벤처캐피탈 매쉬업 벤처스(MashUp Ventures)와의 협력 하에 진행된다. 신청은 6월 30일까지 가능하며, 선정 결과는 7월에 발표된다. AWS의 맷 우드(Matt Wood) AI 제품 부문 부사장은 “AWS는 18년 이상 다른 어떤 클라우드 제공업체보다 더 많은 스타트업의 비즈니스 구축, 출시, 확장을 지원해왔으며, 전체 AI/ML 유니콘의 96%가 AWS에서 운영되고 있다”면서, “이번 프로그램을 통해 스타트업이 세계적인 규모의 비즈니스를 시작하고 확장할 수 있도록 지원하고, 전 세계의 학습, 연결 및 비즈니스 운영하는 방식에 변화를 일으킬 새로운 AI 애플리케이션을 출시하는데 필요한 구성 요소를 제공할 것”이라고 말했다. AWS의 맷 테일러 아시아태평양 및 일본 지역 스타트업 솔루션 아키텍처 총괄은 “AWS 글로벌 생성형 AI 액셀러레이터와 아태 및 일본지역의 AWS 스포트라이트 프로그램은 호주의 레오나르도 AI, 한국의 업스테이지 등과 같은 해당 지역의 스타트업이 AI 혁신의 물결을 가속화할 수 있도록 돕기 위한 AWS의 지속적인 노력의 일환”이라면서, “이 두 가지 상호 보완적인 액셀러레이터 프로그램은 아태 및 일본 지역의 다양한 성장 단계에 있는 스타트업이 생성형 AI 분야에서 혁신을 주도할 수 있도록 지원할 것이다. AWS가 설계한 최고의 가성비 ML 칩부터 기본 모델 학습 또는 미세 조정, AI 애플리케이션 구축 등을 통해, 스타트업들이 고객 경험과 우리가 생활하고 일하고 즐기는 방식을 혁신할 수 있기를 기대한다”고 밝혔다.
작성일 : 2024-06-17
복합재 성형-구조 연계 해석을 위한 시뮤드레이프
시뮤텐스 소프트웨어를 활용한 복합소재 해석 (3)   아바쿠스(Abaqus)용 추가 기능인 시뮤드레이프(SimuDrape)를 사용하면 기존 소프트웨어 아키텍처(아바쿠스)를 고급 복합재 성형 시뮬레이션에 사용할 수 있다. 시뮤드레이프 ABAQUS/CAE 플러그인을 통해 스탬프 및 멤브레인 성형 과정을 위한 완전 자동화된 모델 설정이 가능하며 이를 기반으로 시간 효율적인 방식으로 모델링 오류 없이 모델을 생성할 수 있다.   ■ 자료 제공 : 씨투이에스코리아, www.c2eskorea.com 정확한 복합재 성형 시뮬레이션을 위해서는 고급 재료 모델링이 핵심이다. 시뮤드레이프는 Abaqus/Explicit를 통해 엔지니어링 직물, 열가소성 테이프 적층판 및 프리프레그 재료를 사용한 복합재 성형 시뮬레이션의 특수성을 고려한 재료 모델을 제공한다.   시뮤드레이프 해석 흐름도     전처리 작업(Abaqus CAE) 툴 가져오기 다이, 스탬프 또는 멤브레인 자동 모델 셋업을 진행한다. 스탬프 포밍(Stamp Forming) 다단 성형(Sequential Draping) 이중막 성형(Double Diaphragm Forming)   모델 생성 운동학 모델을 기반으로 한 라미네이트의 완전 자동화된 적층 라미네이트의 단일 플라이 요소망 생성 플라이별 재료 및 접촉 속성 지정 운동학을 포함한 소재 고정장치(gripper) 모델링 중력 하중, 대칭면 등 경계조건 지정   해석(Abaqus Solver-Explicit) 아바쿠스 API는 성형 공정에서 복합재의 특성을 모델링하기 위해 사용된다.   후처리(Abaqus CAE/SimuDrape) 정보 내보내기 중립 교환 형식(VTK)으로 섬유 배향, 섬유 부피 함량 및 추가 상태 변수 내보내기를 할 수 있다.   소재 형상 최적화 최종 형상 근접된 포밍(Near-net shaped forming)을 위한 소재 형상을 결정한다.   시뮤드레이프의 주요 기능 다단 성형(Sequential Draping)     다단 성형 개념은 손으로 드레이핑하는 공정을 모방하여 성형 공정을 용이하게 할 수 있다. 시뮤드레이프를 사용하면 임의 개수의 스탬프를 사용하여 자동 모델 설정이 가능하므로 임의 순차 드레이핑 개념을 가상으로 최적화할 수 있다.   진공막 성형(Membrane Forming)     변형 가능한 멤브레인을 이용한 진공 보조 공정을 사용하면 대형 부품을 성형할 수 있다. 시뮤드레이프는 멤브레인 형성 공정과 초탄성 재료 모델링을 사용한 멤브레인 모델링을 위한 자동 모델 설정을 지원한다.   소재 고정장치(그리퍼)     그리퍼(gripper)는 결함 없는 성형을 가능하게 하는 장치이다. 시뮤드레이프는 운동학과 하중 적용을 고려한 정확한 그리퍼 모델링 접근 방식을 제공하므로 그리퍼 설정을 최적화할 수 있다.      ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2024-06-03
오픈소스 LLaVA 기반 멀티모달 생성형 AI 서비스 만들기
BIM 칼럼니스트 강태욱의 이슈 & 토크   이번 호에서는 챗GPT 4.0(ChatGPT 4.0)과 같은 LMM(Large langauge Multi-modal Model : 멀티모달 대규모 언어 모델)인 LLaVA(Large Language and Vision Assistant : 라바) 기반 멀티모달 생성형 AI 서비스 개발 방법을 설명한다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | http://www.facebook.com/groups/digestpodcast   라바는 이미지 투 텍스트(Image To Text)와 같은 언어-이미지 시각 어시스턴스(Language-Image Visual Assistant)를 지원하기 위해 ViT(Visual Instruction Tuning : 시각적 지시 조정)을 기반으로 개발된 멀티모달 모델 오픈소스이다. 예를 들어, 이미지를 단순히 분류해 주는 것이 아닌, 이미지 내 특정 객체들을 인식하고 관계를 설명할 수 있는 기술을 지원한다.   그림 1. 단독 로컬 서버 PC에서 라바 서비스 모습   참고로, ViT는 이미지의 특정 위치에 대한 객체 정보를 인식할 수 있도록 학습하는 기술이다. 예를 들어, GPT-4는 특정 부분의 시각적 특징을 인코딩하기 위해 YOLO 모델과 같이 경계 상자를 사용하고, CLIP 모델과 같이 해당 부분에 대한 텍스트 임베딩을 입력하여 학습한다. Visual Instruction Tuning : https://arxiv.org/abs/2304.08485   그림 2. ViT의 개념   라바의 NeXT 버전은 구글 제미나이 프로의 성능을 능가했다고 밝혔으며, 이전 버전인 라바 1.5에 비해 이미지 해상도, OCR 기능 등이 개선되었다고 한다.    그림 3. 라바 아키텍처   이번 호에서는 Ollama를 이용해 라바 NeXT를 로컬 PC에서 실행하는 방법을 따라해 본다.    라바의 개요 라바는 대형 멀티모달 모델로, GPT-4.0과 유사한 LMM을 개발하고자 마이크로소프트 연구팀에서 오픈소스로 개발되었다. MS는 라바의 논문, 깃허브(GitHub) 코드, 데모 사이트 등을 공개하였다.  LLaVA Demo : https://llava.hliu.cc LLaVA paper(Visual Instruction Tuning - Microsoft Research) : https://www.microsoft.com/en-us/research/publication/visual-instruction-tuning 라바 LMM은 비전 인코더, LLM 모델을 기반으로 개발되었으며, 이미지 투 텍스트에서 인상적인 성능을 보여준다. 라바는 비전 인코더로 오픈AI(OpenAI)에서 공개한 CLIP 모델을 사용했으며, 메타(페이스북)에서 공개한 LLaMA 기반 Vicuna LLM 모델을 사용했다. 학습은 A100 GPU×8×1 Day 와 60만개 데이터셋을 사용했다. 라바를 설치하고 실행해 보기 위해서는 다음의 개발 환경이 컴퓨터에 미리 설치되어 있다고 가정한다.(우분투, 엔비디아, 쿠다 등의 설치 방법은 지난 연재를 참고하기 바란다.) NVIDIA driver, CUDA, Python, anaconda, Ubuntu 22.04 Tensorflow, PyTorch Ollama(https://ollama.com/download)     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2024-06-03