• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "커뮤니티"에 대한 통합 검색 내용이 847개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
엔비디아 AI 파운드리, 메타 라마 3.1 활용해 기업 맞춤형 AI 강화
엔비디아가 메타(Meta)의 오픈소스 AI 모델 컬렉션인 라마 3.1(Llama 3.1)을 통해 전 세계 기업의 생성형 AI를 강화하는 엔비디아 AI 파운드리(NVIDIA AI Foundry) 서비스와 엔비디아 NIM 추론 마이크로서비스를 발표했다. 이를 통해 기업과 국가는 엔비디아 AI 파운드리를 통해 라마 3.1과 엔비디아 소프트웨어, 컴퓨팅, 전문성을 활용해 도메인별 산업 사용 사례에 맞는 맞춤형 ‘슈퍼모델’을 만들 수 있다. 기업은 자체 데이터는 물론, 라마 3.1 405B와 엔비디아 네모트론(Nemotron) 리워드 모델에서 생성된 합성 데이터로 이러한 슈퍼모델을 훈련할 수 있다. 엔비디아 AI 파운드리는 높은 수준의 퍼블릭 클라우드와 공동 설계된 엔비디아 DGX 클라우드(DGX Cloud) AI 플랫폼으로 구동된다. 이를 통해 AI 수요 변화에 따라 쉽게 확장할 수 있는 방대한 컴퓨팅 리소스를 기업에게 제공한다. 새로운 서비스는 기업뿐만 아니라 독자적인 AI 전략을 개발 중인 국가들의 맞춤형 대규모 언어 모델(LLM) 구축을 지원한다. 이들은 고유한 비즈니스나 문화를 반영하는 생성형 AI 애플리케이션을 위해 도메인별 지식을 갖춘 맞춤형 LLM을 구축하고자 한다. 엔비디아는 프로덕션 AI용 라마 3.1 모델의 엔터프라이즈 배포를 강화하기 위해 라마 3.1 모델용 엔비디아 NIM 추론 마이크로서비스를 다운로드할 수 있도록 제공한다. NIM 마이크로서비스는 프로덕션 환경에서 라마 3.1 모델을 배포하는 빠른 방법이며, NIM 없이 추론을 실행하는 것보다 최대 2.5배 더 높은 처리량을 제공한다. 기업은 라마 3.1 NIM 마이크로서비스를 새로운 엔비디아 네모 리트리버(NeMo Retriever) NIM 마이크로서비스와 결합해 AI 코파일럿, 어시스턴트, 디지털 휴먼 아바타를 위한 최첨단 검색 파이프라인을 구축할 수 있다.     엔비디아 AI 파운드리는 맞춤형 슈퍼모델을 빠르게 구축할 수 있는 엔드투엔드 서비스를 제공한다. 이는 엔비디아 소프트웨어, 인프라, 전문성 등을 개방형 커뮤니티 모델, 기술, 엔비디아 AI 에코시스템의 지원에 결합한다. 기업은 엔비디아 AI 파운드리를 통해 라마 3.1 모델과 엔비디아 네모(NeMo) 플랫폼을 사용해 맞춤형 모델을 만들 수 있다. 여기에는 허깅 페이스 리워드 벤치(Hugging Face RewardBench)에서 1위를 차지한 엔비디아 네모트론-4 340B 리워드 모델이 포함된다. 맞춤형 모델이 생성되면, 기업은 선호하는 클라우드 플랫폼과 글로벌 서버 제조업체의 엔비디아 인증 시스템(Certified Systems)에서 원하는 MLOps와 AIOps 플랫폼을 사용할 수 있다. 이를 통해 프로덕션 환경에서 실행할 수 있는 엔비디아 NIM 추론 마이크로서비스를 생성한다. 엔비디아 AI 엔터프라이즈(AI Enterprise) 전문가와 글로벌 시스템 통합 파트너는 AI 파운드리 고객과 협력해 개발부터 배포에 이르는 전체 프로세스를 가속화한다. 도메인별 모델을 만들기 위해 추가 훈련 데이터가 필요한 기업은 맞춤형 라마 슈퍼모델을 만들 때 라마 3.1 405B와 네모트론-4 340B를 함께 사용해 합성 데이터를 생성하면 모델 정확도를 높일 수 있다. 자체 훈련 데이터를 보유한 고객은 도메인 적응형 사전 훈련(DAPT)을 위해 엔비디아 네모로 라마 3.1 모델을 맞춤화해 모델 정확도를 더욱 높일 수 있다. 또한, 엔비디아와 메타는 개발자가 생성형 AI 애플리케이션을 위한 소규모 맞춤형 라마 3.1 모델을 구축하는 데 사용할 수 있는 라마 3.1의 증류 레시피를 제공하기 위해 협력하고 있다. 이를 통해 기업은 AI 워크스테이션과 노트북 같은 광범위한 가속 인프라에서 라마 기반 AI 애플리케이션을 실행할 수 있다. 엔비디아의 젠슨 황(Jensen Huang) CEO는 “메타의 오픈소스 모델인 라마 3.1은 전 세계 기업에서 생성형 AI 채택하는 데 있어 중요한 순간이다. 라마 3.1은 모든 기업과 업계가 최첨단 생성형 AI 애플리케이션을 구축할 수 있는 문을 열었다. 엔비디아 AI 파운드리는 라마 3.1을 전체적으로 통합했으며, 기업이 맞춤형 라마 슈퍼모델을 구축하고 배포할 수 있도록 지원할 준비가 돼 있다”고 말했다. 메타의 마크 저커버그(Mark Zuckerberg) CEO는 “새로운 라마 3.1 모델은 오픈소스 AI에 있어 매우 중요한 단계이다. 기업들은 엔비디아 AI 파운드리를 통해 사람들이 원하는 최첨단 AI 서비스를 쉽게 만들고 맞춤화하며, 엔비디아 NIM을 통해 배포할 수 있다. 이러한 서비스를 사람들에게 제공할 수 있게 돼 기쁘다”고 말했다.
작성일 : 2024-07-26
유니티, ‘제16회 유니티 어워즈’ 후보작 모집
유니티가 ‘제16회 유니티 어워즈(Unity Awards)’의 후보작 모집을 진행한다고 밝혔다. 올해부터 유니티 엔진과 다양한 플랫폼을 통해 예술적, 기술적 우수성을 보여준 국내외 유니티 작품을 선정해 글로벌 규모로 시상하는 유니티 어워즈는 전 세계 유니티 크리에이터와 게임을 즐기는 유저의 추천을 바탕으로 후보작 모집이 진행된다. 특히 애셋스토어, 커뮤니티 콘텐츠 등의 새로운 카테고리가 추가되어 총 24개 부문의 상을 수여함으로써 유니티 크리에이터의 창의적이고, 완성도 높은 작품들을 널리 알릴 계획이다.     유니티 어워즈는 게임과 에셋스토어, 커뮤니티 콘텐츠, 인더스트리, 인스퍼레이셔널(Inspirational) 등 총 5개 분야로 나뉘어 진행되며, 이 중 게임과 애셋스토어, 커뮤니티 콘텐츠 부문은 크리에이터 및 유저들이 직접 후보작 추천이 가능하다. 게임 분야는 ▲베스트 데스크톱/콘솔 ▲베스트 모바일 ▲베스트 AR/VR ▲베스트 멀티플레이어 ▲베스트 2D 비주얼 ▲베스트 3D 비주얼 ▲베스트 기대작 등 총 7개 부문에 대한 공모를 받는다. 2023년 7월 1일부터 2024년 6월 30일 사이에 출시된 게임을 대상으로 하며, '베스트 기대작'의 경우 2024년 6월 30일 이후 출시 예정이거나 얼리 액세스 출시 중인 게임을 대상으로 한다. 모든 출품작은 유니티 내부 심사위원회에서 검토 및 평가되며, 각 카테고리 당 최대 8개의 후보가 유니티 어워즈 최종 후보작으로 선정된다. 해당 작품들은 9월 19일 유나이트 바르셀로나(Unite Barcelona)에서 최초 공개될 예정으로, 이후 공개 투표가 진행된다. 수상작은 올 가을에 열리는 유니티 어워즈 쇼케이스(Unity Awards Showcase)에서 발표될 예정으로, 입상작에게는 크리스탈 트로피와 온라인 상에서 활용 가능한 배지는 물론, 글로벌 및 국내에서의 마케팅·홍보 기회가 다양하게 제공된다. 특히 10월 국내에서 진행되는 ‘유니티 어워즈 세레모니(Unity Awards Ceremony)’에 참여할 수 있는 기회도 제공될 예정이다.
작성일 : 2024-07-18
[인터뷰] 서효원 KAIST 산업및시스템 공학과 명예교수/초빙교수
PLM 업계 인터뷰 PLM의 역사와 발전을 위한 제언   서효원 KAIST 산업및시스템 공학과 명예교수/초빙교수 서효원 교수는 CAM/CAM, PLM 분야에 30여 년 몸담아 오고 있다. 한국CDE학회(구, 한국CAD/CAM학회) 창립에 참여하여, 현재는 고문으로 있으며, KAIST PLM Academy(KPA)를 설립 및 운영해 왔다. 현재는 힌국 산업지능화협회 PLM기술위원회와 디지털트윈 기술위원회 위원장을 맡고 있다. 최근 연구분야로는 PLM, EngNLP, Digital Twin 등의 연구 및 프로젝트를 진행하고 있다.   - 국내 PDM/PLM의 역사에 대해 소개한다면. 국내 PDM/PLM의 역사는 삼성전자가 첫 PDM 프로젝트를 시작한 1995년이 원년이 아닐까 싶다.(PDM/PLM 커뮤니티)  1995년 전후로 PDM연구회가 운영되었고, 한국CAD/CAM학회가 창립되면서 PDM/PLM에 대한 연구가 활발하게 이루어졌다. 또한 2005년 ‘PLM 베스트 프랙티스 컨퍼런스’가 처음으로 개최되면서 PLM에 대한 이슈 및 성공사례, 구축 사항 등에 관한 실질적인 정보를 제공, 해마다 좋은 반응을 이끌어내고 있다. 2006년 12월에는 현대차, 삼성전자, LG전자 등 기업들이 주도하는 ‘PLM 컨소시엄’이 창립되면서 PLM의 국내 기업에 보급도 활발해졌다. 초기에는 데이터 관리 중심 PDM의 이름으로 발전 하였고, CPC(PTC)의 개념, PLM(IBM)의 개념으로 발달하였다. 이때 국내에 BPR (Business Process Reengineering : 비즈니스 프로세스 혁신) 개념이 활발해지면서 제조 기업에 BPR/PLM이 하나의 쌍을 이루어 프로젝트가 진행되었다. 이러한 PLM은 2000년부터 2015년까지 대기업을 중심으로 본격적으로 도입되면서 국내 PLM의 최고의 성숙기를 맞이하였다. 2000년 국산 PDM 솔루션으로 DynaPDM이 개발되는 등 이후에는 중소기업에도 PLM 도입이 활발해지기 시작했으며 중소형 PLM은 국내 PLM이 어느 정도 역할을 하기 시작했다.  디지털 트윈(Digital Twin)은 2002년 미국 마이클 그리브스 박사가 제품생애주기관리(PLM)의 이상적 모델로 설명하면서 등장하였다. 이 개념에 대해 NASA의 존 비커스 박사가 디지털 트윈으로 명명하고, 2010년 NASA가 우주 탐사 기술 개발 로드맵에 디지털 트윈을 반영하면서 우주 산업에서 쓰여 온 것으로 알려지고 있다. 이러한 디지털 트윈의 개념이 보급되고 최근 디지털 트윈의 중요성이 산업현장에서 부각되면서 PLM의 역할이 중요해지고 있다.   - PLM 관련 진행해 왔던 일 중에서 의미 있는 일이나 에피소드가 있다면. 제품개발/PLM 관련 일들중 과목개발, 학생 배출, 논문(국내외, SCI 등), ASME Conf Best Paper Award (Product Ontology Framework), IEEE Best Paper Honorable Mention (Estimation of Product Cyclic Process) 등이 있었지만 가장 의미 있는 일은 KAIST PLM Academy (KAIST PLM 전문가과정/KPA) 설립하여 PLM 기업 전문가 250 여분을 배출했다는 것이 가장 의미 있는 일이었다고 생각한다. KPA를 통해 전문가 배출뿐만 아니라, 강의에 참여한 분들도 기업 전문가 분들이 대부분이셨기 때문에 PLM 산업 현장에서 마주 할 때 사전에 교감을 갖고 있어 일을 협력적으로 진행하게 되는 경우가 종종 있다는 말을 전해 들을 때 PLM 분야에 조금은 공헌한 것으로 보람을 느낀다.   - 최근 PLM 트렌드와 향후 PLM//DX 관련 전망은 어떠하다고 보는가? 최근에 GPT 및 디지털트윈이 큰 화두로 떠 오르고 있다. 디지털 트윈은 그동안 공장자동화, 컴퓨터통합생산, 인더스트리 4.0, CPS 시스템 등의 연장선 상에서 발전되고 있으며, 향후 물리-디지털 트윈간 양방향 커뮤니케이션에 기반한 보다 왼성된 디지털 트윈으로 발전하여 정확한 시뮬레이션 및 예측, 그에 따른 물리 트윈 운영 오페레이션 또는 가이드가 이루질 수 있다.  GPT는 인공지능에 의한 자연어 처리를 대중적으로 활용할 수 있는 수준으로 발전하였다. 이러한 GPT 기술은 제조기업 또는 엔지니어링 분야에서 핵심적인 역할을 할 것이다. 제품설계, 생산, 유지보수 및 고객서비스 등 모든 분야에서 엔지니어링 정보를 생성, 활용하고 있는데 GPT 가 훌륭한 협업자가 될 것이며, 나아가 단계적으로 전문가 작업을 대체해 나길 수도 있을 것이다. 제조 기업에 GPT가 효과적으로 활용되기 위해서는 ‘생성형’이 갖고 있는 이슈가 극복되어져야 할 것이다. GPT 기술은 PLM 기술의 혁신적 발전을 가져올 것이며, GPT-enabled PLM은 디지털 스레드 기술을 기반으로 하여 디지털트윈 발전의 핵심적인 역할을 할 것이다.   - PLM/DX 분야의 발전을 위한 제언이 있다면. 국내 PLM/DX 분야의 발전을 위해서 몇 가지 제언을 드립니다. PLM/DX 분야에서 활동하셨던 분들이 축적한 노하우를 디지털화 시켜 다음 세대에 물려줄 수 있어야 할 것이다. 이 안에는 '문제점(비식별화된)''도 포함되어야 할 것이다. 또한 국내 기업의 제품개발의 특성과 해외 솔루션의 GAP의 모니터링을 통해 국내 기업의 니즈가 솔루션을 리딩할 수 있도록 해야 할 것이다. 마지막으로 인공지능, GPT와 같은 기술을 빠르게 PLM/DX와 접목시켜야 하고, 이를 위해 Cross-Over 협력체계를 갖추는 것이 필요할 것이다.      
작성일 : 2024-06-08
[온에어] 생성형 AI LLM과 스테이블 디퓨전 최신 기술 및 활용 동향
캐드앤그래픽스 CNG TV 지식방송 지상 중계   지난 4월 29일 CNG TV는 ‘생성AI LLM과 스테이블 디퓨전 최신 기술 및 활용 동향’을 주제로, 생성형 AI 전문가를 초청해 이야기를 나눴다. 이번 방송에서는 최근 핫이슈로 떠오른 AI 관련 기술 동향과 개발 내용, 그리고 텍스트 입력만으로 이미지 생성이 가능한 인공지능 모델인 스테이블 디퓨전(Stable Diffusion)을 활용한 그래픽 시장의 다변화에 대해 전망해 보는 시간이 마련됐다. 자세한 내용은 다시 보기를 통해 확인할 수 있다. ■ 박경수 기자   이날 방송은 한국건설기술연구원 강태욱 연구위원이 사회를 맡고, 소이랩(SOY.LAB) 최돈현 대표와 인공지능팩토리 김태영 대표가 발표자로 참석했다. 이번 방송에서는 지난 2022년 말에 챗지피티(ChatGPT)를 시작으로 본격적인 생성형 AI 시대가 문을 열고 1년여의 시간이 지난 현재 어떤 일들이 진행되고 있는지 소개되어 관심을 모았다. 특히, AI는 이제 우리의 사회, 문화, 경제 모든 부문에서 강력한 파워와 영향력을 발휘하며 게임체인저로 부상했다. 소이랩 최돈현 대표는 “VFX 영상산업에서 시네마틱과 필름 애니메이션, 그리고 게임 콘텐츠 제작 분야에서 다양한 경력을 쌓아 왔는데, 지난해부터 생성형 AI를 접하고 나서 AI와 VFX 경험들을 통해 다양한 콘텐츠 제작과 커뮤니티 활성화하기 위해 소이랩을 창업하고 국내외 아티스트들과 협력하고 있다”고 설명했다.    ▲ 소이랩 최돈현 대표   최돈현 대표는 “소이랩은 현재 개발은 물론 콘텐츠, 커뮤니티, 컨설팅, 교육에 이르기까지 다양한 주제로 크리에이터와 커뮤니티 사이에서 아티스트들이 더 좋은 콘텐츠를 만들 수 있도록 정보를 제공하는 있다”며, “커뮤니티 부분에서는 페이스북에 스테이블디퓨전코리아라는 유저 그룹을 만들어서 운영 중인데 회원 수가 1만 5000명을 넘어섰다”고 말했다. 또한 “유튜브에서는 스테이블 디퓨전의 업그레이드된 기술과 다양한 활용법들을 소개하고 있고, 패스트컴퍼니와 협업을 통해 다양한 교육 콘텐츠도 제공하고 있다”고 설명했다. 인공지능팩토리 김태영 대표는 ‘생성형 AI LLM 최신 기술 및 활용 동향’을 주제로 이야기하면서 어떻게 창업하게 됐는지, 현재 AI를 활용해 어떤 작업들을 하고 있는지 소개했다. 김태영 대표는 “소이랩의 경우에는 이미지 생성 AI 쪽에서 큰 생태계와 함께 비즈니스 모델을 가지고 있다면, 인공지능팩토리는 AI의 전반적인 내용을 가지고 또 다른 생태계를 형상하고 있다고 보면 된다”고 말했다.   ▲ 인공지능팩토리 김태영 대표   그는 또 “현재 AI 인플루언서인 ‘타이리’를 제작해 운영 중이다. 예전에는 이런 인플루언서 콘텐츠를 제작하고 운영하려면 한 팀이 움직여야 했다면, 이제는 AI 기술을 활용할 수 있게 되면서 하나의 전문팀이 움직이는 것과 같은 퀄리티는 아닐지라도 개인 혼자서 충분히 가상의 인플루언서를 제작하고 운영할 수 있게 됐다”고 설명했다. 이번 방송을 통해 한번 더 확실하게 알 수 있게 된 점은 생성형 AI가 시장의 대세가 됐다는 사실이다. 모든 산업 분야에서 AI 기술을 활용한 비즈니스에 촉각을 세우고 있는데, 이제는 누가, 언제, 어디에서, 어떤 방식으로 AI 기술을 접목해 파급력 있는 AI 모델 혹은 콘텐츠를 생성할 것인가에 관심이 모아지고 있다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-06-03
지멘스, 반도체 산업의 기술 및 인재 부족 문제 해결 위해 ‘반도체 교육 연합’ 합류
지멘스 디지털 인더스트리 소프트웨어, 지멘스 EDA 사업부는 교사와 학교, 대학, 출판사, 교육 기술 기업, 연구 기관 등 집적 회로(IC) 설계 및 전자 설계 자동화(EDA) 산업 전반에 걸쳐 성공적인 실무 커뮤니티 구축과 육성을 지원하기 위해 ‘반도체 교육 연합(Semiconductor Education Alliance)’에 가입했다고 발표했다. 전 세계 반도체 분야의 교육 및 기술 격차를 해소하기 위해 2023년에 Arm이 설립한 반도체 교육 연합은 업계, 학계, 정부 전반의 주요 이해관계자가 모여 교사, 연구원, 엔지니어, 학습자가 새롭고 빠른 교육 경로를 이용할 수 있도록 지원하는 리소스를 제공한다.     지멘스 디지털 인더스트리 소프트웨어의 마이크 엘로우(Mike Ellow) 전자 설계 자동화 부문 수석 부사장은 “지멘스가 반도체 교육 연합에 가입한 것은 EDA 산업 전반에 걸쳐 학계 및 업계 파트너의 참여를 통해 STEM 교육 및 연구 분야의 실무 커뮤니티를 촉진하기 위한 공동 노력의 중요한 진전”이라면서, “이 동맹의 일환으로 우리는 반도체 산업의 인력 개발을 목표로 하는 특정 프로젝트를 수행하여 관련된 모든 관계자들에게 혜택을 제공한다. 또한 지멘스는 다양한 포럼을 통해 유연하고 연합된 개방형 모델로 리소스, 역량 및 전문 지식을 공유하는 것을 목표로 하고 있다”고 전했다. Arm의 칼레드 벤크리드(Khaled Benkrid) 교육 및 연구 담당 총괄 디렉터는 “전 세계 반도체 업계는 기술과 인재 부족에 직면해 있어 업계 전반의 공동 대처가 필요하다”면서, “반도체 교육 연합은 반도체 기술 문제를 해결하기 위해 만들어졌으며, 업계가 인재 파이프라인을 육성하기 위해 함께 힘을 모으는 과정에서 지멘스가 함께하여 역량을 크게 강화할 수 있게 되었다”고 말했다. 지멘스 디지털 인더스트리 소프트웨어의 도라 스미스(Dora Smith) 글로벌 학술 프로그램 총괄 디렉터는 “딜로이트에 따르면 반도체 산업은 글로벌 수요를 따라잡기 위해 2030년까지 100만 명 이상의 숙련된 인력이 추가로 필요하다”면서, “반도체 교육 연합을 통해 Arm과 협력함으로써 혁신을 주도하고 시장 성장을 이끌어가는데 필요한 인재를 충분히 확보하기 위해 공동으로 연결할 수 있게 되었다. 전문성을 갖춘 이 에코시스템과 협력하여 미래를 대비하는 인력을 양성할 수 있기를 기대한다”고 말했다.
작성일 : 2024-05-20
 LH, 건설산업 혁신 및 OSC시장 확대를 위한 '2030 LH OSC주택 로드맵'수립
LH는 올해 세종 5-1생활권(스마트시티 국가시범도시) L5블록에 국내 최대 규모 모듈러주택을 스마트 턴키방식으로 추진한다. 아울러 건설산업체계를 혁신하고 모듈러주택 시장 활성화를 위해 「2030 LH OSC주택 로드맵」을 수립했다고 밝혔다. * OSC(Off-Site Construction) : 탈현장건설 기반으로 공장에서 주요 부재의 70% 이상을 사전 제작하여 현장으로 운반 후 조립하는 공법 * 스마트 턴키 : 공사 설계부터 시공까지 이르는 전 과정에 스마트 건설기술(모듈러, BIM 등)을 반영해 일괄입찰하는 방식 모듈러주택은 OSC 공법을 활용해 공장에서 부재의 80% 이상을 사전 제작해 현장에 운반 후 설치하는 주택이다. 철근콘크리트 공법 대비 약 30% 공사기간 단축이 가능하고, 건설 중 배출되는 탄소와 폐기물도 줄일 수 있어 친환경 건설이 가능하다.   공동주택 최초로 스마트 턴키 방식 적용 LH는 세종시 합강동 소재 세종 5-1생활권 L5블록에 국내 최초 공동주택 스마트 턴키 방식 사업을 적용해 총 450세대의 모듈러주택을 통합공공임대로 건설한다. 공사기간을 단축해 신속하게 주택을 공급할 뿐만 아니라 로봇배송, 제로에너지, 스마트 커뮤니티 등이 반영된 스마트 주거단지로 조성한다. * 세종 L5블록: 통합공공임대 1,327호(지상 12층), 모듈러주택 450호 적용되어 모듈러주택 세대수 기준으로 국내 최대 규모 모듈러주택 표준화 및 핵심기술 도입을 위해 설계 단계부터 제조사, 설계사, 건설사 등이 협업해 모듈러주택 특화 전용 평면을 적용한다. 아울러 층간소음 차단 성능 실증을 통해 국내 최고 수준의 바닥충격음 성능을 확보하고, 모듈러주택의 강점을 살려 장수명주택 인증도 추진한다. 3월 말 공사 입찰공고를 시작으로 입찰 참가자격 사전심사(4월), 설계도서 접수(8월), 설계평가(9월)를 거쳐 업체를 선정하여, 오는 ’27년 5월 준공할 계획이다. 2030 LH OSC 로드맵 제시 LH는 국정과제인 모듈러주택 활성화와 OSC산업 선도를 위해 「2030 LH OSC주택 로드맵」을 수립하고 연내 국내 최초 모듈러주택 스마트 턴키방식(세종 5-1생활권 L5BL)과 국내 최고층(의왕초평 A4BL) 모듈러주택 건설을 함께 추진해 나간다. 과거 OSC 방식은 프로젝트 위주의 단발성 시범사업으로 시행돼 경제성이 떨어지고 공사기간 단축 효과가 다소 미흡했다. LH는 로드맵을 통해 2030년까지 공사기간 50% 단축, 기존 공법 수준의 공사비 확보 등을 목표로 한 중장기 추진계획을 수립하고 점진적으로 모듈러·PC 주택 발주를 확대(’23~25년 1천호/年→’26~29년 3천호/年)해 나갈 계획이다. 국내 OSC 주택시장의 안정적 정착을 위해 모듈러주택 설계 표준화, 제품화를 위한 LH 자체기술을 개발하고, 민간 신기술도 검증할 수 있는 Test-Bed를 제공할 예정이다. 오주헌 LH 공공주택본부장은 “건설 생산체계를 현장중심에서 공장생산으로 전환하는 건설산업 혁신이 필요한 시점”이라며 “앞으로설계․감리 특례, 지급자재 적용 예외 등 OSC 맞춤형 제도개선을 적극적으로 추진해 스마트 건설산업 생태계 조성 기반을 마련해 나갈 것”이라고 밝혔다.   「2030 LH OSC 로드맵」  단계별 추진방향  ㅇ (고층화) OSC 산업화를 위해 모듈러 18층, PC 15층 고층화 기술 구현 (‘24~25년)  ㅇ (표준화) OSC 요소기술을 반영한 표준 설계·평면 적용을 통해 모듈·부품의 대량·자동화 생산체계 등 경제성 확보 기반 마련 (‘26~27년)  ㅇ (핵심기술 선도) 경량화, 제품화, 건식화 등 핵심기술 개발 및 실용화 선도  - 층간소음 및 장수명주택 실증사업을 통해 기존주택 대비 우수한 성능확보 (‘28년)  ㅇ (OSC 정착) 고품질 스마트주택을 연 5천호 수준으로 공급하여 시장확장 (‘30년~)
작성일 : 2024-04-24
인텔, 기업용 AI를 위한 ‘가우디 3’ 및 AI 개방형 시스템 전략 발표
인텔은 연례 고객 및 파트너 콘퍼런스인 ‘인텔 비전 2024’에서 기업용 생성형 AI를 위한 성능, 개방성 및 선택권을 제공할 인텔 가우디 3(Intel Gaudi 3) 가속기를 공개했다. 그리고 이와 함께 생성형 AI 도입 가속화를 위한 새로운 개방형 스케일러블 시스템 스위트, 차세대 제품 및 전략적 협력도 발표했다.  인텔 가우디 3 AI 가속기는 공통 표준을 따르는 이더넷을 통해 최대 수만 개의 가속기를 연결해 AI 시스템을 구동한다. 인텔 가우디 3는 BF16에 대해 4배 더 많은 AI 컴퓨팅 및 기존 모델 대비 1.5배 커진 메모리 대역폭을 지원한다. 인텔은 “이 가속기는 생성형 AI를 대규모로 배포하려는 글로벌 기업에게 AI 학습 및 추론 분야에서 획기적인 도약을 지원할 수 있다”고 설명했다.   ▲ 인텔 팻 겔싱어 CEO   인텔은 가우디 3가 70억 개 및 130억 개의 매개변수가 있는 라마2(Llama2) 모델과 GPT-3 1750억개 매개변수 모델 전체에서 엔비디아 H100보다 평균 50% 더 빠른 학습 시간을 제공할 것으로 예상하고 있다. 또한 인텔 가우디 3 가속기 추론 처리량은 평균적으로 H100보다 50%, 전력 효율성의 경우 라마(Llama) 70억 개 및 700억 개 매개변수와 팔콘(Falcon) 1800억 개 매개변수 모델에서 평균 40% 더 우수할 것으로 예상한다. 인텔 가우디 3는 개방형 커뮤니티 기반 소프트웨어와 업계 표준 이더넷 네트워킹을 제공한다. 또한 기업은 싱글 노드에서 클러스터, 슈퍼 클러스터, 수천 개의 노드가 있는 메가 클러스터로 유연하게 확장할 수 있으며, 최대 규모의 추론, 미세 조정 및 학습을 지원한다. 인텔 가우디 3는 2024년 2분기에 델 테크놀로지스, HPE, 레노버, 슈퍼마이크로를 비롯한 OEM 시스템에 탑재될 예정이다. 또한 인텔은 하드웨어, 소프트웨어, 프레임워크, 툴 등을 포함한 개방형 스케일러블 AI 시스템에 대한 전략을 제시했다. 인텔의 이러한 접근법은 기업별 생성형 AI 요구 사항을 충족하는 솔루션을 제공하기 위한 것으로, 다양하고 개방적인 AI 생태계를 가능케 한다. 여기에는 장비 제조업체, 데이터베이스 공급자, 시스템 통합업체, 소프트웨어 및 서비스 공급자 등이 포함된다. 또한, 기업 고객이 이미 알고 신뢰하는 생태계 파트너 및 솔루션을 활용할 수 있는 부분도 장점으로 꼽힌다. 인텔은 다양한 업계의 기업 고객 및 파트너들과 새롭고 혁신적인 생성형 AI 응용 프로그램을 개발하기 위해 인텔 가우디를 활용해 협력하고 있다고 밝혔다. 예를 들어, 네이버는 클라우드에서부터 온디바이스까지 첨단 AI 서비스를 전세계에 배포하기 위해 강력한 LLM 모델을 개발하고 있는데, 대규모 트랜스포머 아키텍처 기반 모델의 컴퓨팅 작업을 뛰어난 와트 당 퍼포먼스로 실행하기 위해 인텔 가우디를 사용한다. 보쉬는 자사 기반 모델 개발을 포함한 스마트 제조의 가능성을 모색하고 있으며, 합성 데이터 세트 생성과 더불어 자동 광학 검사와 같은 견고하고 분산된 트레이닝 세트 제공한다. 이에 더해 구글 클라우드, 탈레스, 코히시티(Cohesity)가 클라우드 환경에서 기밀 컴퓨팅 역량을 활용할 수 있도록 인텔과의 협력을 발표했다.    인텔은 인텔 가우디 3 가속기 외에도 엔터프라이즈 AI의 모든 부문에 걸쳐 차세대 제품 및 서비스에 대한 업데이트를 발표했다. 새로운 인텔 제온 6 프로세서는 폐쇄적 데이터를 사용하여 비즈니스에 특화된 결과를 생성하는 RAG를 포함한 최신 생성형 AI 솔루션을 실행할 수 있다. 2024년 출시될 차세대 인텔 코어 울트라 클라이언트 프로세서 제품군(코드명 루나레이크)은 차세대 AI PC를 위해 플랫폼 기준 100 TOPS 이상, NPU에서 45TOPS 이상을 제공할 예정이다. 인텔은 울트라 이더넷 컨소시엄(UEC)을 통해 AI 패브릭을 위한 개방형 이더넷 네트워킹을 선도하며 다양한 AI 최적화 이더넷 솔루션을 선보이고 있다.  인텔의 팻 겔싱어(Pat Gelsinger) CEO는 “혁신은 전례 없는 속도로 발전하고 있으며, 반도체가 이 모든 것을 가능하게 한다. 또한 모든 기업이 빠르게 AI 기업으로 거듭나고 있다”면서, “인텔은 PC부터 데이터센터, 에지에 이르기까지 기업 전반의 모든 곳에 AI를 가능하게 하고 있다. 인텔의 최신 가우디, 제온 및 코어 Ultra 플랫폼은 변화하는 고객과 파트너의 요구를 충족하고 앞으로의 엄청난 기회를 활용할 수 있도록  유연한 솔루션 세트를 제공하고 있다”고 밝혔다.
작성일 : 2024-04-11
인텔, 기업용 AI를 위한 가우디 3 및 AI 개방형 시스템 전략, 네이버와 협력 발표
인텔코리아가 4월 11일 여의도 FKI타워(전경련회관)에서 기자간담회를 열고, 미국 애리조나에서 4월 8일~9일(현지시간) 진행된 '인텔 비전 2024'에서 발표된 주요 내용들을 소개했다. 특히 올해 하반기에 새롭게 출시 예정인 기업용 AI를 위한 가우디 3에 대해 자세히 소개하는 시간을 마련했다. 한편 인텔은 네이버가 AI 서비스 개발을 위해 인텔의 가우디 2를 테스트베드로 사용하는데 협력하기로 했다고 전했다. ▲ 인텔 비전 2024을 소개한 국내 기자간담회 현장모습 먼저 인텔의 연례 고객 및 파트너 컨퍼런스인 인텔 비전 2024(Intel Vision 2024)에서 인텔은 기업용 생성형 AI(GenAI)를 위한 성능, 개방성 및 선택권을 제공할 인텔 가우디 3(Intel Gaudi 3) 가속기와 함께 생성형 AI 도입 가속화를 위한 새로운 개방형 스케일러블 시스템 스위트, 차세대 제품 및 전략적 협력을 발표했다.  인텔 CEO 팻 겔싱어(Pat Gelsinger)는 “혁신은 전례없는 속도로 발전하고 있으며, 반도체가 이 모든 것을 가능하게 한다. 또한 모든 기업이 빠르게 AI 기업으로 거듭나고 있다”라며 “인텔은 PC부터 데이터센터, 엣지에 이르기까지 기업 전반의 모든 곳에 AI를 가능하게 하고 있다. 인텔의 최신 가우디, 제온 및 코어 Ultra 플랫폼은 변화하는 고객과 파트너의 요구를 충족하고 앞으로의 엄청난 기회를 활용할 수 있도록  유연한 솔루션 세트를 제공하고 있다”고 밝혔다. ▲ 인텔 비전 2024에서 인텔의 새로운 비전을 소개한 인텔 팻 겔싱어(Pat Gelsinger) CEO  인텔은 기업이 생성형 AI를 파일럿 단계에서 업무에 적용하는 것으로 확장하고자 한다고 전했다. 이를 위해서는 복잡성, 단편화, 데이터 보안 및 규정 준수 요구 사항을 해결하면서 인텔 가우디 3(Intel Gaudi 3) AI 가속기와 같이 성능, 비용 및 전력 효율성이 뛰어난 프로세서를 기반으로 구축된 즉시 도입 가능한 솔루션이 필요하다고 소개했다. 인텔 가우디 3 AI 가속기는 공통 표준을 따르는 이더넷을 통해 최대 수만 개의 가속기를 연결해 AI 시스템을 구동한다. 인텔 가우디 3는 BF16에 대해 4배 더 많은 AI 컴퓨팅 및 기존 모델 대비 1.5배 커진 메모리 대역폭을 지원한다. 이 가속기는 생성형 AI를 대규모로 배포하려는 글로벌 기업에게 AI 학습 및 추론 분야에서 획기적인 도약을 지원할 수 있다. 엔비디아 H100과 비교하여 인텔 가우디 3는 70억개 및 130억개의 매개변수가 있는 라마2(Llama2) 모델과 GPT-3 1750억개 매개변수 모델 전체에서 평균3 50% 더 빠른 학습 시간을 제공할 것으로 예상한다. 또한 인텔 가우디 3 가속기 추론 처리량은 평균적으로 H100보다 50%1, 전력 효율성의 경우 라마(Llama) 70억개 및 700억개 매개변수와 팔콘(Falcon) 1800억개 매개변수 모델에서 평균 40% 더 우수할 것으로 예상한다. 인텔 가우디 3는 개방형 커뮤니티 기반 소프트웨어와 업계 표준 이더넷 네트워킹을 제공한다. 또한 기업은 싱글 노드에서 클러스터, 슈퍼 클러스터, 수천 개의 노드가 있는 메가 클러스터로 유연하게 확장할 수 있으며, 최대 규모의 추론, 미세 조정 및 학습을 지원한다. 인텔 가우디 3는 2024년 2분기에 델 테크놀로지스(Dell Technologies), HPE, 레노버(Lenovo), 슈퍼마이크로(Supermicro)를 비롯한 OEM 시스템에 탑재될 예정이다. 한편 인텔코리아 나승주 상무는 인텔 비전 2024에서 발표된 내용들을 간략히 정리해 소개하는 브리핑을 진행했다. 나승주 상무는 인텔은 기업용 AI 활성화를 위해 개방형 생태계의 힘을 적극적으로 활용할 계획이라며, 가우디 3 AI 가속기는 생성형 AI를 위한 선택권을 제공한다고 설명했다. 기업용 AI는 확장 가능한 개방형 시스템이 될 전망이라고 말했다. 또한 고객 및 파트너 모멘텀으로 네이버 등과 협력하고 있다. 또한 차세대 제품 및 서비스를 위해 가우디 3 등 제품 개발에 힘쓸 계획이라고 밝혔다. ▲ 인텔코리아 나승주 상무 이번 브리핑에 앞서 진행된 네이버와의 협력에 대해서 특별 게스트로 네이버클라우드 이동수 박사(하이퍼스케일 AI담당이사)가 온라인 참석해 협력 관계애 대한 설명과 함께 질의응답에 참여했다. 네이버클라우드 이동주 박사는 AI 반도체 평가와 분석하는 과정에서 인텔 가우디 3의 성능이 뛰어나다는 것을 알게 됐다며, AI 서비스를 지원하기 위해서는 AI 개발을 좀 더 손쉽게 하기 위해서는 소프트웨어 작업들을 많이 하고 있다고 밝혔다. 단기간에 그칠 것이 아니라 국내 스타트업들이 함께 AI 협력을 기대하고 있다고 소개했다. ▲ 네이버클라우드 이동수 박사(하이퍼스케일 AI담당이사) 
작성일 : 2024-04-11