• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "NLP"에 대한 통합 검색 내용이 105개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
구글, 제5회 ‘구글 포 코리아’ 개최… “AI로 창의성과 혁신 생태계 강화”
구글코리아가 7월 2일 ‘세계적인 문화강국 및 기술강국 대한민국의 오늘, AI와 함께’를 주제로 ‘구글 포 코리아 2025’ 행사를 개최했다. 올해로 5회차를 맞은 이번 행사에서는 AI가 한국의 창의성과 혁신 생태계에 기여하는 방안을 다각도로 조명하는 자리로 마련됐다. 이번 행사에는 윌슨 화이트 구글 아시아태평양 대외정책협력 총괄 부사장, 마니쉬 굽타 구글 딥마인드 시니어 디렉터, 사이먼 토쿠미네 구글 랩스 디렉터, 앤드류 김 구글 리서치 시니어 디렉터, 김경훈 구글코리아 사장, 이화영 LG AI연구원 상무 등 국내외 주요 인사들이 대거 참석했으며, 최민희 과학기술정보방송통신위원회 위원장은 영상으로 축사를 전했다. ▲ 구글 포 코리아에서 발표하고 있는 윌슨 화이트(Wilson White) 구글 아시아태평양 대외정책협력 총괄 부사장   윌슨 화이트 부사장은 “대한민국은 AI 시대를 선도할 독보적인 기술력과 창의성을 갖춘 국가”라며, AI가 한국의 경제 전반에 새로운 가능성을 열고 구글 역시 긴밀히 협력해 나갈 것이라고 밝혔다. ▲ 구글 포 코리아에서 발표하고 있는 마니쉬 굽타(Manish Gupta) 구글 딥마인드 시니어 디렉터   마니쉬 굽타 시니어 디렉터는 제미나이(Gemini), 프로젝트 아스트라(Project Astra), 알파폴드(AlphaFold) 등 AI 연구가 창작과 과학 혁신에 실질적으로 기여하고 있음을 강조했다. ▲ 패널 토크를 진행하고 있는 사이먼 토쿠미네(Simon Tokumine) 구글 랩스 디렉터, 이낙준 작가 겸 크리에이터, 구범준 세바시 대표PD 행사 중 진행된 첫 번째 패널 토크에서는 사이먼 토쿠미네 디렉터, 이낙준 작가, 구범준 세바시 대표PD가 참여해, AI가 창작자들의 리서치와 아이디어 발굴을 지원하는 지적 어시스턴트로 진화하고 있다고 설명했다. 구글의 노트북LM(NotebookLM), 위스크(Whisk), 비오(Veo) 등이 창작 몰입을 돕는 대표 사례로 소개됐다. 두 번째 세션에서는 앤드류 김 시니어 디렉터와 이화영 상무가 AI가 산업 전반에 미치는 구조적 변화와 협력의 중요성에 대해 설명했다. 이 상무는 “AI는 산업 생태계를 함께 조성해 나가야 할 공동의 과제”라며, 글로벌 AI 기업과의 개방형 협력 생태계 구축이 필수임을 강조했다. 한편, 구글코리아는 이날 행사에서 ‘구글과 대한민국: AI로 여는 창의성과 혁신의 시대’라는 리포트를 공개했다. 영국 시장조사기업 퍼블릭 퍼스트에 따르면, AI를 도입한 한국 대기업의 85%가 비즈니스 성장에 긍정적 영향을 받았다고 평가했으며, AI로 창출된 1원의 부가가치가 경제 전반에 평균 3.8배 이상의 파급 효과를 낳는 것으로 나타났다. 또한 2024년 기준, 구글의 제품과 서비스는 한국에서 약 18조 원의 경제활동과 11만 개의 일자리 창출에 기여하고 있다. 김경훈 구글코리아 사장은 폐회사에서 “AI는 한국의 창의성과 혁신성을 증폭시켜 글로벌 경쟁력을 높일 핵심 동력”이라며, 한국 인재들이 AI 시대를 선도할 수 있도록 교육, 협업, 생태계 조성에 지속 지원하겠다고 밝혔다.
작성일 : 2025-07-03
세일즈포스, "슬랙 AI에서 한국어로 엔터프라이즈 검색 활용 가능"
세일즈포스는 지능형 생산성 플랫폼 ‘슬랙(Slack)’의 대표적인 기능인 ‘슬랙 AI’가 공식적으로 한국어를 지원한다고 밝혔다. 이제 국내 슬랙 유저도 연동된 애플리케이션 내 데이터를 슬랙에서 검색 및 활용할 수 있도록 지원하는 ‘엔터프라이즈 검색’ 기능을 사용할 수 있다. 슬랙 AI는 슬랙에 축적된 집단 지식을 기반으로 AI 기반 검색, 채널 요약, 스레드 요약 기능을 통해 사용자들이 필요한 정보를 보다 손쉽게 활용할 수 있도록 지원한다. 이를 통해 사용자는 원하는 답변을 빠르게 찾고, 대화의 흐름을 정리하며, 아이디어를 도출하는 전 과정을 보다 효율적으로 수행할 수 있다. 슬랙에 따르면 이번 공식 업데이트를 바탕으로 국내 사용자도 한국어로 ‘슬랙 AI’를 활용하여 대화, 회의 및 업무 관련 데이터 요약을 제공받을 수 있게 된 것은 물론, 생산성 향상을 위한 인사이트를 단일 워크플로 내에서 손쉽게 확보 및 공유할 수 있다. 또한 슬랙 AI는 협업 툴, 클라우드 기반 파일 저장소, 이메일 서버, 고객 관계 관리(CRM) 시스템, 코드 저장소, 특수 비즈니스 애플리케이션 등 다양한 조직 내 시스템과 연동되어 기업 내 모든 콘텐츠에 대한 검색과 활용을 지원한다. 슬랙 AI는 단순한 키워드 매칭을 넘어 검색어의 의미를 분석해 사용자가 실제로 찾고자 하는 정보를 정확하게 파악하고, 자연어 처리(NLP) 기술을 통해 대화형 질문도 원활하게 해석한다. 아울러 사용자의 역할, 검색 이력, 접근 권한 등의 개인화 요소와 정보의 관련성, 최신성을 반영해 가장 적절한 정보를 우선적으로 제공함으로써 업무 생산성과 정확성 향상에 기여할 수 있다.     ‘엔터프라이즈 검색’은 사용자의 업무, 목표, 배경 정보를 파악해 실시간으로 소스를 분석하거나 통합 시스템에서 다양한 소스의 데이터를 연결 및 통합하여 슬랙 내에서 데이터를 즉시 검색할 수 있도록 돕는 기능이다. 엔터프라이즈 검색은 슬랙의 ‘대화형 AI 검색’을 기반으로 하며, 아사나(Asana), 박스(Box), 깃허브(GitHub), 구글 드라이브(Google Drive), 지라(Jira) 등의 애플리케이션 및 드라이브와 연동이 가능하다. 슬랙에 따르면 실제로 평균적인 사무직 근로자는 정보 검색, 단순 반복적인 메시지 발송 등의 업무에 하루 평균 3분의 1의 시간을 할애한다. 반면 스탠포드 대학교의 연구에 따르면, 생성형 AI 기반의 지식 검색이나 자동화 기능을 사용할 경우 단순하고 반복적인 업무 시간을 60%까지 단축할 수 있다. 실제로 슬랙의 유저는 ‘엔터프라이즈 검색’ 기능과 ‘AI 에이전트’ 간의 시너지를 바탕으로 단순 반복 업무 시간은 줄이고, 필요한 데이터에 대한 접근성과 투명성을 높일 수 있다. 이 외에도 슬랙은 현재 자체 앱 마켓인 ‘슬랙 마켓플레이스(Slack Marketplace)’를 통해 ‘AI 기반 앱 생태계’를 강화해 나가고 있다고 밝혔다. 슬랙 마켓플레이스에서는 직원들이 슬랙 내 단일 워크플로 상에서 콘텐츠 디자인 및 협업을 지원하는 어도비 익스프레스(Adobe Express), 조직 내 데이터와 정보를 기반으로 질문에 답하고, 콘텐츠를 생성할 수 있는 아마존 큐 비즈니스(Amazon Q Business)를 포함하여 콘텐츠 초안 작성, 시장 조사, 영업 관리, 인적자원관리, 전산 등 다양한 업무 영역에서 활용 가능한 25개의 새로운 AI 앱을 사용할 수 있다. 세일즈포스 코리아의 손부한 대표는 “본격적으로 AI와 함께 일하는 시대가 도래하면서 슬랙은 실질적인 AI 혁신을 가속화하는 차세대 ‘업무 운영체제(Work OS)’이자 ‘에이전틱 인터페이스(Agentic Interface)’로서의 역할을 수행하고 있다”면서, “국내 유저들 또한 슬랙 AI와 엔터프라이즈 서치 기능을 본격적으로 활용할 수 있게 된 만큼, 앞으로도 실행 중심의 스마트 워크플레이스 구현을 지원하기 위한 노력을 아끼지 않을 것”이라고 전했다.
작성일 : 2025-06-11
[칼럼] 실용형 AI, 제조의 미래를 바꾸다
트렌드에서 얻은 것 No. 23   “AI는 모든 산업에 새로운 가능성을 열어 준다. 중요한 것은 기술이 아니라, 그것을 어떻게 활용하느냐이다.” – 사티아 나델라(Satya Nadella), 마이크로소프트 CEO 마이크로소프트는 생성형 AI를 다양한 산업에 통합하며, 기술의 활용 방식에 중점을 두고 있고,  나델라의 말은 기술 도입보다 전략적 활용이 중요하다는 점을 강조한다.   생성형 AI와 함께 설계하고, 시뮬레이션하고, 개선하라 지금 이 이야기를 한국의 제조기업에 가서 한다면, 이상한 사람 취급을 받을 수 있다. 당장, 어떻게 할 수 있는지 이야기할 수 있느냐? 우리도 그렇게 하고 싶은데, 어떻게 할 수 있는지 제대로 나온 것도 없고, 사례가 있는지 등의 얘기가 자연스럽게 나온다. 맞는 말이다. 하지만, 지금은 레이스의 출발선에서 모두 같은 상황일 것이다. 다만, 전체를 제어하고 미래를 설계하는 혜안이 있는 사람이나 조직 유무에 따라 회사들의 달리기 속도는 분명 차이가 날 것이다.  우리는 그런 시대를 살아가고 또 지나가고 있다. 뉴스에서 다른 회사의 소식을 들으면서 탄식을 하고 있을 것인가, 아니면 고통스럽더라도 뭔가 해 보는 것이 낫지 않느냐의 갈림길에 있다. “그럼에도 불구하고, 우리는 설계할 수 있다.” 그렇다. ‘생성형 AI로 설계하고, 시뮬레이션하고, 개선하라’는 말은 지금의 제조 현장에선 거대한 간극처럼 느껴진다. 공장의 열기와 노하우 속에서 살아온 실무자에게는 뜬구름 잡는 이야기처럼 들릴 수 있다. “AI가 좋다는데, 어디까지 해봤나?”, “누가 이걸 설계에 실제로 썼대?” 이런 질문은 당연한 것이고, 오히려 현실을 잘 아는 사람일 수록 더 조심스러운 반응을 보인다. 그러나 지금, 우리는 모두 레이스의 출발선에 서 있다. 완성된 길도, 검증된 답도 아직 없다. 그러니 이 때 필요한 건 기술보다 먼저 혜안을 가진 사람, 구조를 설계할 수 있는 리더다. 단 한 줄의 프로토타입이라도 그려보려는 엔지니어, 익숙한 보고서보다 새로운 질문을 고민하는 팀장, 시행착오를 감수하고 방향을 잡으려는 임원이 지금 이 시대의 속도를 결정짓는다. 그리고 그 ‘혜안’은 거창한 청사진이 아닐 수도 있다. 단 하나의 설계 데이터를 기반으로 AI에게 첫 도면을 그리게 해보는 실험, 실시간 현장 일지에서 이상 징후를 요약하게 해 보는 시도, 현장의 사진 데이터로 품질 검사 자동화를 위한 검출 모델을 훈련해 보는 도전 등이 현 시점에서 예상해 볼 수 있는 가까운 미래 모습일 것 같다. “우리는 예상치 못한 상황을 목격하고, 예상된 상황을 보고하며, 결국 승리할 것입니다.” – 알렉스 카프, 팔란티어 CEO 카프는 AI를 활용한 제조업의 혁신이 불확실성을 극복하고 성공으로 이끄는 열쇠라고 보고 있으며, 이는 생성형 AI를 통한 제조업의 미래를 긍정적으로 전망한다.    그림 1. 실용형 AI 맵 ‘제조 미래를 바꾸다’(Map by 류용효) (클릭하면 큰 이미지로 볼 수 있습니다.)   제조, AI를 다시 만나다 “설계는 끝났지만, 고객은 원하지 않는다.”  “시뮬레이션은 끝났지만, 현장은 여전히 오류를 반복한다.”  “보고서는 쌓이지만, 문제는 여전히 현재진행형이다.” 이 문장들은 지금도 수많은 제조 현장에서 반복되고 있다. 전통적인 제조 프로세스는 분업과 효율을 중심으로 설계되었지만, 급변하는 고객의 요구와 복잡해진 제품 환경은 기존 체계의 민첩성과 창의성에 한계를 드러낸다. 이제 제조기업은 하나의 질문 앞에 서 있다. “우리는 더 빠르고 똑똑한 공장을 가질 준비가 되었는가?” 생성형 AI는 단순한 자동화 기술이 아니다. 설계자의 의도를 읽고 CAD 모델을 생성하며, 수십 개의 시뮬레이션으로 프로세스 병목을 알려주고, 품질 이상을 예측할 뿐 아니라 원인을 유추해주는 ‘설계적 사고를 하는 AI’가 등장하고 있다. 이는 기술의 도입이 아니라 제조기업의 ‘운영 철학’ 자체가 전환되는 순간이다. 제조기업이 생성형 AI와 함께 앞으로 어떻게 설계하고, 시뮬레이션하고, 개선할 수 있을지를 구체적으로 조망한다. “AI는 인류가 만든 가장 중요한 기술이다. 우리는 그것을 책임감 있게 개발하고 활용해야 한다.” – 순다르 피차이(Sundar Pichai), 구글 CEO 구글은 AI 개발에 있어 윤리적 책임과 사회적 영향을 고려하고 있으며, 피차이의 말은 기술 발전과 함께 그에 따른 책임도 중요하다는 점을 상기시켜 준다.   디자인의 재정의 - AI는 창의적인 엔지니어인가? 전통적인 제조 설계 과정은 복잡한 조건 설정, 반복적인 수정, 협업 간의 커뮤니케이션 비용 등으로 인해 수많은 시간과 리소스를 요구해왔다. 하지만 이제, 생성형 AI는 텍스트 한 줄로 설계를 시작하게 한다. “3개의 모듈로 구성된 소형 드론 프레임을 설계해 줘. 탄소 섬유 기반으로 무게는 150g 이하로.” 이 한 문장으로 AI는 초기 설계안을 생성하고, 다양한 대안 모델을 제공하며, 사용자 요구조건에 따라 자동 최적화를 제안한다. AI는 도면을 '그리는 도구'가 아니라, '제안하고 비교하는 동료 엔지니어'로 진화하고 있다. 예를 들어, 오토데스크의 퓨전 360(Fusion 360), 엔톱(nTop), 다쏘시스템의 3D익스피리언스 웍스(3DEXPERIENCE Works)는 이미 생성형 디자인 기능을 내장하고 있다.  디자이너는 아이디어를 제공하고, AI는 그에 기반한 설계 패턴을 도출한다. 이는 ‘무에서 유를 만드는’ 것이 아니라, 수많은 설계 데이터를 학습한 AI가 새로운 패턴과 조합을 도출해내는 방식이다. 결과적으로 설계자는 더 이상 반복적인 CAD 작업자가 아니다. 이제 디자이너는 ‘기획자’이자 ‘비평가’, 그리고 ‘AI와 협력하는 설계 전략가’가 된다. 또한, 이러한 생성형 설계는 대량 맞춤형 생산(mass customization)과의 결합으로 그 진가를 발휘한다. 기존에는 옵션이 제한된 범용 제품만이 경제성이 있었지만, 생성형 AI는 고객의 요구사항을 빠르게 읽고 즉시 설계에 반영할 수 있다. 이는 ‘고객이 참여하는 설계’, 즉 코디자인(co-design) 시대의 도래를 가능하게 한다. 기업은 더 빠르게 시장에 대응하고, 고객은 더 높은 만족도를 경험한다. 이처럼 생성형 AI는 설계를 단순히 ‘빠르게’ 만드는 기술이 아니라, 설계의 개념 자체를 ‘재정의’하는 도구이자 기업의 창의성과 기민함을 확장하는 전략 자산이 되고 있다. “퍼플렉시티(Perplexity)는 단순한 답변 엔진에서 행동 엔진으로 전환하고 있다. 이제는 단순히 질문에 답하는 것을 넘어, 사용자에게 행동을 제안하고 실행하는 단계로 나아가고 있다.” – 아라빈드 스리니바스(Aravind Srinivas), 퍼플렉시티 AI CEO 아라빈드의 말은 AI 기술이 단순한 정보 제공을 넘어, 사용자와의 상호작용을 통해 실제 행동을 유도하고 실행하는 방향으로 발전하고 있음을 의미한다.   시뮬레이션의 혁신 - 빠른 판단과 적은 비용 과거의 시뮬레이션은 전문 소프트웨어와 고성능 컴퓨팅 자원, 그리고 숙련된 엔지니어의 직관과 경험에 크게 의존해 왔다. CAE는 분명 설계 검증과 최적화의 핵심이었지만, 조건 설정 → 모델링 → 결과 해석 → 반복이라는 고비용 순환은 여전히 제품 개발의 병목으로 작용해왔다. 그러나 생성형 AI는 이 병목을 타파하는 새로운 접근을 제시한다. 자연어로 “강풍 조건에서 뒤틀림이 가장 적은 하우징 구조를 찾아줘”라고 지시하면, AI는 자동으로 물리 조건을 추론하고, 유사 데이터 기반의 시뮬레이션 템플릿을 구성하며, 수십 개의 대안 시나리오를 병렬 생성해 ‘예측 – 설명 – 추천’이라는 삼중 루프를 빠르게 수행한다. 이러한 기술은 시뮬레이션의 대중화(simulation democratization)를 이끈다. 기술 전공자가 아니어도, 제품 매니저나 품질 담당자가 AI의 도움으로 설계안의 응력 분포나 유동 조건에 대해 인사이트를 얻을 수 있다. 이는 실무자가 더 빠르게 결정을 내릴 수 있도록 돕고, 의사결정의 지연 대신, 다중 시나리오 기반의 ‘실험적 사고’를 가능하게 만든다. 대표적인 사례로는 알테어의 AI 기반 인스파이어 플랫폼(AI-driven Inspire Platform), 앤시스의 AI 기반 시뮬레이션 자동화, 그리고 다쏘시스템의 솔리드웍스 생성형 시뮬레이션(Generative Simulation for SOLIDWORKS)이 있다. 이들은 기존 FEM/CFD 분석의 시간과 비용을 줄이는 동시에, 경험 기반 의사결정에서 데이터 기반 최적화로의 전환을 이끌고 있다. 궁극적으로 생성형 AI는 단순히 ‘더 빠른 계산’을 넘어서, “어떤 시나리오를 먼저 고려해야 하는가?”, “이 조건에서 실패할 가능성은 무엇인가?”라는 전략적 질문에 답하는 보조 엔진이 되어 준다. 이는 시뮬레이션을 단지 제품 검증의 도구가 아니라, 경영 의사결정과 R&D 전략 수립의 인공지능 파트너로 진화시키는 변화의 시작점이다.  “AI는 우리가 상상하는 것보다 훨씬 더 빠르게 발전하고 있다. 자율주행차는 그저 시작일 뿐이다.” – 일론 머스크(Elon Musk), 테슬라 CEO 테슬라는 자율주행 기술 개발에 AGI 수준의 AI를 활용하고 있으며, 이는 단순한 기능 향상을 넘어 차량 설계와 운행 방식 전반을 재정의하는 접근이다.   업무 분석과 프로세스 개선 - 데이터는 말하고 AI는 듣는다 제조 현장의 데이터는 언제나 풍부했다. 작업자 일지, 설비 로그, 유지보수 메모, 품질검사 리포트, 현장 사진과 동영상, 고객 클레임 이메일… 하지만 이들 대부분은 정형화되지 않은 ‘텍스트’와 ‘문서’ 형태로 존재하며, 기존 시스템은 이를 ‘기록’하는 데에만 집중했고, 의미를 해석하고 연결하는 능력은 인간의 몫이었다. 이제 생성형 AI는 이 방대한 비정형 데이터의 숲에서 맥락을 이해하는 나무를 찾는다. 작업자가 남긴 “라인 3에서 어제도 제품 정렬이 안 맞았고, 자동 이젝터가 두 번 멈췄다”는 기록은, AI에겐 단순한 텍스트가 아니라 ‘패턴’과 ‘이상’의 시그널이다. LLM은 이런 문장을 분석해 작업 단계별 이벤트를 분해하고, 관련된 설비 로그와 품질 데이터를 연결하여 문제 지점을 도출한다. 이제 업무는 ‘기록하고 보고하는 일’이 아니라, ‘데이터가 스스로 분석하고 말하는 환경’으로 바뀌고 있다. 대표적인 활용 사례는 다음과 같다. 업무 요약 자동화 : 업무 일지를 요약해 경영진에게 핵심 이슈를 전달 프로세스 병목 식별 : 여러 부서의 텍스트 기반 보고서에서 공통 키워드와 불만 분석 문서 자동 생성 : SOP(표준작업지침서), 회의록, 개선안 보고서 등의 자동 초안 작성 협업 인텔리전스 : 여러 팀 간의 커뮤니케이션 데이터를 분석해 협업 지연 포인트 도출 실제로 지멘스는 AI 기반 자연어 처리 기술(Natural Language Processing : NLP)을 통해 디지털 작업지시서와 실시간 현장 대응 리포트를 자동 생성하는 기능을 도입했고, 보쉬는 AI를 통해 품질 클레임 문서에서 반복 출현하는 원인 유형을 추출하여 품질 개선의 단초로 활용하고 있다. 핵심은 이것이다. 현장의 수많은 대화와 기록이 AI에게 ‘말을 거는 데이터’가 되었고, AI는 그 말을 듣고, 요약하고, 통찰을 제시하며, 업무 개선을 스스로 제안하는 존재가 되었다는 점이다. 이제 우리는 묻지 않을 수 없다. 우리는 AI에게 말 걸 준비가 되어 있는가? 그리고 그 대답을 조직이 들을 준비는 되었는가? “가장 큰 위험은 아무런 위험도 감수하지 않는 것이다. 모든 것이 급변하는 시대에서 위험을 회피하는 전략은 반드시 실패로 이어진다.” — 마크 저커버그, 메타 CEO 저커버그는 변화와 혁신의 시대에 기존의 방식을 고수하며 위험을 회피하려는 태도가 오히려 더 큰 실패를 초래할 수 있음을 경고한다.   품질 관리의 진화 - AI는 예지적 감각을 가질 수 있는가 품질 관리는 제조업의 마지막 방어선이자, 가장 정교한 신경망이다. 그러나 지금까지의 품질 관리는 주로 사후 대응(postdefect 대응)에 집중되어 있었다. 불량이 발생한 후 원인을 찾고, 재발 방지책을 수립하고, 문서를 정리하는 ‘후행적 품질 관리’가 일반적이었다. 이제 생성형 AI는 이 전통적 프레임을 근본부터 흔들고 있다. AI는 ‘불량을 감지’하는 것이 아니라, ‘불량을 설명하고 예측’하려 한다. 예를 들어, 제품 표면의 이미지를 기반으로 한 비전 검사 시스템은 단순히 OK/NG를 판단하는 데서 그치지 않고, “이 영역의 텍스처 패턴은 온도 편차에 의한 수축 변형일 가능성이 높습니다”라고 말할 수 있는 설명형 모델로 진화하고 있다. 나아가, 생성형 AI는 텍스트, 이미지, 센서 데이터를 통합적으로 분석해 복합적인 이상 징후를 감지하고, 불량의 '가능성'과 '잠재 원인'을 추론해낸다. 예를 들어 다음과 같은 조합이 가능해진다. 작업자 일지 : “이틀 전부터 용접기압이 다소 약한 것 같다.” 센서 로그 : 오전 9~11시에 기압 편차 발생 불량 이미지 : 비드 형성 불균형 AI는 이를 연결해 “용접 조건의 경미한 변화가 반복 불량의 근본 원인일 수 있다”고 보고한다. 이는 단순한 예측모델이 아니다. ‘설명 가능한 품질 관리(Explainable Quality)’, 즉 AI가 품질 이슈에 대해 왜 그런 판단을 했는지를 근거와 함께 제시함으로써, 품질팀은 더 이상 직감이나 경험에만 의존하지 않고 데이터 기반의 합리적 개선 프로세스를 수립할 수 있다. 이미 보쉬, 토요타, GE 항공 등은 ▲AI 기반 비전 검사 시스템에서 ‘불량 예측 + 원인 설명’을 제공하는 모델을 구축 중이고 ▲ISO 9001과 연동되는 AI 품질 리포트 자동화 시스템을 테스트하고 있다. 이는 곧 ‘AI가 품질 시스템의 일원으로 공식 포함되는 시대’가 오고 있음을 뜻한다. 품질의 정의는 바뀌고 있다. 과거의 품질은 발견과 수정의 문제였지만, 앞으로의 품질은 예지와 설득의 문제다. AI는 이제 불량을 찾아내는 것이 아니라, 불량이 만들어지지 않도록 ‘생산 과정 그 자체를 개선하자’고 제안하는 동료가 되어가고 있다. “AI는 전기를 발견한 것과 같은 혁신이다. 모든 산업에 스며들 것이며, 그 영향을 무시할 수 없다.” – 앤드류 응(Andrew Ng), AI 전문가 앤드류 응은 AI의 보편성과 산업 전반에 미치는 영향을 강조하고 있다. 그의 말은 제조업에서도 AI의 통합이 필수임을 시사한다.   경고와 제언 - 생성형 AI는 도입이 아니라 전환이다 많은 제조기업이 생성형 AI에 주목하고 있다. 설계 자동화, 시뮬레이션 최적화, 업무 요약, 품질 예측… 도입 사례는 늘고 있지만, 도입이 곧 성공을 의미하진 않는다. 생성형 AI는 단순한 툴이 아니라, 운영 철학의 변화를 요구한다. 기존의 프로세스는 ‘정해진 절차와 역할’ 속에서 최적화를 추구해왔지만, 생성형 AI는 ‘질문을 던지고 시나리오를 비교하며 판단을 내리는 유연한 사고방식’을 요구한다. 즉, 기술만 바꾸는 것이 아니라 조직의 사고 체계와 역할 구조 자체를 재설계해야 하는 것이다. 예를 들어 <표 1>과 같은 전환이 필요하다.   표 1   하지만 문제는 기술이 아니다. 가장 큰 장벽은 조직이 AI를 받아들일 준비가 되어 있느냐는 것이다. 임원은 AI를 단순히 ‘자동화 툴’로 간주하는 경향이 많고, 현장은 여전히 ‘내 일을 뺏는 존재’로 AI를 경계한다. 이 간극을 메우지 않으면, AI는 시연 단계에서 멈추고, 조직은 변화의 본질을 놓친다. 따라서 다음과 같은 전환 전략이 필요하다. 파일럿이 아닌 전환 설계 특정 부서에서 테스트하는 것이 아니라, 조직 전체의 프로세스 전환 시나리오를 기획해야 한다. ‘도입 교육’이 아닌 ‘공감 설계’ 기술 사용법이 아니라, 왜 이 기술이 필요한지에 대한 비즈니스 관점에서의 스토리텔링이 필요하다. AI Co-Worker 관점 전환 AI는 도구가 아니라, 함께 판단하고 실험하는 동료로 봐야 한다. 이를 위해 직무 정의서(JD)도 다시 써야 한다. 성과 기준의 재정립 AI 도입 이후에는 ‘정확도’보다 ‘학습 속도’와 ‘적응력’이 핵심 성과 지표가 된다. 결국, 생성형 AI는 ‘도입해야 할 기술’이 아니라 ‘다르게 일하고, 다르게 생각하고, 다르게 운영하는 기업’으로 전환하기 위한 촉매제다. 이제 경영진에게 남은 질문은 단 하나다. “우리는 기술을 도입할 준비가 되었는가?”가 아니라, “우리는 조직을 전환할 용기를 가졌는가?”이다. “지금은 스타트업의 시대… 세상은 여전히 변화의 가능성에 잠들어 있다.” – 샘 올트먼, 오픈에이아이 CEO 올트먼은 기술 혁신의 시기에 기존 기업들이 변화에 둔감해질 수 있음을 경고하며, 새로운 도전과 변화를 추구하는 조직만이 미래를 선도할 수 있다는 메시지를 담고 있다.   맺음말 : 생성형 AI 시대의 제조 기업, 당신은 어떤 그림을 그리고 있는가 미래의 공장은 단지 더 정교하고, 더 빠르며, 더 자동화된 곳이 아니다. 그곳은 데이터를 읽고, 상황을 이해하고, 사람과 함께 결정하는 공장이다. 문제를 발견하기 전에 감지하고, 작업자를 지원하며, 스스로 최적의 방식을 제안하는 공장이다. 그리고 그 공장의 핵심 파트너는 인간의 상상력을 확장하는 생성형 AI다. 이제 중요한 질문은 이것이다. “우리는 어떤 그림을 그리고 있는가?” 기술은 빠르게 진화한다. 생성형 AI는 설계와 시뮬레이션, 업무 분석과 품질 관리까지 제조의 전 과정을 유기적으로 연결하며 ‘스마트’를 넘어 ‘지능적’으로 만들고 있다. 하지만 진정한 경쟁력은 기술의 채택이 아닌, 기술과 함께 일하는 방식의 변화에서 비롯된다. 아직 많은 제조기업은 ‘가능성 탐색’ 단계에 머물러 있다. 하지만 머뭇거릴 시간이 없다. AI는 이미 조직 구조, 업무 정의, 리더십의 방식까지 영향을 미치기 시작했다. 이제는 기술을 배우는 것이 아니라, 기술과 함께 일할 조직을 설계해야 할 때다. 생성형 AI 시대의 제조 기업은 세 가지 질문에 답할 수 있어야 한다. 우리는 상상할 수 있는가? 생성형 AI는 ‘주어진 문제를 해결’하는 것이 아니라 ‘가능성을 확장’한다. 제조기업의 조직은 아직도 문제만 찾고 있는가, 아니면 새로운 기회를 그리고 있는가? 우리는 받아들일 수 있는가? AI는 사람의 영역을 침범하지 않는다. 다만 그 옆에 선다. 우리는 전환할 수 있는가? 우리는 그것을 파트너로 받아들일 준비가 되어 있는가? AI 도입은 기술의 문제가 아니라, 사고방식과 리더십의 전환이다. 과연 지금의 조직은 그 전환을 감당할 수 있는가? 미래의 공장은 말하고 있다. “나는 설계하고, 시뮬레이션하고, 개선할 준비가 되어 있다. 너는 나와 함께 걸을 준비가 되어 있는가?”   ■ 류용효 디원의 상무이며 페이스북 그룹 ‘컨셉맵연구소’의 리더로 활동하고 있다. 현업의 관점으로 컨설팅, 디자인 싱킹으로 기업 프로세스를 정리하는데 도움을 주며, 1장의 빅 사이즈로 콘셉트 맵을 만드는데 관심이 많다.(블로그)     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-05-02
HPE, 직접 수냉 방식 HPC 설루션 및 대규모 AI 모델 학습을 위한 AI 서버 발표
HPE는 리더십급 ‘HPE 크레이 슈퍼컴퓨팅 EX’ 설루션과 대규모 언어 모델(LLM) 학습, 자연 언어 프로세싱(NLP) 및 멀티 모달 모델 학습에 최적화된 시스템 2종을 포함한 새로운 HPC 및 인공지능(AI) 인프라 포트폴리오를 발표했다. HPE 크레이 슈퍼컴퓨팅 EX 시스템을 기반으로 하는 전체 리더십급 HPC 포트폴리오의 신제품은 세계의 난제 해결을 맡은 연구 기관과 소버린 AI 이니셔티브를 개발하는 정부 기관을 위해 설계되었다. 이 포트폴리오는 100% 팬리스 직접 수냉 방식(Fanless DLC) 시스템 아키텍처를 기반으로 하며 컴퓨팅 노드, 네트워킹, 스토리지를 포함한 HPE 슈퍼컴퓨팅 설루션의 모든 레이어에 걸쳐 새로운 소프트웨어 오퍼링으로 보완된다. 단일 캐비닛에서 최대 9만 8304개의 코어를 제공할 수 있는 HPE 크레이 슈퍼컴퓨팅 EX4252 2세대 컴퓨팅 블레이드(HPE Cray Supercomputing EX4252 Gen 2 Compute Blade)는 슈퍼컴퓨팅을 위한 강력한 원랙 유닛 시스템을 구현하는 제품이다. 8개의 5세대 AMD 에픽(EPYC) 프로세서를 탑재한 이 컴퓨팅 블레이드는 CPU 집적도의 이점을 제공하여 고객이 동일한 공간 내에서 더 높은 성능의 컴퓨팅을 실현할 수 있도록 지원한다. HPE Cray 슈퍼컴퓨팅 EX4252 2세대 컴퓨팅 블레이드는 2025년 봄에 출시될 예정이다.     슈퍼컴퓨팅 워크로드를 완료하는 데 걸리는 시간을 단축하기 위해 HPE 크레이 슈퍼컴퓨팅 EX154n 가속기 블레이드(HPE Cray Supercomputing EX154n Accelerator Blade)는 단일 캐비닛에 최대 224개 엔비디아 블랙웰(NVIDIA Blackwell) GPU를 탑재할 수 있다. 각 가속기 블레이드는 엔비디아 GB200 그레이스 블랙웰 NVL4 슈퍼칩(NVIDIA GB200 Grace Blackwell NVL4 Superchip)을 탑재하고 있으며, 엔비디아 NV링크-C2C를 통해 2개의 엔비디아 그레이스 CPU와 통합된 4개의 엔비디아 NV링크 연결 블랙웰(NVIDIA NVLink-connected Blackwell) GPU를 보유하고 있다. HPE 크레이 슈퍼컴퓨팅 EX154n 가속기 블레이드는 2025년 말에 공급될 예정이다. 차세대 엑사스케일 지원 HPE 인터커넥트 포트폴리오는 초당 400GB 속도의 네트워크 인터페이스 컨트롤러(NIC), 케이블 및 스위치를 제공한다. HPE 슬링샷 인터커넥트 400(HPE Slingshot interconnect 400)은 이전 세대보다 2배 빠른 회선 속도를 제공하는 동시에 자동화된 혼잡 관리 및 초저 테일 레이턴시(ultra-low tail latency)를 위한 어댑티브 라우팅과 같은 기능을 제공하여 고객이 더 적은 네트워크 인프라로 대규모 워크로드를 실행할 수 있도록 지원한다. 이 버전의 HPE 슬링샷은 2025년 하반기부터 HPE Cray 슈퍼컴퓨팅 EX 시스템 기반 클러스터에 적용될 예정이다 HPE 크레이 슈퍼컴퓨팅 스토리지 시스템 E2000은 이전 세대 대비 입출력(I/O) 성능이 두 배 이상 향상되었다. 대규모 슈퍼컴퓨터용으로 설계된 이 시스템은 오픈 소스 러스터(Lustre) 파일 시스템을 기반으로 하며, I/O 작업 중 유휴 시간을 줄여 CPU 및 GPU 기반 컴퓨팅 노드 모두의 활용도를 높일 수 있다. 이 HPC 스토리지 시스템은 2025년 초에 HPE 크레이 슈퍼컴퓨팅 EX 시스템에서 일반적으로 제공될 예정이다. 또한, HPE는 컴퓨팅 집약적 워크로드 실행의 사용자 경험을 개선하는 새로운 소프트웨어 제품을 출시한다. 현재 이용 가능한 HPE 크레이 슈퍼컴퓨팅 사용자 서비스 소프트웨어에는 고객이 시스템 효율성을 최적화하고 전력 소비를 조절하며 슈퍼컴퓨팅 인프라에서 다양한 워크로드를 유연하게 실행하는 데 도움이 되는 기능이 포함되어 있다. 한편, HPE는 고객이 대규모 고성능 AI 클러스터를 간소화할 수 있도록 지원하는 새로운 카테고리의 서버를 계속 선보이고 있다고 전했다. 자체 AI 모델을 학습하는 SP와 대기업을 위해 설계된 HPE 프로라이언트 컴퓨트 XD 서버는 대규모 AI 시스템 설치 및 배포에 대한 HPE의 전문성을 활용한다. HPE의 최첨단 제조 시설 내에서 설루션의 구축, 맞춤화, 통합, 검증, 전체 테스트를 지원하는 HPE 서비스 옵션을 활용하면 신속한 온사이트 배포가 가능하다. HPE 프로라이언트 컴퓨트 서버에서만 사용 가능한 HPE iLO(Integrated Lights-Out) 관리 기술을 사용하면 일부 권한이 있는 직원이 서버에 대한 대역 외 원격 제어 액세스를 허용하여 표준 대역 내 네트워크 액세스보다 보안을 강화할 수 있다. 가격 대비 성능을 염두에 두고 최적화된 공냉 방식 HPE 프로라이언트 컴퓨트 XD680 서버는 복잡한 AI 학습, 튜닝 및 추론 워크로드를 처리하도록 설계되었다. HPE가 설계한 섀시에는 단일 컴팩트 노드에 8개의 인텔 가우디 3 AI 가속기가 탑재되어 있다. 인텔 가우디 3가 탑재된 HPE 프로라이언트 컴퓨트 XD680 서버는 2024년 12월에 출시될 예정이다. HPE는 성능, 경쟁 우위, 에너지 효율성을 우선시하는 고객을 위해 대규모의 복잡한 AI 모델에 대한 학습을 가속화할 수 있는 엔비디아 GPU가 탑재된 새로운 버전의 HPE 프로라이언트 컴퓨트 XD685 서버가 출시될 예정이다. 이 서버는 5개의 랙 유닛 섀시에 8개의 엔비디아 H200 SXM 텐서 코어 GPU 또는 엔비디아 블랙웰 GPU로 구동되며, 수냉식 냉각 분야에서 수십 년간 쌓아온 HPE의 전문성을 활용하여 GPU, CPU 및 스위치를 효율적으로 냉각시킨다. HPE 프로라이언트 컴퓨트 XD685 서버의 엔비디아 HGX H200 8-GPU 버전은 2025년 초에 출시될 예정이며, 엔비디아 블랙웰 GPU 버전은 출시에 맞춰 선보일 예정이다. HPE의 트리시 댐크로거(Trish Damkroger) HPC 및 AI 인프라 설루션 부문 수석 부사장 겸 총괄은 “소버린 AI 이니셔티브에 투자하는 서비스 제공업체와 국가들은 발견과 혁신을 가속화하기 위한 대규모 AI 학습을 가능하게 하는 중요한 백본으로 HPC를 점점 더 많이 고려하고 있다”면서 “고객은 세계 최고의 HPC 설루션과 완전 통합형 시스템 제공, 배포 및 서비스 분야에서 수십 년간 쌓아온 경험을 활용하여 더 빠르고 효율적으로 가치를 실현하면서 AI 시스템 배포를 빠르게 진행하기 위해 HPE에 주목하고 있다”고 밝혔다.
작성일 : 2024-11-15
대규모 언어 모델의 핵심 개념인 토큰, 임베딩과 모델 파인튜닝에 대해
BIM 칼럼니스트 강태욱의 이슈 & 토크   이번 호에서는 LLM(대규모 언어 모델)의 자연어 처리에서 핵심 기술인 토큰, 임베딩 및 모델 파인튜닝의 이해를 위한 개념과 임베딩 모델의 동작 메커니즘을 살펴본다. 여기서 토큰은 문장을 구성하는 단어로 가정하면 이해하기 쉽다. 토큰과 임베딩은 입력 시퀀스에 대한 출력을 학습, 예측할 때 훈련의 전제가 되는 LLM의 기본조건이다. 이에 대해 좀 더 깊게 이해해 보자.    ■ 강태욱  건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다.  페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com  홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast    최근 대규모 언어 모델(LLM : Large Language Model)과 검색 증강 생성(RAG : Retrieval-Augmented Generation) 기술을 이용해 다양한 전문가 서비스 에이전트를 개발하는 사례가 많아지고 있다. 특히, 전문가처럼 행동하며 문제를 해결하거나 의사결정을 지원하는 멀티 에이전트 기술은 이미 선진국을 중심으로 금융, 제조, 건설 등 엔지니링 분야에 개발되고 있다.    도메인 의존 정보와 토큰  의학과 같은 특별한 분야에서는 환각 현상 등으로 인해 챗GPT(ChatGPT)와 같은 범용 LLM이 제대로 정보를 생성하지 못하는 경우가 많다. 이런 문제를 해결하기 위해 전문 분야의 지식을 기존 LLM 모델을 이용해 재학습하는 방법이 생겨났는데, 파인튜닝은 그 중 한 가지 방법이다.  파인튜닝은 빅테크 업체가 공개한 LLM 모델을 특정 도메인 지식을 잘 표현할 수 있도록 재학습하는 방법 중 하나이다. LLM의 신경망 전체를 재학습하기 위해서는 매우 비싼 GPU 사용 비용이 필요하다. 이는 일반적인 기업에서 수행할 수 없는 수준이다. 이런 이유로, 파인튜닝은 메타에서 공개한 라마(LLaMA)와 같은 파운데이션 LLM 모델의 신경망에 별도의 작은 신경망을 추가해, 이를 별도로 준비된 데이터로 학습하는 방식을 사용한다.  LLM을 파인튜닝하기 전에 어떤 토큰이 사용되었는지, 임베딩 모델이 무엇인지 확인해야 한다. 파인튜닝 시 용어가 LLM에 사전 학습되어 있지 않다면, 용어 간 관계를 통계적으로 추론하는 학습 절차가 매우 비효율적으로 계산된다. 일반적으로 모델을 파인 튜닝하려면 LLM 토큰 확인 및 개발, 임베딩 모델의 적절한 사용이 필요하다.  <그림 1>은 토큰이 수치화된 결과를 보여준다. 참고로, 토큰이 숫자로 표현되지 못하는 문제를 OOV(Out-Of-Vocabulary)라 한다.    그림 1. 숫자 토큰화 결과   임베딩은 학습 모델이 입력되는 문장의 토큰 패턴을 통계적으로 계산하기 전, 토큰을 수치화시키는 함수이다. 이 함수를 임베딩 모델이라 한다. 임베딩 모델은 토큰을 수치화하여 모델 학습에 사용하는데 필요한 입력값을 출력한다. 이런 이유로, 토큰 사전과 임베딩 모델이 다르면 제대로 된 모델 학습, 예측, 패턴 계산 결과를 얻기 어렵다. 임베딩 모델도 별도의 신경망 모델이며 다양한 방식으로 학습될 수 있다. 이번 호에서는 구글에서 공개한 BERT(Bidirectional Encoder Representations from Transformers) 임베딩 모델을 사용한다.  이와 관련된 실험을 하기 위해, 개발 환경을 설치하고 파이썬 코드를 준비해 본다.    개발 환경 준비 미리 컴퓨터에 파이썬, 아나콘다 등 필수적인 라이브러리가 설치되어 있다는 조건에서, 실습을 위해 명령창에서 다음을 실행해 설치한다. pip install transformers torch   참고로, 다음은 파인튜닝에 사용하는 오픈소스 라이브러리를 보여준다. Torch : 텐서 계산 및 딥 러닝을 위한 핵심 라이브러리이다. PEFT : 낮은 순위의 적응 기술을 사용하여 대규모 언어 모델을 효율적으로 미세 조정할 수 있다. 특히 리소스가 제한된 장치에서 학습 가능한 매개 변수의 수를 줄여 모델을 압축하고 더 빠르게 미세 조정할 수 있다. bitsandbytes : 신경망에 대한 양자화 및 이진화 기술을 제공하여 모델 압축을 지원한다. 모델 압축에 도움이 되므로 메모리와 계산 능력이 제한된 에지 장치에 모델을 보다 실현 가능하게 만들 수 있다. Transformers : 대규모 언어 모델 작업을 간소화하여 사전 학습된 모델 및 학습 파이프라인을 제공한다. trl : 대규모 언어 모델의 경우 효율적인 모델 학습 및 최적화에 중점을 둔다. accelerate : 다양한 하드웨어 플랫폼에서 학습 및 추론을 가속화한다. dataset : 기계 학습 작업을 위한 데이터 세트 로드 및 준비를 간소화한다. pipeline : 사용자 지정 학습 없이 일반적인 NLP 작업에 대해 사전 학습된 모델의 사용을 간소화한다. PyArrow : 효율적인 데이터 로드 및 처리를 위해 사용될 수 있다. LoraConfig : LoRA 기반 미세 조정을 위한 구성 매개변수를 보유한다. SFTTrainer : 모델 학습, 최적화 및 평가를 처리한다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2024-11-04
[인터뷰] 서효원 KAIST 산업및시스템 공학과 명예교수/초빙교수
PLM 업계 인터뷰 PLM의 역사와 발전을 위한 제언   서효원 KAIST 산업및시스템 공학과 명예교수/초빙교수 서효원 교수는 CAM/CAM, PLM 분야에 30여 년 몸담아 오고 있다. 한국CDE학회(구, 한국CAD/CAM학회) 창립에 참여하여, 현재는 고문으로 있으며, KAIST PLM Academy(KPA)를 설립 및 운영해 왔다. 현재는 힌국 산업지능화협회 PLM기술위원회와 디지털트윈 기술위원회 위원장을 맡고 있다. 최근 연구분야로는 PLM, EngNLP, Digital Twin 등의 연구 및 프로젝트를 진행하고 있다.   - 국내 PDM/PLM의 역사에 대해 소개한다면. 국내 PDM/PLM의 역사는 삼성전자가 첫 PDM 프로젝트를 시작한 1995년이 원년이 아닐까 싶다.(PDM/PLM 커뮤니티)  1995년 전후로 PDM연구회가 운영되었고, 한국CAD/CAM학회가 창립되면서 PDM/PLM에 대한 연구가 활발하게 이루어졌다. 또한 2005년 ‘PLM 베스트 프랙티스 컨퍼런스’가 처음으로 개최되면서 PLM에 대한 이슈 및 성공사례, 구축 사항 등에 관한 실질적인 정보를 제공, 해마다 좋은 반응을 이끌어내고 있다. 2006년 12월에는 현대차, 삼성전자, LG전자 등 기업들이 주도하는 ‘PLM 컨소시엄’이 창립되면서 PLM의 국내 기업에 보급도 활발해졌다. 초기에는 데이터 관리 중심 PDM의 이름으로 발전 하였고, CPC(PTC)의 개념, PLM(IBM)의 개념으로 발달하였다. 이때 국내에 BPR (Business Process Reengineering : 비즈니스 프로세스 혁신) 개념이 활발해지면서 제조 기업에 BPR/PLM이 하나의 쌍을 이루어 프로젝트가 진행되었다. 이러한 PLM은 2000년부터 2015년까지 대기업을 중심으로 본격적으로 도입되면서 국내 PLM의 최고의 성숙기를 맞이하였다. 2000년 국산 PDM 솔루션으로 DynaPDM이 개발되는 등 이후에는 중소기업에도 PLM 도입이 활발해지기 시작했으며 중소형 PLM은 국내 PLM이 어느 정도 역할을 하기 시작했다.  디지털 트윈(Digital Twin)은 2002년 미국 마이클 그리브스 박사가 제품생애주기관리(PLM)의 이상적 모델로 설명하면서 등장하였다. 이 개념에 대해 NASA의 존 비커스 박사가 디지털 트윈으로 명명하고, 2010년 NASA가 우주 탐사 기술 개발 로드맵에 디지털 트윈을 반영하면서 우주 산업에서 쓰여 온 것으로 알려지고 있다. 이러한 디지털 트윈의 개념이 보급되고 최근 디지털 트윈의 중요성이 산업현장에서 부각되면서 PLM의 역할이 중요해지고 있다.   - PLM 관련 진행해 왔던 일 중에서 의미 있는 일이나 에피소드가 있다면. 제품개발/PLM 관련 일들중 과목개발, 학생 배출, 논문(국내외, SCI 등), ASME Conf Best Paper Award (Product Ontology Framework), IEEE Best Paper Honorable Mention (Estimation of Product Cyclic Process) 등이 있었지만 가장 의미 있는 일은 KAIST PLM Academy (KAIST PLM 전문가과정/KPA) 설립하여 PLM 기업 전문가 250 여분을 배출했다는 것이 가장 의미 있는 일이었다고 생각한다. KPA를 통해 전문가 배출뿐만 아니라, 강의에 참여한 분들도 기업 전문가 분들이 대부분이셨기 때문에 PLM 산업 현장에서 마주 할 때 사전에 교감을 갖고 있어 일을 협력적으로 진행하게 되는 경우가 종종 있다는 말을 전해 들을 때 PLM 분야에 조금은 공헌한 것으로 보람을 느낀다.   - 최근 PLM 트렌드와 향후 PLM//DX 관련 전망은 어떠하다고 보는가? 최근에 GPT 및 디지털트윈이 큰 화두로 떠 오르고 있다. 디지털 트윈은 그동안 공장자동화, 컴퓨터통합생산, 인더스트리 4.0, CPS 시스템 등의 연장선 상에서 발전되고 있으며, 향후 물리-디지털 트윈간 양방향 커뮤니케이션에 기반한 보다 왼성된 디지털 트윈으로 발전하여 정확한 시뮬레이션 및 예측, 그에 따른 물리 트윈 운영 오페레이션 또는 가이드가 이루질 수 있다.  GPT는 인공지능에 의한 자연어 처리를 대중적으로 활용할 수 있는 수준으로 발전하였다. 이러한 GPT 기술은 제조기업 또는 엔지니어링 분야에서 핵심적인 역할을 할 것이다. 제품설계, 생산, 유지보수 및 고객서비스 등 모든 분야에서 엔지니어링 정보를 생성, 활용하고 있는데 GPT 가 훌륭한 협업자가 될 것이며, 나아가 단계적으로 전문가 작업을 대체해 나길 수도 있을 것이다. 제조 기업에 GPT가 효과적으로 활용되기 위해서는 ‘생성형’이 갖고 있는 이슈가 극복되어져야 할 것이다. GPT 기술은 PLM 기술의 혁신적 발전을 가져올 것이며, GPT-enabled PLM은 디지털 스레드 기술을 기반으로 하여 디지털트윈 발전의 핵심적인 역할을 할 것이다.   - PLM/DX 분야의 발전을 위한 제언이 있다면. 국내 PLM/DX 분야의 발전을 위해서 몇 가지 제언을 드립니다. PLM/DX 분야에서 활동하셨던 분들이 축적한 노하우를 디지털화 시켜 다음 세대에 물려줄 수 있어야 할 것이다. 이 안에는 '문제점(비식별화된)''도 포함되어야 할 것이다. 또한 국내 기업의 제품개발의 특성과 해외 솔루션의 GAP의 모니터링을 통해 국내 기업의 니즈가 솔루션을 리딩할 수 있도록 해야 할 것이다. 마지막으로 인공지능, GPT와 같은 기술을 빠르게 PLM/DX와 접목시켜야 하고, 이를 위해 Cross-Over 협력체계를 갖추는 것이 필요할 것이다.      
작성일 : 2024-06-08
NEXTFOAM 5, 6월 교육 일정 안내
              교육 소식 >             5월 OpenFOAM 사용자 교육 >             OpenFOAM 사용자 교육 5월 OpenFOAM 사용자 교육에 대해 안내드립니다. OpenFOAM에 관심은 있으나 첫 발을 내딛지 못한 고객 여러분께 도움을 드리고자 초보 사용자를 위한 예제 실습 위주의 교육을 진행합니다. OpenFOAM 소개, 사용 방법 및 예제 실습을 통해 사용자의 OpenFOAM 숙련도를 높일 수 있도록 도와드립니다. 일정 : 5월 22일 ~ 5월 24일 (링크)를 클릭하시면 5월 OpenFOAM 사용자 교육에 대해 더욱 자세하게 확인할 수 있습니다.                                   5월 OpenFOAM 코드 개발자 교육 >             OpenFOAM 코드 개발자 교육 5월 OpenFOAM 코드 개발자 교육에 대해 안내드립니다. OpenFOAM을 이용하여 사용자 요구에 맞는 customized solver를 만들고자 하시는 여러분께 도움을 드리고자 OpenFOAM solver를 직접 modify하는 방법에 대해 교육을 진행합니다. OpenFOAm compile 사용법 및 High Level 프로그래밍, 경계조건 라이브러리 만들기 실습 등을 통해 직접 코드를 수정 및 compile 하는 시간을 가집니다. 일정 : 5월 29일 ~ 5월 31일 (링크)를 클릭하시면 5월 OpenFOAM 코드 개발자 교육에 대해 더욱 자세하게 확인할 수 있습니다.             6월 BARAM을 활용한 CFD 실전 교육 >             BARAM을 활용한 CFD 실전 교육 6월 BARAM을 활용한 CFD 실전 교육에 대해 안내드립니다. CFD 기본 이론, 개념, 과정 설명과 예제 실습을 통해 CFD를 처음 접하시는 분들의 이해를 도와드립니다. 실습은 공개소스 S/W인 BARAM을 사용하므로 교육 후에도 제한 없이 사용하실 수 있습니다. 일정 : 6월 27일 ~ 6월 28일 (링크)를 클릭하시면 5월 OpenFOAM 코드 개발자 교육에 대해 더욱 자세하게 확인할 수 있습니다.             일반 소식 >             19th OFW (OpenFOAM Workshop) >              6월 25일 ~ 6월 28일, 3박 4일 동안 중국 베이징 대학교에서 19th OFW가 개최됩니다. 사전 등록 기간은 5월 15일까지입니다. OFW는 OpenFOAM을 활용한 다양한 해외 연구개발 사례를 쉽게 접할 수 있는 기회이며, OpenFOAM 관련 행사 중 가장 큰 국제 행사입니다. 관심있으신 OpenFOAM 사용자 분들의 많은 참가 부탁드립니다.                         2024년도 한국전산유체공학회 춘계학술대회 >              2024년도 한국전산유체공학회 춘계학술대회가 5월 29일 (수) ~ 5월 31일 (금), 2박 3일 동안 소노캄 제주에서 개최됩니다. 이번 행사에서는 탄소 중립을 위한 조선 공학분야에서 CFD 연구 사례, 파이썬 병렬프로그래밍의 단기강좌도 진행됩니다. 관심 있으신 분들의 많은 참여 바랍니다.             WHAT IS OPENFOAM? OpenFOAM은 오픈소스 CFD 소프트웨어이다. GNU GPL 라이센스를 사용하고 있어 누구나 자유롭게 사용이 가능하며 수정 및 재배포를 할 수 있다.       WHAT IS MESHLESS CFD? 질점격자 기반의 CFD해석 기법으로 FVM해석 기법의 보존성을 갖추고 있으며 전처리 작업시간을 획기적으로 줄일 수 있습니다.FAMUS는 무격자 기법의 CFD 해석 SW 입니다.       WHAT IS BARAM? BARAM은 넥스트폼이 개발한 OpenFOAM CFD 해석 프로그램입니다. 넥스트폼이 개발한 OpenFOAM Solver와 Utility를 GUI 기반으로 사용이 가능합니다.           수신거부
작성일 : 2024-05-07
[넥스트폼] BARAM v24.1.3 Release
              SW 소식 >             BARAM v24.1.0 공개 >             BARAM v24.1.0이 공개되었습니다. BARAM v24.1.0에는 밀도 기반 압축성 솔버와 Batch Process 등 다양한 기능이 포함되어 있습니다. (링크)를 누르시면 BARAM v24.1.0 안내 페이지로 이동합니다.  이외에도 baramFlow tutorials 6개, baramMesh tutorials 1개가 추가되었습니다. (링크)에서 확인해주세요.             baramFlow New Features 밀도 기반 압축성 솔버 및 Far-field Riemann 경계 조건 추가 (TSLAeroFoam) User Parameters 기능 추가 Batch Process 기능 추가 User Parameters를 조합하여 순서대로 계산 실행 가능 격자 정보 확인 기능 추가 (격자 갯수, 해석 영역 크기, 최대/최소 격자 체적) baramFlow Improvement Realizable k-ε 모델의 벽함수 개선 정상 상태 계산을 비정상 상태 계산의 초기값으로 사용하는 기능 추가 cell zone source term에 단위 표시 계산 종료 시, 종료 팝업 창 띄우는 기능 추가 특정 경계면은 이름에 따라 경계 조건 자동 부여 다상 유동의 정상 상태 계산 시 maximum Courant number 설정 가능             baramMesh New Features snap 단계에서 Implicit Feature Snapping 지원 baramMesh Improvement 형상 이름의 공백에 _ (underscore) 자동 추가 Region 단계에서 고체 영역만 설정하도록 기능 개선                                     BARAM ARM 64 버전 Azure Marketplace 공개 >              Azure Marketplace에서 사용할 수 있는 BARAM CFD Package가 공개되었습니다. 이제 고사양의 HPC (High Performance Computing) 없이도 BARAM을 이용하여 복잡한 CFD 계산을 돌릴 수 있습니다.  Azure Marketplace에서 NEXTFOAM BARAM을 검색하시거나 (링크)를 클릭하시면 Azure Marketplace에 등록되어 있는 BARAM CFD Package를 사용하실 수 있습니다.                         교육 소식 >             4월 CAE / AI 엔지니어를 위한HPC 교육 >             CAE / AI 엔지니어를 위한 HPC 교육 4월 CAE / AI 엔지니어를 위한 HPC 교육 일정을 안내드립니다. HPC 환경에서 OpenFOAM 수행 방법 및 병렬 AI 학습 방법 / HPC 구축 실습을 통해 HPC의 개념 이해 / 최적 성능을 도출할 수 있는 방안 및 효율적인 HPC 관리 방안을 목표로 교육이 진행됩니다. 일정 : 4월 24일 ~ 4월 25일 (링크)를 클릭하시면 4월 CAE/ AI 엔지니어를 위한 HPC 교육 내용을 확인하실 수 있습니다.                         일반 소식 >             2024년 AI CFD 춘계 워크샵              지난 2월 29일 서강대학교 AS관 509호에서 AI CFD 워크샵이 있었습니다. GIST 최성임 교수님, 인하대학교 고승찬 교수님, KAIST 이승철 교수님을 비롯하여 AI CFD를 주제로 연구하시는 분들과 모임을 가지는 뜻 깊은 시간이었습니다.  이 자리에서 PINN (Physics-Informed Neural Network)를 비롯하여 FNO, DeepONet 등 Neural Network를 CFD에 적용한 연구 및 활용 성과에 대해 의견을 나누었습니다.  저희 회사에서도 이보성 박사님께서 NEXTFOAM 연구 성과 및 근황을 주제로 발표를 진행해주셨습니다.                         WHAT IS OPENFOAM? OpenFOAM은 오픈소스 CFD 소프트웨어이다. GNU GPL 라이센스를 사용하고 있어 누구나 자유롭게 사용이 가능하며 수정 및 재배포를 할 수 있다.       WHAT IS MESHLESS CFD? 질점격자 기반의 CFD해석 기법으로 FVM해석 기법의 보존성을 갖추고 있으며 전처리 작업시간을 획기적으로 줄일 수 있습니다.FAMUS는 무격자 기법의 CFD 해석 SW 입니다.       WHAT IS BARAM SERIES? BARAM은 넥스트폼이 개발한 OpenFOAM CFD 해석 프로그램입니다. 넥스트폼이 개발한 OpenFOAM Solver와 Utility를 GUI 기반으로 사용이 가능합니다.           수신거부
작성일 : 2024-04-29