• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "CES"에 대한 통합 검색 내용이 3,297개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
델, 클라우드 서비스 및 에지 워크로드 위한 파워엣지 서버 신모델 공개
델 테크놀로지스가 클라우드 서비스 사업자(CSP)를 위한 서버 신제품 2종과 및 에지 워크로드를 위한 컴팩트한 구성의 신제품 2종을 발표했다. 델이 이번에 파워엣지 서버 포트폴리오에 추가한 신제품은 다양한 규모의 CSP를 비롯해 에지 데이터를 서비스하는 소규모 사업자들이 인프라 운영을 간소화할 수 있도록 설계됐다. 또한 차세대 기술들을 적용하고 다양한 범위의 워크로드 처리에 용이하게끔 향상된 성능을 구현했다. ‘델 파워엣지 R670 CSP 에디션(Dell PowerEdge R670 CSP Edition)’과 ‘델 파워엣지 R770 CSP 에디션(Dell PowerEdge R770 CSP Edition)’ 서버는 CSP 기업이 가상화나 데이터 분석과 같은 고밀도 및 스케일 아웃 클라우드 워크로드를 구동하는데 최적화된 성능을 제공한다. R670 CSP 에디션과 R770 CSP 에디션을 도입하는 고객은 ‘델 얼리 액세스 프로그램(Dell Early AcCESs Program)’을 활용해 해당 제품의 설계를 사전에 검토하여 서비스 개시일부터 즉시 운영 환경을 확장할 수 있다.   ▲ 델 파워엣지 R770 CSP 에디션   이번에 공개한 두 신모델은 델 테크놀로지스의 스마트 쿨링(Smart Cooling) 기술로 설계되어 에너지 효율적이며 변화하는 환경에 지능적으로 적응이 가능하다. 냉기 통로(cold aisle)를 최적화한 전면부 I/O나 유연한 구성이 가능한 컴팩트한 폼 팩터로 구축 및 서비스가 간편하여 전문 데이터 센터에 적합하다. 파워엣지 R670 CSP 에디션과 R770 CSP 에디션은 인텔 제온 6 이피션트(Intel Xeon 6 Efficient) 코어 프로세서를 탑재하여 이전 세대 제품 대비 랙당 최대 2.3배 향상된 성능을 제공한다. 오픈BMC(OpenBMC) 기반의 ‘델 오픈 서버 매니저(Dell Open Server Manager)’가 탑재되어 대규모 이기종 환경을 위한 개방형 에코시스템에서 관리를 간소화한다. 델은 이번 CSP 에디션 서버를 통해 파워엣지 포트폴리오에 ‘데이터센터-모듈러 하드웨어 시스템(DC-MHS) 아키텍처를 처음 선보인다. DC-MHS 아키텍처는 서버를 표준화하고 설계 및 고객 선택권을 개선하여 기존 인프라스트럭처에 보다 쉽게 서버를 통합할 수 있도록 지원한다. ‘오픈 컴퓨트 프로젝트(Open Compute Project)’의 일부인 DC-MHS는 델과 인텔을 포함한 6개 기업이 협력해 데이터센터, 에지 및 엔터프라이즈 인프라의 상호 운용성을 높이기 위해 하드웨어 기술을 새롭게 설계하는 이니셔티브이다. ‘델 파워엣지 T160(Dell PowerEdge T160)’ 및 ‘델 파워엣지 R260(Dell PowerEdge R260)’은 강력하고 고밀도의 서버 구성을 필요로 하는 소규모 기업 및 원격 사무실에 적합한 컴팩트 사이즈로 제공된다. 일반 서버 대비 42%의 크기로 물리적 설치 공간이 거의 절반에 불과한 스택형 T160은 도색을 입히지 않은 메탈 섀시를 비롯한 지속 가능한 소재의 사용을 늘려 탄소 배출량을 줄였으며, 이전 세대와 비교해 전력 효율이 최대 23% 향상됐다. R260 또한 물리적 설치 공간을 24% 줄여 높은 활용도를 제공한다. 두 서버 모두 인텔 제온 E-2400 프로세서를 탑재하여 이전 세대 대비 두 배의 성능을 제공한다. T160은 에지 환경의 근거리에 구축해 실시간 데이터 처리를 수행하려는 조직에 이상적이다. R260은 지연 시간을 최대 50%까지 줄여서 에지 환경에 근접한 가상화 구축에 적합하다. 열악한 환경에서도 안정적으로 구동할 수 있도록 필터 베젤이 장착되어 있어 먼지 및 윤활용제로부터 내부 하드웨어를 보호하고, 공기 흐름을 방해하지 않아 최적의 성능과 방음을 보장한다. 한국 델 테크놀로지스의 김경진 총괄 사장은 “컴퓨팅 집약적인 워크로드를 실행하는 동시에 전력 소비를 줄이고 탄소 배출량을 관리하기 위해 최신 기술이 적용된 서버로 교체하고자 하는 수요가 늘어나고 있다”고 말하며, “델 파워엣지 포트폴리오에는 30년 이상 IT 인프라 기술의 중추적인 역할을 맡아온 델의 경험이 집약되어 있다. 델은 에지, 코어 데이터센터, 클라우드 전반의 워크로드를 지원함으로써 고객들이 계속해서 진화하는 비즈니스 요구에 효과적으로 대응하도록 돕는다”고 덧붙였다. 델 파워엣지 R670 CSP 에디션과 R770 CSP 에디션은 7월 중 일부 클라우드 서비스 공급업체를 대상으로 출시되며, 이후 전체적인 공식 판매가 이루어질 예정이다. 델 파워엣지 T160 및 R260은 5월 중 한국을 비롯한 전 세계에 출시될 예정이다.
작성일 : 2024-05-16
AI 시대 신산업정책 수립과 생산공정 혁신을 위한 '인공지능(AI) 자율제조 전략 1.0' 발표
산업통상자원부(이하 산업부)는 5월 8일 안덕근 산업부 장관, 김기남공학한림원 회장 및 국내 기업‧학계‧관계기관 AI 분야 전문가들이 참석한 가운데 「AI 시대의 新산업정책」 위원회 출범식을 개최하였다. 금년 CES의 키워드로 ‘AI’가 꼽힐 만큼 전세계가 AI에 주목하는 가운데, 전문가들은 AI가 산업의 양태를 바꿀 게임체인저가 될 것으로 전망*하고 있다.  * 샘 올트만(OpenAI社 CEO) : “AI는 미래의 경제적 풍요를 이끄는 가장 강력한 힘” 팀 쿡(Apple社 CEO) : “AI 기술이 생산성, 문제해결에 있어 혁신적인 기회를 열 것” 이에 산업부는 AI가 보편화될 시대에 우리 산업의 변화상을 전망하고, AI를 활용한 산업 혁신을 위한 정책 과제들을 도출하기 위해 산업부장관과 한국공학한림원 김기남 회장이 공동위원장을 맡는 「AI산업정책위원회」를 구성하여 ‘AI 시대의 신산업정책’을 수립키로 하였다.  국내 AI 분야 산학연 전문가 200여 명이 향후 6개월 간 작업에 참여할 예정이며, 크게 3개 분야로 나누어 작업할 예정이다. 우선, 총괄분과는 AI 기술 발전 전망, 미래산업 변화, 표준 및 정책 제언 등 4개 파트로 구성되며, 민간전문가들이 주도하여 민간의 통찰력 있는 전망과 기탄없는 정책 제언을담아낸다는 계획이다.  이와 별도로 산업부가 주도하여 자율제조, 디자인, 연구개발, 에너지, 유통, AI 반도체 등 6대 분야별 전략을 마련하여 「AI산업정책위원회」를 통해 매월발표할 예정이다. 아울러 AI의 산업활용을 위한 신설 제도도 설계한다. 1.  「AI 자율제조 전략 1.0」 주요 내용  출범식에 이어 산업부는 「AI시대의 新산업정책」 6대 분야의 첫째 과제인「AI 자율제조 전략 1.0」을 발표하였다. AI 자율제조란 ‘AI를 기반으로 로봇·장비 등을 제조 공정에 결합시켜 생산의 고도화와 자율화를 구현하는 미래 제조환경’을 말하며, 인구구조 변화, 탄소중립, 생산성 저하 등 제조업을둘러싼 난제들을 해결할 핵심 수단으로 주목받고 있다.  산업부의 AI 자율제조 전략 1.0은 ①AI 자율제조 도입 확산, ②AI 자율제조핵심역량 확보, ③생태계 진흥의 3개 전략을 축으로 금년에만 1,000억원 이상의예산이 투입될 예정이다. 산업부는 동 대책을 통해 ‘30년 AI 자율제조확산률을30%이상(현재 9% 수준), 제조 생산성을 20%이상 높이는 것을 목표로 하고 있다.  우선 산업부는 ‘200대 AI 자율제조 선도 프로젝트’를 단계별로 추진한다. 현재 우리 제조업의 지능화 수준은 대부분(76%) 기초 단계에 머물러 있어, 이번 선도 프로젝트를 통해 제조 현장의 디지털 전환 수준을 고도화 단계까지끌어올릴 계획이다. 산업부는 상세 공정분석을 통해 AI 적용 가능성과 효과성등을 면밀히 검토한 후 해당 프로젝트에 소프트웨어(SW)·로봇·시스템 구축 등을 지원한다. 올해는 지자체 공모를 통해 10개 사업을 우선 선정하여 금년중 100억원의 예산을 지원할 계획이다. 사업 선정시 지역 특화산업 등 지자체 수요도 적극 반영할 예정이다. 향후, ’28년까지 지원대상을 단계적으로 확대할 계획이며, 선도 프로젝트에서 축적한 데이터와 기술들이 집약된 ‘업종별 첨단 AI 자율제조 공장 모델’도 구축 검토 중이다.  아울러, 기업들이 AI 자율제조 시스템 구축과정에서 활용할 수 있는 로봇, SW 등의 AI 자율제조 테스트베드도 구축한다. 특히 AI 결합을 통해 생산 고도화의 핵심 역할을 하는 로봇 분야는 올해부터 ’28년까지 국가 로봇테스트필드 사업을 신규로 시작해 2,000억원을 투입할 예정이며, 업종별 특성을 반영한 자율제조 테스트베드 구축도 검토 중이다. 둘째, 업종별 AI 자율제조에 필요한 핵심 역량 확보를 위해 민간 투자를 적극유치하여 5년간 1조원 이상을 투자한다. 정부와 민간의 연구개발(R&D) 자금은 기계·로봇, 조선, 이차전지, 반도체 등 주력 제조업의 공정 자동화, 디지털 트윈 등 가상제조, 유연 생산 등에 집중 투입될 계획이다. 업종별 특화기술外에도 AI 자율제조의 3대 공통 핵심기술인 ‘산업 AI, 장비·로봇, 통합솔루션 개발’을 위해 올해말까지 기술 로드맵을 마련하고 3,000억원 규모의 예타를 기획하여 추진할 계획이다.  AI 자율제조 친화형 산업 생태계 조성도 적극 지원하여, 13,000명의 전문인력과 250개 이상의 전문기업(AI 자율제조 솔루션 등 제공하는 기업)을 육성할 계획이다. 또한 AI 자율제조 확산의 걸림돌이 될 법·제도를 개선하기위한 작업반도 상반기중 출범하며, 프라운호퍼 등 선진 연구기관과 국내 연구단체·학계 간 업무협약(MOU)도 체결해 공동 연구개발, 표준마련, 실증 등 협력을 강화할 계획이다.  「AI 자율제조 전략 1.0」의 민·관·연 공동 추진 기구로 「AI 자율제조 얼라이언스」 를 상반기 중 구성·운영한다. 정부, 연구소, 협·단체. 업종별 주요 기업들이 참여해, AI 자율제조의 확산, 연구개발(R&D) 등 협력사업, 산업데이터 공유·활용, 법·제도 개선 등 AI 자율제조 관련 실질적인 컨트롤 타워 역할을 수행하며, 각 부처와의 협업도 강화할 예정이다.  안덕근 산업부 장관은 “저출산에 따른 인력 부족, 생산성 정체, 경쟁국의추격과 글로벌 공급과잉 등 다양한 위기 요인에 직면한 우리 산업에 AI를 통한 혁신이 필수적”이라고 강조하였다. 아울러 “오늘 발표한 AI 자율제조 전략을 꼼꼼하고 강력하게 추진해 우리 제조업의 혁신은 물론 대한민국 산업의 대전환을 선도하겠다.”고 밝혔다.  한편 김기남 한국공학한림원 회장은 “향후 AI가 우리의 삶을 한 차원 발전시킬 것으로 기대됨에 따라, AI 시대에 최적화된 산업정책을 마련하여 글로벌 주도권을 확보할 것”이라 언급하였다.       
작성일 : 2024-05-14
레노버, 하이브리드 AI 혁신 돕는 AMD 기반 서버 및 인프라 솔루션 공개
레노버는 에지부터 클라우드까지 하이브리드 AI 혁신을 지원하기 위해 새로운 맞춤형 AI 인프라 시스템 및 솔루션 제품군을 발표했다. 레노버는 다양한 환경과 산업에서 컴퓨팅 집약적인 워크로드를 처리하기 위해 폭넓은 GPU 옵션과 높은 냉각 효율성을 지닌 솔루션을 선보인다.    ▲ 씽크시스템 SR685a V3 GPU 서버   레노버는 AMD와 협력하여 씽크시스템(ThinkSystem) SR685a V3 GPU 서버를 선보였다. 이 서버는 고객에게 생성형 AI 및 대규모 언어 모델(LLM)을 포함해 컴퓨팅 수요가 많은 AI 워크로드를 처리하는데 적합한 성능을 제공한다. 또, 금융 서비스, 의료, 에너지, 기후 과학 및 운송 업계 내 대규모 데이터 세트를 처리하기 위한 빠른 가속, 대용량 메모리 및 I/O 대역폭을 제공한다. 새로운 씽크시스템 SR685a V3은 엔터프라이즈 프라이빗 온프레미스 AI와 퍼블릭 AI 클라우드 서비스 제공자 모두에게 최적화된 솔루션이다. 씽크시스템 SR685a V3는 금융 서비스 분야에서 사기 탐지 및 예방, 고객확인정책(KYC) 이니셔티브, 리스크 관리, 신용 발행, 자산 관리, 규제 준수 및 예측을 지원하도록 설계되었다. 4세대 AMD 에픽(EPYC) 프로세서와 AMD 인스팅트 MI300X GPU을 탑재하고 있으며, AMD 인피니티 패브릭으로 상호연결되어 1.5TB의 고대역폭(HBM3) 메모리, 최대 총 1TB/s의 GPU I/O 대역폭 성능을 제공한다. 공기 냉각 기술로 최대 성능을 유지하고 엔비디아의 HGXTM GPU와 향후 AMD CPU 업그레이드를 지원하는 등 유연성도 높였다. 레노버는 AMD EPYC 8004 프로세서를 탑재한 새로운 레노버 씽크애자일(ThinkAgile) MX455 V3 에지 프리미어 솔루션으로 에지에서 AI 추론 및 실시간 데이터 분석을 제공한다. 이번 다목적 AI 최적화 플랫폼은 에지에서 새로운 수준의 AI, 컴퓨팅 및 스토리지 성능을 제공하며, 높은 전력 효율성을 제공한다. 온프레미스 및 애저 클라우드와의 원활한 통합을 지원하며, 고객이 간소화된 라이프사이클 관리를 통해 총소유비용(TCO)을 절감하고 향상된 고객 경험을 얻으며 소프트웨어 혁신을 보다 빠르게 채택하도록 돕는다. 리테일, 제조 및 의료 분야에 최적화된 해당 솔루션은 낮은 관리 오버헤드, 레노버 오픈 클라우드 자동화(LOC-A) 툴을 통한 신속한 배포, 애저 아크(Azure Arc) 지원 아키텍처을 통한 클라우드 기반 매니지먼트, 마이크로소프트와 레노버가 검증한 지속적인 테스트와 자동화된 소프트웨어 업데이트를 통한 보안, 신뢰성 향상 및 다운타임 절감 등을 주요 특징으로 한다.   ▲ 씽크시스템 SD535 V3 서버   레노버와 AMD는 열효율성이 뛰어난 다중 노드의 고성능 레노버 씽크시스템 SD535 V3 서버도 공개했다. 이 제품은 단일 4세대 AMD 에픽 프로세서로 구동되는 1S/1U 절반 너비 서버 노드로 집약적인 트랜잭션 처리를 위해 랙당 퍼포먼스를 극대화시켰다. 이는 모든 규모의 기업을 위한 클라우드 컴퓨팅, 대규모 가상화, 빅 데이터 분석, 고성능 컴퓨팅 및 실시간 전자 상거래 트랜잭션을 포함해 워크로드에 대한 처리 능력과 열 효율성을 극대화한다. 한편, 레노버는 기업이 AI 도입으로 역량을 강화하고 성공을 가속화할 수 있도록 레노버 AI 자문 및 프로페셔널 서비스를 발표했다. 이 서비스는 모든 규모의 기업이 AI 환경에서 효율적인 비용으로 신속하게 알맞는 솔루션을 도입하고 AI를 구현할 수 있도록 다양한 서비스, 솔루션 및 플랫폼을 제공한다. 이 과정은 5단계, ‘AI 발견, AI 자문, AI의 빠른시작, AI 배포 및 확장, AI 관리’로 정리할 수 있다. 레노버는 먼저 보안, 인력, 기술 및 프로세스 전반에 걸쳐 조직의 AI 준비도를 평가하고, 이를 기반으로 조직의 목표에 맞는 가장 효과적인 AI 채택 및 관리 계획을 제안한다. 그런 다음, 레노버 전문가들은 이에 필요한 AI 요소를 설계 및 구축하고, AI 구현을 위한 도구 및 프레임워크를 배포하며, AI 시스템을 유지, 관리 및 최적화할 수 있는 지침을 제공한다. 마지막으로 레노버는 고객과 협력하여 배포부터 시작해 IT 제품 라이프사이클 전반을 지원하고, AI 사용 사례와 AI 성숙도가 함께 성장할 수 있도록 AI 이노베이터 생태계를 지속적으로 관리 및 발전시키고 있다.  레노버 AI 자문 및 프로페셔널 서비스를 통해 고객은 전문적인 IT 팀의 지원을 받아 AI 구현의 복잡성은 완화하고 실질적인 비즈니스 성과를 빠르게 낼수 있다. 레노버는 엔드 투 엔드 서비스, 하드웨어, AI 애플리케이션 및 서비스를 총동원해 고객이 AI 여정의 모든 단계에서 성장하도록 돕는다. 이는 결국 AI 도입을 간소화하여 모든 규모의 조직을 대상으로 AI 접근성을 높이고 산업 전반에 걸쳐 혁신적인 인텔리전스를 구현할 수 있도록 지원한다.  금융 서비스나 의료 업계 분야의 고객은 대량의 데이터 세트를 관리해야 하며 이는 높은 I/O 대역폭을 필요로 하는데, 레노버의 이번 신제품은 중요한 데이터 관리에 필수인 IT 인프라 솔루션에 초점을 맞추었다. 레노버 트루스케일 (Lenovo TruScale)은 고객이 까다로운 AI 워크로드를 서비스형 모델로 원활하게 통합할 수 있도록 유연성과 확장성을 지원한다. 또, 레노버 프로페셔널 서비스(Lenovo Professional ServiCES)는 고객이 AI 환경에 쉽게 적응하고, AI 중심 기업들이 끊임없이 진화하는 요구사항과 기회를 충족할 수 있도록 돕는다. 레노버의 수미르 바티아(Sumir Bhatia) 아시아태평양 사장은 “레노버는 AMD와 함께 획기적인 MI300X 8-GPU 서버를 출시하며 AI 혁신에 앞장섰다. 레노버는 대규모 생성형 AI 및 LLM 워크로드를 처리할 수 있는 고성능을 제공함으로써 AI의 진화를 포용할 뿐만 아니라 더욱 전진시키고 있다. AMD의 최첨단 기술을 기반에 둔 우리의 최신 제품은 시장을 선도하겠다는 포부를 담고 있다. CIO의 AI 투자가 45% 증가할 것으로 예상됨에 따라, AMD MI300X 기반 솔루션의 포괄적인 제품군은 조직의 지능적인 혁신 여정에 힘을 실어줄 것”이라고 말했다.  레노버 글로벌 테크놀로지 코리아 윤석준 부사장은 “레노버는 하이브리드 AI 솔루션을 통해 국내에 다양한 기업을 지원하며 AI 혁신에 앞장서고 있다. 올해 한국 기업의 95% 이상이 생성형 AI에 투자할 계획을 갖고 있는 가운데, AI 도입이 증가하고 있다는 사실은 분명하다. 우리는 AI가 경쟁 우위를 확보하는 데 중추적인 역할을 한다는 점을 인지하고 AMD와 협력하여 포괄적인 AI 시스템 및 솔루션 제품군을 출시했다. 레노버는 금융 서비스 분야의 통찰력 가속화부터 의료산업 내 성능 강화까지 혁신적인 인텔리전스 분야를 선도하고 있다. AMD 기술로 구동되는 신규 씽크시스템 및 씽크애자일 제품은 에지 및 클라우드 환경 전반에 걸쳐 전례 없는 성능과 효율성을 제공하며 AI 배포를 혁신한다”고 전했다.
작성일 : 2024-05-08
[주영섭 칼럼] CES 2024가 우리 제조업에 던진 시사점
주영섭 특임교수 / 서울대학교 공학전문대학원(前 중소기업청장)   매년 1월 초 미국 라스베이거스에서 열리는 CES(소비자전자쇼)는 미래 기술 트렌드를 제시하는 세계 최대 기술 전시회라는 면에서 그 중요성이 날로 커지고 있다. CES는 1967년 뉴욕에서 시작하여 초기에는 가전제품을 중심으로 열렸으나, 2000년대 들어 자동차 및 헬스케어 분야로 확대되고 최근 AI(인공지능), 5G/6G 통신, 로봇, 드론, 메타버스 등 디지털 기술을 물론 우주, 스마트 시티, 푸드테크, 블록체인 및 웹3.0 등 사실상 첨단기술 전 분야를 망라하고 있다. 세계가 디지털·그린·문명 대전환 시대를 맞이하고 과학기술이 국가와 기업의 명운을 좌우하는 기술패권 시대로 접어들면서 기술의 트렌드를 이해하고 기술 역량을 확보하는 것이 생존과 발전의 필수 요건이 되고 있다. CES가 기업인은 물론 정부 관계자들이 반드시 가봐야 하는 중요한 전시회가 되고 있는 이유다. 특히 작년부터 전 세계를 강타하고 있는 챗(Chat)GPT 등 생성형 AI가 CES 2024의 핵심 화두가 되면서 새해 세계인의 관심이 더욱 집중된 바 있다. 올해 CES 2024에는 153개국에서 4,300개사가 전시업체로 참여하여 작년 3,200개를 훨씬 상회하고 참관 인원도 13만 5천명으로 작년의 11만 5천명을 대폭 초과하는 성황을 이루었다. 국가별로 전시업체 수를 비교해 보면 1위는 주최국인 미국으로 1,201개, 2위는 중국으로 1,115개, 3위가 한국으로 784개다. 우리나라는 올해 작년의 598개 대비 대폭 증가한 역대 최다 전시업체 참여로 CES 주관기관이 올해 핵심 키워드가 ‘Korea’라며 향후 CES의 주도국으로 큰 기대감을 내비치고 있다. 과거 우리 기업의 CES 참가는 삼성, LG, 현대기아차 등 대기업 중심으로 이루어졌으나 최근 스타트업‧벤처 기업 참여의 증가세가 괄목할 만하다. 올해 600개사 참여로 역대 최다 기록이다. 전 세계 1,200개 스타트업 기업의 혁신 기술 경연장이 된 유레카관에 우리 스타트업 기업이 443개 참여하여 프랑스 180개, 일본 60개, 네덜란드 60개 등 다른 나라를 압도하였다. 향후 많은 개선의 여지는 있으나 우리 기업과 정부의 다년간의 스타트업 육성 및 글로벌화 의지에서 나온 고무적 성과다. CES를 주도하고 있는 첨단 기술분야가 사실상 제조업의 현재와 미래를 망라하고 있다. 전자·ICT, 반도체, 배터리, 모빌리티, 로봇, 바이오, 헬스케어, 우주항공 등이 모두 첨단 제조업이다. 구조적으로 수출 등 해외의존도가 높은 우리 경제에서 제조업의 중요성이 절대적인 만큼 CES의 중요성도 대단히 중요하다. 이러한 맥락에서 CES에서 우리 대기업 및 스타트업‧벤처 기업의 존재감과 활약의 대폭 확대는 중장기적으로 큰 전략적 의미를 가지고 있다고 하겠다.   CES 2024  전시회    CES 2024가 제시한 기술 트렌드 및 패러다임 혁신은 우리 기업에 많은 시사점을 던지고 있다. 먼저 ‘기술 중심’에서 ‘기술의 목적(Purpose) 중심’으로 패러다임이 전환되고 있음을 주목해야 한다. 즉, 기술을 위한 기술 혁신이 아니라 인류를 위한 기술 혁신이어야 한다는 목적 중심으로의 관점 전환이 중요하다. CES는 작년부터 ‘모두를 위한 인류 안보 (Human Security for All)’라는 핵심 슬로건을 제시하며 세계가 모두 함께 기술 혁신으로 인류의 문제를 해결하자고 역설했다. 환경, 식량, 의료, 경제, 개인 안전 및 이동, 공동체 안전, 정치적 자유의 7개 분야에 올해 AI 등 기술이 추가된 8개 분야에서 인류가 당면하고 있는 큰 위험으로부터 인류를 구해내기 위해서는 새로운 기술혁신이 필요하다는 것이다. 우리 제조업의 당면과제인 ‘빠른 추격자(Fast Follower)’에서 ‘선도자(First Mover)’로의 전환에 성공하려면 세계인에 새로운 시대정신 기반의 ‘인류를 위한 기술 혁신’을 제시할 수 있어야 한다. CES의 핵심 슬로건인 ‘모두를 위한 인류 안보’는 우리 제조업의 기술 혁신이 지향할 목적으로 의미가 크다. 다음으로 CES 2024의 핵심 키워드인 ‘AI 전환(AX)’과 ‘지속가능성’에 주목해야 한다. AX는 디지털 전환(DX)의 핵심으로 기존의 분류형·예측형 AI에 생성형 AI가 가세함으로써 모든 산업 및 기업에 AX는 필수적 기본이 되고 있다. AX는 연결·데이터·AI가 3대 핵심요소인 DX의 핵심이지 별개가 아님은 두말할 여지가 없다. 우리 모든 기업, 기관 및 정부의 AX가 시급하다. 기업의 AX는 두 가지로 추진되어야 한다. 하나는 AI를 기반으로 개인화 및 맞춤화 등을 포함한 제품 및 서비스의 혁신이고, 또 하나는 AI를 통한 업무 및 작업의 생산성과 효율성의 획기적 제고다. 올해 AI 기반의 제품 혁신에서는 ‘온 디바이스(On-Device) AI’가 크게 부각되었다. 스마트폰, PC 및 노트북, 자동차, 로봇, 가전제품에 AI를 올리기 위한 ‘온 디바이스 AI’가 급속도로 확산될 전망이다. 이에 따라 AI 반도체, 센서, 클라우드 및 데이터 인프라, 디바이스 등 AI 생태계 구축이 국가적 과제가 되고 있다. 지속가능성’은 ‘환경’과 ‘사회’의 두 방향으로 추구되고 있다. ‘환경의 지속가능성’은 그린 대전환(GX)의 핵심이며 CES 2024에서는 탄소중립을 목표로 친환경 소재, 순환경제, 재생에너지 인프라, 수소, 핵융합 등 대체에너지가 큰 주목을 받았다. ‘사회의 지속가능성’은 ESG(환경·사회·지배구조)의 중요 축이며 사회 양극화, 젠더, 노소, 인종, 소외계층 등 사회문제 해결에 기여하는 포용적 기술 혁신이 크게 부상하였다. 이 역시 우리 제조업에의 시사점이 크다. 끝으로, 협력의 중요성이다. 속도가 너무 빠른 기술 혁신과 목적 중심의 패러다임 전환에 따라 협력 및 융합이 필수적으로 요구되고 있다. CES 2024에서도 이종 업종 간은 물론 동종 업종 내에서도 다양한 협력 사례가 제시되었다. AI 생태계 구축, 연결의 상호호환성 표준 등이 좋은 예다. 역시 우리 제조업계가 많은 노력을 해야 할 대목이다.  
작성일 : 2024-05-08
몽고DB, 생성형 AI로 최신 애플리케이션 구축 지원
몽고DB가 기업이 생성형 AI로 신속하게 최신 애플리케이션을 구축 및 배포하도록 지원하는 ‘몽고DB AI 애플리케이션 프로그램(MongoDB AI Applications Program : MAAP)’을 발표했다. 새롭게 선보인 MAAP은 기업 고객을 위한 몽고DB 및 파트너사의 전략적 자문과 전문 서비스를 비롯해 통합된 엔드투엔드 기술 스택을 제공한다. MAAP에는 컨설팅 및 파운데이션 모델(FM), 클라우드 인프라, 생성형 AI 프레임워크 및 모델 호스팅 제공기업 등이 초기 파트너로 참여해 몽고DB와 함께 고객이 고도화된 AI 기반 애플리케이션으로 비즈니스의 어려움을 해결하도록 지원할 방침이다. 이를 위해 MAAP은 생성형 AI를 빠르고 효율적으로 애플리케이션에 도입하길 원하는 기업을 위해 필요한 기술 스택과 전문성을 제공하는 원스톱 솔루션으로 설계됐다. 모든 기업은 생성형 AI가 주도한 혁신 속에서 경쟁 우위를 점하고 고객의 높아진 기대치를 뛰어넘기 위해 애플리케이션 현대화를 추진하고 있다. 전 산업군의 기업이 새로운 기술 변화의 이점을 누리기 위해 나서고 있지만, 새로운 종류의 애플리케이션을 안전하고 안정적으로 구축, 배포 및 확장하는 데 필요한 데이터 전략과 기술을 갖추지 못한 경우가 많다. 이들 중 상당수는 확장이 불가능한 레거시 기술로 인해 비효율적인 데이터 작업 방식을 고수하고 있으며, 일부는 불필요한 복잡성과 비용을 야기하는 단일 목적의 볼트온(bolt-on) 솔루션을 사용하고 있다. 이러한 경우, 기업은 기존의 기술과 애드온(add-on) 솔루션으로 인해 장기적인 성공보다는 PoC(Proof of Concept) 수준의 단기적인 결과에 머물게 된다. 몽고DB가 새롭게 선보인 MAAP은 기업이 가진 비즈니스 문제를 파악하고 역추적하며, 솔루션을 신속하게 구축 및 반복해 혁신적인 생성형 AI 애플리케이션 생산에 최적화된 전략적 프레임워크와 전문 서비스, 기술 로드맵을 제공한다. 몽고DB는 통합 개발자 데이터 플랫폼에서 기업이 생성형 AI 애플리케이션을 배포할 수 있는 기술을 MAAP에 접목했으며, 이와 함께 컨설팅 및 FM, 클라우드 인프라, 생성형 AI 프레임워크 및 모델 호스팅 제공 기업과의 파트너십을 기반으로 엔드 투 엔드 솔루션을 제공한다. 대표적으로 앤스로픽(Anthropic), 애니스케일(Anyscale), 아마존웹서비스(AWS), 코히어(Cohere), 크레달.ai(Credal.ai), 파이어웍스.ai(Fireworks.ai), 구글 클라우드(Google Cloud), 그래비티나인(gravity9), 랭체인(LangChain), 라마인덱스(LlamaIndex), 마이크로소프트 애저(Microsoft Azure), 노믹(Nomic), 피어아일랜드(PeerIslands), 퓨어인사이트(Pureinsights), 투게더 AI(Together AI) 등 기업이 MAAP의 초기 파트너사로 참여해 고객에게 필요한 기술, 풀 서비스 및 전문가 지원을 제공한다. MAAP은 기업에 대한 고도로 맞춤화된 분석에 기반한다. 먼저 몽고DB 프로페셔널 서비스(MongoDB Professional ServiCES)는 조직의 현재 기술 스택을 평가하고 고객과 협력해 해결해야 할 비즈니스 문제를 파악한다. 이어 컨설팅 파트너와 함께 전략적 로드맵을 개발하고 프로토타입을 신속하게 마련해 결과물이 고객의 기대에 부합하는지 검증하며, 이를 실제 운영 환경에서 사용할 수 있도록 완전하게 구축된 애플리케이션을 최적화한다. 고객은 필요에 따라 새로운 생성형 AI 기능을 개발하기 위한 몽고DB 프로페셔널 서비스를 계속 지원받을 수 있다. 기업은 조직 전반과 고객을 위한 애플리케이션에 배포된 새로운 기술이 예상대로 작동하며 민감한 데이터를 노출하지 않는다는 확신을 가질 수 있어야 한다. MAAP의 파트너사는 안전성과 신뢰성, 유용성을 보장하도록 설계된 FM을 제공한다. 기업은 FM을 강력한 거버넌스 제어와 자체 데이터를 사용하는 검색 증강 생성(RAG) 등의 기술과 결합함으로써 FM이 제공하는 데이터를 정확히 제어하고 정확도 개선에 필요한 컨텍스트를 제공하며 환각현상(hallucination)을 줄일 수 있다. 또한 기업은 MAAP 파트너를 통해 도메인별 사용 사례에 최적화된 미세 조정 및 추론 서비스도 사용하며, 앤스로픽, 코히어, 메타(Meta), 미스트랄(Mistral), 오픈AI(OpenAI) 등 모델을 기반으로 빠른 AI 모델 응답 시간을 확보할 수 있다. 이처럼 MAAP은 사용 사례에 필요한 생성형 AI 참조 아키텍처, 통합 기술, 규정 등 실무 중심의 전문 서비스를 제공해 의도대로 작동하는 안전한 고성능 애플리케이션을 구축할 수 있다. MAAP은 생성형 AI를 대규모로 도입할 준비가 되지 않은 기업에게 안전한 비공개 샌드박스 환경에서 진행되는 맞춤형 프로토타입 세션을 제공한다. 예를 들어 전략, 운영, IT, 소프트웨어 개발 등 조직의 여러 부서가 전문가 세션에 참여해 다양한 의견을 모으고, 생성형 AI를 통해 해결할 수 있는 내부 비즈니스 과제를 파악하는 데 맞춤형 MAAP을 활용할 수 있다. 나아가 몽고DB 프로페셔널 서비스가 주도하는 해커톤을 통해 솔루션을 공동 구축하고 내부 사용 사례에 대한 효과를 테스트한다. 즉, MAAP은 생성형 AI가 특정 비즈니스 문제를 해결하는 실질적인 솔루션을 신속하게 구축하는 데 필요한 교육, 리소스 및 기술을 제공한다. 몽고DB의 앨런 차브라(Alan Chhabra) 월드와이드 파트너 부문 수석부사장은 “기민함이 필요한 스타트업부터 탄탄한 입지를 구축한 글로벌 기업까지 몽고DB의 다양한 고객이 생성형 AI에 많은 관심을 보이고 있다. 이들은 몽고DB의 최신 기술과 포괄적인 서비스를 활용해 혁신적인 아이디어를 실제 애플리케이션으로 전환하고 있으나 일부 기업은 여전히 비즈니스 문제 해결을 위해 생성형 AI를 통합할 최상의 방법을 고민하고 있다”고 전했다. 또한, “MAAP은 강력한 개발자 데이터 플랫폼인 몽고DB 아틀라스(MongoDB Atlas)와 몽고DB가 보유한 전문성 및 서비스, 그리고 생성형 AI 업계 리더들과의 전략적 파트너십을 통해 규모를 막론하고 모든 기업이 생성형 AI를 자신 있게 도입하고 구현할 수 있는 포괄적인 로드맵을 제공한다. 몽고DB와 파트너는 MAAP을 통해 고객의 생산성을 높이고 고객과의 상호 작용을 혁신하며 업계 발전을 주도하는 데 생성형 AI를 활용할 수 있도록 지원한다”고 말했다.
작성일 : 2024-05-07
라이젠 프로 8040/8000 시리즈 : AI로 생산성 높이는 기업용 PC 프로세서
개발 및 공급 : AMD 주요 특징 : 4nm 젠 4 아키텍처 기반으로 성능 및 전력 효율 향상, 와이파이 7 기술 지원, 일부 모델에 NPU 기반 AI 엔진 탑재 등     AMD는 비즈니스 환경에서 높은 생산성과 프리미엄급 AI 및 연결 경험을 제공하는 새로운 기업용 모바일 및 데스크톱 AI PC 프로세서를 공개했다. 새로운 AMD 라이젠 프로 8040(Ryzen PRO 8040) 시리즈는 기업용 노트북과 모바일 워크스테이션을 위해 개발된 x86 프로세서이다. AMD는 비즈니스 사용자를 위한 AI 지원 데스크톱 프로세서인 AMD 라이젠 프로 8000 시리즈 데스크톱 프로세서도 출시했다. 이 제품은 낮은 전력 소모로 첨단 성능을 제공하도록 설계되었다. AMD는 이번에 새롭게 공개된 일부 모델에 AMD 라이젠 AI(AMD Ryzen AI)를 탑재했다. 새로운 라이젠 AI 기반 프로세서는 CPU, GPU 및 전용 온칩 NPU(Neural ProCESsing Unit)를 탑재한다. 전용 NPU의 경우 최대 16 TOPS의 연산 성능을 제공하며, 전체 시스템은 최대 39 TOPS로 이전 세대보다 향상된 전용 AI 프로세싱 성능을 제공한다. 새로운 라이젠 AI 지원 프로세서를 장착한 기업용 PC는 AI 기반 협업과 콘텐츠 제작, 데이터 및 분석 워크로드에서 더 높은 성능과 향상된 사용자 경험을 제공한다. 또한, AMD 프로 기술이 추가됨에 따라 IT 관리자들은 IT 운영을 간소화하고, 조직 전반에 걸쳐 보다 신속하게 PC를 구축할 수 있는 엔터프라이즈급 관리 기능을 사용할 수 있다. AMD는 정교한 공격으로부터 프로세서와 클라우드를 방어할 수 있는 통합 보안 기능 및 안정성과 신뢰성 및 플랫폼 수명을 갖춘 엔터프라이즈 소프트웨어 등의 이점을 제공한다고 전했다. 새로운 라이젠 프로 8040 시리즈 모바일 프로세서는 2024년 2분기부터 HP와 레노버를 포함한 OEM 파트너사를 통해 공급될 예정이며, 라이젠 프로 8000 시리즈 데스크톱 프로세서는 2024년 2분기부터 OEM 파트너사인 HP와 레노버, 일부 채널 파트너 플랫폼을 통해 공급될 예정이다.   라이젠 프로 8040 시리즈      전문가용 노트북 및 모바일 워크스테이션을 위한 AMD 라이젠 프로 8040 시리즈 모바일 프로세서는 집약적인 비즈니스 및 AI 워크로드에 최적화된 효율과 프로세싱 성능을 제공한다. 이 프로세서는 까다로운 모바일 워크스테이션 애플리케이션에서 최대 30% 향상된 성능을 제공하는 4nm의 ‘젠 4(Zen 4)’ 아키텍처를 기반으로 하며, 최대 8개의 고성능 코어를 탑재한다. 일부 모델에는 AMD 라이젠 AI를 탑재하고 AMD RDNA 3 그래픽을 통합했는데, AMD는 “경쟁사 프로세서 대비 화상회의 시 84% 더 적은 전력으로 최대 72% 더 높은 성능을 제공한다”고 설명했다. 또한, 라이젠 프로 8040 시리즈 프로세서 기반 PC는 와이파이 7(WiFi-7) 기술도 활용할 수 있다. 시리즈 중 최상위 제품인 AMD 라이젠 9 프로 8945HS는 8개의 코어와 16개의 스레드, 24MB 캐시 및 라데온(Radeon) 780M 그래픽을 탑재하고 있다. 이 프로세서는 테크니컬 컴퓨팅, 멀티미디어 콘텐츠 제작, 개별 그래픽 등 리소스 집약적 애플리케이션에 필요한 연산 성능을 제공하며, 3D 렌더링, 비디오 인코딩 및 사진 편집 등과 같은 까다로운 그래픽 관련 워크로드를 처리한다. 이번에 발표된 라이젠 프로 8040 시리즈는 6 코어 12 스레드의 라이젠 5 프로 8540U부터 8 코어 16 스레드의 라이젠 9 프로 8945HS까지 8종이다. 이 중 8540U를 제외한 7개 제품에서 라이젠 AI를 지원한다.   라이젠 프로 8000 시리즈     기업용 데스크톱을 위한 AMD 라이젠 프로 8000 시리즈 프로세서는 4nm 공정 기술을 기반으로 최대 8개의 고성능 젠 4 코어를 탑재했으며, 일부 모델은 전용 AI 엔진을 탑재하여 향상된 전력 및 효율과 몰입형 AI 경험을 제공한다.  AMD 라이젠 프로 8000 시리즈 프로세서를 장착한 데스크톱은 주요 비즈니스 애플리케이션 및 데이터에 대한 보다 빠른 액세스와 초고속 데이터 전송, 원활한 워크플로를 위해 최신 DDR5 및 PCIe 4를 지원하며, 일부 모델은 와이파이 7 기반의 차세대 연결성도 제공한다. 라인업 중 최상위 제품인 AMD 라이젠 8700G 프로세서는 고성능 8 코어 16 스레드, 24MB 캐시 및 통합 AMD 라데온 780M 그래픽을 탑재한다. AMD 라이젠 8700G는 AMD의 성능 테스트에서 경쟁 제품 대비 더 적은 전력을 소모하면서도 최대 19% 향상된 성능을 제공하는 것으로 나타났다. AMD는 “AMD 라이젠 7 프로 8799G 프로세서를 탑재한 기업용 데스크톱은 특정 테스트를 기준으로 경쟁사 프로세서에 비해 최대 47% 향상된 시스템 성능과 3배 향상된 그래픽 성능을 제공한다”고 전했다. 이번에 발표된 라이젠 프로 8000 시리즈는 4 코어 8 스레드의 라이젠 3 프로 8300GE부터 8 코어 16 스레드의 라이젠 7 프로 8700G까지 8종이며, 라이젠 5 프로 8600G 및 8600GE, 라이젠 7 프로 8700G 및 8700GE 등 네 종이 라이젠 AI를 지원한다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-05-02
[피플 & 컴퍼니] 한국알테어 이승훈 기술 총괄 본부장
더욱 빠르고 효율적인 제품 개발을 위한 AI 기술 본격화 추진   제조산업에서도 AI(인공지능)에 대한 관심이 높아지고 있다. 한편으로 실질적인 AI 도입과 활용에 대한 제조업계의 고민도 커졌다. 알테어는 시뮬레이션, HPC, 클라우드, 데이터 애널리틱스 등 자사의 기술 역량을 바탕으로 제조산업을 위한 AI 기술 개발을 가속화하고 있으며, 향후 본격적으로 제조시장에 확산시킨다는 전략을 내세웠다. ■ 정수진 편집장   ▲ 한국알테어 이승훈 기술 총괄 본부장은 제품 개발에서 AI의 활용이 구체화되고 있다고 짚었다.   제조산업에서 AI에 대한 관심이 높아지고, 도입과 활용이 확산되는 배경은 무엇이라고 보는지 제품의 생산 방식이 다품종 소량 생산 방식이 확대되면서 제품의 개발 주기가 꾸준히 짧아지고 있다. 이에 따라 제품 개발과 관련한 예측과 의사결정은 더욱 빨라져야 한다는 요구도 높다. 이를 위해 프로토타입을 만들어 실험하는 방식에서 컴퓨터와 CAE 소프트웨어를 사용하는 시뮬레이션으로 변화해 왔는데, 시뮬레이션 역시 해결해야 하는 과제가 있다. 시뮬레이션을 활용하려면 전문적인 엔지니어링 지식이 필요하고, 시뮬레이션에 걸리는 시간이 더욱 빨라지는 제품 개발 주기에 맞추기 어려워졌다. 시뮬레이션이 제품의 초기 개발에서 생산까지 더욱 폭넓게 쓰이는 상황이 시뮬레이션 기반의 의사결정에 걸리는 시간을 늘리게 된 측면도 있다. AI는 이에 대한 해결책으로 관심을 모으고 있다. 제조업체에서 실험 데이터와 해석 데이터가 상당히 쌓여 있는 상황인데, 이를 AI 학습에 활용해서 빠르게 인사이트를 얻고 제품 개발에 반영할 수 있겠다는 아이디어가 이제 구체화되고 있는 시점이라고 볼 수 있겠다.   최근 AI와 관련한 제조산업의 동향이나 이슈가 있다면 제조업체에서 해석 데이터와 실험 데이터가 쌓여 있기는 한데, 이 데이터가 각 엔지니어의 PC에 흩어져 있는 것이 현실이다. 이에 따라 여러 곳에 저장된 데이터를 통합 관리하는 시스템에 대한 요구가 있다. 또한, 이 데이터를 AI에 활용하기 위한 추가 가공의 자동화에 대한 목소리도 있다. 엔지니어링 데이터를 AI에 활용하기 위해서는 AI에 맞는 데이터의 전처리(pre-proCESsing)가 중요하다. 전처리란, 아무렇게나 쌓여 있는 데이터를 분류하고 AI에 적용하기 위해 적절한 포맷의 데이터로 변환하는 작업을 가리킨다. 이 부분에서 많은 제조기업 고객사들이 데이터를 어떻게 가공해야 할 지에 대한 고민을 갖고 있기도 하다. 이전에는 파이썬(Python)과 같은 프로그래밍 언어를 배워서 데이터 변환 코드를 만들어야 했는데, 알테어는 데이터를 자동으로 변환할 수 있는 솔루션을 제공해 쌓여 있는 데이터의 분류와 정제 과정을 더 쉽게 할 수 있도록 돕는다. 이런 부분에서 LG전자의 사레를 소개할 만하다. LG전자는 알테어와 협업해서 해석 엔지니어가 퇴근한 후에 해석 데이터를 취합하고 변환과 AI 학습까지 수행하는 자동화 시스템을 구축했다. 학습된 AI는 웹 환경에서 설계 엔지니어에게 필요한 데이터를 제공하고, 설계 엔지니어는 제품에 대한 치수나 조건을 입력하면 시뮬레이션을 거치지 않고 빠르게 가상 시험 결과를 확인할 수 있게 됐다. AI는 제품의 초기 개발 단계뿐 아니라 전체 개발 과정에 적용할 수 있다. 초기 단계에서는 실험에서 나온 데이터가 존재한다면 이를 기반으로 어떤 결과가 나올지 쉽게 확인할 수 있다. 이후 단계에서도 다양한 데이터를 학습해 추가적인 예측을 할 수 있고, 대시보드 등을 통해 누구나 데이터 및 예측 결과를 확인하거나, 몇 가지 조건을 입력해 새로운 예측을 할 수 있는 단계로 나아갈 수도 있다. 최종 단계의 데이터는 후속 제품이나 다른 제품을 개발할 때 활용하는 것도 가능하다.   제품 개발 사이클의 단축이라는 점에서는 시뮬레이션이 가져다 줄 수 있는 이점과 비슷한 부분이 있어 보인다. AI의 역할은 시뮬레이션을 보완하는 것인가, 아니면 시뮬레이션을 대신할 수 있는 것인가 지금은 AI가 기존의 시뮬레이션을 완전히 대체할 수 있는 단계는 아니다. 하지만 AI를 통해 제품의 초기 개발 단계에서 데이터 기반의 예측 결과를 빠르게 얻을 수 있고, 향후 설계를 위한 인사이트를 얻을 수 있다는 점에서 의미가 있다. AI를 학습시키기 위한 데이터는 필요하기 때문에 시뮬레이션은 여전히 중요하다. 지금의 상황은 실험이나 해석 데이터를 기반으로 AI를 통해 인사이트를 얻는 단계라고 볼 수 있다. 시뮬레이션이 자리잡기까지의 과정을 살펴보면, 초기에는 실험과 시뮬레이션을 함께 사용하다가 시뮬레이션 부분이 강화되면서 실험의 비중을 줄여 왔다. 앞으로 AI 기술이 더욱 발전하고 데이터가 더 많이 쌓인다면 AI가 확대되고 시뮬레이션이 줄어들 수도 있을 것 같다. 이런 흐름은 단계적으로 일어날 수도 있고, 제품별로 변화의 속도가 달라질 수도 있다고 본다.   ▲ 알테어는 시뮬레이션과 연계해 제조 분야에서 활용할 수 있는 AI 솔루션을 내세운다.   제조산업의 AI 활용을 위한 알테어의 기술 차별점은 무엇인지 알테어는 멀티피직스 시뮬레이션뿐 아니라 복잡한 시뮬레이션을 활용하기 위한 고성능 컴퓨팅(HPC)과 클라우드, 데이터 애널리틱스와 AI 등 폭넓은 기술 역량을 갖추었다는 점에서 차별점이 있다고 본다. 이는 온프레미스와 클라우드, CPU 컴퓨팅과 GPU 컴퓨팅을 모두 지원해 시뮬레이션 및 AI를 유연하게 활용하도록 도울 수 있다는 뜻이다.  알테어는 지난 2022년 데이터 기반 AI를 위한 머신러닝 분석 플랫폼인 래피드마이너(RapidMiner)를 인수하면서 AI 분야 진출을 시작했다. 래피드마이너는 제조뿐 아니라 BFSI(은행.금융.서비스.보험) 등 다양한 산업에서 활용할 수 있는 솔루션이다. 예를 들어, 고객 지원이나 불만사항에 대한 다응, 주가 예측 등에도 래피드마이너가 유용하다. 또한, 2023년부터는 래피드마이너 등 기존 제품군으로 AI 시장에 대응하는 것 외에 제조산업을 타깃으로 하는 특화 기술을 개발했고, 올해는 이 부분을 본격적으로 선보이고자 한다. 제조산업을 위한 알테어의 AI 기술로는 설계 탐색과 최적화를 위한 디자인AI(DesignAI), 비슷한 형상을 자동 인식하고 분류하는 셰이프AI(shapeAI), 해석 결과를 학습해 물리현상을 빠르게 예측하는 피직스AI(physicsAI), 시스템 레벨에서 빠른 3D → 1D 변환을 위한 롬AI(romAI)가 있다.  이런 AI 기술은 적은 수의 데이터로도 학습이 가능하며, 알테어의 기존 시뮬레이션 솔루션 제품군에 들어가는 형태로 제공되어 익숙한 인터페이스로 사용할 수 있다. 하이퍼메시(HyperMesh)에는 이미 피직스AI와 셰이프AI가 포함되어 있고 향후 심랩(SimLab)과 인스파이어(Inspire)를 비롯해 다양한 솔루션에 AI가 추가될 예정이다. 알테어는 래피드마이너를 활용한 데이터 기반의 AI와 시뮬레이션 기반의 AI를 모두 지원한다. 그리고 타사 솔루션의 데이터를 활용할 수 있는 개방성과 유연한 라이선스 사용도 장점으로 내세우고 있다.    향후 제조 분야의 AI 전망과 알테어의 전략을 소개한다면 AI에 대한 고객들의 기대치가 높다고 느낀다. 알테어는 지난 4월 4일 ‘AI 워크숍’을 진행했는데, 기업의 의사결정권자부터 현업 엔지니어까지 예상보다 많은 분들이 참여해 높은 관심을 보였다. 관심이 높은 만큼 실제 활용 방향에 대한 고민이 많다는 것을 알 수 있었다. 사용자의 기대치와 실제로 할 수 있는 것 사이의 거리, 알테어와 같은 솔루션 기업과 사용자인 제조기업의 시각차도 어느 정도 확인할 수 있었다. 이런 부분은 고객들을 많이 만나고 의견을 나누면서 간극을 좁혀야 할 것 같다. 당장 AI가 시뮬레이션을 완벽하게 대체하기는 어렵겠지만, 클라우드 기반의 통합 환경에서 시뮬레이션과 AI를 통합해 사용할 수 있도록 하는 것을 목표로 삼고 있다. 클라우드는 데이터의 통합 관리와 공유 측면에서도 이점이 있다고 본다. 시뮬레이션과 AI를 위해 대규모 데이터를 관리하기 어려운 소규모 기업은 클라우드의 장점에 주목할 만하다고 본다. 한편으로 보안 등의 우려를 가진 기업에게는 프라이빗 클라우드 환경을 제공해 데이터 보안을 유지하면서 알테어 원 클라우드와 동일한 환경에서 작업할 수도 있다. 알테어는 AI 솔루션 제품군을 빠르게 업데이트하면서 사용자의 피드백을 반영하고 있다. 고객들이 AI에 대해 갖고 있는 기대치 또는 눈높이가 상당히 높은 것으로 보여서, 이에 대응해 경쟁 우위를 확보하고자 노력 중이다. 제조 분야에서도 AI에 대한 관심이 높지만, 어떻게 활용할지에 대한 고민이 큰 상황으로 보인다. 알테어는 이런 부분에서 도움을 줄 수 있도록 AI 기술 개발과 함께 커스터마이징과 컨설팅 등을 폭넓게 제공하고자 한다. 본사의 개발팀과도 활발히 소통하면서 사용성이나 적용 범위 등에 대한 고객의 어려움을 덜고, 최대한 빠르게 고객이 원하는 AI를 구현할 수 있도록 할 계획이다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-05-02
[넥스트폼] BARAM v24.1.3 Release
              SW 소식 >             BARAM v24.1.0 공개 >             BARAM v24.1.0이 공개되었습니다. BARAM v24.1.0에는 밀도 기반 압축성 솔버와 Batch ProCESs 등 다양한 기능이 포함되어 있습니다. (링크)를 누르시면 BARAM v24.1.0 안내 페이지로 이동합니다.  이외에도 baramFlow tutorials 6개, baramMesh tutorials 1개가 추가되었습니다. (링크)에서 확인해주세요.             baramFlow New Features 밀도 기반 압축성 솔버 및 Far-field Riemann 경계 조건 추가 (TSLAeroFoam) User Parameters 기능 추가 Batch ProCESs 기능 추가 User Parameters를 조합하여 순서대로 계산 실행 가능 격자 정보 확인 기능 추가 (격자 갯수, 해석 영역 크기, 최대/최소 격자 체적) baramFlow Improvement Realizable k-ε 모델의 벽함수 개선 정상 상태 계산을 비정상 상태 계산의 초기값으로 사용하는 기능 추가 cell zone source term에 단위 표시 계산 종료 시, 종료 팝업 창 띄우는 기능 추가 특정 경계면은 이름에 따라 경계 조건 자동 부여 다상 유동의 정상 상태 계산 시 maximum Courant number 설정 가능             baramMesh New Features snap 단계에서 Implicit Feature Snapping 지원 baramMesh Improvement 형상 이름의 공백에 _ (underscore) 자동 추가 Region 단계에서 고체 영역만 설정하도록 기능 개선                                     BARAM ARM 64 버전 Azure Marketplace 공개 >              Azure Marketplace에서 사용할 수 있는 BARAM CFD Package가 공개되었습니다. 이제 고사양의 HPC (High Performance Computing) 없이도 BARAM을 이용하여 복잡한 CFD 계산을 돌릴 수 있습니다.  Azure Marketplace에서 NEXTFOAM BARAM을 검색하시거나 (링크)를 클릭하시면 Azure Marketplace에 등록되어 있는 BARAM CFD Package를 사용하실 수 있습니다.                         교육 소식 >             4월 CAE / AI 엔지니어를 위한HPC 교육 >             CAE / AI 엔지니어를 위한 HPC 교육 4월 CAE / AI 엔지니어를 위한 HPC 교육 일정을 안내드립니다. HPC 환경에서 OpenFOAM 수행 방법 및 병렬 AI 학습 방법 / HPC 구축 실습을 통해 HPC의 개념 이해 / 최적 성능을 도출할 수 있는 방안 및 효율적인 HPC 관리 방안을 목표로 교육이 진행됩니다. 일정 : 4월 24일 ~ 4월 25일 (링크)를 클릭하시면 4월 CAE/ AI 엔지니어를 위한 HPC 교육 내용을 확인하실 수 있습니다.                         일반 소식 >             2024년 AI CFD 춘계 워크샵              지난 2월 29일 서강대학교 AS관 509호에서 AI CFD 워크샵이 있었습니다. GIST 최성임 교수님, 인하대학교 고승찬 교수님, KAIST 이승철 교수님을 비롯하여 AI CFD를 주제로 연구하시는 분들과 모임을 가지는 뜻 깊은 시간이었습니다.  이 자리에서 PINN (Physics-Informed Neural Network)를 비롯하여 FNO, DeepONet 등 Neural Network를 CFD에 적용한 연구 및 활용 성과에 대해 의견을 나누었습니다.  저희 회사에서도 이보성 박사님께서 NEXTFOAM 연구 성과 및 근황을 주제로 발표를 진행해주셨습니다.                         WHAT IS OPENFOAM? OpenFOAM은 오픈소스 CFD 소프트웨어이다. GNU GPL 라이센스를 사용하고 있어 누구나 자유롭게 사용이 가능하며 수정 및 재배포를 할 수 있다.       WHAT IS MESHLESS CFD? 질점격자 기반의 CFD해석 기법으로 FVM해석 기법의 보존성을 갖추고 있으며 전처리 작업시간을 획기적으로 줄일 수 있습니다.FAMUS는 무격자 기법의 CFD 해석 SW 입니다.       WHAT IS BARAM SERIES? BARAM은 넥스트폼이 개발한 OpenFOAM CFD 해석 프로그램입니다. 넥스트폼이 개발한 OpenFOAM Solver와 Utility를 GUI 기반으로 사용이 가능합니다.           수신거부
작성일 : 2024-04-29
마이크로소프트, 국내 기업의 혁신 돕는 AI 트랜스포메이션 사례 공개
마이크로소프트가 생성형 AI 기술로 다양한 국내 산업의 고객 서비스 혁신과 비즈니스 성장을 지원하며 AI 트랜스포메이션 혁신 사례를 구축하고 있다고 소개했다. 마이크로소프트는 AI 기술이 조직 경쟁력 유지를 위한 필수적인 비즈니스 요소가 될 것으로 전망하고 있다. 마이크로소프트가 의뢰한 글로벌 시장 조사기관 IDC의 연구 결과에 따르면 조사에 참여한 응답자 71%가 이미 회사에서 AI를 사용하고 있으며, 이들은 평균적으로 1년 2개월 만에 AI 투자에 대한 수익을 실현하고 있는 것으로 나타났다. 이 연구는 전 세계 2100명 이상의 비즈니스 리더와 의사 결정권자를 대상으로 실시됐다. 마이크로소프트는 애저 오픈AI 서비스(Azure OpenAI Service)를 통해 향상된 컴플라이언스, 데이터 보안 강화, 확장성, 책임 있는 AI 등 차별화된 서비스를 제공하고 있다. 이 서비스는 전 세계 1만 8000개 이상의 조직과 포춘 500대 기업 중 절반 이상이 사용하며 전 세계 조직의 AI 트랜스포메이션 속도를 가속화하고 있다. 마이크로소프트는 국내에서도 자사의 AI 기술을 도입해 업무 프로세스를 혁신하고 새로운 비즈니스 모델 개발에 나서는 기업들이 늘고 있다고 전했다. LG전자의 H&A본부는 생성형 AI 기반 빅데이터 분석 솔루션인 찾다(CHATDA)를 도입해 고객 요구 사항을 효과적으로 파악하고 사용자 경험을 개선했다. 이 시스템은 마이크로소프트 애저 환경과 애저 오픈AI 서비스를 활용해 데이터 보안과 안정성을 강화한다. 또한, 자연어 처리 기능으로 현업의 분석 요구사항에 부합하는 데이터를 정밀하게 선별하고, 이를 기반으로 분석 코드를 자동 생성 및 실행한다. 이를 통해 법무검토, 데이터 탐색, 가공 분석에 소요되던 시간이 평균 5일에서 30분으로 단축돼 업무 효율성이 향상됐다.     AI 서비스 플랫폼 기업 뤼튼테크놀로지스는 애저 오픈AI 서비스와 프로비전드 스루풋(Provisioned Throughput : PTU)를 도입해 이전보다 두 배 이상 증가한 사용자 트래픽을 안정적으로 처리하고 있다. 이러한 운영 안정성과 지속적인 서비스 개선을 바탕으로, 뤼튼 서비스의 고객 만족도를 나타내는 NPS(Net Promoter Score) 점수가 30% 이상 향상됐다. 크래프톤의 AI 전문 스튜디오인 렐루게임즈도 애저 오픈AI 서비스를 도입해 새로운 게임 개발에 나서고 있다.  특히 오는 6월 출시를 앞둔 '언커버 더 스모킹 건'은 플레이어가 용의자와 대화하며 사건을 해결하는 추리 게임으로, 플레이어의 자유도를 높여 실제와 유사한 현실감 있는 게임 환경을 제공한다. 렐루 게임즈는 이를 구현하기 위해 대형언어모델(LLM)의 애플리케이션 프로그래밍 인터페이스(API)를 70% 이상 사용하고 있다.  배달 플랫폼 ‘배달의 민족’을 운영하는 우아한형제들은 애저 오픈AI 서비스를 활용해 고객 상황에 맞는 메뉴를 제안하는 ‘메뉴뚝딱AI’ 서비스를 선보여 고객 편의성을 높였다. 이 서비스는 고객이 작성한 리뷰를 분석해 음식 특성과 주문 성향을 파악하는 키워드를 추출하고, 시간대·식사 동반자·상황·맛 등을 고려해 안전성 검증을 거친 120종의 컨텍스트를 통해 사용자에게 맞춤형 메뉴를 추천한다. 융합 사고력 기업 크레버스는 마이크로소프트 AI 솔루션을 도입해 자동으로 과제를 평가하고 개인 맞춤형 피드백을 제공하는 시스템을 구축, 학생들의 만족도를 크게 높였다. 이 과정에서 평균 3.5일이 걸렸던 과제 채점 시간이 7초로 단축돼 실시간 피드백을 제공하고 있으며, 운영 비용도 약 85% 절감될 것으로 기대하고 있다. 반려로봇 개발기업 효돌은 AI 기반 대화형 AI 돌봄 로봇 ‘효돌 2.0’에 애저 오픈AI 및 애저 코그니티브 서비스(Azure Cognitive ServiCES)를 도입해 음성 엔진을 개선하고 대화 기능을 고도화했다. 이를 통해 사용자와의 친밀감이 기존 대비 10% 이상 증가됐으며, 맞춤형 신경망(Custom Neural) 기반 STT/TTS 엔진을 활용해 시니어층의 우울증이나 치매 징후를 조기에 발견하고 정신 건강 상태를 진단할 수 있게 됐다. 한국마이크로소프트의 조원우 대표는 “AI 기술은 한국의 산업 전반에 긍정적인 변화를 가져오고 있다”며, “앞으로도 마이크로소프트는 가장 신뢰할 수 있는 AI 트랜스포메이션 파트너로서 국내 기업들이 AI를 통해 업무 프로세스를 혁신하고, 더 나은 고객 경험을 제공할 수 있도록 적극 지원할 것”이라고 전했다.
작성일 : 2024-04-22