한국전자통신연구원(ETRI)이 노년층의 음성 발화를 분석해 치매 전 단계인 경도인지장애 및 치매 고위험군을 선별하는 인공지능(AI) 기술을 개발했다. 이번 연구는 국가과학기술연구회의 지원을 받아 진행됐으며, 일상생활의 대화를 통해 입력되는 음성을 분석함으로써 퇴행성 뇌 기능 저하를 평가하고 예측하는 것을 목표로 한다. 음성 발화는 기억, 의도, 주의집중 등의 인지 기능과 음운, 통사, 의미 등의 언어 생성 기능, 호흡, 조음, 발성 등의 구어 운동 기능이 복합적으로 작용하는 과정이다. 이러한 발화 분석을 통해 경도인지장애 및 치매 환자에게서 나타나는 인지, 언어, 운동 능력의 저하를 조기에 판단하고 예측할 수 있다. ETRI의 복합지능연구실은 음성처리 분야에서 축적된 AI 기술과 음성, 텍스트 및 영상 멀티모달 기술을 바탕으로 디지털 치료제 등 헬스케어 분야로 연구를 확장하고 있다. 연구진은 기존의 음성, 텍스트 분석 기술에 더해 세계 최초로 대형 언어 모델(LLM)을 결합한 알츠하이머 치매 예측 연구를 통해, 영국 에든버러 대학과 미국 카네기 멜론 대학에서 주최한 ADReSSo 챌린지 데이터셋에서 최고 성능을 달성했다. 연구진의 성과는 2024년 2월 ET
AI 자동화 솔루션 전문기업 이든티앤에스는 지난 13일 양재 엘타워에서 패션 IT협회를 대상으로 AI 자동화 관련 최신 IT 기술 동향과 HPE의 솔루션을 소개하는 ‘HPE-이든티앤에스 패션 IT협회 세미나’를 개최했다. 이번 세미나는 이든티앤에스 김동연 전무의 인사말로 시작됐으며, 총 6개의 세션으로 진행됐다. HPE의 이청영 매니저와 김일근 매니저는 각각 ‘기업 고객을 위해 최적화된 HPE 스토리지 포트폴리오'와 'HPE 빅데이터 플랫폼 Ezmeral 소개’를 주제로 발표를 진행했다. 특히 이든티앤에스 최용석 이사의 ‘LLM 기반의 AI Automation’ 세션은 참석자들의 큰 관심을 받았다. 최용석 이사는 자체 개발한 대형 언어 모델(LLM) 기반의 AI 자동화 기술을 소개하며, 이 기술이 NIA 주최의 ‘Open Ko-LLM 리더보드’ 파인튜닝(Fine tuning) 부문에서 1위를 차지한 성과를 강조했다. 또한 LLM 기반 AI 에이전트 ‘알피’의 다양한 업무 자동화 사례를 공유했다. 이든티앤에스 양상헌 상무는 ‘오픈소스 가상화 솔루션 Proxmox 소개’ 세션을 통해 ‘Proxmox’ 솔루션의 기능과 장점을 설명했다. 김연기 이든티앤에스 대표는
인공지능 전문기업 인공지능팩토리는 25일 대원제약과의 챗봇 서비스 ‘WERT’ 공급 계약을 완료했다고 발표했다. 이번 계약은 회사의 제약 산업 분야 첫 진출로, 대원제약은 이 챗봇을 활용하여 회사 내부의 자주 묻는 질문에 대한 신속한 대응을 통해 업무 효율을 높이기 위해 구독형 서비스를 도입하기로 결정했다. 인공지능팩토리에 따르면, 코로나 사태 이후 기업 문화의 혁신과 비용 절감의 필요성이 부각되면서, 챗봇을 통한 인건비 절감과 경영 효율성 증가, 그리고 시공간 제약 없는 접근성 향상이 기업들의 주요 요구로 떠올랐다. 특히, WERT는 회사 내부 문서와 자료를 기준으로 정확한 정보 검색 및 응답 기능을 제공함으로써 중요한 역할을 할 것으로 기대된다. 인공지능팩토리의 김태영 대표는 “대형 언어 모델(LLM)의 활용은 단순한 지식 획득을 넘어서 기업의 업무 효율성을 극대화하고 원가를 절감하는 데 큰 잠재력을 지니고 있다”며, “WERT에 대한 기대가 크다”고 말했다. 이어서 그는 “이번 대원제약과의 계약을 계기로, 제약은 물론 금융 및 헬스케어 등 내부 문서가 방대한 다른 산업 분야로의 시장 확대를 기대하고 있다”고 덧붙였다. 인공지능팩토리는 설립 이후 AI 분
미래 LLM(대형 언어 모델) 인프라에도 적합한 핵심 빌딩 블록 제공 슈퍼마이크로컴퓨터(이하 슈퍼마이크로)가 생성형 AI의 도입을 가속화하기 위한 슈퍼클러스터 포트폴리오를 발표했다. 최신 솔루션은 현재는 물론 미래의 LLM(대형 언어 모델) 인프라에도 적합한 핵심 빌딩 블록을 제공한다. 슈퍼마이크로의 탁월한 슈퍼클러스터 솔루션 3종은 현재 생성형 AI 워크로드에 사용 가능하다. 4U 수냉식 냉각 시스템 또는 8U 공냉식 냉각 시스템은 강력한 LLM 학습 성능은 물론 대규모 배치(Batch)와 대용량 LLM 추론용으로 특별히 제작 및 설계됐다. 마지막으로 1U 공냉식 슈퍼마이크로 엔비디아 MGXTM 시스템을 갖춘 슈퍼클러스터는 클라우드 규모 추론에 최적화해 있다. 찰스 리앙(Charles Liang) 슈퍼마이크로 사장 겸 CEO는 "AI 시대에 컴퓨팅 단위는 단순히 서버 수가 아닌 클러스터로 측정된다. 슈퍼마이크로는 글로벌 제조량을 월 5000개의 랙으로 확장해 빠르게 완전한 생성형 AI 클러스터를 제공할 수 있다"며, "확장 가능한 클러스터 빌딩 블록에 64노드 클러스터는 400Gb/s 엔비디아 퀀텀-2 인피니밴드 및 스펙트럼-X 이더넷 네트워킹을 갖춰 72