복잡한 형태의 문서에서도 각 구조와 텍스트 정보 정확히 분석해 업스테이지가 가장 정확하고 빠르게 문서를 분석해 대규모 언어 모델(LLM)로 처리가 가능한 차세대 OCR 모델 'Document Parse'를 공개했다. Document Parse는 기존 OCR 기술에서 명확한 인식이 어려웠던 여러 열의 레이아웃이나 테이블 등을 포함한 복잡한 형태의 문서에서도 각 구조와 텍스트 정보를 정확히 분석해 데이터 자산화를 가능하게 한다. 어떤 형식의 문서도 HTML과 같은 구조화된 텍스트 형식으로 전환해 기업이나 기관에서 실제 LLM 활용 시 바로 적용할 수 있다. 업스테이지는 Document Parse를 통해 RAG 시스템 성능과 LLM의 응답 정확도를 결정하는 핵심 요소인 데이터 전처리 과정에서의 정확성뿐 아니라 속도와 사용성 측면에서도 현재 가장 진보한 형태의 문서 처리 기술을 선보이게 됐다. 업스테이지는 관련 기술의 성능 측정에 통용될 수 있는 객관적 기준 마련을 위해 문서 구조 분석 벤치마크인 'DP-Bench'를 함께 공개했다. 결과에 따르면, Document Parse는 레이아웃 및 테이블 구조, 콘텐츠 분석 등 정확성을 측정하는 모든 지표에서 AWS와 MS
AI 기업 이파피루스가 대규모 언어 모델(LLM)을 활용한 개인정보 비식별화 솔루션 ‘AI BlackMarker’를 26일 발표했다. 이 솔루션은 문서 내 개인정보를 자동으로 식별하여 가리거나 다른 문자로 치환하는 방식으로 비식별 처리를 수행한다. AI BlackMarker는 주민등록번호, 전화번호, 이메일 등 정형화된 개인정보는 물론, 성명, 주소, 직업 등 비정형 민감정보까지 빠르고 정확하게 처리한다. 이는 AI가 개인정보의 다양한 형태를 학습한 결과로, 기존 비식별화 방식으로는 처리하기 어려웠던 정보까지 처리할 수 있다는 점에서 큰 강점을 지닌다. 김정아 이파피루스 부사장은 “개인정보는 연락처나 신분증 번호에 국한되지 않고, 신체적, 인적, 정신적, 사회적, 재산적 정보까지 그 범위가 넓다”며, “AI BlackMarker는 수기 처리의 번거로움과 정보 유출 위험을 동시에 줄일 수 있는 획기적인 제품”이라고 설명했다. 해당 솔루션은 대량 문서의 비식별 처리를 위한 서버 기반 자동 배치 처리 기능을 제공하며, 비식별화 후에는 원본 문서 복구를 통한 유출 시도를 원천 차단한다. 또한 이파피루스의 PDF 스트리밍 뷰어 ‘StreamDocs’와 연계해, 사용자
알리바바 클라우드가 압사라 컨퍼런스에서 새롭게 출시한 대규모 언어 모델 큐원2.5(Qwen2.5)를 전 세계 오픈소스 커뮤니티에 배포했다. 알리바바 클라우드는 AI 컴퓨팅에 대한 증가하는 수요를 충족시키기 위해 풀스택 인프라도 개편했다. 이 신규 인프라는 컴퓨팅, 네트워킹 및 데이터센터 아키텍처를 강화하는 클라우드 제품과 서비스를 포함한다. 에디 우 알리바바 클라우드 인텔리전스 CEO는 “알리바바 클라우드는 AI 기술의 연구개발과 글로벌 인프라 구축에 적극적으로 투자하고 있다”며 “글로벌 고객에게 미래 AI 인프라를 제공하고, 비즈니스 잠재력을 극대화하도록 돕는 것을 목표로 한다”고 밝혔다. 신규 오픈소스 큐원 2.5 모델은 0.5억에서 720억 개의 매개변수를 갖췄다. 29개 이상의 언어를 지원하며, 자동차·게임·과학 연구 등 다양한 분야에서 엣지나 클라우드 환경에서 폭넓은 AI 애플리케이션으로 활용된다. 이번 큐원 2.5는 100개 이상의 모델이 오픈소스로 공개한다.기본 모델, 인스트럭트 모델, 다양한 정밀도와 방식을 적용한 양자화 모델이 포함되며, 언어, 오디오, 비전 등 다양한 모달리티와 전문적인 코드 및 수학 모델까지 아우른다. 조우징런 알리바바 클
디노도테크놀로지가 2일 새롭게 업데이트된 ‘디노도 플랫폼(Denodo Platform) 9.0’을 출시한다고 밝혔다. 디노도 플랫폼 9.0은 인공지능(AI)으로 자연어 쿼리를 지원해 SQL에 대한 지식 없이도 효율적인 데이터 배포가 가능한 것이 이점이다. 또한 기업에서 관리하는 데이터를 실시간으로 대규모 언어 모델(LLM)로 전달하고, RAG(Retrieval Augment Generation, 검색 증강 생성) 아키텍처를 구현함으로써 생성형 AI 애플리케이션으로부터 신뢰도 높고 통찰력 있는 결과를 도출한다고 디노도는 전했다. 이 밖에도 한 단계 더 진화한 데이터 관리를 가능하게 해주는 다양한 기능을 추가했다. 디노도 플랫폼 9.0은 AI를 데이터 배포에 적용해 논리적 데이터 관리를 차세대 AI와 고급 분석의 영역으로 진화시켰다. 라이언 파티니 시티 퍼니처 데이터 및 분석 부문 부사장은 “우리는 디노도 플랫폼 9.0이 시장을 바꿀 ‘게임 체인저’라고 생각한다”며 “다양한 업무 환경에서 사용자들이 셀프서비스 데이터 준비와 생성형 AI 기능을 이용해 데이터 세트를 손쉽게 자신의 필요에 맞게 변환해 사용할 수 있을 것”이라고 말했다. 그는 이어 “최신 데이터 레이
AI 솔루션 상호 협력, AI 인프라 부문 공급, 설치 및 기술지원, AI 플랫폼 등 협력 에스넷시스템이 코난테크놀로지(이하 코난)와 AI 관련 사업 협력을 위한 업무협약(MOU)을 체결했다고 15일 밝혔다. 이번 업무협약은 AI 시스템 구축 및 AI 솔루션 공동개발로 상호 시너지를 창출하고 사업 성장 동력을 확보하기 위함이다. 에스넷시스템이 AI 인프라, GPU 클라우드 서비스 그리고 AWS, 삼성 클라우드 플랫폼(SCP) 등 클라우드 관련 부문을 지원하고, 코난테크놀로지가 LLM(대규모 언어 모델), 생성형 AI 등의 AI 솔루션 부문을 지원한다는 내용이다. 양사의 업무 협약은 양사 AI 솔루션 상호 협력, AI 인프라 부문 공급, 설치 및 기술지원, AI 플랫폼, 솔루션 부문 지원을 주요 골자로 하고 있다. 에스넷시스템은 자사의 AI 에너지 최적화 솔루션과 코난LLM을 대표적으로 코난테크놀로지의 생성형 AI솔루션과 함께 협업할 예정이다. 양사의 솔루션 협업을 통해 새로운 부가가치를 만드는 솔루션을 개발하겠다는 방침이다. AI 인프라 부문 지원을 위해 에스넷시스템은 GPU 서버 및 클라우드, GPU 네트워크 뿐만 아니라 테스트 및 PoC용 GPU 서버까지
전기차 부품업체 실증 中, 여러 제조 작업 공정에 활용 기대 제조업 작업 공정에 로봇을 쉽게 적용할 수 있는 로봇 작업 AI 기술이 국내 연구진에 의해 세계 최초로 개발됐다. 한국기계연구원(이하 기계연) 김창현 인공지능기계연구실장 연구팀은 제조 작업 공정에 쉽게 적용할 수 있는 로봇 작업 AI 기술을 개발했으며, 현재 충북 청주의 전자 부품 생산업체 공정에 적용 중이라고 밝혔다. 연구팀은 공정 적용이 가능한 생산업체 범위를 점차 확대해 나갈 예정이다. 기계연은 제조 작업 공정에 대규모 언어 모델(LLM)과 가상환경에 기반한 로봇 작업 AI 기술을 개발했다. 이 기술은 사용자의 명령을 이해하고 로봇이 해야 하는 작업 명령을 자동으로 생성하고 실행하는 기술이다. 이 기술을 통해 작업자의 말을 로봇의 언어로 번역해 작업자와 로봇 간의 대화가 가능하다. 지금까지 제조업 현장 작업에 로봇을 도입할 때는 작업환경이나 대상물이 아닌 로봇에 맞춰 현장을 수정했으며, 그로 인해 작업이 제한적이었다. 또한 이동, 인식 기술 등 작업과 관련된 여러 기술을 통합하는 기술 개발이 필요하나, 기존의 경우 일부 기술들만 개발되고 있다. 개발된 기술은 음성이나 텍스트를 통해 명령을 하면
아이폰 제조사 애플이 생성형 인공지능(AI)에 대한 연구 논문을 잇달아 내놓으며 생성형 AI 선두 주자들을 따라잡기 위한 추격전에 나섰다고 영국 파이낸셜타임스(FT)가 21일(현지시간) 보도했다. 보도에 따르면, 애플 연구진은 이달 들어 생성형 AI에 관한 연구 논문을 두 편 발표했다. 애플은 2011년 AI 음성 비서인 시리(Siri)를 내놓으면서 AI 분야에서 한발 앞서 나가는 듯했지만, 최근 오픈AI의 챗GPT를 선두로 하는 생성형 AI 경쟁에는 뒤처져 있다는 평가를 받고 있다. 최근 공개된 애플 연구진의 논문에 따르면 애플은 아이폰에서 구동되는 생성형 AI를 개발하는 데 집중할 것으로 보인다고 FT는 전했다. 이달 12일 공개된 논문에서 애플 연구진은 이번 연구가 "제한된 메모리를 지닌 장치에서 효율적인 대규모 언어 모델(LLM) 추론을 할 수 있는 길을 열어준다"고 설명했다. 일반적으로 방대한 데이터 센터에서 가동되는 LLM을 스마트폰과 같은 개인용 기기에서 구동하는 것은 기술적으로 어려운 일로 여겨지는데, 최근 애플의 연구는 여기에 초점을 맞춘 것으로 보인다. 이 같은 문제를 해결하면 클라우드 데이터 센터 기반의 AI보다 더 빠르게 반응하며 인터넷
모델 학습 시간 단축해 모델 확장 위한 향상 기능 포함돼 아마존웹서비스(이하 AWS)는 AWS 리인벤트에서 대규모 언어 모델(LLM) 및 기타 파운데이션 모델(FM)의 구축, 학습, 배포를 가속화하는 데 도움이 되는 아마존 세이지메이커의 새로운 기능 다섯 가지를 발표했다. 모델이 산업 전반에 걸쳐 고객 경험을 지속적으로 혁신함에 따라, 세이지메이커는 조직이 다양한 생성형 AI 사용 사례를 지원하는 머신러닝 모델을 더 쉽고 빠르게 구축, 학습, 배포하도록 지원한다. 하지만 모델을 성공적으로 사용하기 위해서는 모델의 개발과 사용, 성능을 효율적으로 관리하는 고급 기능이 필요하다. 때문에 팰컨 40B 및 180B, IDEFICS, 쥬라기-2, 스테이블 디퓨전, 스타코더와 같은 대부분의 선도적인 모델은 모두 세이지메이커에서 학습된다. 이번에 발표된 신규 기능에는 모델 학습 시간을 단축해 모델 확장을 위한 세이지메이커를 향상시키는 새로운 기능이 포함돼 있다. 배포 비용과 모델 지연 시간을 줄여 관리형 ML 인프라 운영을 최적화하는 기능도 포함됐다. 또한, AWS는 책임 있는 AI 사용을 지원하는 품질 매개변수를 기반으로 더 용이하게 올바른 모델을 선택할 수 있게 해
AI 학습 데이터 플랫폼 셀렉트스타는 29일 인공지능 학습 데이터 총판 사업을 본격화한다고 밝혔다. 데이터 저작권자와 협의를 거쳐 도서, 이미지, 영상, 대화 등 고품질 데이터를 AI 기업에 유통 및 판매한다는 내용이다. 셀렉트스타가 공개한 데이터셋 카탈로그에는 ▲법률·생활·금융·건강 등 전문가 질의 응답 ▲전문 분야 도서 ▲글로벌 이미지 플랫폼 제휴 사진·일러스트·영상 ▲다국어 일상 대화 및 번역 데이터셋 ▲언리얼 엔진 기반 합성 데이터 등이 포함돼 있다. 카탈로그 대부분이 일반 데이터라벨러를 통해 구축할 수 없거나 저작권 문제로 확보하기 어려운 데이터셋으로 구성됐다. 셀렉트스타는 구매 기업 요청에 따라 데이터를 가공하는 서비스를 별도로 제공하며 홈페이지를 통해 보유한 데이터를 AI 학습용으로 판매할 공급 기업을 모집 중이다. 셀렉트스타는 인공지능 학습에 필요한 데이터를 공급하는 플랫폼 기업이다. 회사 측은 "대규모 언어 모델(LLM) 등장과 함께 저작권 걱정 없는 대규모 학습 데이터에 대한 큰 수요를 발견했다"며 사업 배경을 밝혔다. AI 도입을 위한 기술 장벽이 낮아지면서 서비스 개발을 위한 고품질 데이터가 더욱 중요해졌다는 설명이다. 황민영 셀렉트스타
허깅페이스 플랫폼에서 엔비디아 슈퍼컴퓨팅으로 고급 AI 모델 훈련 및 조정 엔비디아가 허깅페이스와 협력한다고 발표했다. 이 협력을 통해 대규모 언어 모델(LLM)과 기타 고급 AI 애플리케이션을 구축하는 수백만 명의 개발자가 생성형 AI 슈퍼컴퓨팅을 손쉽게 사용할 예정이다. 개발자는 허깅페이스 플랫폼에서 엔비디아 DGX 클라우드 AI 슈퍼컴퓨팅을 통해 고급 AI 모델을 훈련하고 조정한다. 이로써 지능형 챗봇, 검색과 요약 등 산업별 애플리케이션을 위해 비즈니스 데이터로 맞춤화한 LLM을 사용해 업계의 생성형 AI 도입을 가속화한다. 엔비디아 창립자 겸 CEO인 젠슨 황(Jensen Huang)은 "연구자와 개발자는 모든 산업을 변화시키는 생성형 AI의 핵심이다. 엔비디아와 허깅페이스는 세계 최대 규모의 AI 커뮤니티를 세계 최고의 클라우드에 있는 엔비디아의 AI 컴퓨팅 플랫폼과 연결하고 있다. 이제 허깅페이스 커뮤니티는 한 번의 클릭으로 엔비디아 AI 컴퓨팅을 이용할 수 있다"고 말했다. 이번 협력의 일환으로 허깅페이스는 새로운 서비스인 ‘서비스형 트레이닝 클러스터’를 제공할 예정이다. 이 서비스는 엔비디아 DGX 클라우드를 기반으로 하며, 기업이 새로운 맞
디지털 비즈니스 플랫폼 서비스나우가 고객을 위해 속도, 생산성 및 가치를 향상시키는 생성형 AI 기능, 사례 요약(case summarization) 및 텍스트 투 코드(text-to-code)를 발표했다. 독점적인 서비스나우 LLM(대규모 언어 모델)으로 구동되며, 두 기능 모두 서비스나우 플랫폼을 위해 특별히 설계되어 반복적인 작업을 완화하고 생산성을 크게 향상한다. 또한 서비스나우는 IT 서비스 관리(ITSM), 고객 서비스 관리(CSM), HR 서비스 제공(HRSD)에 걸쳐 새로운 프리미엄 SKU를 제공하는 상용화에 대한 접근 방식을 발표했으며, 올해 9월 나우 플랫폼 밴쿠버 릴리스와 함께 제공할 예정이다. 사례 요약 및 텍스트 투 코드는 모든 워크플로우 제품에 걸쳐 서비스나우 플랫폼에 도입되고 있는 나우 어시스트 제품군의 생성형 AI 기능으로 구동된다. 여기에는 조직이 서비스나우의 인스턴스를 마이크로소프트 애저 오픈AI 서비스, 오픈AI API LLM을 연결할 수 있는 생성형 AI 컨트롤러, 고객의 자체 지식을 기반으로 자연어 응답을 제공하는 검색용 나우 어시스트, 정보 검색에 소요되는 시간을 줄여 생산성을 극대화하는 버추얼 에이전트용 나우 어시스트
엘리스그룹, 대규모 언어 모델 활용 교육 기술을 AI 디지털 교과서 개발에 접목시킬 예정 ㈜엘리스그룹은 KAIST와 대규모 언어 모델(LLM) 기술을 활용한 교육 기술 및 플랫폼을 공동 연구 개발하기 위해 산학 연구 협약을 체결했다. 이번 협약으로 KAIST 전산학부 김주호·오혜연 교수, 산업디자인학과 홍화정·이탁연 교수, 디지털인문사회과학부 안소연 교수가 함께 연구팀을 구성해 ‘대규모 언어 모델을 활용한 교육 혁신 기술 개발’ 연구를 진행한다. 디지털 기반의 교육 혁신에 앞장서고 있는 엘리스그룹은 KAIST 연구진과의 상호 협력으로 AI 교육 현장을 이끌어가기 위해 올해 2억 원의 연구 기금을 전달한다. 이번 연구 협약을 초석으로 향후 지속적인 지원을 이어갈 계획이다. 구체적으로 엘리스그룹과 KAIST는 챗GPT 등 생성형 AI를 활용하는 영어 작문 수업을 바탕으로 대규모 언어 모델 기술의 교육적 활용 탐색을 위한 데이터 수집, 대규모 언어 모델을 활용한 소셜 학습 지원 플랫폼 개발, 교과목이나 분야에 특화된 AI 조교 개발 등의 연구 협력 등을 함께 추진할 예정이다. 엘리스그룹은 이번 연구로 확보하게 될 대규모 언어 모델 활용 교육 기술을 AI 디지털 교