클라우데라가 실시간 기업 데이터를 활용해 AI의 가치를 실현할 수 있도록 지원하는 RAG 스튜디오(RAG Studio)를 12일 공개했다. 새로운 RAG 스튜디오는 고객이 실시간 기업 데이터를 사용해 몇 분 안에 RAG 챗봇을 배포할 수 있도록 지원한다. RAG 스튜디오는 코드가 필요 없기 때문에, 기술 전문가가 아니어도 AI 애플리케이션을 쉽게 사용할 수 있다. 이는 비즈니스, IT 팀 간 AI 개발 협력 강화, 더 많은 사용자가 AI 도구를 활용할 수 있도록 한다. RAG 스튜디오는 온프레미스 또는 클라우드에서 안전하고 신뢰할 수 있는 실시간 데이터를 활용해 기업이 최첨단 기술을 통해 AI의 가치를 실현할 수 있도록 지원한다. AI 챗봇은 AI 서비스 중 가장 널리 사용되지만 기업들은 부정확한 응답으로 인한 리스크에 지속적으로 노출되고 있다. 챗GPT의 경우 어떤 작업을 하느냐에 따라 성공률이 0.66%에서 89%까지 크게 달라지는 것으로 나타났다. RAG는 검색 기반 시스템과 생성형 AI의 강점을 결합한 강력한 AI 패러다임으로서 개선된 설명가능성과 신뢰도를 통해 향상된 정확도와 문맥 관련성을 제공한다. RAG 지원 챗봇은 일반적인 정보에 의존하지 않고
케이투스(KAYTUS)가 최신 V3 서버 제품군을 출시했다고 6일 밝혔다. V3 서버 제품군은 6세대 인텔 제온 프로세서와 AMD EPYC 9005 시리즈 프로세서를 지원하며 일반 컴퓨팅, 멀티 노드, 크리티컬 컴퓨팅, 스토리지 최적화 및 랙 스케일 시스템을 아우르는 17가지 서버 모델로 구성된다. V3 서버는 다양한 컴퓨팅 플랫폼과 광범위한 호환성을 제공하는 것은 물론 향상된 인텔리전스 및 혁신적인 냉각 솔루션을 제공하며 다양한 AI 애플리케이션을 지원한다. 또한 고도화된 컴퓨팅 및 스토리지 혁신으로 CPU 버스 대역폭과 메모리 대역폭 및 용량을 최적화해 듀얼 소켓 서버에서 최대 576개의 코어와 최대 5.0 GHz의 클럭 속도를 구현하고 메모리 대역폭을 136% 향상시킨다. 테스트 데이터에 따르면, LLaMA2 대규모 모델 AI 추론 시나리오에서 V3 서버의 전체 성능은 이전 세대 제품에 비해 최대 3배까지 향상된 것으로 나타났다. 점차 다양해지는 AI 애플리케이션 시나리오는 새로운 컴퓨팅 과제를 끊임없이 제기하고 있다. 각각의 AI 애플리케이션이 고유한 특성과 시스템 요구사항을 지니고 있는 만큼, 단순 알고리즘 외에 다양한 컴퓨팅 생태계와 최적화된 데이
“비즈니스의 모든 영역은 연결돼 있어”…AI 혁신, 애플리케이션 통합 워크 플로 혁신 피력 SAP이 지난 11일 서울 서초구 JW 메리어트 호텔 서울에서 연례행사인 SAP TechEd를 개최했다. 이번 행사의 포문을 연 무함마드 알람(Muhammad Alam) SAP 제품 엔지니어링 총괄은 “AI의 트렌드 변화를 따라가야 하는 기업은 어떻게 AI를 효과적으로 도입할지 거시경제적 관점에서 접근할 필요가 있다”고 밝혔다. 이에 그는 AI 전략과 실행 계획이 수립된 SAP 솔루션을 활용하는 것이 곧 AI 시대를 앞서는 방안이 될 것이라고 전했다. 무함마드 총괄은 비즈니스 AI에 있어 AI-First와 Suite-First로 AI 도입과 상호 연결의 중요성을 강조하고, 이 단계에 도입된 AI 코파일럿 ‘쥴(Joule)’을 소개했다. 그는 “생성형 AI가 급부상하면서 AI 역량 및 운영이 기업에 어떤 장점을 가져다줄 것인지에 대한 고민을 하는 ‘신뢰’ 단계에 접어들었다”며 “구체적인 비즈니스 프로세스와 가치 케이스를 발굴하고 실현하는 것이 중요하다”고 강조했다. SAP는 이를 반영해 사용자가 일상에 익숙한 애플리케이션에 AI를 내재화해 AI 접근성과 활용 용이성을 확
클라우드플레어가 서버리스 AI 추론 플랫폼인 ‘워커스 AI(Workers AI)’와 AI 애플리케이션 구축을 위한 여러 도구에 신규 기능을 도입했다고 30일 밝혔다. 이를 통해 개발자가 더욱 빠르고 향상된 성능의 AI 애플리케이션을 손쉽게 구축할 수 있도록 지원한다. 워커스 AI는 전 세계 어디에서나 사용자와 가까운 곳에서 AI 추론을 실행하고 글로벌 AI 애플리케이션을 구축할 수 있는 플랫폼이다. 이번 도입으로 워커스 AI에 구축된 애플리케이션은 추론 속도 향상, 대형 모델에 대한 지원, 성능 분석 등의 혜택을 누릴 수 있게 된다. 대형언어모델(LLM)의 규모가 점점 작아지고 성능은 향상됨에 따라 네트워크 속도가 고객의 채택과 원활한 AI 상호 작용에 장애물이 될 것으로 예상된다. 클라우드플레어의 글로벌 분산 네트워크는 네트워크 지연 시간을 최소화해 일반적으로 제한된 데이터센터에 집중돼 있는 자원으로 구성된 다른 네트워크와 차별화된다. 클라우드플레어의 서버리스 추론 플랫폼인 워커스 AI는 현재 전 세계 180여 개의 도시에 GPU를 배치해 전 세계 엔드유저에게 짧은 대기 시간을 제공하도록 설계됐다. 워커스 AI는 이러한 GPU 네트워크를 통해 모든 AI 플
레노버가 AI의 실제 적용을 가속화하는 턴키 서비스, 비즈니스 대응 수직 솔루션, 에너지 효율적인 혁신 기술을 통해 새로운 포괄적 기업용 AI 솔루션을 3일 공개했다. 레노버 AI 센터 오브 엑설런스(Center of Excellence)를 통한 엔비디아와의 새로운 종합 서비스, 포켓에서 클라우드까지 검증된 새로운 AI 이노베이터 솔루션, 그리고 6세대 레노버 넵튠 액체 냉각 기술 등의 확장된 솔루션으로 모든 유형의 AI 애플리케이션을 지원한다. 또한 에너지 효율을 저하시키지 않으면서도 AI 지원 컴퓨팅의 메인스트림 롤 아웃을 지원하도록 설계됐다. 수미르 바티아 레노버 아시아태평양 사장은 “레노버는 포켓 투 클라우드 솔루션을 제공하는 AI 이노베이터들 및 엔비디아와의 파트너십을 통해 모든 규모 기업의 AI 접근성 및 활용도를 향상시키고 있다”며 “레노버의 새로운 솔루션은 기업이 운영 효율성과 지속 가능성을 유지하면서 실시간으로 AI를 활용할 수 있도록 지원한다”고 전했다. 윤석준 레노버 글로벌 테크놀로지 코리아(ISG) 부사장은 “레노버는 고객의 AI 혁신 여정을 단순화하는 검증된 비즈니스 솔루션을 제공한다”며 “더 스마트한 AI 서비스와 솔루션을 개발하고
뉴렐릭이 인공지능(AI) 애플리케이션 개발사들의 진화하는 요구사항을 충족시키기 위해 신규 기능을 갖춘 뉴렐릭 AI 모니터링(AI Monitoring)의 정식 버전을 출시했다고 2일 밝혔다. 새로운 기능으로 실시간 사용자 피드백과 모델 비교를 통한 심층적인 AI 응답 추적 인사이트가 포함되어 있어 이용자는 데이터 보안과 개인정보 보호를 확보하는 동시에 AI 애플리케이션 성능, 품질을 개선하고 비용도 절감할 수 있다. 또한 새롭게 60개 이상의 통합 기능을 제공하는 뉴렐릭 AI 모니터링은 기업이 AI 애플리케이션 문제의 근본 원인을 신속히 파악하도록 하고 AI 도입을 촉진하며 AI의 도입과 활용에 이르기까지 모든 단계를 효과적으로 지원하는 포괄적인 솔루션이다. 뉴렐릭은 지난 해 11월 업계 최초로 AI 기반 애플리케이션용 APM 솔루션인 뉴렐릭 AI 모니터링(AI Monitoring)을 출시한 바 있다. 아르니 로페즈 뉴렐릭 최고고객책임자(CCO)는 “고객사의 CIO, CTO, 임원들과의 많은 대화를 통해 모든 기업이 AI를 활용해 비즈니스를 확장하는 방안을 모색하고 있다는 것을 확인했다”며 “기업 내 IT 및 기술 부문의 리더가 뉴렐릭을 선택하는 이유는 옵저버
매스웍스(MathWorks)는 국내 대학생들이 인공지능(AI) 기술 활용 능력을 개발하고 전문 분야별 경쟁력을 강화할 수 있도록 ‘제4회 매트랩(MATLAB) 대학생 AI 경진대회’를 개최한다고 25일 밝혔다. 대회 참가자들에게는 ‘매트랩’ 라이선스가 참가기간 동안 무료로 제공된다. 매스웍스는 지난 2021년부터 올해까지 4년째 본 대회를 통해 대학생들이 보다 쉽게 인공지능 기술을 활용해 문제를 해결할 수 있도록 소프트웨어를 지원해 왔다. 2023년에는 2022년 대비 약 2배수의 학생들이 참가해 매트랩을 통해 AI 애플리케이션 및 모델을 구현했다. 올해 행사를 주최하는 매스웍스는 보다 많은 참가자들의 참여를 독려하고 뛰어난 연구 결과를 도출해 내기 위해 상금 규모를 2배 상향했다. 최종 결선에 진출한 세 팀 중 1등에게는 200만 원, 2등 100만 원, 3등 50만 원의 우승 상금이 지급된다. 대회 심사위원들은 이번 대회에서 매트랩 및 매스웍스의 툴 활용 숙련도를 평가하고 AI의 메인 툴로서 워크플로우의 각 단계에서 매트랩의 어떤 특정 기능을 사용했는지 확인할 계획이다. 또한 올바른 사용과 연산의 타당성 평가를 통해 참가자의 기술 역량 수준을 보다 상세히
클라우드플레어는 허깅페이스에서 클릭 한 번으로 클라우드플레어의 글로벌 네트워크에 AI 애플리케이션을 배포할 수 있도록 지원한다고 밝혔다. 클라우드플레어는 워커스 AI(Workers AI)를 일반 사용자도 이용할 수 있게 됨에(General Availability, GA) 따라, 허깅페이스 허브와 통합되어 모델 배포를 지원하는 최초의 서버리스 추론 파트너가 된다. 이로써 개발자가 인프라를 관리하거나 사용하지 않는 컴퓨터 용량에 대한 비용을 지불할 필요없이 전 세계를 대상으로 빠르고 쉽고 경제적으로 AI를 배포할 수 있도록 지원한다는 방침이다. AI 혁신의 급속한 진전에도 불구하고 AI가 가진 잠재력과 기업에 선사하는 가치 사이에는 여전히 간극이 존재한다. 조직과 개발자는 GPU 또는 인프라를 설정 및 관리하거나 유지보수할 필요 없이도 합리적인 가격에 신속하게 실험하며 또 이 과정을 반복할 수 있어야 한다. 기업은 속도, 보안, 성능, 통합 가시성, 규정 준수를 지원하는 간편한 플랫폼을 통해 혁신적인 애플리케이션을 고객에게 더 빠르게 제공할 수 있어야 한다. 매튜 프린스 클라우드플레어 CEO 겸 공동 창업자는 "최근 생성형 AI 붐으로 인해 다수의 기업들이 AI
클라우데라가 기업의 데이터 경험을 혁신하는 차세대 개방형 데이터 레이크하우스를 6일 공개했다. 클라우데라의 조사에 따르면 현재 미국 기업 53%가 생성형 AI 기술을 사용하며 3분의 1 이상(36%)이 2024년 잠재적 구축을 위해 AI를 학습하는 것으로 나타났다. 호주의 경우 63%의 기업이 프로젝트 관리의 어려움을 극복하기 위한 핵심 솔루션으로 AI를 꼽았다. 하지만 많은 기업들이 분산된 데이터 인프라, 거버넌스 위험, 보안 문제 등으로 인해 데이터에 접근하거나 데이터로부터 비즈니스 가치를 창출하는 데 어려움을 겪으면서 AI 구축이 지연되고 있다. 이에 클라우데라는 프라이빗 클라우드용 아파치 아이스버그를 제공해 기업이 안고 있는 문제를 해결하고 기업용 AI 배포를 빠르게 확장해 더 큰 데이터 가치를 창출할 수 있도록 지원한다. 아파치 아이스버그는 방대한 데이터 분석 테이블을 위한 오픈소스다. 이 컴포넌트를 프라이빗 클라우드에 적용하면 기업은 클라우드와 온프레미스 모두에 존재하는 방대한 양의 필수적인 데이터에 AI를 적용해 궁극적으로 새로운 사용 사례를 창출할 수 있다. 또한 클라우데라는 완전히 분리된 대규모 언어 모델(LLM) 구축을 진행할 수 있는 기능
데이터브릭스가 AI 기반 데이터 플랫폼인 아인블릭(Einblick)을 인수한다고 5일 밝혔다. 데이터브릭스는 이번 인수를 통해 조직이 데이터 인텔리전스를 보편화하고 품질, 속도 및 민첩성을 갖춘 차세대 데이터 및 AI 애플리케이션을 개발할 수 있도록 지원한다는 방침이다. 아인블릭은 쉽게 인사이트를 도출할 수 있도록 자연어 질문을 코드, 차트 및 모델로 변환하는 최첨단 기술 분야에서 데이터 팀에 민첩한 워크플로우를 제공해 데이터를 신속하게 탐색하고 예측 모델을 구축할 수 있도록 지원한다. 또 데이터 앱을 배포하며 사용자가 자연어를 사용하여 데이터 문제를 해결할 수 있도록 한다. 알리 고드시 데이터브릭스 CEO는 "임마누엘, 필립을 비롯해 유능한 인재를 갖춘 아인블릭 팀이 데이터브릭스에 합류하게 된 것을 매우 기쁘게 생각한다"며 "데이터브릭스와 아인블릭 팀은 오늘날 조직이 성공하기 위해서는 데이터와 AI를 깊이 활용해야 한다는 공통의 가치관을 갖고 있다"고 설명했다. 이어 "앞으로 아인블릭의 혁신적인 AI 네이티브 접근방식을 데이터브릭스의 플랫폼과 통합해 조직이 데이터 인텔리전스를 보편화하고 품질, 속도 및 민첩성을 갖춘 차세대 데이터 및 AI 애플리케이션을 개
베스핀글로벌이 Data+AI MSP 서비스 '비투디투(B2D2)'를 업그레이드해 AI 애플리케이션의 구축과 운영을 위한 '비투디투 애플리케이션 스택(B2D2 Application Stack)'을 새롭게 출시했다고 1일 밝혔다. 비투디투 애플리케이션 스택은 기업이 보유한 데이터와 대규모 언어 모델(LLM) 및 자연어 이해(NLU)를 결합해 고도화된 대화형 AI 챗봇과 콜봇 생성은 물론, 고품질의 문서 작성과 관리 및 맞춤형 학습 경험을 촉진한다. 이를 통해 기업은 AI 기술을 다양한 업무 영역에 효과적으로 통합할 수 있게 됐다. 베스핀글로벌은 클라우드 뿐만 아니라 데이터와 AI, 콜 인프라 처리와 연동 등 AI 애플리케이션을 구축 및 운영에 필요한 핵심 기술을 보유하고 있다. AWS 머신러닝 컴피턴시와 데이터 및 분석 컴피턴시를 취득하는 등 다수의 데이터·AI 프로젝트 수행 경험과 전문 역량을 인정받기도 했다. 이번에 새롭게 선보인 비투디투 애플리케이션 스택을 통해 기업은 자체 정보 자산을 활용해 더욱 폭넓은 서비스 확장성을 경험할 수 있을 것으로 기대된다고 베스핀글로벌은 전했다. 비투디투 애플리케이션 스택은 크게 ▲B2D2 챗봇(ChatBot) ▲B2D2 콜
워크데이는 직장 내 인공지능(AI) 신뢰 격차가 형성되고 있다는 최신 글로벌 연구 결과를 29일 발표했다. 해당 연구 결과에서 비즈니스 리더와 직원 모두 AI가 비즈니스 트랜스포메이션을 위한 큰 기회를 제공한다는 데는 동의하지만, AI가 책임감 있게 활용될 것이라는 신뢰는 부족하며 직원들은 이에 대해 경영진보다 훨씬 더 회의적인 태도를 보인 것으로 나타났다. 연구 결과를 살펴보면 비즈니스 리더(C레벨 또는 직속보고라인)의 62%가 AI를 환영한다고 답했다. 직원들의 경우, 52%가 AI를 환영한다고 답해 리더가 응답한 수치에 훨씬 못 미치는 것으로 나타났다. 직원의 23%는 기업이 AI를 구현할 때 직원의 이익을 회사의 이익보다 우선시하는지 확신하지 못했다. 비즈니스 리더의 70%는 AI가 인간이 쉽게 검토하고 개입할 수 있는 방식으로 개발되어야 한다는데 동의한다. 42%의 직원들은 회사가 자동화할 시스템과 인간이 개입해야 하는 시스템이 무엇인지 명확하게 파악하지 못하고 있다고 생각한다. 또한 직원 4명 중 3명은 기업이 AI 규제에 협력하고 있지 않다고 응답했으며 직원 5명 중 4명은 회사가 책임감 있는 AI 활용에 대한 가이드라인을 아직 공유하지 않았다고
HPE가 생성형 AI용 엔터프라이즈 컴퓨팅 솔루션 개발을 위한 엔비디아(NVIDIA)와의 협력을 확대한다고 18일 밝혔다. HPE는 양사가 공동 설계한 사전 구성 형식의 AI 튜닝 및 추론 솔루션을 기반으로, 다양한 규모의 기업들이 프라이빗 데이터를 활용해 파운데이션 모델을 신속하게 맞춤화 할 수 있게 됐다고 전했다. 또한 엣지에서 클라우드에 이르기까지 어디서나 프로덕션 애플리케이션을 배포할 수 있으며 기업들은 HPE와 엔비디아의 풀스택 AI 튜닝 및 추론 솔루션이 포함된 포트폴리오를 통해 생성형 AI 인프라 개발과 배치 과정에서 발생하는 복잡성을 줄일 수 있다고 설명했다. 기업은 대화형 검색, 비즈니스 프로세스 자동화, 콘텐츠 생성 등을 위한 생성형 AI 모델을 개발하고 배포하기 때문에 필요한 곳에 신속하게 구축할 수 있는 소프트웨어 및 인프라 스택이 필요하다. 이에 HPE와 엔비디아는 파트너십 확대의 일환으로 획기적인 풀스택 AI 솔루션인 신규 생성형 AI용 엔터프라이즈 컴퓨팅 솔루션을 선보인다. 해당 솔루션은 엔비디아 네모(NVIDIA NeMo) 프레임워크를 포함한 엔비디아 AI 엔터프라이즈 소프트웨어 제품군과 HPE MLDE 소프트웨어, HPE 에즈메
버티브(Vertiv)는 인텔과 협력해 내년 출시 예정인 혁신적인 신형 인텔 가우디3 인공지능(AI) 가속기를 지원하는 액체 냉각 솔루션을 제공한다고 14일 밝혔다. AI 애플리케이션과 고성능 컴퓨팅(HPC)은 더 많은 양의 열을 방출하기 때문에 보다 효율적이고 친환경적인 냉각 방식을 도입하기 위해 액체 냉각 솔루션으로 전환하는 기업이 점점 더 많아지고 있다. 인텔 가우디3 AI 가속기는 수냉식 및 공랭식 서버를 모두 지원하며, 버티브 P2P(pumped two-phase) 냉각 인프라를 통해 지원될 예정이다. 이 액체 냉각 솔루션은 17°C~45°C(62.6°F~113°F)의 시설 용수를 사용해 최대 160kW의 가속기 전력까지 테스트를 마쳤다. 공랭식 솔루션은 실내 공기 온도가 최대 35°C(95°F)인 데이터센터에 구축할 수 있는 40kW의 열 부하에 대해 테스트를 마쳤다. 이 중간 압력 다이렉트 P2P 냉매 기반 냉각 솔루션은 고객이 열 재사용, 온수 냉각, 프리쿨링(free air cooling) 냉각을 구현함과 동시에, 전력 사용 효율(PUE), 용수 사용 효율(WUE) 및 총 소유 비용(TCO)을 낮출 수 있도록 한다. 버티브의 글로벌 항온항습 사
알리바바 클라우드는 자체 개발한 거대언어모델(LLM) '통이치엔원(Tongyi Qianwen)'의 720억 개 파라미터 버전 '큐원(Qwen)-72B'와 18억 개 파라미터 버전인 '큐원-1.8B'을 자사AI 모델 커뮤니티 '모델스코프'와 협업 AI 플랫폼 '허깅페이스'에 오픈소스로 공개했다고 5일 밝혔다. 징런 저우알리바바 클라우드 CTO는 "오픈소스 생태계를 구축하는 것은 LLM 및 AI 애플리케이션 개발에 매우 핵심적인 일"이라며 "알리바바 클라우드는 가장 개방적인 클라우드로서 모든 사람이 생성형 AI 역량을 활용할 수 있도록 하는 것을 목표로 한다"고 말했다. 그는 이어 "이러한 목표를 달성하기 위해 자사의 최첨단 기술을 공유하고 파트너들과 함께 오픈소스 커뮤니티의 발전을 촉진해 나갈 것"이라고 밝혔다. 큐원-72B은 3조 개 이상의 토큰으로 사전 학습돼 주요 오픈소스 모델들을 10가지 벤치마크 부문에서 초월한다. 대표적으로 앞선 벤치마크 부문은 대규모 다중작업 언어이해(MMLU, Massive Multi-task Language Understanding), 코드 개발 역량 테스트인 휴먼이발(HumanEval) 및 수학 문제를 푸는 GSM8K 등이 있