업스테이지가 아마존웹서비스(AWS)와 전략적 협력을 강화하며 글로벌 시장 확대에 속도를 낸다. 양사는 아시아태평양(APAC)과 미국을 중심으로 공동 판매 및 시장 진출 활동을 전개하고, 업스테이지의 '솔라(Solar)' 언어모델 개발을 고도화해 고성능·비용 효율적 AI 접근성을 높이는 데 주력할 계획이다. 이번 협력의 일환으로 아마존은 업스테이지에 소수 지분 투자를 단행했다. 이는 업스테이지가 아시아태평양 지역에서 기술 리더십과 영향력을 확대해 나가고 있음을 보여주는 상징적 행보다. 업스테이지는 AWS를 우선 클라우드 제공업체로 지정하고, 향후 파운데이션 모델 구축과 훈련, 배포 전 과정에서 AWS 인프라를 활용한다. AWS 세이지메이커, 트레이니움, 인퍼런시아 등 전용 머신러닝 인프라가 핵심 기반이 된다. 김성훈 업스테이지 대표는 “AWS와의 전략적 파트너십은 글로벌 AI 혁신을 가속화하는 새로운 출발점”이라며 “공공기관과 규제 산업을 포함한 다양한 고객에게 안전하고 고성능의 AI 솔루션을 제공하겠다”고 말했다. 양사는 특히 공공 부문을 주요 타깃으로 삼는다. 정부와 공공기관, 규제 산업 고객을 대상으로 보안과 컴플라이언스 요구사항을 충족하는 맞춤형 생성형
마이크로소프트가 전 세계 다양한 산업 현장에서 자사 AI·클라우드·보안 솔루션을 활용한 구체적인 성과 사례를 공개했다. 이번 발표는 ‘AI 퍼스트(AI-first)’ 전략을 중심으로 기업들이 비즈니스 혁신을 추진하는 과정에서 마이크로소프트 기술이 어떤 변화를 이끌고 있는지를 보여준다. IDC가 발표한 ‘2025 CEO 우선순위 보고서’에 따르면, 글로벌 CEO의 66%는 생성형 AI를 통해 운영 효율성 제고와 고객 만족도 개선 등에서 실제 성과를 경험했다고 답했다. 또 기업이 AI에 1달러를 지출할 때 평균 4.9달러의 부가가치가 창출될 것으로 전망됐다. 이러한 흐름 속에서 마이크로소프트는 직원 경험 강화, 고객 경험 혁신, 비즈니스 프로세스 재설계, 혁신 가속화라는 네 가지 축을 중심으로 기업 변화를 지원하고 있다. 현재 포춘 500대 기업의 85% 이상이 마이크로소프트 AI 솔루션을 활용하고 있다. 대표적인 사례를 보면, 메르세데스 벤츠는 마이크로소프트 365 코파일럿과 팀즈, 인튠을 차량 운영체제에 통합해 자동차를 ‘이동형 오피스’로 전환했다. 운전자는 음성 명령으로 이메일 요약, 일정 확인, 화상회의 참여가 가능하며, 보안 환경이 보장된 업무용 계정을
델 테크놀로지스가 글로벌 시장조사기관 IDC에 의뢰해 한국을 포함한 아시아 태평양 지역의 엔터프라이즈 AI 도입 동향을 분석한 보고서를 발표했다. 이번 보고서는 델과 엔비디아가 공동 의뢰해 제작됐으며, AI 도입 과정에서 기업들이 직면하는 과제를 진단하고 이를 극복하기 위한 전략을 제시했다. 보고서에 따르면 아태지역 전반에서 AI, 생성형 AI, 머신러닝 기술 채택이 빠르게 확산되고 있다. 그러나 숙련 인재 부족, 데이터 품질 관리, 복잡한 시스템 구성 등은 여전히 주요 과제로 지적됐다. 특히 인재 부족 문제는 인력 경쟁이 치열한 선진 시장에서 비용 상승으로 이어지고 있다. 데이터 가용성과 거버넌스 역시 AI 성공을 좌우하는 핵심 요인으로 꼽혔다. 한국 기업들은 AI 도입에 있어 긍정적인 평가를 받았다. 조사에 따르면 한국 기업의 32%는 이미 AI를 다양한 직무에 적용했거나 AI를 경쟁우위의 핵심 역량으로 인식하고 있어 아태지역 평균인 24%를 웃돌았다. 자사 AI 역량이 초기 단계라고 답한 비율은 한국이 26%로, 아태지역 평균 31%보다 낮았다. 배포 전략도 다변화되고 있다. 퍼블릭 및 멀티클라우드 인기가 지속되는 가운데 보안, 비용 효율, 산업별 요구
오라클과 구글 클라우드가 생성형 AI 분야에서 협력을 한 단계 더 확대한다. 양사는 구글의 최신 AI 모델인 ‘제미나이(Gemini) 2.5’를 오라클 클라우드 인프라스트럭처(OCI) 생성형 AI 서비스에서 제공한다고 발표했다. 이를 통해 오라클 고객은 멀티모달 이해, 고급 코딩과 소프트웨어 개발, 생산성 향상과 프로세스 자동화, 연구 및 지식 검색 등 다양한 활용 사례에서 AI 에이전트를 손쉽게 구축할 수 있게 됐다. 오라클은 이번 협력을 시작으로 구글 클라우드의 ‘버텍스 AI(Vertex AI)’와 통합을 확대한다. 이를 통해 제미나이 전체 모델 제품군을 OCI 생성형 AI 서비스에서 제공할 계획이다. 여기에는 비디오, 이미지, 음성, 음악 생성 모델과 의료 산업 특화 모델인 MedLM도 포함된다. 또한 오라클 퓨전 클라우드 애플리케이션(Fusion Cloud Applications)에서도 버텍스 AI 기반 제미나이 모델을 옵션으로 제공해 금융, 인사, 공급망, 영업, 서비스, 마케팅 등 핵심 업무 영역에 AI 기능을 강화할 수 있게 된다. 오라클 고객은 기존 보유한 오라클 유니버설 크레딧(Oracle Universal Credits)을 활용해 제미나이
마이크로소프트 클라우드 및 AI 기술 지원 등 다양한 혜택 지원받아 쿠파가 중소벤처기업부와 한국마이크로소프트가 공동 운영하는 ‘마중 프로그램’에 최종 선정됐다. 클라우드 기반 B2B 솔루션 기업을 대상으로 기술 고도화와 글로벌 시장 진출을 지원하는 이 프로그램을 통해 쿠파는 최대 2억 원의 사업 자금과 함께 마이크로소프트의 클라우드 및 AI 기술 지원, 교육과 컨설팅, 국내외 판로 개척, 투자 유치, 글로벌 네트워크 연계 등의 혜택을 받게 된다. 쿠파는 자사 AI 금융 인프라를 활용해 실시간 분석 솔루션 ‘옴니(Omni)’를 운영 중이다. 해당 솔루션은 공시 정보, 시장 데이터, 경제 지표 등 복잡하고 방대한 금융 데이터를 통합 분석해 투자자와 금융기관에 정교한 인사이트를 제공하는 것이 특징이다. 현재 국내외 주요 증권사를 고객사로 확보하며, 최근에는 베스핀글로벌과의 파트너십을 통해 국내 금융기관을 대상으로 한 공급 확장을 추진하고 있다. 이번 마중 프로그램 선정을 계기로 쿠파는 마이크로소프트의 애저 오픈A 기술과 분산형 클라우드 인프라를 적극 도입해 보안성과 확장성을 강화한 ‘옴니 프로(Omni Pro)’ 개발에 본격 돌입할 계획이다. 이를 통해 고도화된
글로벌 고객에게 제공 가능한 수준의 제품화에 성공한 사례로 남아 트웰브랩스가 AWS의 완전관리형 생성형 AI 플랫폼 ‘아마존 베드록(Amazon Bedrock)’에 자사 모델을 정식으로 공급하며, 글로벌 AI 생태계에서 한국 기술의 존재감을 확장하고 있다. 이번 공급은 한국 파운데이션 모델이 글로벌 플랫폼에 공식 편입된 첫 사례로, 기술 주권 실현의 이정표로 주목된다. 트웰브랩스는 ‘마렝고(Marengo)’와 ‘페가수스(Pegasus)’ 두 가지 영상 AI 모델을 베드록을 통해 전 세계 AWS 고객에게 제공한다. 이를 통해 고객사는 별도의 인프라 구축 없이 영상 콘텐츠 내 객체, 동작, 음향 등을 자연어 기반으로 분석하고 검색한다. AWS는 이번 협업으로 영상이해 모델을 직접 제공하는 첫 번째 클라우드 사업자가 됐으며, 트웰브랩스는 메타, 엔트로픽, 딥시크, 미스트랄AI 등과 함께 베드록 공식 모델 파트너로 자리잡았다. 영상 데이터는 디지털 환경에서 가장 활용이 어려운 자산 중 하나로 꼽힌다. 트웰브랩스의 AI 모델은 이러한 비정형 영상 데이터를 의미 기반의 분석 가능한 형태로 전환해, 콘텐츠 검색, 요약, 아카이빙 등의 작업을 빠르고 효율적으로 수행하도록
기존 GPU 인스턴스 대비 최대 20배 향상된 연산 성능 및 11배 높은 메모리 용량 제공 아마존웹서비스(AWS)가 초거대 생성형 AI 훈련과 추론을 위한 차세대 인프라로, 엔비디아의 최신 슈퍼칩 ‘그레이스 블랙웰(Grace Blackwell)’ 기반의 P6e-GB200 울트라서버를 공개했다. 이는 기존 GPU 인스턴스 대비 최대 20배 향상된 연산 성능과 11배 높은 메모리 용량을 제공하며, AWS 역사상 가장 강력한 GPU 기반 인프라로 평가된다. 이번에 함께 공개된 P6-B200 인스턴스는 중대형 AI 워크로드에 유연하게 대응할 수 있도록 구성됐다. 두 제품 모두 엔비디아 블랙웰 GPU를 중심으로 설계됐으며, 대규모 AI 시스템과 실시간 고성능 추론이 요구되는 에이전틱 AI 시스템을 위한 솔루션이다. P6e-GB200 울트라서버는 최대 72개의 엔비디아 블랙웰 GPU를 NV링크로 연결해 하나의 컴퓨팅 유닛처럼 동작하며, FP8 연산 기준 360페타플롭스의 성능과 총 13.4테라바이트의 고대역폭 GPU 메모리를 제공한다. 이와 함께 4세대 EFA 네트워크를 통해 초당 최대 28.8테라비트의 대역폭을 구현했다. 반면, P6-B200 인스턴스는 8개의 블랙웰
가우디 3의 첫 대규모 상업 배포 사례...인프라 접근성 높일 것으로 보여 인텔이 IBM과 손잡고 자사 AI 가속기인 ‘인텔 가우디 3’를 클라우드 서비스에 최초로 상용 적용한다고 밝혔다. IBM 클라우드는 주요 클라우드 서비스 제공사 중 처음으로 가우디 3를 기반으로 한 AI 서비스 환경을 개시했으며, 이로써 고객들은 고성능 AI 인프라를 보다 합리적인 비용으로 활용할 수 있는 기회를 갖게 됐다. 이번 상용화는 가우디 3의 첫 대규모 상업 배포 사례로, 생성형 AI 서비스 확산을 위한 인프라 접근성을 크게 끌어올리는 계기가 될 전망이다. 인텔과 IBM은 고가의 특화 하드웨어가 필요한 AI 연산 환경에서 비용 효율이라는 기준을 제시하며, 보다 많은 기업이 AI 기술을 실질적으로 도입하도록 협력하고 있다. 가우디 3는 생성형 AI와 대규모 언어모델 추론, 파인튜닝 등 고성능 연산을 요구하는 워크로드를 지원하도록 설계됐다. 특히 멀티모달 LLM, RAG(검색 증강 생성) 등 최신 AI 트렌드에 최적화된 아키텍처를 기반으로 한다. 개방형 개발 프레임워크 지원 또한 가우디 3의 장점 중 하나로, 다양한 개발 환경에 유연하게 대응할 수 있다는 평가다. 인텔에 따르면
이전 세대 대비 가상 CPU당 최대 80% 성능 향상 제공 AMD가 자사의 5세대 에픽(EPYC) 프로세서를 구글 클라우드의 차세대 가상 머신(VM) 인스턴스에 성공적으로 공급했다. 현지 시각 4월 9일 발표된 이 소식은 AMD의 최신 서버용 프로세서가 퍼블릭 클라우드 환경에서도 본격적으로 채택되기 시작했음을 알리는 중요한 이정표다. 이번에 새롭게 선보인 구글 클라우드의 C4D와 H4D 인스턴스는 각각 범용 컴퓨팅 워크로드와 고성능 컴퓨팅(HPC) 및 AI 워크로드에 최적화한 제품이다. C4D 인스턴스는 AMD의 최신 아키텍처인 ‘Zen 5’를 기반으로 하며, 구글 클라우드의 자체 테스트 결과에 따르면, 이전 세대 대비 가상 CPU당 최대 80%의 성능 향상을 제공한다. 특히 AI 추론 작업이나 웹 서비스, 데이터 분석과 같은 일반적 클라우드 워크로드에 유용하다. HPC에 특화한 H4D 인스턴스는 AMD 에픽 프로세서와 구글 클라우드의 RDMA(Remote Direct Memory Access) 기술을 기반으로 설계돼 수만 개의 코어 단위로도 성능 저하 없이 확장 가능한 구조를 갖추고 있다. 이는 과학 계산이나 고난이도 AI 트레이닝 등, 연산량이 높은 환경
KT가 글로벌 AI 플랫폼 기업 팔란티어와 전략적 협력을 맺고 국내 AX(AI Transformation) 시장 공략을 본격화한다고 13일 밝혔다. 이번 파트너십을 통해 KT는 국내 최초로 팔란티어의 '월드와이드 파트너 에코시스템' 공식 멤버로 합류하게 됐다. S&P 500 기업인 팔란티어는 대규모 데이터 통합 및 분석 기술을 바탕으로 정부 및 기업의 의사 결정을 지원하는 AI 소프트웨어 플랫폼을 개발하는 기업이다. 특히 강력한 보안 기술과 실시간 AI 시스템 운영 최적화 역량을 갖추고 있어 금융, 공공, 제조 등 다양한 산업에서 활용되고 있다. KT와 팔란티어는 이번 협력을 통해 금융업을 포함한 국내 AX 시장 공략, KT 클라우드 플랫폼 ‘KT SPC’와 팔란티어 AI 솔루션의 결합, AI 플랫폼 교육 프로그램 ‘한국형 AIP Bootcamp’ 공동 개발, KT 임직원 AI·데이터 역량 강화 등의 프로젝트를 추진할 계획이다. KT는 이번 파트너십을 계기로 팔란티어의 AI 소프트웨어를 내부 운영 프로세스에 도입해 업무 효율성을 높이고 비즈니스 운영을 최적화할 방침이다. KT는 자사의 클라우드 및 네트워크 인프라와 팔란티어의 AI 솔루션을 결합해 금융
개선된 성능과 비용 효율성 갖춰...교차 리전 추론으로 지연시간 최소화 아마존웹서비스(AWS)가 차세대 생성형 AI 기반 파운데이션 모델(FM)인 '아마존 노바(Amazon Nova)'를 아시아태평양 및 유럽연합(EU) 지역에 출시했다고 7일 밝혔다. 이번 출시를 통해 서울, 도쿄, 뭄바이, 싱가포르, 시드니 등 아태 지역과 스톡홀름, 프랑크푸르트, 파리 등 유럽 주요 리전에서 해당 모델을 이용할 수 있게 됐다. 아마존 노바는 AWS가 자체 개발한 최첨단 AI 모델로, 개선된 성능과 비용 효율성을 갖춘 것이 특징이다. 특히 이번 모델은 여러 리전에 걸쳐 사용자의 요청을 자동으로 라우팅하는 ‘교차 리전 추론(Cross-Region Inference)’을 지원하며, 이를 통해 지연시간을 최소화하고 불필요한 비용 발생을 방지했다. 이번에 출시된 아마존 노바 모델은 총 세 가지다. 텍스트 전용의 초저비용 모델 '노바 마이크로(Nova Micro)', 이미지와 비디오를 포함한 멀티모달 입력을 처리하는 경제적인 모델 '노바 라이트(Nova Lite)', 그리고 다양한 업무에서 높은 정확성과 속도를 제공하는 고성능 모델 '노바 프로(Nova Pro)'다. 세 가지 모델