AMD가 보안 중심 엔터프라이즈 AI 기업 코히어(Cohere)와 글로벌 협력을 확대한다고 24일 밝혔다. 이번 협력 강화로 코히어 고객들은 ‘커맨드 A(Command A)’, ‘커맨드 A 비전’, ‘커맨드 A 번역 모델’, ‘노스(North)’ 등 주요 AI 제품군을 AMD 인스팅트(Instinct) GPU 기반 인프라에서 활용할 수 있다. 이를 통해 전 세계 기업과 소버린 AI 프로젝트는 성능과 총 소유 비용(TCO) 측면에서 더 많은 선택지를 확보하게 된다. AMD는 코히어의 노스 플랫폼을 자사 내부 엔터프라이즈 AI 포트폴리오에 통합할 계획도 밝혔다. 이에 따라 코히어의 기술은 AMD 내부와 엔지니어링 AI 워크로드에서 핵심적으로 활용될 예정이다. 닉 프로스트 코히어 공동 설립자는 “AMD 인스팅트 GPU에서 코히어 모델과 노스를 사용할 수 있게 되면서 협력 관계가 한층 확대됐다”며 “공공과 민간 고객들이 우리의 보안 최적화 AI 제품군을 AMD 인프라에서 실행하면 훨씬 더 큰 유연성을 얻게 될 것”이라고 말했다. 그는 “AMD는 AI 인프라를 통해 매력적인 TCO를 제공하기 때문에 전 세계 소버린 AI 프로젝트에서 중요한 선택지가 될 것”이라고 덧붙
아우라 세미컨덕터 Vcore 기술 인수...전력 관리 로드맵 확장 온세미가 아우라 세미컨덕터(Aura Semiconductor)의 Vcore 전력 기술과 지식재산권(IP) 라이선스 관련 권리를 인수하는 계약을 체결했다고 25일 밝혔다. 이번 인수를 통해 온세미는 전력 관리 포트폴리오를 보강하고, AI 데이터센터 애플리케이션의 전력 수요에 대응하기 위한 ‘그리드부터 코어까지(From Grid to Core)’ 파워 트리 비전을 가속화할 계획이다. 수디르 고팔스와미 온세미 인텔리전트 센싱 및 아날로그·믹스 시그널 그룹 사장은 “이번 인수는 미래 데이터센터의 에너지와 효율성 요구를 해결하기 위한 전략적 조치”라며 “Vcore 기술을 온세미의 전력 관리 포트폴리오에 통합해 전력 밀도, 효율성, 열 관리 성능을 높이고 랙 단위 연산 용량을 확장할 것”이라고 말했다. 온세미는 실리콘 및 실리콘 카바이드(SiC) 기반 전력 반도체 분야에서 수십 년간 축적한 경험을 바탕으로 ▲솔리드 스테이트 변압기 ▲전원 공급 장치 ▲800V DC 배전 ▲코어 전력 공급 등 다양한 솔루션을 제공해왔다. 이번 기술 인수는 이러한 기존 포트폴리오에 통합돼 확장 가능한 설계를 기반으로 한 차세
슈나이더 일렉트릭이 엔비디아(NVIDIA)와 공동으로 개발한 차세대 AI 데이터센터 레퍼런스 디자인을 발표했다. 이번 발표는 AI 인프라의 신속한 배치와 효율적인 운영을 지원하고, 데이터센터 운영자들이 급격히 늘어나는 AI 워크로드 수요에 대응할 수 있도록 돕는 것이 목적이다. AI 수요가 확대됨에 따라 데이터센터 운영자들은 고밀도 GPU 클러스터 배치 과정에서 전력과 냉각, 운영 효율성 문제를 동시에 해결해야 한다. 슈나이더 일렉트릭은 검증된 물리적 인프라 설계를 제공해 운영자들이 최신 AI 인프라 솔루션 출시 전부터 차세대 전력 및 수랭식 제어 인프라를 준비할 수 있도록 지원한다. 슈나이더 일렉트릭이 공개한 첫 번째 레퍼런스 디자인은 업계 최초로 전력 관리와 액체 냉각 제어를 통합한 시스템 프레임워크다. 여기에는 슈나이더 일렉트릭이 인수한 모티브에어(Motivair)의 리퀴드쿨링 포트폴리오가 포함돼 복잡한 AI 인프라 구성 요소를 효율적으로 관리할 수 있다. 또한 MQTT 기반 ‘플러그 앤 플레이’ 아키텍처를 도입해 OT 인프라와 IT 시스템을 통합, 운영자가 두 시스템의 데이터를 실시간으로 활용할 수 있도록 했다. 엔비디아의 AI 팩토리 운영 소프트웨어
엔비디아가 인텔과 전략적 협력을 발표했다. 양사는 하이퍼스케일, 엔터프라이즈, 소비자 시장 전반의 애플리케이션과 워크로드를 가속화하기 위해 맞춤형 데이터센터와 PC 제품을 공동 개발한다. 이번 협력은 엔비디아 NV링크(NVIDIA NVLink)를 기반으로 양사의 아키텍처를 원활히 연결하는 데 중점을 둔다. 이를 통해 엔비디아의 AI 및 가속 컴퓨팅 역량과 인텔의 CPU 기술, x86 생태계를 결합해 차세대 고객 솔루션을 제공하는 것이 목표다. 데이터센터 분야에서는 인텔이 엔비디아 맞춤형 x86 CPU를 제작하고 엔비디아는 이를 자사 AI 인프라 플랫폼에 통합해 시장에 선보인다. 개인용 컴퓨팅 분야에서는 인텔이 엔비디아 RTX GPU 칩렛을 결합한 x86 시스템 온 칩(SoC)을 개발한다. 이 제품은 CPU와 GPU의 통합 성능을 요구하는 다양한 PC에 탑재될 예정이다. 엔비디아는 이번 협력의 일환으로 인텔 보통주에 50억 달러를 투자한다고 밝혔다. 매입가는 주당 23.28달러이며 거래는 규제 당국 승인 등 조건 충족 시 최종 성사된다. 젠슨 황 엔비디아 CEO는 "AI는 새로운 산업 혁명을 주도하며 실리콘부터 시스템, 소프트웨어에 이르기까지 컴퓨팅 스택의 모
기존 모델 대비 20배 빠른 속도·절반 크기 혁신 구현 0.03nm 파장 분해능·넓은 측정범위로 정밀시험 지원 한국요꼬가와전기가 광 디바이스 및 광 모듈 생산 시험 시장을 겨냥한 신형 광 스펙트럼 분석기(OSA) ‘AQ6361’을 선보였다. 이번 신제품은 데이터센터 확장과 AI 기술 확산으로 급증하는 광 디바이스 수요에 대응하기 위한 전략적 제품이다. 최근 레이저 다이오드, 광 트랜시버, 광 증폭기 등 고성능 광 부품의 시장 수요가 빠르게 늘면서 생산 현장에서는 보다 정밀하고 효율적인 측정 솔루션이 필요해졌다. 특히, 측정 속도와 공간 효율성은 기업들이 경쟁력을 확보하는 데 중요한 요소로 부각되고 있다. ‘AQ6361’은 기존 베스트셀러 모델 ‘AQ6370E’를 기반으로 성능을 대폭 향상시켰다. 측정 속도는 최대 20배 빨라졌으며, 본체 크기는 절반 이하로 줄여 협소한 공간에서도 최적의 설치 환경을 제공한다. 이와 같은 고속 측정과 소형화는 복잡해지는 광 모듈 생산 라인에서 작업 효율과 공간 활용도를 크게 높여준다. 또한 0.03nm의 높은 파장 분해능, 1200~1700nm의 넓은 측정 범위, 73dB 수준의 우수한 미광 억제 성능을 갖춰 다양한 광 디바이
디노티시아가 기업용 벡터 데이터베이스 SaaS 플랫폼 ‘씨홀스 클라우드(Seahorse Cloud) 2.0’을 공식 출시했다. 이번 신제품은 AI 도입 과정에서 기업들이 직면하는 복잡한 개발 및 운영 절차를 간소화하고, 맞춤형 AI 에이전트 구축을 가능하게 하는 데 초점을 맞췄다. 지난해 선보인 ‘씨홀스 클라우드 1.0’은 국내 최초로 벡터 데이터베이스를 클라우드 기반 완전 관리형(All-in-One SaaS) 형태로 제공하며 주목을 받았다. 당시 도입된 MCP(Model Context Protocol) 기반 RAGOps(Retrieval-Augmented Generation Operations)는 클릭 몇 번만으로 벡터DB와 RAG 환경을 손쉽게 구축할 수 있도록 해 기업의 AI 전환 문턱을 낮췄다. 이번에 공개된 ‘씨홀스 클라우드 2.0’은 ‘AgentOps(에이전트옵스)’라는 새로운 기능을 중심에 두고 있다. 기업은 이를 활용해 단순한 챗봇 수준을 넘어 맞춤형 AI 에이전트를 직접 설계하고 운영할 수 있다. 사용자는 LLM 설정, 벡터 데이터베이스, 스토리지, 외부 MCP 툴 등을 자유롭게 연동해 원하는 형태의 에이전트를 구성할 수 있으며, 소스코드 분
한국 AI 기업들이 글로벌 무대에서 기술 경쟁력을 다시 한번 입증했다. 글로벌 시장 조사기관 CB 인사이트가 발표한 ‘AI 에이전트 기술 스택을 구성하는 135개 유망 기업’에 국내 기업 디노티시아, 베슬AI, 업스테이지가 선정된 것이다. 이번 발표는 전 세계 AI 주도권 경쟁이 치열해지는 가운데, 한국 기업들이 글로벌 기술 생태계 속에서 의미 있는 위치를 차지하고 있음을 보여준다. CB 인사이트는 자체적으로 확보한 정량 지표와 모자이크 점수를 기반으로 이번 리스트를 작성했다. 모자이크 점수는 기업의 재무 상태, 제품 혁신력, 시장 반응, 투자 유치 내역 등을 종합 평가하는 지표로, 기술력뿐만 아니라 성장 잠재력까지 함께 고려된다. 디노티시아는 ‘컨텍스트’ 영역의 ‘벡터 데이터베이스’ 분야에 이름을 올렸다. 벡터 데이터베이스는 의미 기반 검색을 통해 AI 에이전트가 사용자 질의를 맥락적으로 이해하고 응답할 수 있도록 돕는 핵심 기술이다. 디노티시아는 높은 정밀도와 확장성을 갖춘 검색 기술로 경쟁력을 인정받았다. 베슬AI는 ‘AI 파운데이션 모델 및 인프라’ 영역에서 ‘모델 배포 및 서빙’ 분야에 포함됐다. 이는 대규모 언어모델을 실제 서비스에 적용하기 위한
퓨리오사AI가 글로벌 무대에서 다시 한번 기술력을 입증했다. 12일 열린 오픈AI 코리아 개소식 행사에서 퓨리오사AI는 자사 2세대 반도체 ‘RNGD’로 초거대 언어모델을 구동하는 시연을 진행하며 국내외 업계의 주목을 받았다. 행사에는 국내 AI 업계 관계자 300여 명이 참석해 현장을 가득 메웠다. 시연의 핵심은 오픈AI가 공개한 오픈 소스 기반 파운데이션 모델 ‘gpt-oss 120B’를 단 두 장의 RNGD로 실시간 구동해낸 점이다. gpt-oss 120B는 세계 최고 수준의 오픈 소스 언어모델로, Mixture-of-Experts(MoE) 구조를 적용해 성능과 효율성을 동시에 확보한 것으로 평가받는다. 그동안 초거대 모델 구동에는 막대한 전력과 비용이 소요된다는 한계가 있었지만, 퓨리오사AI는 이를 효율적으로 해결할 수 있음을 실제 시연으로 증명했다. 특히 RNGD의 높은 연산 성능과 전력 효율은 gpt-oss와 같은 대규모 모델을 안정적으로 운영할 수 있도록 지원한다. 이는 AI 인프라 시장에서 가장 큰 과제로 꼽히는 ‘비용과 전력 문제’를 해결할 수 있는 실질적 대안으로 평가된다. 업계 전문가들은 이번 시연을 통해 퓨리오사AI가 글로벌 AI 반도체
래블업이 미국에서 열리는 ‘AI Infra Summit 2025’에 참가해 AI 인프라 운영의 미래를 제시했다. 이번 행사는 전 세계 3500여 명의 AI 전문가와 100여 개 파트너사가 모이는 글로벌 최대 규모의 AI 인프라 컨퍼런스로, 하드웨어부터 데이터센터, 엣지 컴퓨팅까지 최신 기술 동향이 집중적으로 다뤄졌다. 래블업은 이번 행사에서 자사의 AI 네이티브 플랫폼 ‘AI:DOL(AI Deployable Omnimedia Lab)’ 베타 버전을 첫 공개했다. AI:DOL은 Backend.AI Core와 PALI 기반 백엔드 서비스를 결합한 생성형 AI 개발 플랫폼으로, 웹 브라우저만으로 접근이 가능해 초보자부터 숙련된 개발자까지 손쉽게 다양한 오픈모델을 활용할 수 있도록 설계됐다. 특히 AI:DOL은 Backend.AI Continuum을 통해 온프레미스와 클라우드 자원을 완전히 통합해 사용자가 직접 서빙하는 모델을 기반으로 내부 및 외부 클라이언트 대상 AI 애플리케이션을 개발·배포할 수 있다. 현재는 채팅 중심의 기능을 제공하지만, 향후 이미지와 비디오 생성, AI 코딩까지 확장해 포괄적 AI 개발 생태계로 발전시킬 계획이다. 래블업은 또한 Backe
레노버가 AI 시대를 맞아 기업 IT 전환 가속화를 위해 ‘레노버 하이브리드 AI 어드밴티지(Lenovo Hybrid AI Advantage)’를 확장했다. 이번 확장을 통해 레노버는 고성능 서버 기반의 가속 컴퓨팅, 네트워킹, 파트너 통합 기능을 갖춘 AI 인프라를 바탕으로 기업이 AI 팩토리를 구축·확장·운영할 수 있도록 지원하는 프레임워크를 제공한다. 새롭게 검증된 솔루션과 서비스, 플랫폼은 기업이 환경에 맞춰 적합한 AI를 빠르게 배포할 수 있도록 지원하며 생산성과 민첩성, 신뢰성을 기반으로 한 비즈니스 가치 실현을 가능하게 한다. 레노버의 ‘글로벌 CIO 플레이북’에 따르면 전 세계 조직의 3분의 2는 여전히 AI 투자에 따른 수익을 실현하지 못하고 있으며, 교육과 도입 과정의 부족, 기술 격차로 효과적인 확장에 어려움을 겪고 있다. 2025년까지 AI 예산이 세 배 가까이 증가해 전체 IT 예산의 약 20%를 차지할 것으로 전망되는 가운데, 기업 IT는 인프라 효율성과 성능, 확장성을 강화해 투자수익 실현이 가능한 구조로 전환해야 한다. 애슐리 고라크푸르왈라 레노버 인프라스트럭처 솔루션 그룹(ISG) 사장은 “레노버는 통합 솔루션 전반에서 혁신을
씨이랩이 GPU 관리 솔루션 ‘아스트라고(AstraGo)’로 소프트웨어 품질을 인증받았다. 씨이랩은 25일 아스트라고가 소프트웨어 품질 국가인증 ‘GS(Good Software) 1등급’을 획득했다고 밝혔다. GS 인증은 소프트웨어의 기능, 사용성, 호환성, 신뢰성, 보안성 등 품질을 국가 표준으로 검증하는 제도다. 아스트라고는 모든 평가 항목에서 최고 수준을 충족해 1등급을 받았다. AI 개발 확산으로 GPU 인프라 수요가 늘어나면서 공공·연구기관을 중심으로 GPU 활용률 저하와 보안 운영 부담이 커지고 있다. 정부도 2027년 국가 AI 컴퓨팅센터 가동을 시작으로 2030년까지 GPU 인프라 확충을 추진하고 있다. 공공부문에서 GS 인증은 조달 신뢰도와 우선구매 평가에 중요한 기준으로 작용한다. 아스트라고는 GPU 자원을 효율적으로 운영하는 솔루션이다. GPU 스케줄러와 리소스 최적화 기능을 통해 GPU 자원을 자동 분할·할당해 활용률을 50% 이상 높이고, 사용자 설정 없이 AI 인프라 환경을 빠르게 구축할 수 있다. 이를 통해 AI 프로젝트 속도와 협업 효율성을 개선한다. 씨이랩은 지난 3월 아스트라고를 업그레이드해 보안성을 강화했다. 컨테이너 및 A
메타가 구글과 6년간 100억 달러(약 14조 원) 이상 규모의 클라우드 컴퓨팅 계약을 체결한 것으로 알려졌다. 디인포메이션은 21일(현지시간) 복수의 소식통을 인용해 이 소식을 전하며, 이번 계약이 구글 클라우드 17년 역사상 가장 큰 규모의 계약 중 하나라고 평가했다. 메타는 이번 계약을 통해 구글 클라우드의 서버와 데이터 저장 스토리지, 네트워킹, 그리고 기타 클라우드 서비스를 활용하게 된다. 특히 구글 데이터센터에서 운영되는 엔비디아 GPU에 대한 접근 권한도 포함된 것으로 전해져, 메타의 AI 연구와 서비스 확장에 큰 힘이 될 전망이다. 마크 저커버그 메타 최고경영자(CEO)는 최근 수천억 달러 규모의 투자를 통해 인공지능(AI) 컴퓨팅 역량을 강화하겠다고 밝힌 바 있다. 메타는 자체 데이터센터를 지속적으로 확장하는 동시에, 주요 클라우드 기업으로부터 서버를 임차해 활용하는 ‘멀티 클라우드’ 전략을 병행하고 있다. 실제로 미주리주 캔자스시티에 10억 달러를 투자해 신규 데이터센터를 오픈했으며, 아마존웹서비스(AWS), 마이크로소프트 애저(Azure), 오라클, 코어위브와도 서버 임차 계약을 맺고 있다. 이번 계약은 구글이 자사의 핵심 경쟁자와도 전략
배스트 데이터(VAST Data)가 SK텔레콤과 협력해 엔비디아 블랙웰(NVIDIA Blackwell) GPU 기반의 국내 최대 규모 AI 인프라 최적화에 나섰다. SK텔레콤은 통신 기업에서 AI 기업으로 전환을 가속화하고 있으며 이번 협력은 국가 차원의 AI 학습과 추론 수요를 충족하기 위한 핵심 프로젝트다. 양사가 함께 구축하는 ‘해인(Haein) 클러스터’는 GPU-as-a-Service(GPUaaS) 환경을 위해 설계된 차세대 AI 인프라로, 과학기술정보통신부의 'AI 컴퓨팅 자원 활용 기반 강화(GPU 임차 지원) 사업'에 선정됐다. SK텔레콤은 자사 네트워크 및 데이터 센터 인프라에 배스트의 VAST AI OS를 결합해 인프라 전 구간을 가상화했으며 보안성과 유연성을 확보한 GPUaaS 환경을 제공하고 있다. 이를 통해 AI 모델 개발과 배포가 대한민국 주권 영토 내에서 이루어질 수 있도록 지원한다. 기존 베어메탈 기반 인프라는 새로운 워크로드 프로비저닝에 며칠 이상 소요되는 병목 현상을 초래했지만, SK텔레콤은 배스트 데이터의 가상화 인프라 스택 ‘페타서스 AI 클라우드(Petasus AI Cloud)’ 구축으로 문제를 해소했다. 해당 환경은 베
뤼튼테크놀로지스(이하 뤼튼)가 퓨리오사AI와 전략적 업무협약(MOU)을 체결하고, ‘전 국민 AI 역량 강화’와 고성능 AI 추론 인프라 구축에 공동 대응한다. 양사는 AI 기술의 실용적 보급이라는 공통 목표 아래, AI 대중화와 국가 AI 경쟁력 제고를 위한 협력에 본격 착수한다. 이번 협약은 국내 AI 인프라와 서비스 분야에서 각각 빠르게 성장 중인 두 기업의 맞손이라는 점에서 의미가 깊다. 퓨리오사는 최근 2세대 AI 추론 가속기 ‘레니게이드(RNGD)’를 LG AI연구원 ‘엑사원’에 공급하며, 엔비디아의 대안으로서 입지를 넓히고 있다. 뤼튼은 월간 이용자 수 500만 명 이상을 확보한 국내 대표 생성형 AI 서비스 플랫폼으로, 지난 3월에는 1080억 원 규모의 시리즈B 투자 유치도 마무리했다. 협약에 따라 뤼튼은 퓨리오사의 레니게이드 기반 추론 인프라를 서비스 환경에 도입해, 대규모 사용자에게 안정적이고 고성능의 AI 서비스를 제공할 계획이다. 퓨리오사는 실사용 기반에서 하드웨어의 성능과 효율성을 입증하며, AI 가속기의 범용성과 경쟁력을 높이는 계기로 삼는다. 이를 통해 양사는 AI 인프라와 서비스 전반에서 시너지를 창출하며 국내 AI 생태계의 기
파네시아가 AI 인프라 설계에 대한 기술 비전을 담은 백서 ‘AI 인프라 혁신의 중심, 메모리∙링크 중심의 연결 반도체와 데이터센터 연결 솔루션’을 공개했다. 이번 백서는 컴퓨트익스프레스링크(CXL)를 중심으로 NVLink, UALink, 고대역폭메모리(HBM) 등 차세대 연결 기술과 메모리 기술을 활용해 AI 인프라의 병목을 해소하고자 하는 전략을 구체적으로 담고 있다. 백서는 크게 세 가지 파트로 구성됐다. 첫 번째 파트에서는 챗봇, 이미지 생성, 시계열 데이터 처리 등 최근 활용도가 급증한 시퀀스 기반 AI 모델의 구조와 흐름을 설명하며, 현재 데이터센터 인프라 구조가 가진 문제점을 짚었다. 특히, GPU 간 동기화 과정에서 발생하는 통신 오버헤드와 고정된 자원 구조로 인한 비효율성을 핵심 한계로 지적했다. 이에 대한 해결책으로 두 번째 파트에서는 CXL 기반의 컴포저블(composable) 구조를 제안한다. 파네시아는 자체 CXL 설계 자산(IP)과 스위치 솔루션을 기반으로 실제 프로토타입을 개발하고, AI 응용에서의 가속 효과를 검증했다. CXL을 활용하면 캐시 일관성을 자동 보장하면서 통신 부하를 줄이고, 고정된 자원 구조에서 벗어난 유연한 확장이