HPE는 전체 AI 수명주기를 지원하고 기업, 서비스 제공업체, 공공기관, 연구기관 등 다양한 고객의 요구를 충족하는 'HPE 기반 엔비디아 AI 컴퓨팅(NVIDIA AI Computing by HPE)' 솔루션 포트폴리오를 강화한다고 23일 밝혔다. 이번 업데이트는 엔비디아 AI 엔터프라이즈와의 통합을 강화하고, 가속 컴퓨팅을 통해 HPE 프라이빗 클라우드 AI에 대한 지원을 확대했다. 또한 엔비디아 AI 데이터 플랫폼용 HPE 알레트라 스토리지 MP X10000 소프트웨어 개발 키트(SDK)를 새롭게 출시했다. 안토니오 네리 HPE 사장 겸 최고경영자(CEO)는 “엔비디아와의 협업을 통해 고객들에게 지속적인 혁신과 실질적인 성과를 제공하고 있다”며 “HPE의 강력한 솔루션을 기반으로 공동 개발한 첨단 AI 기술을 통해 기업들이 AI 도입의 어느 단계에 있든 기업 전반에서 그 잠재력을 효과적으로 실현할 수 있도록 지원하고 있다. HPE는 오늘날의 요구를 충족하는 동시에 AI 중심의 미래를 함께 만들어가고 있다”고 말했다. 젠슨 황) 엔비디아 창립자 겸 CEO는 “기업들은 HPE 시스템을 활용해 최첨단 엔비디아 AI 팩토리를 구축함으로써 생성형 및 에이전틱
AI PC, 데이터 센터, 가우디 3 중심으로 한 AI 시스템 등 전략 공개해 인텔이 '컴퓨텍스 2025'에서 새로운 기술 패러다임에 대응하기 위한 전략을 대대적으로 공개했다. 사우라브 쿨카니(Saurabh Kulkarni) 인텔 데이터센터 AI 전략 및 제품 담당은 컴퓨텍스 2일차에 진행된 기술 포럼에 연사로 참여해 에이전틱 AI(Agentic AI)를 중심으로 변화하는 데이터 센터의 역할과 요구에 맞춘 맞춤형 인프라 구축 방향, 클라이언트와 엣지에서의 효율적 AI 활용 방안까지 폭넓은 기술 청사진을 제시했다. 이번 발표는 단순한 반도체 기술을 넘어 소프트웨어-하드웨어 통합 생태계 구축에 초점을 맞추며, 인텔이 차세대 AI 환경을 선도하려는 의지를 드러냈다. 자사의 ‘제온(Zeon) 6 프로세서’와 ‘가우디(Gaudi) 3’ 라인업, 클라이언트용 ARC 시리즈 등은 각 분야에서의 실질적 수요와 적용 가능성을 모두 반영했다. 인텔 역시 AI의 가치가 추론에 있음을 강조하며, 전 영역에 걸친 인프라 확장을 바탕으로 고객에게 새로운 비즈니스 가능성을 약속했다. 이러한 관점에서 사우라브 쿨카니는 ‘프런티어 AI 데이터 센터(Frontier AI Data Cente
HPE는 ‘모바일 월드 콩그레스 2025(Mobile World Congress 2025)’에서 네트워킹 분야의 혁신을 가속화하는 동시에 통신사가 기업 고객 대상 네트워크 엣지와 클라우드를 연결하는 신규 서비스를 출시할 수 있도록 지원하는 다양한 신규 솔루션과 파트너십을 발표했다. 필 모트람 HPE 아루바 네트워킹 총괄 겸 수석부사장은 “AI가 가져올 시장 변화는 통신 업계의 네트워킹, 엣지, 데이터센터 혁신에 중대한 영향을 미칠 것”이라며 “AI는 통신사들이 고객에게 제공할 수 있는 새로운 수익원, 서비스, 역량을 제공할 수 있는 기회를 열고 있고 HPE 아루바 네트워킹은 이러한 AI 기회를 극대화할 수 있도록 서비스 제공기업(SP)이 차세대 네트워크를 구축할 수 있게 혁신을 이어갈 것”이라고 말했다. 그는 이어 “서비스 제공기업이 그 어느 때보다 복잡한 네트워크 및 서비스 수요에 직면한 상황에서, HPE는 네트워크의 역할을 재정의하고 비즈니스 가치를 창출하는 데 선도하고 있다”고 덧붙였다. HPE는 MWC 2025에서 AI 기회를 극대화하도록 차세대 네트워크 구축을 지원하는 리더십을 강조하는 한편 개방형 랜(Open RAN) 기술의 성장과 성공을 지원하고
IoT 및 스마트 디바이스의 AI 성능 극대화하는 데 초점 맞춰 Arm이 27일인 오늘 최초로 Armv9 기반 엣지 AI 플랫폼을 공개했다. Arm은 더 플라자 호텔 서울에서 기자간담회를 열고 IoT 및 스마트 디바이스 시장을 겨냥한 Cortex-A320 프로세서와 Armv9 기반 AI 플랫폼을 소개했다. 황선욱 Arm 코리아 사장은 AI가 빠르게 변화하는 산업 환경에서 어떤 역할을 하는지 설명하며 “AI는 더 이상 클라우드에만 의존할 수 없으며, 엣지 환경에서 높은 성능과 전력 효율성을 갖춘 솔루션이 필수적”이라고 강조했다. 또한, AI 모델이 복잡해지는 만큼 개발자에게 유연한 AI 환경을 제공하는 것이 핵심 목표라고 밝혔다. Arm은 새로운 AI 혁신을 위한 중요한 이정표를 제시했다. 이번 기자간담회에서 공개된 Cortex-A320은 엣지 AI 환경을 위한 고효율 AI 프로세서로, IoT 및 스마트 디바이스의 AI 성능을 극대화하는 데 초점을 맞추고 있다. 기존의 Cortex-A35 대비 10배 향상된 머신러닝 성능, 50% 향상된 전력 효율, 30% 높은 연산 처리 능력을 제공하는 것이 특징이다. 황선욱 사장은 “AI 혁명은 이제 막 시작됐으며, IoT
킨드릴이 팔로 알토 네트웍스의 프리시전 AI 기반 프리즈마 SASE와 결합된 엔드투엔드 SASE(Secure Access Service Edge) 서비스를 출시했다고 12일 밝혔다. 이를 통해 고객들은 클라우드 우선(cloud-first) 기반의 제로 트러스트(Zero Trust) 네트워크 보안 솔루션을 도입해 한층 강화된 네트워크 보안 환경을 구축할 수 있다. 킨드릴의 새로운 SASE 서비스는 팔로 알토 네트웍스의 프리즈마 SASE를 지원하며, 네트워크 및 보안 기능을 통합해 클라우드 기반 서비스로 제공한다. 프리즈마 SASE는 사용자 인증 및 접근 제어를 세밀하게 조정할 수 있는 기능을 제공, 기업이 비즈니스 애플리케이션, 엣지(edge) 및 IoT 기술에 안전하게 접근할 수 있도록 지원한다. 킨드릴이 발표한 IT 준비 보고서(Kyndryl Readiness Report) 조사 결과에 따르면, 94%의 비즈니스 리더들이 기술 현대화를 최우선 과제로 인식하고 있지만, 실제로 기업의 IT 인프라가 미래 위험을 관리할 준비가 되어 있다고 응답한 비율은 39%에 불과했다. 오늘날 하이브리드 근무 환경에서는 직원들이 다양한 기기를 통해 어디서든 여러 비즈니스 애플
NXP 반도체가 eIQ AI·머신 러닝 개발 소프트웨어에 두 가지 새로운 툴을 추가했다고 31일 밝혔다. 이로써 소형 MCU부터 크고 강력한 애플리케이션 MPU에 이르기까지 엣지에서의 AI 배포와 사용이 보다 용이하도록 지원한다. eIQ 타임 시리즈 스튜디오(Time Series Studio)는 MCX MCU 포트폴리오나 i.MX RT 크로스오버 MCU 포트폴리오와 같은 MCU급 장치에 자동화된 머신 러닝 워크플로우를 제공한다. 이를 통해 시계열 기반 머신 러닝 모델의 개발과 배포를 간소화한다. GenAI 플로우(GenAI Flow)는 생성형 AI 솔루션을 구동하는 대규모 언어 모델(Large Language Model, LLM)을 위한 빌딩 블록을 제공한다. NXP의 i.MX 애플리케이션 프로세서 제품군 MPU와 함께 사용하도록 설계된 생성형 AI 솔루션은 특정 맥락 데이터(contextual data)에 대해 LLM을 훈련시켜 엣지에서 인텔리전스를 보다 쉽게 배포할 수 있도록 지원한다. 예를 들어 사용 설명서를 학습한 LLM이 탑재된 어플라이언스는 사용자와 자연어로 특정 기능에 액세스하거나 특정 작업 수행, 사용과 유지 관리 최적화 방법에 대해 대화할 수
엔비디아가 사전 훈련된 맞춤형 AI 워크플로우 카탈로그인 ‘엔비디아 NIM 에이전트 블루프린트’(NVIDIA NIM Agent Blueprints)를 공개했다. 엔비디아는 NIM 에이전트 블루프린트를 생성형 AI 애플리케이션을 구축하고 배포할 수 있는 전체 소프트웨어 제품군을 수백만 명의 기업 개발자에게 제공한다. 이는 고객 서비스 아바타, 검색 증강 생성(retrieval-augmented generation, RAG), 신약 개발 가상 스크리닝과 같은 표준 사용 사례에서 활용 가능하다. NIM 에이전트 블루프린트는 하나 이상의 AI 에이전트를 사용하는 AI 애플리케이션 개발자들에게 빠른 시작 환경을 제공한다. 여기에는 엔비디아 네모(NeMo), 엔비디아 NIM과 파트너 마이크로서비스로 구축된 샘플 애플리케이션을 비롯해 레퍼런스 코드, 사용자 정의 문서, 배포를 위한 헬름차트(Helm chart)가 포함된다. 기업은 비즈니스 데이터를 사용해 NIM 에이전트 블루프린트를 수정하고, 가속화된 데이터센터와 클라우드 전반에서 생성형 AI 애플리케이션을 실행할 수 있다. NIM 에이전트 블루프린트를 통해 기업은 사용자 피드백을 기반으로 AI 애플리케이션을 지속적으로
슈나이더 일렉트릭이 데이터센터 및 IT 전문가를 위한 소프트웨어인 에코스트럭처 IT(EcoStruxure IT)에 새로운 자동 지속가능성 보고 기능을 도입했다고 27일 밝혔다. 슈나이더 일렉트릭의 에코스트럭처 IT는 벤더 중립적인 데이터센터 인프라 관리(DCIM) 솔루션으로, 안전하고 지속가능한 IT 데이터센터를 운영할 수 있도록 한다. 단일 IT 랙에서 하이퍼스케일 IT, 온프레미스, 클라우드 및 엣지에 이르기까지 안전한 모니터링, 관리, 계획 및 모델링으로 비즈니스 연속성을 제공하는 것이 특징이다. 이는 데이터센터 비즈니스의 성장을 촉진하고 지속가능성 목표 달성을 가속화할 수 있다. 새롭게 업데이트된 에코스트럭처 IT의 지속가능성 보고 기능은 슈나이더 일렉트릭이 가진 지속 가능성, 규제, 데이터센터 및 소프트웨어 개발 전문 지식과 인사이트를 결합한다. 이용자들은 새로운 보고 기능을 통해 보다 쉽게 데이터 모니터링 및 분석이 가능하다. 데이터센터 구역별 PUE를 시간 경과에 따라 추적 및 계산할 수 있으며, 위치별 현재 전력 소비량을 과거와 비교해 평가할 수 있다. 특히 기존 소프트웨어와 달리 에코스트럭처 IT의 새로운 모델은 빠르고 직관적이며 사용하기 쉬
라마 3.1 405B 포함해 다양한 규모와 기능에서 새로운 업데이트 모델 제공 인텔은 메타의 최신 대규모 언어 모델(LLM)인 라마 3.1에 데이터 센터, 엣지 및 클라이언트 AI 제품 전반에 걸친 성능 데이터 및 최적화를 제공한다고 밝혔다. 인텔은 ‘AI 에브리웨어’ 전략을 위해 AI 소프트웨어 생태계에 지속적으로 투자하며, 새로운 모델이 인텔의 AI 하드웨어에 최적화하도록 보장하고 있다. 메타는 지난 4월 라마 3 출시에 이어, 지난 23일(현지 시각) 현재까지 가장 성능이 뛰어난 모델인 라마 3.1을 출시했다. 라마 3.1은 공개적으로 사용 가능한 가장 큰 파운데이션 모델인 라마 3.1 405B(4050억 개 모델)를 포함해 다양한 규모와 기능에서 여러 새로운 업데이트 모델을 제공한다. 이 새로운 모델들은 파이토치 및 인텔 파이토치 익스텐션, 딥스피드, 허깅 페이스 옵티멈 라이브러리, vLLM 등 개방형 생태계 소프트웨어를 통해 인텔 AI 제품에서 활성화 및 최적화된다. 또한 생태계 전반에서 최고의 혁신을 활용하는 개방형, 멀티 벤더, 강력하고 컴포저블한 생성형AI 솔루션을 만들기 위한 LF AI 및 데이터 재단의 새로운 오픈 플랫폼 프로젝트인 OPEA
아카마이 테크놀로지스는 API(Application Programming Interface) 보안 기업인 노네임시큐리티(Noname Security)를 인수하는 최종 계약을 체결했다고 14일 발표했다. 노네임시큐리티는 아카마이의 기존 API 보안 솔루션을 강화하고 API 사용이 지속적으로 확대됨에 따라 증가하는 고객 수요와 시장 요구사항을 충족하는 역량을 가속화할 계획이다. 또한 아카마이는 노네임시큐리티의 추가적인 영업 및 마케팅 리소스, 채널, 제휴 관계를 통해 더 큰 규모로 확장할 것으로 기대하고 있다고 밝혔다. 마니 순다람 아카마이의 보안 기술 그룹 총괄 부사장 겸 총괄 매니저는 “애플리케이션이 세상을 움직이고 있지만 애플리케이션과 사용자가 급증함에 따라 보안 리스크도 증가하고 있다”며 “자체 데이터에 따르면 API 공격이 전년 대비 109% 증가한 것으로 나타나면서 API 보안의 필요성이 커지고 있다”고 전했다. 그는 이어 “노네임시큐리티 인수를 통해 모든 환경의 고객에게 포괄적인 API 보안을 제공하는 데 필요한 폭넓은 통합 및 배포 옵션을 제공할 수 있을 것으로 기대한다”고 말했다. 이번 인수로 아카마이는 고객이 ‘섀도(shadow)’ API를 더
슈퍼마이크로컴퓨터(이하 슈퍼마이크로)가 향후 6세대 인텔 제온 프로세서를 지원할 X14 서버 포트폴리오를 17일 공개했다. 이번 신제품에는 슈퍼마이크로의 빌딩 블록 아키텍처, 랙 플러그 앤 플레이 및 수냉식 냉각 솔루션, 그리고 광범위한 인텔 제온 6 프로세서 신제품군이 결합됐으며 이로 인해 모든 워크로드와 규모에 최적화된 솔루션을 뛰어난 성능 및 효율성으로 제공할 수 있다. 슈퍼마이크로는 고객이 솔루션 구축 기간을 단축할 수 있도록 조기 배송 프로그램을 통해 일부 고객에게 새로운 서버에 대한 조기 액세스를 제공하고, 점프스타트 프로그램으로 테스트 및 검증용 무료 원격 액세스도 지원할 예정이다. 찰스 리앙 슈퍼마이크로 사장 겸 CEO는 “인텔 제온 6 프로세서를 탑재한 X14 서버는 광범위한 슈퍼마이크로의 포트폴리오를 한층 더 확대할 것”이라며 “슈퍼마이크로는 수냉식 100kW 랙 1350개를 포함해 전 세계적으로 매월 5000개의 랙을 생산할 수 있는 능력을 지녔으며 2주의 짧은 리드 타임을 제공한다”고 전했다. 이어 “현재 가장 진보된 AI 하드웨어를 비롯해 완전한 맞춤형 워크로드 최적화 솔루션을 랙 스케일로 설계, 구축, 검증 및 제공하는 것에서 타의
인텔리전트 엣지 시스템에 배포되는 FPGA 및 SoC의 전력 효율성 향상 마이크로칩테크놀로지(이하 마이크로칩)가 FPGA(field programmable gate arrays)에 배포된 전력 효율적인 AI 기반 엣지 솔루션의 개발 역량을 강화하기 위해 뉴로닉스 AI 랩스를 인수했다고 발표했다. 뉴로닉스 AI 랩스는 이미지 분류, 물체 감지 및 시멘틱 세그멘테이션 등의 작업에 필요한 전력, 크기 및 연산양을 절감시키기 위해 높은 수준의 정확도를 유지하는 뉴럴 네트워크 희소성 최적화(neural network sparsity optimization) 기술을 제공하는 기업이다. 마이크로칩의 미드레인지 PolarFire FPGA 및 SoC는 저전력, 신뢰성, 보안 기능 측면에서 기술력을 인정받고 있다. 마이크로칩은 이번 인수로 비용, 크기, 전력 제약이 있는 시스템에서 컴퓨터 비전 애플리케이션이 사용하도록 설계된 부품의 대규모 엣지 디플로이먼트를 비용 효율적으로 개발하게 됐으며, 로우레인지 및 미드레인지 FPGA의 AI/ML 처리 능력을 몇 배 더 증대하게 됐다. 마이크로칩 FPGA 사업부 브루스 바이어(Bruce Weyer) 부사장은 “뉴로닉스 AI 랩스의 기술
'산업 현장의 프로세스 자동화 문제 해결을 위한 Analog Devices의 10BASE-T1L 솔루션' 웨비나 진행 연결성 확대부터 데이터 역량 확보까지 산업 고도화 인사이트 공유 바야흐로 ‘데이터 시대’가 도래했다. 4차 산업혁명으로 모든 요소 간 연결성이 강조됨에 따라 데이터의 존재감은 날로 확장되고 있다. 이에 장치와 장치를 연결해주는 네트워크 기술인 이더넷(Ethernet)이 등장했다. 컴퓨터 간 연결부터 클라우드, 엣지까지 연결성를 극대화하는 표준 네트워크 기술이다. 시장조사기관 글로벌 마켓 인사이트(Global Market Insights)는 글로벌 산업용 이더넷 시장 규모에 대해 지난해 약 500억 달러(약 67조 원)에서 2032년 약 3500억 달러(약 471조 원)로 급성장할 것으로 내다봤다. 이는 연평균 성장률(CAGR) 15%에 달하는 수치다. 이 흐름 속에서 미국 반도체 업체 아날로그 디바이스(Analog Devices, ADI)는 산업의 오랜 숙원인 생산 효율성 및 운영 유연성 제고, 비용 및 에너지 소비 절감, 보안성 향상 등을 위한 이더넷 솔루션을 산업에 제시해 왔다. 특히 10BASE-T1L 솔루션은 기존 통신 제약 사항이었던
'산업 현장의 프로세스 자동화 문제 해결을 위한 Analog Devices의 10BASE-T1L 솔루션' 웨비나 진행 연결성 확대부터 데이터 역량 확보까지 산업 고도화 인사이트 공유 바야흐로 ‘데이터 시대’가 도래했다. 4차 산업혁명으로 모든 요소 간 연결성이 강조됨에 따라 데이터의 존재감은 날로 확장되고 있다. 이에 장치와 장치를 연결해주는 네트워크 기술인 이더넷(Ethernet)이 등장했다. 컴퓨터 간 연결부터 클라우드, 엣지까지 연결성를 극대화하는 표준 네트워크 기술이다. 시장조사기관 글로벌 마켓 인사이트(Global Market Insights)는 글로벌 산업용 이더넷 시장 규모에 대해 지난해 약 500억 달러(약 67조 원)에서 2032년 약 3500억 달러(약 471조 원)로 급성장할 것으로 내다봤다. 이는 연평균 성장률(CAGR) 15%에 달하는 수치다. 이 흐름 속에서 미국 반도체 업체 아날로그 디바이스(Analog Devices, ADI)는 산업의 오랜 숙원인 생산 효율성 및 운영 유연성 제고, 비용 및 에너지 소비 절감, 보안성 향상 등을 위한 이더넷 솔루션을 산업에 제시해 왔다. 특히 10BASE-T1L 솔루션은 기존 통신 제약 사항이었던
아카마이 테크놀로지스가 14일 아카마이의 대규모 엣지 네트워크에 클라우드 컴퓨팅 기능을 내장한 '아카마이 Gecko(Generalized Edge Compute)'를 발표했다. 이는 사용자, 디바이스 및 데이터 소스와 더 가까운 곳에서 워크로드를 실행함으로써 고객에게 더 나은 경험을 제공하는 클라우드 컴퓨팅 플랫폼으로 거듭날 수 있도록 할 것이라고 회사 측은 설명했다. 아카마이는 이번 새로운 이니셔티브가 멀티클라우드 환경에서의 주요 플랫폼으로 도약하기 위한 최신 전략적 조치라고 밝혔다. 또한 현재의 클라우드 아키텍처가 제공하지 못하는 고성능, 지연 시간 단축 및 진정한 글로벌 확장성을 필요로 하는 최신 애플리케이션의 요구 사항을 충족하도록 설계된, 완전히 새로운 클라우드를 향한 아카마이의 비전을 실현하는 단계라고 전했다. 아카마이는 몇몇 고객을 대상으로 Gecko의 초기 테스트를 진행했으며 Gecko의 성능은 AI 추론, 멀티플레이어 게임, 소셜 및 스트리밍 미디어 분야의 고객에게 가장 활용도가 높을 것으로 예상된다. 몰입형 리테일, 공간 컴퓨팅, 데이터 애널리틱스, 소비자 및 산업용 IoT 등의 분야에서 향후 사용 사례가 증가할 것으로 보고 있다고 아카마이