700명 이상의 기업 IT 경영자와 관리자 등 참관객 참석해 한국오라클이 주최하는 가장 큰 연례 컨퍼런스 행사인 ‘오라클 클라우드 서밋(Oracle Cloud Summit) 2025’이 오늘 2월 11일(화) 그랜드 인터콘티넨탈 서울 파르나스 그랜드볼룸에서 개최됐다. 오라클 클라우드 서밋은 멀티 클라우드 환경 속 AI 시대를 맞아 오라클의 개방형 클라우드 및 최신 AI 기술의 통합 적용 및 서비스에 대한 전략 및 인사이트와 국내외 기업의 성공 사례를 공유하는 행사로, 지난 2023년부터 시작돼 올해 세 번째를 맞이했다. ‘데이터가 있는 곳에 AI를 제공함으로써 모든 비즈니스 상황에 필요한 솔루션을 지원한다(Everything, Everywhere – Bring Full Cloud and AI When You Need It)’라는 주제로 진행된 이번 행사는 고객의 비즈니스 운영이 이뤄지는 모든 곳에 오라클 클라우드를, 오라클의 최신 전략에 대한 최신 클라우드 서비스와 기술 혁신을 소개하는 것에 초점을 맞췄으며, 700명 이상의 기업 IT 경영자와 관리자, 개발자, 협력사를 비롯한 관객이 참석했다. 행사는 한국오라클 김성하 사장의 환영사를 시작됐으며, 크리스 첼
삼성전자가 실적 둔화에도 연구개발(R&D) 투자를 지속 확대하며 미래 준비에 속도를 내고 있다. 31일 삼성전자에 따르면 지난해 4분기 R&D 비용 집행 규모는 10조3천억원으로 역대 분기 최대를 기록했다. 작년 들어 역대 분기 최대였던 3분기의 8조8천700억원의 연구개발 투자 기록을 갈아치웠다. 연간으로도 최대 규모인 35조원의 연구개발 투자가 이뤄지면서 기술 중심 투자를 이어갔다. 삼성전자는 인공지능(AI) 반도체, 고성능 메모리, 서버 관련 제품 등 미래 지향적인 기술에 계속 투자하고 있다. 이를 위해 기흥사업장에 짓는 차세대 반도체 R&D 단지에 2030년까지 약 20조원을 투입, 미래 기술을 선도하는 핵심 연구기지로 자리 잡게 할 계획이다. 지난해 11월 설비반입식을 진행한 기흥 최첨단 복합 연구개발 단지 ‘NRD-K’(New Research & Development - K)는 올해 중순부터 본격적인 R&D 가동에 나설 것으로 알려졌다. 삼성전자는 최근 7년간 실적에 부침이 있어도 R&D 투자는 매년 늘려왔다. 연간 전사 영업이익이 6조5천700억원에 그친 지난 2023년에도 R&D에는 역대 최대인
정명수 대표, 국내 젊은 엔지니어 양성하는 환경을 구축하는 데 주력해 파네시아 정명수 대표가 이달 중순 열린 2024 디지털 혁신 시상식에서 과학기술정보통신부 장관 표창을 수상했다. 정명수 대표는 반도체 설계 산업에서 국내 젊은 엔지니어를 양성하는 환경을 구축함으로써, 국가 반도체 기술 발전에 기여한 공로를 인정받아 이번 표창을 수상했다. 최근 국내 반도체 기업들은 인건비가 비교적 낮은 국가에서 반도체 인재를 찾고 있는 추세다. 글로벌 인재 확보를 위해 동남아시아 국가를 인재 육성의 중요한 거점으로 삼고, 현지 개발자 양성을 위한 교육 시스템을 운영하며 해외에서의 인재 발굴과 육성에 힘쓰고 있다. 이러한 글로벌 트렌드 속에서 정명수 대표는 국내 젊은 반도체 인재 양성을 위한 환경을 조성하는 데 집중함으로써 반도체 전문가로 성장하고 싶은 국내 엔지니어가 기술을 선도할 수 있는 기회를 넓히고 있다. 정명수 대표는 젊은 반도체 엔지니어를 대상으로 성장 환경을 구축하고, CXL 기술을 중심으로 국가 반도체 발전에 기여한 공로를 인정받아 이번 장관 표창을 수상하게 됐다. 정명수 대표는 수상과 관련해 "모든 이들과 함께 만들어낸 의미 있는 성과”라며, “이들 모두가 반
주요 관계자들과 여러 논의 진행하며 신규 시장 진출 가능성 '확인' 망고부스트가 현지 시각 11월 18일부터 21일까지 미국 조지아주 애틀랜타에서 열린 ‘슈퍼컴퓨팅 2024(Supercomputing 24, SC24)’ 컨퍼런스에 참가하며 글로벌 시장 공략에 박차를 가했다. 망고부스트는 지난 10월 미국 캘리포니아 산호세에서 개최된 ‘2024 OCP 글로벌 서밋’에 이어, 이번 SC24에서도 대규모 단독 부스를 운영하며 자사의 DPU 전 제품군을 선보였다. 회사는 하드웨어 IP부터 PCIe 카드, 서버, 시스템 소프트웨어에 이르기까지 데이터 센터의 스토리지, 네트워킹, AI 추론 및 학습 등 핵심 기능을 가속화하는 기술력을 대대적으로 알리며 주목을 받았다. 망고부스트는 SC24에서 FH(Full Height) 및 LP(Low Profile) 등 다양한 규격과 100G, 200G, 400G 대역폭을 지원하는 PCIe DPU 카드, AMD MI300X GPU 서버용 RDMA DPU 카드, NVMe/TCP 기반 스토리지 DPU 카드를 탑재한 고성능 서버 제품군을 공개했다. 특히 PCIe DPU 카드는 가상화, 네트워킹, 스토리지, 보안 등 데이터 센터 주요 기능
잇다반도체가 AI 반도체 스타트업 하이퍼엑셀에 AI 반도체 '베르다(Bertha)' 개발을 위한 제품 공급 계약을 체결했다고 26일 밝혔다. 베르다는 하이퍼엑셀이 개발하는 거대언어모델(LLM) 추론 연산에 특화된 LLM Processing Unit(이하 LPU)으로, 저비용, 저지연, 고효율 LLM도메인 특화 처리 등이 특징이다. 특히, 서버 시장에서의 가장 큰 문제점인 전력 소모를 개선할 수 있는 칩으로 기대하고 있다. 김주영 하이퍼엑셀 대표는 "베르다는 LLM 추론 부문에서 최신 그래픽 처리 장치(GPU) 대비 성능은 최대 2배, 가격 대비 성능은 19배 향상되어 기존 고비용 저효율 GPU를 대체할 제품이다. 잇다반도체와의 협력을 통해 비용 효율적이고 전력 효율적인 LLM 기능을 제공하는 AI 반도체를 고객에게 선보일 수 있게 될 것으로 기대한다"고 말했다. 전호연 잇다반도체 대표는 “LPU칩이 경쟁력을 가지기 위해서는, 압도적인 전성비가 필요한 상황이다. 데이터 센터의 가장 큰 문제는 전력 소모이기에, 경쟁력을 가지기 위해서는 미세한 파워 제어 시스템을 구현할 필요가 있고, 이는 잇다반도체가 제공하는 Power Canvas와 Clock Canvas를 통
AI 데이터 센터, GPU 클라우드 서비스, 에지 AI 등 세 가지 축 앞세워 SKT가 누구나 쉽고 편리하게 접근할 수 있는 세계 최고 수준의 AI 인프라 조성에 나선다. SK텔레콤은 4일부터 5일 양일간 열리는 ‘SK AI 서밋 2024(SK AI Summit 2024)’에서 ‘AI 인프라 슈퍼 하이웨이’ 구축 계획을 전격 공개하고, AI 인프라 기반의 강력한 변화를 이끌어가겠다고 4일 밝혔다. SKT는 AI 데이터 센터, GPU 클라우드 서비스(GPUaaS), 에지 AI 등 세 가지 축을 중심으로 전국의 AI 인프라를 구축하고, 이를 기반으로 국내외 파트너들과 함께 글로벌 시장에도 진출할 계획이다. SK ICT 위원장을 맡고 있는 유영상 CEO는 “대한민국이 세계 최고 수준의 ICT 인프라를 기반으로 ICT 강국 반열에 올랐던 것처럼 인프라에서 출발하는 성공방정식이 AI 시대에도 적용될 수 있다”며, “‘AI 인프라 슈퍼 하이웨이’를 구축해 대한민국이 AI G3로 도약할 수 있도록 앞장설 계획”이라고 밝혔다. 먼저, SKT는 국내 지역 거점에100MW(메가와트) 이상의 전력이 필요한 하이퍼 스케일 AI DC(데이터센터)를 시작으로, 향후 그 규모를 GW(
'미래를 재창조하다'라는 주제로, 키노트 및 기술 세션 발표 이어져 Arm이 1일인 오늘 그랜드 하얏트 서울에서 'Arm 테크 심포지아'를 개최하고, AI 인프라 시장에 대한 포부를 드러냈다. 올해 Arm 테크 심포지아는 국내에서 개최된 역대 행사 중 최대 규모로 열렸다. '미래를 재창조하다(Let's Reinvent the Future)'라는 주제로 열린 이번 행사에는 Arm 크리스 버기(Chris Bergey) 수석 부사장 겸 클라이언트 사업부 총괄과 Arm 제임스 맥니븐(James McNiven) 클라이언트 사업부 부사장 등이 참여해 자리를 빛냈다. 제임스 맥니븐 부사장은 기조연설에서 "지금은 기술 역사상 가장 중요한 순간이다. 전 세계 사람의 삶을 변화시킬 AI 잠재력은 막대하다. 이를 실현하기 위해서는 에코시스템 협력이 무엇보다 중요하다"고 강조했다. 이어 그는 "에코시스템 협력의 핵심은 업계가 기술 개발 및 패보의 접근 방식을 폭넓게 재검토하는 것이며, 이는 특히 반도체 산업에서 적용 가능하다. 실리콘은 더 이상 서로 무관한 부품의 집합이 아닌 AI의 요구사항을 충족하는 새로운 마더보드가 되고 있다"고 말했다. 이는 동일한 패키지 내에 여러 구성
주요 데이터 센터 기능 가속화하는 DPU 제품군의 대대적 판매 시작해 망고부스트는 현지 시각 지난 15일부터 사흘간 미국 캘리포니아 산호세에서 열린 ‘2024 OCP 글로벌 서밋(OCP Global Summit)’에 참가했다고 밝혔다. 망고부스트는 OCP 글로벌 서밋에서 PCIe 카드, 서버, 시스템 소프트웨어 등 시스템 전 단위에서 스토리지, GPU 통신, AI 추론 및 학습 등 주요 데이터 센터 기능을 가속화하는 DPU(Data Processing Unit) 제품군의 대대적 판매를 개시했다. OCP 글로벌 서밋은 세계 최대 규모의 개방형 데이터 센터 기술 커뮤니티인 OCP(Open Compute Project)가 주최하는 연례 행사로, 업계 전문가들이 모여 다양한 기술력과 비전을 공유하는 장이다. 올해 망고부스트는 AMD, 삼성전자, 슈퍼마이크로 등 반도체 및 서버 분야의 글로벌 유수 파트너사와 함께, PCIe 카드, 서버 및 시스템 소프트웨어로 이뤄진 최신 DPU 제품군을 공개했다. 망고부스트는 스토리지 통신, GPU 간 통신, AI 및 LLM 추론, 학습 및 서비스 제공 등 AI 시대의 데이터 센터가 수행하는 주요 기능에 대한 DPU 제품군을 공개해
리벨리온이 최근 다수의 글로벌 서버 제조사로부터 AI 반도체 ‘아톰(ATOM)’의 서버 안정성 인증을 잇달아 획득하며 제품 신뢰성을 증명했다. 특히 하나의 서버에 다수의 ‘아톰’ 카드를 장착하는 멀티카드 환경에서 검증을 거치며 LLM(Large Language Model, 대규모언어모델) 등 큰 규모의 모델도 안정적으로 지원할 수 있음을 입증했다. 안정성 인증은 특정 서버 내에서 카드 등 제품이 문제없이 구동하는지 점검하고, 서버 제조사와 칩 제조사 간 기술적인 최적화를 거치는 절차다. 리벨리온은 올 9월까지 델 테크놀로지스, HPE, 슈퍼마이크로, 레노버, 기가바이트 등 글로벌 서버 제조사로부터 검증을 완료했으며, 국내 서버사로는 이슬림코리아를 비롯한 4개사로부터 인증을 획득했다. 리벨리온은 대규모 AI 모델 지원을 위한 멀티카드 환경에서 검증을 진행했으며, 현재 고객에게 제공되는 정식 서버 환경에서 ‘라마 3.1 70B’ 등 LLM을 안정적으로 구동하고 있다. 이를 바탕으로 LLM을 지원하는 AI 데이터 센터를 본격 공략한다는 계획이다. 특히 리벨리온과 각 서버사가 인증 획득 과정에서 통신 프로토콜 호환성 확인, 펌웨어 최적화 등 기술 협력을 거쳤기에 다
전 세계적으로 AI 기술의 발전이 가속화하면서, AI 인프라에 대한 투자가 급증하고 있다. 이러한 투자 증가는 AI가 제공하는 경제적 가치와 효율성 향상 가능성에 대한 기대감 때문이다. 또한, 실제로 운영 효율성을 개선하며, 새로운 비즈니스 기회를 창출하는 잠재력을 증명하고 있다. 오늘날 주요 국가와 기업은 AI 인프라 확충에 초점을 맞추고 천문학적인 규모의 투자를 추진하고 있다. 이들은 AI 경쟁력이 지속적인 인프라 투자에 의해 좌우될 것이라고 판단한다. AI 인프라의 중요성 빠른 속도로 발전하는 AI의 배경에는 인프라가 있다. 이에 국가와 기업의 막강한 AI 인프라 투자가 전 세계적으로 확대되고 있다. 이들은 AI가 장기적으로 막대한 경제적 이익과 국가 경쟁력 강화에 기여할 것이라고 기대한다. 맥킨지의 조사에 따르면, AI는 매년 최대 4.4조 달러의 이익에 기여하는 잠재력이 있으며, 금융, 딥테크 바이오 등의 분야에서 대폭 적용될 것이라고 내다봤다. AI 도입은 투자 수익률을 넘어 시장에서의 경쟁 우위 확보에도 필요하다. 맥킨지는 AI를 조기에 도입한 기업이 2030년까지 현금 흐름을 두 배로 늘릴 것이라고 밝혔다. 주목해야 할 부분은 AI 기술이 점차
AI 기술이 눈부신 발전을 이루는 가운데, AI PC는 단순한 개념이 아닌 현실이 됐다. AI는 일반 사용자를 넘어 기업, 국가 차원에서 상용화한 형태로 진화했다. 이제는 개인용 컴퓨터도 예외가 아니다. AI가 결합된 노트북과 데스크톱은 사용자 경험을 극적으로 개선하고 있다. 이미 보급되기 시작한 AI PC는 앞으로도 성장할 가능성이 높아 보인다. 이에 PC 생태계에 있는 기업들은 AI PC 완성도를 높이기 위해 이 시장에 뛰어들고 있다. 확대되는 AI PC, 시장 주류되나 AI PC는 데이터 분석, 자동화 기능, 실시간 음성 및 이미지 처리를 가능하게 하는 컴퓨터를 일컫는다. 중앙처리장치(CPU), 그래픽처리장치(GPU), 신경망처리장치(NPU)를 기반으로 다양한 AI 기능을 지원한다. 한 예로, AI 통합 프로세서는 사용자의 작업 스타일을 학습해 자동으로 작업 환경을 최적화한다. 또한, 복잡한 데이터를 신속하게 분석해 비즈니스 인사이트를 제공하고, 음성 명령이나 시각적 입력으로 사용자와의 상호작용을 간소화하기도 한다. 이러한 기능은 일반 사용자뿐 아니라 개발자, 데이터 사이언티스트, 디자이너 등 전문가 영역에서도 도움이 될 만한 수준으로 발전하고 있다.
GAIIP, 300억 달러 이상 규모의 펀드 출범시킬 계획인 것으로 알려져 자산운용사 블랙록과 마이크로소프트(MS) 등이 함께 천문학적 규모의 자금을 모아 데이터 센터를 비롯한 AI 인프라 시설에 투자할 계획이라고 밝혔다. 17일(현지시간) 블룸버그통신·CNBC방송에 따르면, 블랙록·MS 등이 참여하는 '글로벌 AI 인프라 투자 파트너십(GAIIP)'은 300억 달러(약 40조 원) 이상 규모의 펀드를 출범시키고 데이터 센터와 에너지 프로젝트 등에 투자할 계획이라고 이날 발표했다. GAIIP에는 아랍에미리트(UAE) 국가 자금으로 조성된 투자업체 MGX, 블랙록에 인수된 인프라 투자 사모펀드 '글로벌 인프라스트럭쳐 파트너스'(GIP) 등도 참여한다. AI 붐의 최대 수혜기업인 엔비디아는 데이터센터 등과 관련한 전문지식을 제공할 예정이다. 투자는 대부분 미국에서 이뤄지며, 협력국을 대상으로도 일부 진행될 예정이다. 이들은 채권 금융을 포함하면 최대 1000억 달러 규모의 투자금을 동원할 수 있을 것으로 예상하고 있다. 사티아 나델라 MS 최고경영자(CEO)는 이번 계획을 통해 금융 및 산업계 지도자들을 한자리에 모아 미래의 인프라를 건설하고 지속 가능한 방식으
ZT 시스템스, AMD가 개발하는 AI 칩 성능 테스트할 예정 AMD가 서버 제조업체를 인수하며 인공지능(AI) 칩 선두 주자 엔비디아와 치열한 경쟁을 예고했다. AMD는 19일(현지시간) 뉴저지주 시코커스에 있는 서버 제조업체 ZT 시스템스를 인수한다고 밝혔다. 거래 규모는 49억 달러(약 6조5000억 원)로, AMD는 현금과 주식으로 인수한다. ZT 시스템스는 AI에 막대한 돈을 쏟아붓고 있는 대규모 데이터 센터 기업을 위해 서버 컴퓨터를 제조하는 업체다. ZT 시스템스는 AMD의 AI 칩을 장착하는 데이터 센터 설루션 비즈니스 그룹에 속해 AMD가 개발하는 AI 칩 성능을 테스트하게 된다. 로이터 통신에 따르면, 비상장기업인 ZT 시스템스는 연간 약 100억 달러의 매출을 내는 것으로 알려졌다. 리사 수 AMD 최고경영자(CEO)는 성명을 통해 "이번 인수로 데이터 센터 AI 시스템을 크게 강화할 것"이라며 "최신 AI 그래픽처리장치(GPU)를 신속하게 테스트하고 출시하게 됐다"고 밝혔다. AMD의 ZT 시스템스 인수는 전 세계 AI 칩 시장을 장악하는 엔비디아를 추격하기 위한 것으로 풀이된다. 엔비디아가 AI 칩 시장의 80% 이상 점유율을 차지하는
컴퓨팅, 네트워킹, 스토리지를 통합한 클라우드 IaaS 솔루션 제공 자다라(Zadara)가 국내에서 'zCompute 서비스'를 런칭한다고 발표했다. 자다라 엣지 클라우드 서비스는 전 세계 어디서나 접근 가능하며, 사용자들에게 뛰어난 기술과 안정성을 제공한다. zCompute는 완전관리형 클라우드 서비스로서, 컴퓨팅, 네트워킹, 스토리지를 통합한 클라우드 IaaS 솔루션을 제공한다. zCompute 주요 특징 중 하나는 사용량에 따라 과금 되는 요금 체계와 숨겨진 비용을 제거해 기업 및 개발자에게 비용 효율적 클라우드 환경을 제공한다. 자다라는 클라우드 컴퓨팅 분야에서의 전문성과 함께, 고성능 대용량의 블록 스토리지와 무한 확장 가능한 오브젝트 스토리지를 글로벌 기업에 제공하고 있다. 기존 퍼블릭 클라우드와 동일한 방식으로 사용할 수 있도록 zCompute는 AWS EC2 호환 API를 제공해 재교육 없는 클라우드 사용을 보장한다. 고객사 IDC 안에 위치해 데이터 유출 및 지연 없는 클라우드를, IDC/코로케이션 위치해 하이브리드·멀티 클라우드를 쉽게 구현한다. 또한, 세계에 분포된 500개 이상의 클라우드 로케이션을 활용해 글로벌 시장에 진입하는 것이 가
로맹 피숑(Romain PICHON) 시스템 및 애플리케이션 엔지니어 소개 지난 10년간 신규 서버 설치에 대한 시장 수요가 2015년부터 2022년까지 연평균 11%의 높은 성장률로 급격히 증가했다. 이러한 가속화의 첫 번째는 업무용 또는 개인용 문서의 전반적인 프로세스가 디지털화하면서 발생했다. 다음 두 번째는 전 세계적인 보건 위기로 업무적으로는 재택 근무가 증가하거나 개인적으로는 새로운 미디어 플랫폼이 등장하면서 스크린 소비가 늘어나면서 발생했다. 세 번째. 가속화는 이제 AI 개발과 상용화로 시작되고 있다. 이러한 환경에서 서버용 SMPS를 설계할 때 가장 어려운 과제는 높은 전력 분산을 관리하거나, 확장 가능하고 규모가 큰 유형의 인프라의 유지보수 비용을 줄이는 것이었다. 최소한 이 두 가지 주요 문제에 대한 답을 찾기 위해 실리콘 제어 정류기(SCR, Silicon-Controlled-Rectifiers) 전력 디스크리트에 기반을 둔 새로운 트렌드가 탄생했으며, 이는 SMPS의 AC/DC단과 시동 기능으로 기존의 전기 기계식 스위치에 대한 혁신적 대안을 제시한다. 최첨단 기술 a) 원리 AC-DC 전력 컨버터를 시동하는 동안 DC 벌크 커패시터의