대규모 AI 연산에 필요한 인프라 분야에서 기술 협력 추진 리벨리온이 세계적인 하드웨어 제조 및 디자인(DMS) 기업 페가트론과 전략적 파트너십을 맺고 리벨리온의 차세대 AI 반도체 ‘리벨(REBEL)’을 탑재한 고성능 모듈 제품 개발을 위해 협력한다. 양사는 이번 협업으로 대규모 AI 연산에 필요한 인프라 분야에서 기술 협력을 진행한다. PICe 카드 등 리벨리온의 ‘리벨’의 성능을 극대화할 수 있는 전용 모듈 시스템을 공동 개발하고 제작함으로써, 전기적(electrical)·기계적(mechanical)·열(thermal) 측면에서 최적화된 솔루션을 제공할 계획이다. 이로써 리벨 기반의 제품을 적시에 출시하고 안정적인 제품 양산 체제를 갖출 것으로 기대된다. 페가트론은 연간 매출 약 400억 달러, 임직원 10만 명 이상을 보유한 글로벌 규모의 DMS 업체다. 최근 대규모언어모델을 구동하는 랙 단위의 AI 서버 및 모듈 생산에 역량을 집중하고 있다. 리벨리온은 스타트업임에도 이미 고성능 메모리인 HBM3e를 탑재한 칩렛 기술 기반의 대형 칩 ‘리벨’을 설계하며 그 전문성을 인정받고 있다. 리벨리온과 같은 AI 반도체 스타트업과 협력은 매우 이례적인 행보로
AI 데이터 센터, GPU 클라우드 서비스, 에지 AI 등 세 가지 축 앞세워 SKT가 누구나 쉽고 편리하게 접근할 수 있는 세계 최고 수준의 AI 인프라 조성에 나선다. SK텔레콤은 4일부터 5일 양일간 열리는 ‘SK AI 서밋 2024(SK AI Summit 2024)’에서 ‘AI 인프라 슈퍼 하이웨이’ 구축 계획을 전격 공개하고, AI 인프라 기반의 강력한 변화를 이끌어가겠다고 4일 밝혔다. SKT는 AI 데이터 센터, GPU 클라우드 서비스(GPUaaS), 에지 AI 등 세 가지 축을 중심으로 전국의 AI 인프라를 구축하고, 이를 기반으로 국내외 파트너들과 함께 글로벌 시장에도 진출할 계획이다. SK ICT 위원장을 맡고 있는 유영상 CEO는 “대한민국이 세계 최고 수준의 ICT 인프라를 기반으로 ICT 강국 반열에 올랐던 것처럼 인프라에서 출발하는 성공방정식이 AI 시대에도 적용될 수 있다”며, “‘AI 인프라 슈퍼 하이웨이’를 구축해 대한민국이 AI G3로 도약할 수 있도록 앞장설 계획”이라고 밝혔다. 먼저, SKT는 국내 지역 거점에100MW(메가와트) 이상의 전력이 필요한 하이퍼 스케일 AI DC(데이터센터)를 시작으로, 향후 그 규모를 GW(
AI 인프라 스타트업 대표로 국내 유일하게 초청받아 리벨리온이 사우디 아람코가 주최하는 글로벌 테크 컨퍼런스 ‘Aramco Entrepreneurship Summit - TecShift(이하 테크시프트)’에 한국 기업으로 유일하게 참여해 AI 인프라에 대한 기술과 비전을 공유했다고 밝혔다. 사우디아라비아 다란(Dhahran)에서 개최된 이번 행사는 아람코가 투자한 포트폴리오 스타트업, 글로벌 테크 기업 등이 한자리에 모여 최신 기술 동향과 미래 협력 방안을 논의하는 자리다. 리벨리온은 지난 7월 아람코 CVC인 와에드 벤처스(Wa’ed Ventures)로부터 한국 반도체 기업 최초로 전략적 투자를 유치했으며, 이번 행사에 AI 인프라 영역을 대표하는 스타트업으로 국내에서 유일하게 초청받아 패널 세션 참여 및 부스 전시를 진행했다. 리벨리온 박성현 대표는 ‘Future of Computing: Innovating Hardware at the Speed of AI’ 세션에 패널로 참여해 글로벌 AI 하드웨어 기업 대표들과 함께 차세대 컴퓨팅 기술의 발전 방향에 대해 심도있는 논의를 진행했다. 특히 한국 반도체 생태계가 가진 강점과 더불어 리벨리온이 데이터 센터
OCP 표준에 대한 엔비디아 스펙트럼-X 지원도 확대할 예정 엔비디아가 오픈 컴퓨트 프로젝트(Open Compute Project, OCP)에 블랙웰(Blackwell) 가속 컴퓨팅 플랫폼 설계를 제공해 AI 인프라 혁신 가속화에 나선다고 밝혔다. 엔비디아는 개방적인 데이터 센터 기술 개발을 촉진하기 위해 블랙웰 가속 컴퓨팅 플랫폼 설계의 기본 요소를 OCP에 제공하고 있다고 발표했다. 또한, OCP 표준에 대한 엔비디아 스펙트럼-X 지원을 확대할 예정이다. 엔비디아는 올해 OCP 글로벌 서밋에서 OCP 커뮤니티와 엔비디아 GB200 NVL72 시스템의 전자 기계 설계의 주요 부분을 공유한다. 여기에는 더 높은 컴퓨팅 밀도와 네트워킹 대역폭을 지원하기 위한 랙 아키텍처, 컴퓨팅과 스위치 트레이 기계 구조, 액체 냉각과 열 환경 사양, 엔비디아 NV링크 케이블 카트리지 용적 측정 등이 포함된다. 엔비디아는 이미 엔비디아 HGX H100 베이스보드 설계 사양을 비롯해 여러 세대의 하드웨어에 걸쳐 OCP에 공식적으로 기여해 오고 있다. 이를 통해 전 세계 컴퓨터 제조업체의 제품 선택 폭을 넓히고, AI 채택을 확대할 수 있도록 생태계에 도움을 주고 있다. 또한,
오픈AI에 블랙웰 DGX B200 첫 엔지니어링 샘플 중 하나 제공해 엔비디아가 마이크로소프트와 오픈AI에 '블랙웰(Blackwell) 시스템'을 최초로 공급한다고 밝혔다. 엔비디아는 마이크로소프트 애저가 GB200 기반 AI 서버를 갖춘 엔비디아 블랙웰 시스템을 구동하는 최초의 클라우드 솔루션 제공업체가 됐다고 밝혔다. 마이크로소프트 애저는 인피니밴드 네트워킹과 폐쇄 루프 액체 냉각을 활용해 진보된 AI 모델을 구동하도록 모든 단계에서 최적화하고 있다. 이 같은 소식에 마이크로소프트 CEO인 사티아 나델라(Satya Nadella)는 공식 소셜미디어 X 계정에서 “우리는 엔비디아와의 오랜 파트너십과 심층적인 혁신으로 업계를 선도하며 가장 정교한 AI 워크로드를 지원하고 있다”고 말했다. GB200 그레이스 블랙웰 슈퍼칩은 엔비디아 GB200 NVL72의 핵심 구성 요소다. GB200 NVL72는 72개의 블랙웰 GPU와 36개의 그레이스 CPU를 연결하는 멀티 노드, 수냉식, 랙 스케일 솔루션이다. 이는 거대 언어 모델(Large Language Model, LLM) 워크로드에 최대 30배 빠른 추론을 제공하며 수조 개의 파라미터 모델을 실시간으로 실행할
이번 투자로 LLMOps 기술 강화 및 해외 시장 진출 가속화에 집중할 계획 베슬에이아이가 약 1200만 달러(158억 원) 규모의 시리즈 A 투자를 유치했다고 8일 밝혔다. 베슬에이아이는 대규모 언어 모델(LLM) 및 생성형 AI 시대의 급격한 컴퓨팅 수요 증가에 대응해 효율적인 AI 인프라 구축과 운영을 지원하는 MLOps 플랫폼을 제공하고 있다. 특히, 온프레미스와 클라우드 자원을 통합 관리하는 하이브리드 솔루션을 통해 고객사의 데이터 처리 및 모델 학습 시간을 대폭 단축시키고 최대 80%의 컴퓨팅 비용 절감을 가능하게 한다. 다양한 클라우드 환경을 단일 인터페이스로 관리하는 기술력 또한 세계 시장에서 인정받고 있다. 투자사들은 베슬에이아이의 성장 잠재력과 선제적 시장 대응에 주목했다. AI 기술이 제조, 금융, 공공 등 다양한 산업으로 확산되면서 MLOps에서 LLMOps으로의 전환이 가속화하는 가운데, ‘VESSL’ 플랫폼의 높은 필요성과 활용 가능성이 기대된다는 전망이다. 이미 국내에서는 현대자동차, LG전자, 티맵 모빌리티 등 대기업과 협업 중이다. 해외에서는 구글 클라우드, 오라클 등 빅테크와의 파트너십은 물론 MIT, 스탠포드 등 일류 대학과
수많은 GPU 자원을 마치 한 대의 컴퓨터처럼 관리해 GPU 성능 극대화 SK텔레콤(이하 SKT)은 AI 인프라 자원을 최적화하고, AI 개발 환경을 통합 관리할 수 있는 AI 기반 B2B 솔루션 ‘SKT 엔터프라이즈 AI 클라우드 매니저(이하 AI 클라우드 매니저)’를 출시했다고 8일 밝혔다. ‘AI 클라우드 매니저’는 SKT 가 보유한 대규모 GPU 자원에 대한 관리 및 운영 노하우를 상용화한 제품으로, GPU 자원을 효율적으로 활용할 수 있는 AI Job 스케줄러 기반의 GPU 클러스터 특화 솔루션이다. 기업 고객이 보유한 수많은 GPU 자원을 마치 한 대의 컴퓨터처럼 관리해 GPU 성능을 극대화하고, AI 개발을 위한 학습 소요 시간을 단축할 수 있다. 대규모 데이터 학습에 GPU 자원이 많이 소모되기에 이와 같은 AI 자원 최적화는 AI 클라우드 솔루션에 꼭 필요한 기능이다. 예를 들어 프로젝트마다 GPU 사용량 및 성능을 실시간으로 모니터링하고, 사용하지 않는 GPU를 감지해 다른 프로젝트에 재분배한다. 우선 순위가 높은 프로젝트에 클라우드 자원을 먼저 할당하는 등 자원 효율성도 높인다. AI 클라우드 매니저를 활용하면 AI 개발의 모든 과정을 체
AI 모델 성능 쉽게 비교하도록 도와주는 비교 실험, 모델 관리 기능 탑재 씨이랩은 AI 인프라 부족 문제에 직면한 기업의 어려움을 해결하고자 출시한 GPU 관리 솔루션 ‘AstraGo’에 신규 기능 ‘비교 실험’과 ‘모델 관리’를 추가 탑재했다고 밝혔다. 이번 비교 실험, 모델 관리는 AI 모델 성능을 쉽게 비교하도록 도와주는 기능으로, AstraGo의 사용자 편의성이 크게 향상됐다. 특히 비교실험 기능을 활용하면 워크로드 내 Accuracy와 Loss 값을 간편하게 비교하고 최적의 모델을 찾아내 운영 효율성을 높인다. AstraGo는 AI 인프라 부족 문제를 해결하는 국내 GPU 솔루션으로 주목을 받고 있다. 이 솔루션은 AI 도입의 큰 장벽으로 여겨지는 IT 인프라 부족과 높은 비용 문제를 해소하며, 기업의 AI 활용을 촉진하는 데 중점을 두고 있다는 것이 핵심이다. 대한상공회의소의 ‘국내기업 AI 기술 활용 실태조사’에 따르면 응답 기업의 80%가 AI 기술 도입의 필요성을 느끼지만 실제 활용 비율은 30% 수준에 불과한 것으로 나타났다. 그 이유는 ‘IT 인프라 부족(34.6%)’과 ‘비용 부담(23.1%)’이 가장 큰 장애 요인으로 드러났다. 씨이
전 세계적으로 AI 기술의 발전이 가속화하면서, AI 인프라에 대한 투자가 급증하고 있다. 이러한 투자 증가는 AI가 제공하는 경제적 가치와 효율성 향상 가능성에 대한 기대감 때문이다. 또한, 실제로 운영 효율성을 개선하며, 새로운 비즈니스 기회를 창출하는 잠재력을 증명하고 있다. 오늘날 주요 국가와 기업은 AI 인프라 확충에 초점을 맞추고 천문학적인 규모의 투자를 추진하고 있다. 이들은 AI 경쟁력이 지속적인 인프라 투자에 의해 좌우될 것이라고 판단한다. AI 인프라의 중요성 빠른 속도로 발전하는 AI의 배경에는 인프라가 있다. 이에 국가와 기업의 막강한 AI 인프라 투자가 전 세계적으로 확대되고 있다. 이들은 AI가 장기적으로 막대한 경제적 이익과 국가 경쟁력 강화에 기여할 것이라고 기대한다. 맥킨지의 조사에 따르면, AI는 매년 최대 4.4조 달러의 이익에 기여하는 잠재력이 있으며, 금융, 딥테크 바이오 등의 분야에서 대폭 적용될 것이라고 내다봤다. AI 도입은 투자 수익률을 넘어 시장에서의 경쟁 우위 확보에도 필요하다. 맥킨지는 AI를 조기에 도입한 기업이 2030년까지 현금 흐름을 두 배로 늘릴 것이라고 밝혔다. 주목해야 할 부분은 AI 기술이 점차
저전력 고효율 NPU 기반의 AI 솔루션 시장 본격 확대 예고해 리벨리온이 코오롱베니트와 AI 분야 기술 협력 및 시장 확대를 위한 협약을 체결했다고 26일 밝혔다. 이번 협약 체결로 양사는 AI 솔루션 및 인프라 노하우와 IT 파트너 네트워크를 활용해 기술적·사업적 시너지를 만들어가며, 저전력 고효율 NPU 기반의 AI 솔루션 시장을 본격적으로 확대할 계획이다. 먼저 현장 실증 프로젝트로 시장 확대를 위한 검증에 돌입한다. 양사는 리벨리온의 NPU를 기반으로 비전 AI 등 AI를 접목한 현장 실증 프로젝트를 수행한다. 이어 NPU 기반 하드웨어와 소프트웨어를 구성하고 이를 활용해 비전 및 LLM(Large Language Model), 멀티모달 모델을 아우르는 AI 솔루션을 선보일 계획이다. 향후 서비스 모델 발굴과 성공적인 사업화를 위해서도 힘을 모은다. 국가 R&D 과제 참여 등으로 시장성 확보에 나서는 한편, NPU 및 AI 관련 분야에서 시장 저변 확대를 위해 각 사의 국내외 네트워크를 활용해 양사가 개발한 기술 및 서비스 모델을 확산하는 것이 목표다. 리벨리온은 올해 양산에 나선 AI 반도체 ‘아톰(ATOM)’을 기반으로 본격적으로 AI반도
카카오클라우드의 서비스형GPU, 응답속도·안정성·비용 면에서 적합해 카카오엔터프라이즈가 26일 AI 스타트업 스캐터랩이 카카오클라우드 기반으로 최근 출시한 인터랙티브 AI 콘텐츠 플랫폼 ‘제타(zeta)’를 서비스하고 있다고 밝혔다. 지난 4월 출시된 제타는 국내 최초로 AI와 함께 실시간으로 스토리를 창작할 수 있는 플랫폼이다. 사용자가 자신이 만들고 싶은 캐릭터의 이름, 이미지, 특징 등을 프롬프트에 입력하면 스캐터랩의 생성 AI 기술이 해당 내용을 스토리와 대화에 반영한다. 스캐터랩은 감성 대화에 탁월한 성능을 보이는 자체 AI 언어 모델을 파인튜닝해 제타에 적용했으며 지속적으로 모델 최적화 및 서빙 작업을 진행 중이다. 출시 이후 제타는 매달 2배 이상의 트래픽 증가세를 보였고 이에 더 많은 GPU가 필요하게 됐다. 스캐터랩은 사용자 접속량과 수요에 맞춰 GPU 사용량에 따라 가변적으로 조절할 수 있고 빠른 응답속도와 안정성, 가격 합리성을 모두 갖춘 카카오클라우드의 서비스형 GPU(GPUaaS)를 선택했다. 제타는 카카오클라우드의 클라우드 컴퓨팅 서비스인 Beyond Compute Service(BCS) 중 컴퓨팅 성능을 가속화하는 기술이 적용된 G
GAIIP, 300억 달러 이상 규모의 펀드 출범시킬 계획인 것으로 알려져 자산운용사 블랙록과 마이크로소프트(MS) 등이 함께 천문학적 규모의 자금을 모아 데이터 센터를 비롯한 AI 인프라 시설에 투자할 계획이라고 밝혔다. 17일(현지시간) 블룸버그통신·CNBC방송에 따르면, 블랙록·MS 등이 참여하는 '글로벌 AI 인프라 투자 파트너십(GAIIP)'은 300억 달러(약 40조 원) 이상 규모의 펀드를 출범시키고 데이터 센터와 에너지 프로젝트 등에 투자할 계획이라고 이날 발표했다. GAIIP에는 아랍에미리트(UAE) 국가 자금으로 조성된 투자업체 MGX, 블랙록에 인수된 인프라 투자 사모펀드 '글로벌 인프라스트럭쳐 파트너스'(GIP) 등도 참여한다. AI 붐의 최대 수혜기업인 엔비디아는 데이터센터 등과 관련한 전문지식을 제공할 예정이다. 투자는 대부분 미국에서 이뤄지며, 협력국을 대상으로도 일부 진행될 예정이다. 이들은 채권 금융을 포함하면 최대 1000억 달러 규모의 투자금을 동원할 수 있을 것으로 예상하고 있다. 사티아 나델라 MS 최고경영자(CEO)는 이번 계획을 통해 금융 및 산업계 지도자들을 한자리에 모아 미래의 인프라를 건설하고 지속 가능한 방식으
대한상의·산업연구원 공동 조사...AI 필요성 인식(78%) 비해, 실제 활용률(30.6%)은 낮아 국내기업 10곳 중 8곳이 경영활동에 AI 기술 적용의 필요성을 느끼고 있지만, 실제 활용률은 30% 수준으로 나타났다. 특히, 제조업분야 활용률은 20%를 간신히 넘긴 것으로 조사됐다. 대한상공회의소가 산업연구원과 공동으로 최근 국내기업 500개사 IT·전략기획 담당자를 대상으로 실시한 ‘국내기업 AI 기술 활용 실태 조사’에 따르면, ‘기업의 생산성 제고, 비용절감 등 성과향상을 위해 AI 기술이 필요하다’고 답한 기업은 전체의 78.4%를 차지했다. ‘불필요’하다는 응답은 21.6%로 나타났다. 이번 조사는 산업통상자원부, 한국공학한림원, 산업연구원이 공동으로 진행 중인 ‘AI 시대의 新산업정책' 수립을 계기로 이뤄졌다. ‘실제 AI 기술 활용 여부’에 대해서는 ‘그렇다’고 답한 기업이 30.6%를 차지한 반면, ‘아니다’라고 답한 기업은 69.4%에 달했다. 업종별로 보면, 제조업의 활용률은 23.8%로 서비스업분야 활용률(53%)의 절반에도 못 미쳤다. 서비스분야에선 금융(57.1%)·IT서비스(55.1%)의 활용률이 높은 것으로 드러났다. 기업규모별
각사가 보유한 역량으로 풀스택 AI 서비스 제공하고 파이프라인 늘린다 AI 올인원 서비스 사업화를 위해 AI 인프라와 AI 컨설팅, 그리고 AI 솔루션 기업 3사가 뭉쳤다. 코난테크놀로지가 7일 에스넷시스템 및 델 테크놀로지스와 함께 ‘AI 올인원 서비스 사업 협력을 위한 업무협약(MOU)’를 체결했다. 이번 업무협약으로 3사는 인공지능(AI) 및 생성형 AI 도입을 검토 중인 고객사 대상으로 구축, 운영부터 컨설팅에 이르는 AI 올인원 서비스를 제공할 계획이다. IT 인프라 구축 및 운영, AI 솔루션, AI GPU 및 컨설팅에 이르기까지 각사가 보유한 전문 역량을 활용해 풀스택 AI 서비스를 제공하고 파이프라인을 늘림으로써 궁극적으로는 국내 AI 시장을 주도하는 것이 목표다. 코난테크놀로지는 자체개발 대형언어모델 코난 LLM 및 AI 솔루션을 제공할 계획이다. AI 알고리즘 개발, 데이터 처리 및 분석, 모델 최적화 등의 기술적 지원도 연계된다. 코난테크놀로지는 자체 데이터와 컴퓨팅 인프라를 기반으로 지난해 8월 코난 LLM 파운데이션 모델을 출시했다. 한국의 토종 생성형 AI로 7월에는 美 스탠퍼드대 ‘에코시스템 그래프’에 이름을 올리기도 했다. 에스넷
여름방학 두 달간 학점 인정 인턴십 프로그램 운영해 모레가 우수 인재 확보에 적극 나섰다. 모레는 서울대학교 컴퓨터공학부와의 협력을 통해 학점 인정 인턴십 프로그램을 여름방학 두 달간 운영한다고 15일 밝혔다. 지난 7월 1일부터 이번 인턴십 프로그램에 참여한 6명의 학생들은 인프라 사업부, AI 사업부, 사업개발팀에 각각 배치돼 다양한 영역의 AI 인프라 소프트웨어 개발 과정에 참여하게 된다. 경영진 멘토링과 교육에 이어 팀별로 주어진 과제를 수행하고, 최종 발표 및 평가도 진행될 예정이다. 모레 조강원 대표는 “초거대 AI 시대의 다양한 문제를 해결하면서 기존에 없던 혁신적인 소프트웨어를 개발하고 있는 모레에게 현재 가장 필요한 것은 우수 인재 확보다. 이번 인턴십 프로그램은 모레에게는 우수 인재와의 교류 기회를, AI 전문가를 꿈꾸는 학생에게는 소중한 커리어 개발 기회를 제공할 것"이라고 밝혔다. 인턴십 프로그램 운영 외에 모레는 전문 인력 확보를 위해 현재 다양한 AI 분야 엔지니어 채용도 상시 진행하고 있다. 채용 분야는 컴파일러 엔지니어, GPU 소프트웨어 엔지니어, 시스템 소프트웨어 엔지니어, 머신러닝 엔지니어 등 AI 인프라 소프트웨어 개발 전