미국, 대만 등 업체가 제조한 서버 통해 엔비디아 AI 칩 확보한 것으로 보여 중국 대학과 연구기관들이 미국 제재에도 불구하고 최근 재판매 업자 등 제3자를 통해 엔비디아의 첨단 인공지능(AI) 칩을 확보했다고 로이터통신이 23일 보도했다. 통신은 수백개의 중국 입찰 문서들을 자체 분석한 결과 중국 대학, 연구소 등 10개 단체가 미국, 대만 등 업체들이 제조한 서버를 통해 엔비디아 첨단 AI 칩을 확보한 것으로 나타났다고 보도했다. 이는 미국 정부가 과거 대 중국 수출통제 조치 때보다 강도를 높인 수출 규제 조치를 시행한 지난해 11월 이후에 이뤄진 것이라고 로이터는 전했다. 통신은 중국이 엔비디아 칩 확보 경로로 사용한 서버 제조업체로 미국 슈퍼마이크로 컴퓨터, 델 테크놀로지, 대만 기가바이트 테크놀로지 등을 거론했다. 통신이 확인한 입찰 문서들은 중국 공개 데이터베이스에 찾은 것으로, 지난해 11월 20일부터 올해 2월 말 사이에 중국 정부 기관에서 조달한 품목들이 담겨 있다. 미국 정부가 엔비디아와 이 회사 협력업체들이 첨단 칩을 직접 또는 제3자를 통해 중국에 수출하는 것은 금지했지만, 중국에서의 칩 거래는 불법이 아니라고 통신은 짚었다. 칩을 판매
AI 반도체는 대량 데이터를 효율적으로 처리해 AI 성능을 향상시키는 중요한 역할을 한다. 이는 에너지 소비를 최소화하며 비용 효율성과 확장성을 제공한다는 점이 핵심이다. 다시 말해 AI 반도체는 AI 기술 발전을 가속하는 요소다. 이런 이유로 세계 유수의 반도체 기업들이 AI 반도체 개발에 집중하고 있다. 압도적인 GPU 성능으로 AI 반도체 시장을 주도하는 엔비디아, 그 아성에 도전하는 인텔과 삼성전자 등이 그 주인공이다. 저만치 달아난 엔비디아, 따라잡을 수 있을까? 지난 3월, 엔비디아는 반도체 업계에 또 하나의 파장을 일으켰다. 엔비디아는 미국 캘리포니아주 새너제이 SAP 센터에서 열린 개발자 컨퍼런스 ‘GTC(GPU Technology Conference) 2024’에서 새로운 AI 칩을 전 세계에 공개했다. 엔비디아는 2019년 이후 5년 만에 오프라인으로 GTC를 개최해 업계의 화제를 모았다. 이 칩은 새로운 그래픽처리장치(GPU) ‘블랙웰’을 기반으로 한 ‘B100’이었다. 블랙웰은 2년 전 발표된 엔비디아 호퍼 아키텍처의 후속 기술로, B100은 기존 최고 성능을 자랑했던 H100을 뛰어넘는다는 평가다. 엔비디아에 따르면, B100의 연산
일론 머스크 "그록2 훈련에 약 2만 개의 엔비디아 H100 GPU 필요" 테슬라 최고경영자(CEO) 일론 머스크는 8일(현지시간) 첨단 인공지능(AI) 칩 부족으로 AI 개발이 제약되고 있다고 말했다. 머스크는 이날 자신의 사회관계망서비스(SNS) 엑스(X·옛 트위터)에서 진행한 노르웨이 국부펀드 CEO 니콜라이 탕겐과의 인터뷰에서 AI에 대해 언급했다. 머스크는 자신의 AI 스타트업인 xAI가 "5월에 그록의 다음 버전에 대한 학습을 완료하기를 희망한다"면서 첨단 AI 칩 부족으로 그록2 모델 학습에 어려움이 있다고 전했다. 그록은 머스크가 작년 7월 설립한 AI 스타트업 xAI가 대규모 언어 모델(LLM) 그록1을 기반으로 개발해 같은 해 12월 선보인 챗GPT와 같은 AI 챗봇이다. 머스크는 "그록2 훈련에 약 2만 개의 엔비디아 H100 그래픽처리장치(GPU)가 필요하다"며 그록2에 필요한 H100 GPU의 개수를 밝혔다. H100은 AI 칩 선두 주자인 미국 반도체 기업 엔비디아가 개발하는 최신 칩으로 테크 기업들이 확보 경쟁을 벌이고 있다. 개당 3만 달러에 달하며 대규모 언어모델 구동에 수천에서 수만 개가 사용된다. 머스크는 그록2 다음 모델인
투자 규모 늘리는 삼성전자, HBM 생산기지로 미국 낙점한 SK하이닉스 미국 반도체 지원법에 따른 보조금 지급이 가시화하고 인공지능(AI) 반도체 시장의 수요가 증가하면서 국내 반도체 업계가 미국 투자에 속도를 내고 있다. 삼성전자는 미국 반도체 생산 시설에 대한 투자 규모를 종전보다 2배 이상으로 늘리기로 했고, SK하이닉스는 차세대 고대역폭 메모리(HBM) 생산 기지로 인디애나주를 낙점했다. 7일 업계에 따르면 미 일간 월스트리트저널(WSJ)은 5일(현지시간) 삼성전자가 미국 텍사스주에 대한 반도체 투자를 기존 170억 달러(약 23조 원)에서 440억 달러(약 59조5000억 원)로 확대한다고 보도했다. WSJ는 소식통을 인용해 삼성전자가 오는 15일 테일러시에서 이 같은 계획을 발표할 예정이라고 전했다. 앞서 삼성전자는 2021년 텍사스주 테일러에 170억 달러를 투자해 올해 말까지 파운드리 공장을 짓겠다고 발표한 바 있다. 이번 추가 투자를 통해 삼성전자는 현재 짓고 있는 파운드리 공장 옆에 200억 달러를 들여 반도체 생산 시설을 하나 더 짓고, 40억 달러를 투자해 첨단 패키징 시설을 건설할 계획이라고 WSJ는 보도했다. 삼성전자는 이번 WSJ
SMX5 타입 H100 GPU 각 8개씩 탑재한 서버를 대규모 클러스터로 구성해 지코어는 4일 서울 중구 더 플라자호텔에서 '한국 AI시장에 가속도 붙여줄 새로운 시작'이라는 주제로 기자간담회를 갖고, 국내 최초로 엔비디아의 H100을 기반으로 한 AI 퍼블릭 클라우드 서비스를 오픈, 한국시장에 첫 선을 보인다고 밝혔다. 지코어는 기업의 AI 도입과정 모든 단계에 도움을 주기 위해 완전 자동화된 AI 인프라, 다양한 관리도구, 안전한 보안체계 등을 갖춘 클라우드 플랫폼 환경을 서비스하고 있다. 룩셈부르크에 본사를 두고 지코어는 6개 대륙에 걸쳐 자체 글로벌 IT 인프라를 관리하고 있다. 글로벌 네트워크는 전 세계에 걸쳐 안정적인 티어 4 및 티어 3 데이터 센터에 위치한, 총 110Tbps 이상의 용량을 갖춘 160개 이상의 PoP로 구성돼 있다. 이날 기자간담회에는 자크 플리스(Jacques Flies) 주한룩셈부르크 초대 대사 내정자가 참석해 축사를 전했다. 자크 플리스 초대 대사 내정자는 "지코어 한국 진출은 국내 기업에 혁신적인 기술을 전하고 성과에 기여할 것으로 기대된다. 한국-룩셈부르크 간 비즈니스 협력과 투자가 급진적으로 증가하는 가운데, 지코어
효성인포메이션시스템은 히타치 밴타라가 엔비디아와 협력해 혁신적인 차세대 AI 솔루션을 공급한다고 밝혔다. 히타치 밴타라는 엔비디아의 최신 AI 기술에 차세대 스토리지 플랫폼이 결합된 ‘히타치iQ 포트폴리오’를 개발, 생성형 AI 등 새로운 AI 기반 아키텍처를 위한 최상의 기술력을 선보인다. 히타치 iQ 포트폴리오의 첫 제품은 엔비디아 H100 텐서 코어 GPU로 구동되며 엔비디아 DGX BasePOD 인증을 받게 된다. 올 상반기 출시될 이 제품은 엔비디아 AI 엔터프라이즈 소프트웨어를 탑재하고 히타치 밴타라의 초고성능 병렬파일 시스템 ‘HCSF’ 스토리지 기술을 활용, 복잡한 AI 워크로드를 빠르게 지원하며 최고 수준의 AI 인프라 솔루션을 제공한다. 이후에는 엔비디아 H100 및 L40S GPU로 구성된 미드레인지 PCIe기반 제품으로 포트폴리오가 확장될 예정이다. AI 분야에서 가장 영향력 있는 엔비디아와 파트너십을 통해 히타치 밴타라는 기업이 성공적인 AI 환경을 구현하도록 강력한 프레임워크를 제공한다. 더 빠르고 실행 가능한 통찰력을 얻고자 하는 조직에게 AI 워크로드 수요를 원활하게 지원하고 시장 요구사항을 해결하는데 도움을 준다. 히타치 iQ는
‘AMD 라이젠 쓰레드리퍼 프로 7000 WX’ CPU 품은 워크스테이션 데뷔 차세대 AI 워크플로우 대응 가능한 워크스테이션...“성능·발열·설계 등 강점 다 잡았다” AMD부터 애스턴마틴, 드림웍스, 골드먼삭스, SBS까지 협력체계 강조 개인용 컴퓨터(Personal Computer)로 분류되는 워크스테이션은 전문성을 요구하는 개인 작업부터 데이터센터까지 용도에 따른 확장성을 보유한 컴퓨팅 기술이다. 코로나바이러스감염증-19(코로나19) 팬데믹 이후 정체기를 겪은 워크스테이션 시장은 산업 내 인공지능(AI) 융합 트렌드와 함께 성장의 물꼬를 튼 상태로 분석된다. IT 전문 시장조사기관 IDG Korea의 조사에 따르면 IT 기술 도입을 고려하는 기업 및 기관의 약 60%가 차세대 워크스테이션을 업무에 적용할 것이라고 응답했다. 이는 고성능 CPU 및 GPU를 여러 대 장착할 수 있는 워크스테이션 고유의 설계를 통해 AI 추론 및 학습 환경에서의 활약을 기대하는 심리에 기인한 현상으로 풀이된다. ‘AI 시대’ 도래와 함께 전환기를 맞이한 워크스테이션 기술은 AI 기술과 함께 동반성장의 기회를 잡은 것으로 보인다. 글로벌 3대 워크스테이션 업체로 평가받는 레
자연어 이해하고 인간 행동 관찰해 움직임 모방하도록 설계돼 엔비디아가 휴머노이드 로봇을 위한 범용 파운데이션 모델인 ‘프로젝트 GR00T(Project GR00T)’를 발표했다. 프로젝트 GR00T는 로보틱스와 임바디드 AI의 혁신을 주도하기 위한 엔비디아의 노력을 진전시키기 위해 설계됐다. 엔비디아는 이러한 노력의 일환으로 엔비디아 토르 시스템 온 칩(SoC) 기반의 휴머노이드 로봇용 컴퓨터인 젯슨 토르를 새롭게 공개했다. 생성형 AI 파운데이션 모델과 시뮬레이션, AI 워크플로우 인프라를 위한 툴을 포함한 엔비디아 아이작 로봇 플랫폼의 대대적인 업그레이드도 함께 발표했다. 엔비디아의 창립자 겸 CEO 젠슨 황(Jensen Huang)은 "범용 휴머노이드 로봇을 위한 파운데이션 모델을 구축하는 것은 오늘날 AI 분야에서 해결해야 할 가장 흥미로운 문제 중 하나다. 전 세계의 선도적인 로봇 공학자들이 인공 범용 로봇을 향한 큰 도약을 할 수 있도록 지원하는 기술이 하나로 모이고 있다"고 말했다. GR00T은 ‘제너럴리스트 로봇 00 기술’을 뜻한다. GR00T로 구동되는 로봇은 자연어를 이해하고 인간의 행동을 관찰해 움직임을 모방하도록 설계됐다. 또한, 실제
블랙웰 컴퓨팅 플랫폼 비롯해 컴퓨팅 성능 향상이 가져올 기술 발전 논해 엔비디아의 창립자 겸 CEO인 젠슨 황(Jensen Huang)이 지난 19일 오전 5시(한국시간) 실리콘밸리 SAP 센터에서 열린 GTC 기조연설에서 새로운 블랙웰(Blackwell) 컴퓨팅 플랫폼을 비롯해 컴퓨팅 성능 향상이 가져올 기술 발전에 대해 설명했다. 젠슨 황은 강화한 컴퓨팅 성능은 소프트웨어부터 서비스, 로보틱스, 의료 기술에 이르기까지 모든 분야에 놀라운 혁신을 가져올 것이라고 강조했다. 젠슨 황은 "가속 컴퓨팅은 변곡점에 도달했으며 범용 컴퓨팅은 한계에 다다랐다. 우리는 계속해서 컴퓨팅 비용을 낮추면서 지속 가능한 방식으로 더 많은 컴퓨팅을 수행할 수 있도록 끊임없이 확장 가능한 컴퓨팅을 위한 새로운 방법이 필요하다. 가속 컴퓨팅은 모든 산업에서 범용 컴퓨팅에 비해 획기적인 속도 향상을 가져온다"고 말했다. 젠슨 황은 테니스 코트 크기의 40피트(약 12미터) 높이 8K 스크린의 거대한 영상 앞에서 CEO와 개발자, AI 애호가, 창업가들로 가득 찬 관중을 향해 연설했다. 많은 관중들은 행사에 참석하기 위해 새너제이 컨벤션 센터에서 SAP센터의 아레나까지 20분 거리를
900개의 세션과 250개 이상의 전시, 수십 개의 기술 워크숍 등 마련될 예정 엔비디아가 오는 18∼21일(현지시간) 실리콘밸리가 있는 캘리포니아주 새너제이 SAP 센터 등에서 AI 개발자 콘퍼런스(GTC 2024)를 개최한다. 10일 업계에 따르면 코로나19 이후 5년 만에 대면 행사로 열리는 이번 GTC는 지난해보다 두 배가 넘는 역대 최대 규모로 진행된다. 매년 열리는 GTC는 개발자와 커뮤니티를 대상으로 새로운 기술을 소개하는 자리였으나, 이제는 기술 강연을 넘어 지식을 공유하고 혁신을 촉발하는 협업 플랫폼이 되고 있다. 올해 행사에는 900개의 세션과 250개 이상의 전시, 수십 개의 기술 워크숍 등이 마련됐다. 온라인으로도 참석할 수 있어 30만 명 이상의 전 세계 개발자 커뮤니티 회원들이 참석할 것으로 엔비디아는 예상하고 있다. 특히, 엔비디아가 AI 열풍으로 전 세계에서 가장 주목받는 기업에 오른 후 열리는 첫 행사라는 점에서 큰 관심을 끌고 있다. 2022년 말 146달러였던 주가는 14개월여 만에 6배 이상 수준으로 급등하며 지난 8일 기준 875달러에 마감했다. 시가총액도 지난해 6월 1조 달러를 넘은 데 이어 불과 8개월 만인 지난 2
국내 연구진이 인공지능(AI) 등에 널리 사용되는 그래픽 연산 장치(이하 GPU)에서 메모리 크기의 한계로 인해 초병렬 연산의 결과로 대규모 출력 데이터가 발생할 때 이를 잘 처리하지 못하던 난제를 해결했다. 이 기술을 통해 향후 가정에서 사용하는 메모리 크기가 작은 GPU로도 생성형 AI 등 고난이도 연산이 대규모 출력을 필요한 경우 이를 빠르게 수행할 수 있다. KAIST는 전산학부 김민수 교수 연구팀이 한정된 크기의 메모리를 지닌 GPU를 이용해 수십, 수백 만개 이상의 스레드들로 초병렬 연산을 하면서 수 테라바이트의 큰 출력 데이터를 발생시킬 경우에도 메모리 에러를 발생시키지 않고 해당 출력 데이터를 메인 메모리로 고속으로 전송 및 저장할 수 있는 데이터 처리 기술(일명 INFINEL)을 개발했다고 7일 밝혔다. 최근 AI의 활용이 급속히 증가하면서 지식 그래프와 같이 정점과 간선으로 이루어진 그래프 구조의 데이터의 구축과 사용도 점점 증가하고 있는데, 그래프 구조의 데이터에 대해 난이도가 높은 초병렬 연산을 수행할 경우 그 출력 결과가 매우 크고, 각 스레드의 출력 크기를 예측하기 어렵다는 문제점이 발생한다. 또한 GPU는 근본적으로 CPU와 달리
고급 워크로드 지원하는 고성능 AI 및 훈련 솔루션 통해 원격 엣지 컴퓨팅 생산성 향상 슈퍼마이크로컴퓨터(Super Micro Computer, Inc., 이하 슈퍼마이크로)가 AI 솔루션 포트폴리오 확장한다. 이를 통해 공공 장소, 소매점 또는 산업 인프라와 같은 엣지 로케이션에서의 AI 성능 및 기능을 활용을 지원한다고 밝혔다. 슈퍼마이크로의 애플리케이션 최적화 서버는 엔비디아 GPU를 탑재했다. 사전 훈련된 모델의 미세 조정이 수월하도록 지원하고, 데이터가 생성되는 엣지에 AI 추론 솔루션을 배포해 응답 시간 및 의사 결정의 개선을 돕는다. 찰스 리앙(Charles Liang) 슈퍼마이크로 CEO는 “슈퍼마이크로는 가장 광범위한 엣지 AI 솔루션 포트폴리오를 지녀, 고객의 엣지 환경에 맞춰 사전 훈련된 모델을 지원할 수 있다"며, “슈퍼마이크로는 기업이 엣지 로케이션에서 AI 데이터를 처리해 경쟁력을 구축할 수 있도록 업계에 최적화된 솔루션을 지속 제공하고 있다”고 덧붙였다. 아울러 “슈퍼마이크로 하이퍼-E 서버는 5세대 인텔 제온 프로세서 2개를 기반으로 최대 3개의 엔비디아 H100 텐서 코어 GPU 탑재가 가능하며, 이로 인해 엣지 AI에 탁월한
4차 산업혁명은 초지능화, 초연결성, 초융합성을 근간으로 폭발적인 정보처리량을 도출했다. 즉 산술적으로 형용하기 여려운 양의 ‘빅데이터’가 현대인의 삶에 침투했고, 이 양은 매일 약 25억기가바이트(GB)에 해당한다. 쉽게 말해 인류가 지난 5000년 동안 생성한 데이터가 현대에는 하루만에 만들어지는 것이다. 전문가 사이에서는 2025년이 되면 전 세계에서 생성되는 하루 데이터가 463엑사바이트(EB), 약 5000억기가바이트에 이를 것이라고 전망된다. 이처럼 방대한 정보를 처리하기 위해 탄생한 방안이 데이터 센터다. ‘서버 호텔’이라고도 불리는 이 시설은 데이터를 한 데 모아 관리하는 데 목적을 둔다. 현재 전 세계에 구축된 크고 작은 데이터 센터는 약 2000개 이상인 것으로 알려졌다. 이 중 5000대 이상의 서버 구성, 초당 40기가바이트를 처리하는 하이퍼 스케일 데이터 센터는 2021년 말 기준 전 세계 700개를 웃돈다고 시장조사기관 시너지 리서치 그룹(Synergy Research Group)이 발표했다. 이런 데이터 센터는 현재 전 세계 각지에서 우후죽순 설치되는 중이다. 데이터 센터는 각종 최신 고성능 컴퓨팅 기술이 집약된 시설로, 열 관리가
SK텔레콤이 AI 분야 필수 인프라로 손꼽히는 AI 데이터센터(Data Center, 이하 DC) 사업에 본격적으로 나선다. SK텔레콤(이하 SKT)은 AI DC 사업 본격 추진을 위한 첫 번째 글로벌 행보로 그래픽 처리장치(GPU)의 안정적 확보를 위해 글로벌 GPU 클라우드 회사인 람다(Lambda)에 투자를 진행했다고 21일 밝혔다. AI 엔지니어가 설립한 람다는 엔비디아로부터 최신 GPU를 공급 받아 클라우드 서비스를 제공 중이다. 현재 전세계 데이터센터 서버용 GPU 시장은 엔비디아가 독점하고 있어 AI 사업을 추진 중인 빅테크부터 스타트업에 이르기까지 GPU 확보에 많은 공을 쏟고 있다. SKT가 추진 중인 AI DC는 기존 데이터센터가 데이터의 안정적 저장을 위한 물리적 공간을 제공하는 것과 다르게 AI 학습과 추론 등에 필수적인 GPU 서버와 안정적 운영을 위한 전력 공급, 열효율 관리를 위한 냉각시스템을 제공하는 새로운 사업 영역이다. SKT는 유영상 사장이 직접 지난해 12월 서울을 방문한 람다 창업자 겸 CEO인 스티븐 발라반을 만난 데 이어 1월에도 람다의 미국 산호세 본사를 방문해 협상을 진행하는 등 람다 투자를 통한 AI DC 경쟁력
네트워크 카드 개발 위한 인재 영입 및 스타트업 인수 등 활발한 움직임 보여 마이크로소프트(MS)가 자사의 인공지능(AI) 서버 칩 '마이아'의 성능 개선과 엔비디아 의존도를 낮추기 위해 네트워크 카드를 개발 중이라고 로이터통신이 정보통신(IT) 전문매체 디인포메이션을 인용해 20일(현지시간) 보도했다. 디인포메이션은 정통한 소식통의 말을 빌려 MS의 최고경영자(CEO) 사티아 나델라가 네트워크 장비업체 주니퍼 네트웍스의 공동창업자 프라딥 신두를 네트워크 간 컴퓨터 신호를 주고받는데 사용하는 하드웨어인 네트워크 카드 개발을 위해 영입했다고 전했다. MS는 앞서 지난해 신두의 서버 칩 스타트업 펀지블을 인수했다. 이 네트워크 카드는 엔비디아가 AI의 핵심 반도체 칩 그래픽처리장치(GPU)와 함께 판매되는 커넥트X-7 카드와 유사한 것이다. 소식통은 이 장비를 개발하는데 1년 이상이 소요될 수 있으며, 개발에 성공하면 오픈AI가 MS 서버에서 모델을 학습하는데 걸리는 시간을 단축하고 비용도 줄일 수 있다고 설명했다. MS는 이에 대한 확인 요청에 즉각 응하지 않았다고 로이터통신은 전했다. MS는 오픈AI에 수십억 달러를 투자해 오픈AI의 기술을 다양한 제품에 통