어센드 910C 생산하는 SMIC 수율이 관건인 것으로 알려져 화웨이가 엔비디아에 대항할 새로운 AI 칩을 내년 1분기부터 양산할 예정이라고 로이터통신이 21일 보도했다. 소식통 두 명은 로이터에 "화웨이가 '어센드(Ascend) 910C' 샘플을 일부 IT 기업에 보내 주문받기 시작했다"면서 이같이 밝혔다. 앞서 화웨이는 잠재 고객사에 "910C 성능이 엔비디아 H100 칩에 비견될 만하다"고 설명했다. 다만 어센드 910C를 생산하는 SMIC 수율이 관건인 것으로 알려졌다. 상업성을 갖추기 위해서는 70% 이상의 수율이 필요하지만, 미국의 제재로 최첨단 리소그래피 장비가 부족해 약 20%에 머물러 있다는 것이다. 중국은 현재 미국 주도의 제재로 인해 ASML의 최첨단 극자외선(EUV) 리소그래피 장비에 대한 수입이 막혀 있다. 910C 이전 버전 910B도 수율이 약 50%에 그쳐 화웨이가 생산 목표를 낮췄고 제품 인도도 지연되고 있다고 소식통들은 전했다. 실제로 바이트댄스는 10만 개 이상의 910B 칩을 주문했지만, 지난 7월 기준 3만 개도 받지 못했다. 화웨이에 주문한 다른 기업들도 비슷한 불만을 제기했다. 한 소식통은 "화웨이는 EUV 리소그래피
텐서RT-LLM SDK 기반으로 효율적인 비용으로 모델 배포 지원 엔비디아가 LG AI연구원의 엑사원 3.0에 엔비디아 H100 GPU와 네모 프레임워크가 활용됐다고 밝혔다. 엑사원 3.0은 네모 프레임워크 위에서 LG AI연구원의 독자 기술로 개발되고 학습됐다. 엑사원 3.0은 지난 8월에 발표된 LG AI연구원의 최신 AI 파운데이션 모델로, 한국어와 영어, 코딩 등 13개 벤치마크 점수 순위에서 1위를 차지했다. 특히 메타의 라마 등 글로벌 동급 규모의 오픈소스 AI 모델 대비 한국어와 영어에서도 우수한 벤치마크 성능을 확보했다. 아울러 엑사원 3.0은 연구 목적으로 누구나 자유롭게 활용할 수 있다. 엑사원 3.0은 텐서RT-LLM SDK를 기반으로 효율적인 비용으로 모델을 배포하도록 지원한다. LG AI연구원은 엑사원 3.0을 바탕으로 개발된 엔터프라이즈 AI 에이전트인 '챗엑사원(ChatEXAONE)'도 공개했다. LG 그룹사를 대상으로 오픈 베타 서비스로 우선 출시된 챗엑사원은 기업 사용자의 업무 효율성을 높이고 전문가 수준의 인사이트를 제공한다. LG 그룹사 내에서도 엑사원은 다양하게 활용되고 있다. LG유플러스에서는 엑사원 기반의 통신, 플랫폼
한국과학기술원(KAIST)은 고성능 칩 없이도 인공지능(AI) 모델 학습 속도를 최대 100배 높일 수 있는 기술을 개발했다고 19일 밝혔다. 현재 AI 모델 학습을 위해서는 개당 수천만원에 달하는 엔비디아의 고성능 GPU인 ‘H100’ 여러 개와 이를 연결하기 위해 400Gbps(초당 기가비트)급 고속 네트워크를 갖춘 인프라가 필요하다. 이 때문에 소수의 거대 IT 기업을 제외한 대부분 기업이나 연구자들은 활용하기 쉽지 않다. 한동수 교수 연구팀은 H100 가격의 10분의 1에 불과한 소비자용 GPU를 활용해 고속 전용 네트워크의 수백∼수천분의 1 수준의 저대역폭에서도 효율적인 분산 학습이 가능한 프레임워크 ‘스텔라트레인’(StellaTrain)을 개발했다. 학습을 작업 단계별로 나눠 CPU와 GPU가 병렬적으로 처리할 수 있도록 하고, 네트워크 속도에 맞춰 데이터를 효율적으로 압축·전송하는 알고리즘을 개발해 고속 네트워크 없이도 여러 대의 저가 GPU로 빠른 학습을 가능하게 했다. 스텔라트레인 기술을 사용하면 기존 데이터 병렬 학습에 비해 최대 104배 빠른 성능을 낼 수 있다고 연구팀은 설명했다. 한동수 교수는 “대규모 AI 모델 학습을 누구나 쉽게 접
중국향 AI 반도체 'H20', 향후 몇 달간 100만 개 이상 공급될 예정 엔비디아가 미국의 규제에도 올해 중국에서 120억 달러(16조5000억 원) 상당의 인공지능(AI) 칩을 판매할 것이라는 전망이 나왔다. 반도체 컨설팅 회사인 세미어낼리시스의 추산에 따르면, 엔비디아는 미국의 규제를 벗어나도록 설계된 새 칩 'H20'을 중국 고객에게 앞으로 몇 달 동안 100만 개 이상 공급할 예정이라고 파이낸셜타임스(FT)가 5일 보도했다. H20 칩의 개당 가격은 1만2000달러에서 1만3000달러 사이로, 엔비디아로서는 120억 달러 이상의 매출을 낼 가능성이 있음을 시사한다. 이런 매출 규모는 올해 1월에 끝난 회계연도에 PC 게임용 그래픽 칩을 포함해 중국 사업 전체에서 나온 103억 달러보다 더 많다. 판매 개수는 화웨이가 중국에서 생산한 경쟁 제품인 어센드 910B의 판매 추정치에 비교해 거의 배에 달한다. 엔비디아는 현재 미국과 중국 간 갈등의 한복판에 있다. 미국 행정부는 중국이 군사적 용도의 더욱 강력한 AI 시스템을 갖출 가능성을 우려하며 엔비디아의 반도체 수출을 차단하고 있다. 덩달아 엔비디아는 중국 고객사들이 화웨이와 같은 현지 업체를 찾아
회계연도 1분기 매출과 주당 순이익이 시장 예상치 크게 넘어서 엔비디아 주가가 처음 1000달러를 돌파하며 '천비디아'가 됐다. 23일(현지시간) 뉴욕 증시에서 엔비디아 주가는 전날보다 9.32% 급등한 1037.99달러(약 142만 원)에 거래를 마쳤다. 엔비디아 주가는 전날 시간외 거래에서 1000달러를 넘긴 했지만, 종가 기준으로 1000달러를 넘어선 것은 이번이 처음이다. 전날 949.50달러에서 거래를 마쳤던 주가는 이날 1020달러에서 거래를 시작한 뒤 상승 폭을 확대하며 장중 1063.20달러까지 치솟기도 했다. 작년 말 495.20달러였던 주가는 올해 들어 지속적으로 오르며 지금까지 상승률이 100%를 넘어섰다. 시가총액도 단숨에 2조5530억 달러로 불어나며 3조 달러를 향해 한 발짝 다가섰다. 엔비디아 주가의 이날 급등은 전날 실적 발표에 따른 것이다. 엔비디아의 회계연도 1분기(2∼4월) 매출과 주당 순이익이 시장 예상치를 크게 넘어섰다. 2분기(5∼7월) 매출 역시 월가의 전망치를 웃돌 것으로 예상됐다. 여기에 내달 10일부터 주식을 10분의 1로 분할한다고 발표했다. 2021년 7월 이후 3년 만인 이번 주식 분할은 가장 대폭적인 것이
1분기, MI300 판매 호조로 데이터 센터 부문에서 전년 대비 80% 성장한 23억 달러 기록 AMD가 시장 예상치를 약간 웃도는 지난 1분기 실적을 발표했다. AMD는 지난 1분기 57억4000만 달러(7조9000억 원)의 매출과 주당 0.62달러의 순이익을 기록했다고 30일(현지시간) 밝혔다. 매출과 순이익은 시장조사기관 LSEG가 집계한 월가 전망치 54억6000만 달러와 주당 0.61달러를 약간 웃도는 수치다. 또 매출은 지난해 같은 기간보다 2% 늘어난 수준이다. 2분기 매출은 1년 전보다 6% 성장한 약 57억 달러에 이를 것으로 추정했다. 이는 월가의 전망치와 일치하는 수준이다. AMD는 지난 1분기 자사의 최신 AI 칩인 MI300 판매 호조로 데이터 센터 부문이 전년 대비 80% 성장한 23억 달러를 기록했다고 밝혔다. MI300은 AI 칩 선두 주자인 엔비디아의 H100과 경쟁하는 칩이다. 리사 수 최고경영자(CEO)는 MI300 칩이 마이크로소프트와 메타, 오라클 등에서 사용되고 있다고 설명했다. 또한, 작년 4분기 출시 이후 10억 달러 이상 판매했으며, 올해 AI 칩 매출이 40억 달러에 이를 것으로 전망했다. 이는 지난 1월 전망한
가우디 3 발표와 함께 기업용 AI 구축 위한 에코시스템 형성 및 개방성 강조 인텔코리아가 11일인 오늘 여의도 FKI타워 루비홀에서 '인텔 비전 2024 브리핑'을 진행했다. 인텔 연례행사인 인텔 비전 2024는 지난 9일(현지시간) 미국 애리조나주 피닉스에서 열렸다. 이 행사에서 업계의 이목을 끈 것은 단연 '가우디 3'의 출시 발표였다. 인텔은 가우디 3 가속기와 함께 기업의 생성형 AI 도입 가속화를 위한 새로운 개방형 스케일러블 시스템 스위트, 차세대 제품 및 전략적 협력을 언급했다. 특히 가우디 3는 공통 표준을 따르는 이더넷으로 최대 수만 개의 가속기를 연결해 AI 시스템을 구동할 것으로 보인다. 인텔 가우디 3는 BF16에 대해 4배 더 많은 AI 컴퓨팅 및 기존 모델 대비 1.5배 커진 메모리 대역폭을 지원한다. 인텔은 "가우디 3를 통해 생성형 AI를 대규모로 배포하려는 기업에 AI 학습 및 추론 분야에서 획기적인 도약을 지원할 것"이라고 밝혔다. 가우디 3가 주목받은 이유 중 하나는 엔비디아의 대항마로 떠올랐다는 점이다. 인텔은 엔비디아 H100과 비교하며 "가우디 3는 70억 개 및 130억 개의 매개변수가 있는 라마2 모델과 GPT-3
SMX5 타입 H100 GPU 각 8개씩 탑재한 서버를 대규모 클러스터로 구성해 지코어는 4일 서울 중구 더 플라자호텔에서 '한국 AI시장에 가속도 붙여줄 새로운 시작'이라는 주제로 기자간담회를 갖고, 국내 최초로 엔비디아의 H100을 기반으로 한 AI 퍼블릭 클라우드 서비스를 오픈, 한국시장에 첫 선을 보인다고 밝혔다. 지코어는 기업의 AI 도입과정 모든 단계에 도움을 주기 위해 완전 자동화된 AI 인프라, 다양한 관리도구, 안전한 보안체계 등을 갖춘 클라우드 플랫폼 환경을 서비스하고 있다. 룩셈부르크에 본사를 두고 지코어는 6개 대륙에 걸쳐 자체 글로벌 IT 인프라를 관리하고 있다. 글로벌 네트워크는 전 세계에 걸쳐 안정적인 티어 4 및 티어 3 데이터 센터에 위치한, 총 110Tbps 이상의 용량을 갖춘 160개 이상의 PoP로 구성돼 있다. 이날 기자간담회에는 자크 플리스(Jacques Flies) 주한룩셈부르크 초대 대사 내정자가 참석해 축사를 전했다. 자크 플리스 초대 대사 내정자는 "지코어 한국 진출은 국내 기업에 혁신적인 기술을 전하고 성과에 기여할 것으로 기대된다. 한국-룩셈부르크 간 비즈니스 협력과 투자가 급진적으로 증가하는 가운데, 지코어
엔비디아가 맞춤형 AI 칩 시장 공략에 나선다고 로이터 통신이 소식통을 인용해 9일(현지시간) 보도했다. 소식통에 따르면 엔비디아는 최근 첨단 AI 프로세서 등 클라우드 컴퓨팅 기업 등을 위한 맞춤형 칩 설계에 초점을 둔 새로운 사업부를 구축하고 있다. 현재 엔비디아는 전 세계 AI 칩 시장의 80%를 차지하고 있다. 그러나 가장 많이 사용되는 엔비디아의 H100과 A100 칩은 범용 AI 프로세서 역할을 한다. 이에 많은 기업은 자신들의 특정한 필요를 위한 내부 칩을 개발하고 있다. 엔비디아의 칩이 범용인 까닭에 비용과 에너지가 많이 들기 때문이다. 엔비디아는 자신들의 기술을 이용해 이런 기업들이 데이터센터나 자동차, 5G 무선, 비디오 게임 등 맞춤형 AI 칩을 개발할 수 있도록 도움을 준다는 계획이다. 지난해 전 세계 맞춤형 AI 칩 시장 규모는 약 300억 달러로, 전 세계 칩 매출의 약 5%로 추정되고 있다. 또 데이터센터를 위한 맞춤형 칩 설계는 미 반도체 기업 브로드컴과 마벨이 주도하고 있다. 엔비디아는 맞춤형 AI 칩 시장 진출을 통해 폭발적으로 증가하는 이 시장의 점유율을 높이는 것은 물론, H100과 A100 칩에 대한 대안을 찾는 다른 기
AMD가 발표한 실적, 핵심 시장 수요 약화에 대한 시장 우려 자극해 AMD는 30일(현지시간) 지난해 4분기 실적 호조세와 함께 자신들이 개발한 새 인공지능(AI) 프로세서가 높은 수익을 창출할 것으로 전망했다. 하지만 올해 1분기 매출 전망이 시장의 예상을 밑돌면서 주가는 급락했다. 블룸버그통신과 로이터통신 등에 따르면 AMD는 이날 지난해 4분기 실적 관련 콘퍼런스콜에서 올해 1분기 매출을 약 54억 달러(약 7조2000억 원)로 전망했다. 하지만 이는 애널리스트들이 예상한 57억7000만 달러에 크게 미치지 못한 것으로, PC와 서버, 게임 콘솔, 프로그래머블 프로세서 등 AMD 핵심 시장의 수요 약화에 대한 시장의 우려를 다시 자극했다. 경쟁사 인텔도 지난주 PC와 데이터 센터 반도체 시장에 대해 비관적인 전망을 내놓은 바 있다. 이에 AMD 주가는 시간외 거래에서 한때 6% 이상 급락했다. AMD는 엔비디아가 장악하는 AI 가속기 시장에 진출, 지난달 MI300 프로세서를 출시했으나 시장에서는 이 제품이 엔비디아의 H100 아성에 도전할 정도인지에 대해 확신하지 못하고 있다. 엔비디아는 최근 회계연도에 이 시장 매출이 두배로 증가했다. AMD는 올
美 수출 통제로 생겨난 중국 반도체 암시장에서 조달됐을 가능성 제기돼 미국 당국의 강력한 대 중국 인공지능 수출 규제에도 미 반도체 기업 엔비디아의 인공지능(AI) 반도체가 중국 군과 국영 기관에 공급됐다고 로이터통신이 15일(현지시간) 보도했다. 로이터는 관련 입찰 문서를 인용해 미 정부의 수출 통제 조치 후에도 중국 국영기관 수십 곳이 엔비디아 반도체를 구매한 것으로 확인됐다고 전했다. 미 정부는 2022년 10월 미 기술을 사용한 첨단 반도체 장비나 AI 칩 등의 중국 수출을 포괄적으로 제한하는 수출통제를 발표했다. 지난해 10월에는 저사양 AI 칩도 중국 수출을 금지했다. 엔비디아의 첨단 반도체인 A100과 H100 칩뿐 아니라, 저사양 AI 칩인 A800과 H800도 수출 통제 대상에 들어간다. 그러나 해당 문서에 따르면, 중국 국가 기관이 A100 칩을 100건 조달했고, 지난해 10월 이후에는 A800을 수십 건 구입한 내역이 확인된다고 로이터는 전했다. 하얼빈 공과대학은 딥러닝 모델 훈련 명목으로 작년 5월 A100 칩 6개를 사들였고 중국전자과학기술대는 2022년 12월 A100 칩 1개를 구매했다. 지난달에는 국립칭화대와 중국 공업정보화부
GTC 2024, 내년 3월 18일부터 21일까지 美 캘리포니아주 새너제이서 개최 엔비디아 창립자 겸 CEO인 젠슨 황(Jensen Huang)이 오는 GTC 2024서 기조연설에 나선다고 밝혔다. 젠슨 황 CEO 기조연설은 2024년 3월 19일 화요일 오전 5시(한국 시간)에 생중계되며, 이후 온디맨드로 제공된다. 5년 만에 대면 행사로 열리는 GTC 2024는 2024년 3월 18일부터 21일까지 미국 캘리포니아주 새너제이에서 개최되며, 온라인으로도 참석 가능하다. 이번 콘퍼런스에서는 젠슨 황 CEO 기조연설을 비롯해 업계 리더, 개발자, 연구진 등으로 구성된 연사들이 진행하는 600개 이상의 세션과 200개 이상의 전시가 진행된다. 이로써 참가자들은 AI와 가속 컴퓨팅 등 모든 기술 수준과 관심 영역에 맞는 인사이트를 얻을 것으로 기대된다. 헬로티 서재창 기자 |
전문가들 "AMD가 MI300 칩 생산량 증가한다면 엔비디아 위협할 것" AMD가 새로운 인공지능(AI)용 슈퍼칩을 앞세워 이 부분 시장을 장악하고 있는 엔비디아와 4분기부터 본격적으로 격돌할 전망이다. 1일(현지시간) 로이터통신 등 외신에 따르면, 리사 수 AMD CEO는 이날 올해 4분기부터 MI300 AI칩의 생산을 확대할 예정이라고 밝혔다. 수 CEO는 새 MI300 AI칩에 대해 엔비디아가 생산하지만 공급은 부족한 첨단 H100 칩과 경쟁하기 위해 설계됐다고 강조했다. 그는 "고객들이 MI300 시리즈 칩에 높은 관심을 보이고 있다"며 AMD는 3분기 동안 최상급 클라우드 공급자, 대기업 그리고 많은 AI 회사와의 협력을 확대했다고 덧붙였다. 로이터통신에 따르면, 투자자들은 AMD가 올해 말 관련 제품을 출시하면 급성장하는 첨단 AI칩 시장에서 엔비디아에 강하게 도전할 수 있다고 확신한다. 이 같은 상황에 힘입어 AMD 주가는 4분기에 강세를 보일 것으로 전망된다. 실제로 이날 AMD의 주가는 시간 외 거래에서 3.5%가량 올랐다. AMD는 중국에서 AI칩 판매 기회를 새롭게 모색하는 것으로 알려졌다. AMD는 엔비디아와 인텔 등 주요 경쟁사와 달리
中 현지에서 엔비디아가 책정한 A100 소매가 1만 달러의 두 배 수준으로 팔려 엔비디아의 첨단 반도체에 대한 미국의 수출 규제로 중국에서 관련 밀수 시장이 급성장하고 있다. 28일 홍콩 사우스차이나모닝포스트(SCMP)에 따르면 중국 기업들이 AI 개발에 앞다퉈 뛰어들면서 그에 필요한 엔비디아 그래픽처리장치(GPU) 반도체 수요가 급증했지만, 대체재가 없어 수출금지 품목인 'A100', 'H100' 등 엔비디아 GPU 밀수 시장이 빠르게 커지고 있다. 앞서 지난해 8월 미국 상무부는 중국군이 AI용 GPU 반도체를 사용할 위험이 있다며 엔비디아와 AMD에 관련 반도체의 중국 수출을 금지했다. 이에 따라 엔비디아의 A100과 그 업그레이드 버전인 H100의 중국 수출에 제동이 걸렸다. 엔비디아는 세계 AI용 GPU 시장의 90% 이상을 점유하고 있다. 중국의 알리바바 클라우드와 텐센트 클라우드, 바이두 스마트클라우드, H3C, 인스퍼, 레노버 등이 엔비디아로부터 A100을 공급받아왔다. 알리바바, 텐센트, 바이두, 바이트댄스 등은 모두 '중국판 챗GPT' 개발에 뛰어들었다. 미국의 수출 규제로 인해 엔비디아는 A100과 H100의 데이터 전송 속도 등 성능을
엔비디아 최신 그래픽처리장치(GPU) 8대 우선 도입 코난테크놀로지(이하 코난)가 엔비디아 GPU H100을 통해 자체 개발 초거대 AI 언어모델(Large Language Model 이하 LLM) 확보를 위한 청사진에 한발 더 다가섰다. 전 세계적으로 인공지능(AI)에 대한 투자 및 관심이 뜨거워지고 있는 가운데, 코난은 2023년 3분기 출시를 목표로 자체 LLM 개발에 박차를 가하고 있다. 이를 위해 엔비디아 H100을 도입하기로 했다. GPU는 초거대 언어모델 개발 시 활용되는 필수 부품으로, 코난은 LLM 개발 기간 단축을 위해 H100을 활용한다. 코난 관계자는 H100 도입으로 자체 LMM 개발을 위한 마지막 퍼즐조각을 맞췄다고 평가했다. 김영섬 코난테크놀로지 대표이사는 “자체 개발한 초거대 AI 언어모델을 출시해 B2G 및 B2B 시장에 성공적으로 진출하겠다”는 포부를 드러냈다. 헬로티 최재규 기자 |