HPE는 미국 애틀란타에서 열린 ‘슈퍼컴퓨팅 2024(SC24)’에서 미국 에너지부(DOE) 로렌스 리버모어 국립 연구소(Lawrence Livermore National Laboratory, LLNL)에 세계에서 가장 빠른 슈퍼컴퓨터인 ‘엘 캐피탄(El Capitan)’을 구축했다고 21일 밝혔다. 트리시 댐크로거 HPE HPC 및 AI 인프라 솔루션 부문 수석 부사장 겸 총괄은 “엘 캐피탄은 엑사스케일 슈퍼컴퓨팅의 중요한 이정표를 세웠다”며 “엘 캐피탄은 뛰어난 성능과 에너지 효율성으로 AI 기반 과학적 발견을 가속화하고 국가 안보를 강화하는 동시에 재생 가능 에너지 분야에서 새로운 기회를 창출할 수 있는 역량을 갖추고 있다”고 설명했다. 그는 “미국 에너지부, 국가핵안보국, LLNL 및 AMD와의 강력한 파트너십과 수년간의 연구개발 결과로 이루어진 이 성과를 자랑스럽게 생각하며, 엘 캐피탄이 이끌어낼 미래의 성과와 엔지니어링 혁신이 기대된다”고 말했다. 세계에서 가장 빠른 슈퍼컴퓨터인 엘 캐피탄은 미국이 국가 안보 분야에서 경쟁력을 유지할 수 있도록 지원한다. 국가핵안보국(NNSA)의 연구 기관(LLNL, 샌디아 국립 연구소, 로스앨러모스 국립 연구소)
HPE가 최신 AI 시스템 제조 시설에서 열린 ‘AI 데이(AI Day)’ 행사에서 대규모 AI 배포 시 에너지 및 비용 효율성을 극대화할 수 있는 업계 최초의 100% 팬리스 직접 수냉 방식(Fanless Direct Liquid Cooling, Fanless DLC) 시스템 아키텍처를 발표했다. 이번 행사를 통해 HPE는 기업, 정부, 서비스 제공업체, 모델 제작자 등 다양한 분야에서 AI 전문성과 리더십을 선보였다. 차세대 가속기의 효율성이 향상되고 있지만 AI 채택의 증가로 전력 소비는 계속해서 늘어나 기존의 냉각 기술의 한계를 초과하고 있다. 이에 따라 대규모 AI 워크로드를 운영하는 조직들은 더 효율적인 냉각 기술을 필요로 하고 있다. HPE 관계자는 “차세대 AI 시스템을 냉각하는 최적의 방법은 HPE의 업계 선도적인 DLC를 활용하는 것”이라며 “이 중요한 냉각 기술 덕분에 HPE의 시스템은 세계에서 가장 에너지 효율적인 슈퍼컴퓨터를 선정하는 Green500 리스트의 상위 10대 슈퍼컴퓨터 중 7대를 제공했다”고 강조했다. 100% 팬리스 직접 수냉 방식 아키텍처는 하이브리드 직접 수냉 방식만을 사용할 때보다 서버 블레이드당 냉각 전력 소비를
엔비디아가 엔비디아 DGX SuperPOD 기반 덴마크 최대 소버린 AI 슈퍼컴퓨터 ‘게피온(Gefion)’을 공개했다. 엔비디아 창립자 겸 CEO인 젠슨 황(Jensen Huang)은 덴마크 국왕과 함께 덴마크 최대 규모의 소버린 AI 슈퍼컴퓨터 게피온을 공개했다. 이 슈퍼컴퓨터는 양자 컴퓨팅, 청정 에너지, 생명공학 등 덴마크 사회와 세계에 기여할 수 있는 여러 분야에서 혁신을 목표로 하고 있다. 덴마크의 첫 번째 AI 슈퍼컴퓨터인 게피온은 덴마크 신화에 등장하는 여신의 이름에서 유래했다. 이 슈퍼컴퓨터는 1,528개의 엔비디아 H100 텐서 코어(Tensor Core) GPU로 구동되며, 엔비디아 퀀텀-2 인피니밴드(Quantum-2 InfiniBand) 네트워킹으로 상호 연결된 엔비디아 DGX SuperPOD을 기반으로 한다. 게피온은 세계에서 가장 부유한 자선 재단인 노보 노디스크 재단(Novo Nordisk Foundation)과 덴마크 수출투자기금(Export and Investment Fund of Denmark)의 자금으로 설립된 덴마크 AI 혁신 센터(Danish Center for AI Innovation, DCAI)에서 운영한다. 코펜하
SES AI이 전기 운송 분야의 소재 개발을 가속화하기 위한 획기적인 이니셔티브를 발표했다. 인공지능(AI)에 최적화된 최첨단 슈퍼컴퓨터를 활용해 소분자 세계를 매핑하는 이 선구적인 프로젝트는 배터리 화학에 대한 이해를 새롭게 하고, 에너지 저장 솔루션을 개선하며, 에너지 효율적인 선행기술을 개발하는 것을 목표로 한다. 이 이니셔티브는 엔비디아와 슈퍼마이크로의 기술로 구동되는 크루소의 혁신적인 AI 클라우드 플랫폼을 활용해 과학, 컴퓨팅 및 지속 가능한 컴퓨팅의 교차점에서 차별화된 협력을 선보일 예정이다. 소분자로 이루어진 전해질의 최적화는 리튬메탈 배터리의 잠재력을 극대화하는 데 필수적이다. 지난 30년 동안 배터리 업계는 약 1000개의 유기 분자를 연구하며 99.6% 이상의 쿨롱 효율을 달성했다. 그러나 20개 미만의 원자로 이뤄진 유기 분자는 약 10¹²개, 30개 미만의 원자로 이루어진 유기 분자는 10⁶⁰개에 이를 것으로 추정된다. 이는 배터리 기술을 혁신하고 과학 전반에 큰 변화를 가져올 새로운 분자 발견의 잠재력이 여전히 크다는 것을 보여준다. SES AI는 전기차(EV)와 도심 항공 모빌리티(UAM) 등에 사용되는 최첨단 리튬메탈 배터리 분야
카카오엔터프라이즈는 지난 12일 독일에서 개최된 ‘국제 슈퍼컴퓨팅 컨퍼런스(International Supercomputer Conference)에서 발표한 전 세계 슈퍼컴퓨터 순위 TOP500 내 카카오클라우드가 44위, 70위를 기록했다고 밝혔다. 전 세계 슈퍼컴퓨터 순위 집계로 널리 알려진 TOP500은 1993년 독일과 미국의 대학교수들이 주축이 되어 시작된 프로젝트로 알려졌다. 이후 매년 2차례 6월 독일(International Supercomputing Conference)과 11월 미국(ACM/IEEE Supercomputing Conference)에서 전 세계의 가장 강력한 슈퍼컴퓨터 500대 순위를 발표하고 있다. 카카오클라우드는 올해 처음으로 TOP500에 진출하며 100위권 내에 2종의 슈퍼컴퓨터가 랭크됐다. 44위를 기록한 AMD EPYC, A100 GPU, Infiniband 구성의 카카오클라우드는 21.21PFlops, 70위를 기록한 XEON Platinum, A100 GPU, Infiniband 구성의 카카오클라우드는 15.94PFlops를 기록했다. 순위권의 든 국내 기업 중 클라우드제공사업자(CSP, Cloud Service
세계 최대 파운드리(반도체 수탁생산) 업체인 대만 TSMC가 미국 전기차 업체 테슬라의 슈퍼컴퓨터 '도조'에 탑재할 차세대 반도체 칩 생산을 시작한 것으로 알려졌다. 5일 자유시보 등 대만언론은 소식통을 인용해 TSMC가 최근 미국 캘리포니아주 샌타클래라에서 열린 기술 콘퍼런스에서 이런 사실을 공개했다고 보도했다. 도조는 테슬라 차량이 수집하는 데이터와 영상 자료를 처리해 자율주행 소프트웨어를 훈련하도록 설계된 인공지능(AI) 슈퍼컴퓨터다. 소식통은 TSMC가 테슬라 '도조'의 차세대 교육용 모듈 생산에 들어갔다면서 2027년까지 '칩 온 웨이퍼 온 서브스트레이트'(CoWos)라는 첨단 패키징 공정을 이용해 현재보다 연산 성능이 40배 이상인 복잡한 시스템을 제공할 것이라고 설명했다. 이어 테슬라의 신제품은 미국 스타트업 세레브라스에 공급하는 시스템과는 다르다고 전했다. 다른 소식통은 TSMC가 2027년까지 CoWos 첨단 패키징 공정 기술과 SoIC(System On Intergrated Chips) 첨단 패키징을 통합한 웨이퍼 시스템을 만들 예정이라고 밝혔다. 해당 통합 웨이퍼는 40배의 컴퓨팅 능력, 40개 이상의 포토마스크, 60개 이상의 고대역폭
최대 규모의 엔비디아 DGX 슈퍼팟과 DGX H100 시스템으로 연구 및 신경망 트레이닝 강화 딥엘(DeepL)이 자사의 엔비디아 기반 시스템이 슈퍼컴퓨팅 2023에서 공개된 TOP 500에서 34위를 차지했다고 발표했다. 딥엘 시스템의 연산 능력은 21.85 페타플롭스다. TOP 500 프로젝트는 전 세계에서 가장 강력한 비분산형 컴퓨터 시스템 500대의 순위와 세부 정보를 제공하는 프로젝트다. 딥엘은 지난 8월 엔비디아 DGX 슈퍼팟를 도입해 AI 번역 및 커뮤니케이션 기능을 확장했었다. 델타 컴퓨터 프로덕트에서 공급하는 68개의 엔비디아 DGX H100 시스템과 함께 DGX 슈퍼팟을 추가로 도입한 것이다. 딥엘의 슈퍼컴퓨팅 시스템 규모는 상용 구축으로는 유럽 내 최초 사례다. 신규 도입된 엔비디아 DGX 슈퍼팟은 딥엘의 기존 서버와 함께 신재생 에너지로 구동되는 스웨덴의 친환경 데이터센터에 설치됐다. 딥엘의 엔비디아 DGX 슈퍼팟 도입은 세계에서 가장 앞선 AI 커뮤니케이션 툴을 제공하기 위해 거대 언어 모델을 지속해서 학습시키는 딥엘의 기술적 측면에서의 노력의 일환으로 볼 수 있다. 개별 서버와 함께 작동해 딥엘 제품을 구동하는 고급 신경망을 최적으로
엔비디아가 영국에서 제작되는 슈퍼컴퓨터 이점바드-AI(Isambard-AI)에 엔비디아 GH200 그레이스 호퍼 슈퍼칩(GH200 Grace Hopper Superchip)을 탑재한다고 발표했다. 19세기 영국 엔지니어 이름을 딴 이점바드-AI(Isambard-AI)는 가장 최신 시스템을 갖춘 슈퍼컴퓨터로써, 브리스톨 대학교가 담당한다. 내년 완전 구축 시 이점바드-AI는 엔비디아 GH200 그레이스 호퍼 슈퍼칩 5448개를 탑재할 예정이며, 전 세계 연구자들에게 21엑사플롭(exaflops) 이상의 AI 성능을 제공한다. 이번 발표는 100명 이상의 세계 정부와 기술 선두자들이 모인 AI 안전성 정상회의에서 진행됐다. AI 안정성 정상회의가 열린 영국 블레츨리 파크는 AI의 아버지로 불리는 앨런 튜링과 같은 혁신가들의 연구를 반영한 세계 최초 디지털 프로그래밍 컴퓨터가 탄생한 장소다. 국제 협력을 촉진하기 위해 마련된 AI 안전성 정상회의에서 리시 수낵 영국 총리는 "AI는 산업 혁명, 전기의 등장, 인터넷 탄생만큼이나 광범위한 변화를 가져올 것"이라고 말했다. 이점바드 브루넬의 발명품 중 하나인 최초의 프로펠러 기반 원양 항해선처럼, 그의 이름을 딴 AI
가속 컴퓨팅 리소스를 기다리지 않고 대규모 멀티노드 훈련 워크로드를 손쉽게 개발 엔비디아가 엔비디아 DGX 클라우드로 생성형 AI 훈련에 새 지평을 열었다고 발표했다. 이제 DGX 클라우드는 미국과 영국에 위치한 엔비디아 인프라뿐 아니라 오라클 클라우드 인프라스트럭처에 있는 수천 개의 엔비디아 GPU를 통해 온라인에서도 광범위하게 사용할 수 있다. 지난 3월 엔비디아 GTC 기조연설에서 공개된 DGX 클라우드는 AI 슈퍼컴퓨팅 서비스다. 엔비디아 DGX 클라우드는 대부분의 기업을 AI 기업으로 전환하는 툴을 제공하며, 이를 통해 기업은 생성형 AI와 기타 혁신적인 애플리케이션의 사용을 위해 고급 모델을 훈련할 때 필요한 인프라와 소프트웨어에 즉시 액세스한다. 무어 인사이트 & 스트래티지의 수석 애널리스티인 팻 무어헤드(Pat Moorhead)는 “생성형 AI는 모든 산업 분야의 선도 기업에 신속한 AI 도입을 비즈니스 필수 요소로 만들었으며, 이로 인해 많은 기업이 가속화한 컴퓨팅 인프라를 찾고 있다"고 말했다. 글로벌 경영 컨설팅 업체인 맥킨지는 생성형 AI가 전 세계 산업 전반에 걸친 독점적인 비즈니스 지식을 차세대 AI 애플리케이션으로 전환해 매
사티아 나델라 CEO "AI와 양자의 결합으로 과학적 발견의 새로운 시대 열겠다" 마이크로소프트가 한국시간 22일 과학적 발견을 가속화하기 위한 새로운 양자 서비스를 공개하고, 양자 슈퍼컴퓨터 구축을 위한 로드맵을 발표했다. 마이크로소프트는 이날 화학 회사가 신소재 연구 및 개발 속도를 높이도록 돕는 ‘애저 퀀텀 엘리먼트’와 양자기술에 인공지능(AI)을 적용한 ‘애저 퀀텀 코파일럿’을 소개했다. 사티아 나델라(Satya Nadella) 마이크로소프트 CEO 겸 이사회 의장은 온라인 브리핑을 통해 “AI로 발전된 추론 기능이 가장 보편적인 사용자 인터페이스인 자연어와 결합돼 새 컴퓨팅 시대를 만들며, 최근 양자컴퓨팅의 발전으로 가장 다루기 힘든 문제를 해결할 수 있는 확장 가능한 양자 머신에 대한 약속에 어느 때보다 가까워지고 있다”라며, “오늘 마이크로소프트는 애저 퀀텀 엘리먼트를 발표하고 처음으로 AI와 양자를 결합함으로써 과학적 발견의 새로운 시대를 열게 됐다”라고 전했다. 애저 퀀텀 엘리먼트는 고성능 컴퓨팅(HPC), AI, 양자컴퓨팅의 최신 혁신 기술을 통합해 과학적 발견을 가속화한다. R&D 파이프라인을 가속화하고 혁신 제품을 빠르게 시장에
최신 EPYC 프로세서·인스팅트 가속기 성능으로 슈퍼컴퓨터 시장 점유율 확장 AMD가 국제 슈퍼컴퓨팅 컨퍼런스 2023(이하 ISC 2023)에서 고성능 컴퓨팅(high performance computing, 이하 HPC) 솔루션을 선보였다고 24일 밝혔다. AMD는 다년간 세계적인 슈퍼컴퓨터에 EPYC 프로세서 및 AMD 인스팅트 가속기를 공급해 혁신적이고 친환경적인 솔루션 구축을 지원하고 있다. 최신 탑500 리스트 중 총 121개의 슈퍼컴퓨터에 AMD 솔루션을 제공한다. 포레스트 노로드 AMD 데이터 센터 솔루션 그룹 총괄 수석 부사장은 "AMD는 다양한 분야에서 고객들의 난제 해결을 위해 최상의 HPC 솔루션을 선보이고 있다"며 "AMD EPYC 프로세서 및 인스팅트 가속기의 획기적인 성능과 효율성을 바탕으로 주요 파트너사의 새로운 혁신 및 첨단 연구 활동을 가속화하기 위해 앞장서고 있다"고 밝혔다. AMD 프로세서 및 액셀러레이터가 탑재된 오크리지 국립연구소(Oak Ridge National Laboratory, 이하 ORNL) 소재 프론티어 슈퍼컴퓨터는 세 번 연속으로 세계에서 가장 빠른 슈퍼컴퓨터로 등재됐다. 프론티어 슈퍼컴퓨터는 지난 2022
엔비디아가 엔비디아 그레이스 CPU 슈퍼칩을 기반으로 구축된 슈퍼컴퓨터를 24일 발표했다. 영국 브리스톨 앤 바스 사이언스 파크에 구축될 이점바드(Isambard) 3 슈퍼컴퓨터는 의료 및 과학 연구를 지원하기 위해 384개의 Arm 기반 엔비디아 그레이스 CPU 슈퍼칩을 탑재할 예정이다. 이점바드 3는 이점바드 2 대비 6배 높은 성능과 에너지 효율을 제공하며 유럽 내 가장 에너지 효율이 높은 시스템 중 하나로 자리매김할 전망이다. 이점바드 3는 약 2.7페타플롭(petaflops) FP64 최고 성능을 제공하고 270킬로와트 미만의 전력을 소비해, 세계에서 가장 친환경적인 3대 비가속(non-accelerated) 슈퍼컴퓨터 중 하나가 됐다. 이 프로젝트는 연구 컨소시엄인 GW4 얼라이언스에 속해 있는 브리스톨 대학교가 바스, 카디프, 엑서터 대학교와 함께 주도하고 있다. 이점바드 3는 스위스 국립 슈퍼컴퓨팅 센터와 로스 앨러모스 국립연구소에 구축 중인 GPU 등 추가적인 시스템을 통해, 점점 증가하는 Arm 기반 엔비디아 슈퍼컴퓨터 흐름에 가세했다. 이안 벅 엔비디아 하이퍼스케일 및 HPC 담당 부사장은 "기후 변화가 점차 심각한 문제로 대두됨에 따라
구글 "엔비디아 A100 연결한 슈퍼컴퓨터보다 빠르고 전력 효율적" 구글이 AI 모델을 학습시키기 위해 자체 개발한 AI 슈퍼컴퓨터 'TPU v4'를 공개했다. 5일(현지시간) 미 경제매체 CNBC에 따르면 이 AI 슈퍼컴퓨터에는 구글이 2016년부터 자체적으로 개발해 온 '텐서 프로세싱 유닛(Tensor Processing Units·TPU)'이라는 AI 칩 4000여개가 탑재됐다. 생성형 AI인 챗GPT와 같은 AI 모델을 학습시키기 위해서는 수천 개의 반도체 칩으로 구성된 슈퍼컴퓨터가 필요하다. 현재 AI 모델의 학습 시장은 엔비디아가 90% 이상 장악하고 있다. 전 세계 기업 대부분은 자체 AI 훈련에 엔비디아의 슈퍼컴퓨터를 이용한다. 구글은 2020년부터 이 슈퍼컴퓨터를 운영해왔으며, 지난해 공개한 초대형 언어 모델 'PaLM'도 50일간 이 시스템에서 학습했다고 설명했다. 'PaLM'은 5400억 개의 매개변수를 지닌 언어 모델이다. 특히, 구글은 슈퍼컴퓨터 TPU v4가 엔비디아의 최신 칩 A100을 연결한 슈퍼컴퓨터보다 빠르고 전력 면에서 효율적이라고 강조했다. 구글은 자체 시스템이 엔비디아 슈퍼컴퓨터보다 1.2∼1.7배가량 더 빠르고, 전력
작은 모델은 1억1100만 개, 큰 모델은 130억 개 매개변수 가진 것으로 알려져 챗GPT가 세계적인 열풍을 일으키는 가운데 미국 AI 반도체 스타트업 세레브라스 시스템스가 28일(현지시간) 챗GPT와 유사한 챗봇 7종을 출시했다고 발표했다. 세레브라스는 특히 이번 공개에서 연구·사업 등 영역에서 협업을 촉진하기 위해 프로그램 개발에 필요한 소스코드를 무상으로 공개하는 오픈소스 방식을 채택했다. 로이터통신에 따르면 세레브라스는 자신들의 AI 슈퍼컴퓨터 '안드로메다'가 학습시킨 챗봇 7개 모델을 공개했다. 세레브라스의 창업자이자 최고경영자(CEO) 앤드루 펄드먼은 "막대한 자금이 투입되기에 AI 분야에서 오픈소스로 제공되던 것이 비공개로 바뀌는 흐름은 놀랄 일은 아니다"며 "업계에서 흥분하는 것은 우리가 이룬 진전의 상당 부분을 개방했기 때문"이라고 말했다. 7개 모델 가운데 작은 모델은 1억1100만 개, 큰 모델은 130억 개의 매개변수를 각각 가졌다. 매개변수를 많이 가진 모델일수록 더 복잡한 콘텐츠를 생성할 수 있다. 예를 들어 오픈AI의 챗GPT는 1750억개의 매개변수를 가지고 있어 시(詩) 창작과 연구 등을 해낼 수 있다는 것이다. 펠드먼 CEO
SK텔레콤은 인공지능(AI) 서비스 '에이닷'의 두뇌 역할을 하는 슈퍼컴퓨터 '타이탄'을 기존 대비 2배로 늘렸다고 12일 밝혔다. SKT는 2021년부터 구축해 운영 중인 슈퍼컴퓨터의 GPU를 기존의 2배인 1,040개로 증설했다. 이로써 SKT의 슈퍼컴퓨터는 17.1 페타플롭(Petaflop) 이상의 성능을 갖추게 됐다. 1 페타플롭은 1초에 수학 연산 처리를 1천조 번 한다는 뜻이므로 17.1 페타플롭은 1초당 슈퍼컴퓨터가 1경7,100조 번 연산을 처리한다는 의미다. 이를 통해 에이닷의 더욱 정교한 학습이 가능해졌다고 회사는 설명했다. 김영준 A.추진단 담당은 "슈퍼컴퓨터 확대 구축을 통해 에이닷이 기존보다 더 정교한 학습이 가능해져 사람과 대화 흐름과 답변 완성도가 사람 수준에 가깝도록 개선하는 데 큰 역할을 할 것으로 기대된다"며 "앞으로도 공격적인 R&D 투자, 인프라 확대, 인재 영입 등을 통해 AI 기술 리더십을 선도하기 위해 지속 노력할 것"이라고 말했다. 헬로티 김진희 기자 |