엘리스그룹이 한국과학기술정보연구원(KISTI)과 국가데이터교환노드(NDeX) 및 AI 인프라 협력을 위한 업무협약을 체결했다. 이번 협약은 양 기관이 AI 인프라, 데이터센터 운영, 고성능 컴퓨팅 등 분야에서 협력 체계를 구축하고 대규모 AI 모델 개발과 데이터 공유 기반을 강화하기 위한 목적이다. NDeX는 공급자와 소비자 간 대규모 데이터 교환을 위해 구축된 초고성능 네트워크 인프라로, 한국과학기술정보연구원이 2023년부터 운영하고 있다. 기존 인터넷 교환 노드의 대용량 데이터 전송 한계를 개선하고 공공 및 민간의 빅데이터 활용 과제를 해결하기 위한 기반으로 활용된다. KISTI는 국가과학기술연구망을 통해 융합연구를 지원하며 이번 협약을 발판으로 민관 협력을 더욱 확대한다는 계획이다. 엘리스그룹은 모듈형 데이터센터 AI PMDC를 자체 개발하고 이를 기반으로 AI 특화 클라우드 서비스를 제공하는 CSP다. 2024년 2월에는 공공기관 대상 서비스 제공에 필요한 CSAP IaaS 인증을 획득했다. 엘리스는 클라우드 소프트웨어부터 데이터센터 하드웨어까지 독자 기술을 보유하고 있어 이번 협력에 적합한 민간 파트너로 주목받았다. 양 기관은 이번 협약으로 ‘국내
AMD "5세대 AMD 에픽(EPYC) CPU에 대한 실리콘 구현 및 검증 완료" AMD가 자사의 차세대 서버용 프로세서인 코드명 '베니스(Venice)'를 세계 최초로 TSMC의 2나노미터 공정 기술을 적용한 고성능 컴퓨팅(HPC) 반도체로 개발 중이라고 밝혔다. 이 제품은 내년 출시를 목표로 하며, AMD의 데이터 센터 CPU 로드맵에서 전략적 전환점을 상징하는 주요 제품으로 평가된다. AMD는 이번 베니스 테이프아웃을 통해 TSMC와의 협업이 단순한 고객-공급자 관계를 넘어 고성능 반도체의 아키텍처 설계와 제조 공정 최적화를 동시에 실현하는 전략적 파트너십임을 강조했다. AMD는 이와 함께 TSMC의 미국 애리조나 신규 반도체 제조시설인 'Fab 21'에서 5세대 AMD 에픽(EPYC) CPU에 대한 실리콘 구현 및 검증을 성공적으로 완료했다고 전했다. 이는 미국 내 고성능 반도체 생산 역량을 확대하려는 움직임과도 맞물리며 주목받고 있다. AMD 리사 수 CEO는 "TSMC는 AMD의 핵심 파트너로서 고성능 컴퓨팅(HPC) 한계를 확장해나가는 데 있어 매우 중요한 역할을 해 왔다"며, "이번 N2 공정 기반 제품 개발과 미국 내 팹 활용은 AMD가 기술
이전 세대 대비 가상 CPU당 최대 80% 성능 향상 제공 AMD가 자사의 5세대 에픽(EPYC) 프로세서를 구글 클라우드의 차세대 가상 머신(VM) 인스턴스에 성공적으로 공급했다. 현지 시각 4월 9일 발표된 이 소식은 AMD의 최신 서버용 프로세서가 퍼블릭 클라우드 환경에서도 본격적으로 채택되기 시작했음을 알리는 중요한 이정표다. 이번에 새롭게 선보인 구글 클라우드의 C4D와 H4D 인스턴스는 각각 범용 컴퓨팅 워크로드와 고성능 컴퓨팅(HPC) 및 AI 워크로드에 최적화한 제품이다. C4D 인스턴스는 AMD의 최신 아키텍처인 ‘Zen 5’를 기반으로 하며, 구글 클라우드의 자체 테스트 결과에 따르면, 이전 세대 대비 가상 CPU당 최대 80%의 성능 향상을 제공한다. 특히 AI 추론 작업이나 웹 서비스, 데이터 분석과 같은 일반적 클라우드 워크로드에 유용하다. HPC에 특화한 H4D 인스턴스는 AMD 에픽 프로세서와 구글 클라우드의 RDMA(Remote Direct Memory Access) 기술을 기반으로 설계돼 수만 개의 코어 단위로도 성능 저하 없이 확장 가능한 구조를 갖추고 있다. 이는 과학 계산이나 고난이도 AI 트레이닝 등, 연산량이 높은 환경
Mixtral 8x7B Inference 및 Mixture of Experts 벤치마크에서 초당 12만9000개 토큰 생성 슈퍼마이크로가 자사의 NVIDIA HGX B200 8-GPU 시스템으로 글로벌 MLPerf Inference v5.0 벤치마크에서 업계 최고 수준의 AI 추론 성능을 달성하며 AI 컴퓨팅 시장 내 기술력을 입증했다. 슈퍼마이크로 총판사인 디에스앤지는 해당 결과를 발표하며, 슈퍼마이크로가 공랭식과 수랭식 시스템 모두에서 기록적인 성능을 선보인 유일한 시스템 벤더라고 밝혔다. 슈퍼마이크로가 기록한 성과는 Mixtral 8x7B Inference 및 Mixture of Experts 벤치마크에서 초당 12만9000개 토큰을 생성한 것이다. 이 성능은 SYS-421GE-NBRT-LCC와 SYS-A21GE-NBRT 모델(각각 8개의 NVIDIA B200-SXM-180GB 탑재)을 기반으로 구현됐다. 특히 Llama2-70B 및 최신 Llama3.1-405B 모델 추론에서는 이전 세대 시스템 대비 최대 3배에 달하는 처리 속도 향상을 보였고, 대형 모델 추론 기준으로도 초당 1000개 이상의 토큰을 생성하는 등 압도적인 처리량을 기록했다. 슈퍼마이
기존 E5 인스턴스 대비 최대 2배 향상된 비용 대비 성능 제공 AMD의 최신 서버용 CPU인 5세대 에픽(EPYC) 프로세서가 오라클 클라우드 인프라스트럭처(OCI)의 새로운 E6 컴퓨팅 스탠다드 플랫폼에 적용된다. 양사는 이번 협력을 통해 엔터프라이즈, AI, 클라우드 등 다양한 고성능 워크로드에 최적화한 클라우드 인프라를 제공한다는 전략이다. AMD에 따르면, 5세대 에픽 프로세서가 적용된 OCI E6 플랫폼은 기존 E5 인스턴스 대비 최대 2배 향상된 비용 대비 성능을 제공한다. 특히 범용 및 컴퓨팅 집약형 워크로드에 대응하는 수준의 성능과 효율성을 갖췄다는 점에서 주목받고 있다. 이를 기반으로 1000개 이상의 새로운 컴퓨팅 인스턴스 선택권이 고객에게 제공될 예정이다. AMD 서버 비즈니스를 총괄하는 댄 맥나마라 수석 부사장은 “클라우드 파트너들이 AMD의 고성능 솔루션을 채택하는 것은 그만큼 AMD의 기술력이 시장에서 입증되고 있다는 의미”라며, “오라클의 유연한 인프라에 5세대 에픽 프로세서를 결합함으로써 고객들은 핵심 워크로드를 빠르게 실행하면서도 인프라 효율성을 극대화할 수 있다”고 강조했다. 오라클 클라우드 인프라 컴퓨팅 부문 수석 부사장
AMD가 차세대 임베디드 프로세서인 '5세대 에픽 임베디드 9005 시리즈(AMD EPYC Embedded 9005)'를 공식 발표했다. 이번 제품은 최신 젠 5(Zen 5) 아키텍처를 기반으로 높은 성능과 에너지 효율성을 제공하며, 네트워크, 스토리지, 산업용 엣지 컴퓨팅 환경을 위한 최적화된 기능을 갖춘 것이 특징이다. 살릴 라지(Salil Raje) AMD 적응형 및 임베디드 컴퓨팅 부문 수석 부사장은 "AI 기반 네트워크 트래픽 증가와 데이터 스토리지 수요 확대로 인해, 임베디드 플랫폼에서도 더 높은 컴퓨팅 성능이 요구되고 있다"며, "에픽 임베디드 9005 시리즈는 성능, 효율성, 시스템 복원력을 극대화해 ‘올웨이즈온(Always-on)’ 환경에서도 안정적인 운영을 지원한다"고 설명했다. 에픽 임베디드 9005 시리즈는 단일 소켓에서 최대 192코어를 지원하며, 연산 집약적인 임베디드 환경에서 강력한 성능을 제공한다. 네트워크 및 스토리지 워크로드에서 기존 대비 각각 최대 1.3배 및 1.6배 향상된 데이터 처리 성능을 제공하며, 젠 5c 코어 아키텍처를 일부 제품에 적용해 소켓당 처리량을 1.3배 증가시켰다. 또한, 소켓당 최대 6TB DDR5 메
퓨어스토리지가 AI 및 고성능 컴퓨팅(HPC) 환경을 위한 차세대 데이터 스토리지 플랫폼 ‘플래시블레이드//EXA(FlashBlade//EXA)를 공개했다. 이 솔루션은 AI 학습 및 추론, 대규모 HPC 워크로드에서 발생하는 높은 동시성과 방대한 메타데이터 작업을 원활하게 처리할 수 있도록 설계됐다. 초기 테스트 결과, 플래시블레이드//EXA는 단일 네임스페이스에서 초당 10테라바이트(10TB/s) 이상의 읽기 성능을 제공하는 것으로 확인됐다. 이는 AI 및 HPC 환경에서 요구되는 대규모 병렬 처리와 높은 메타데이터 성능을 만족시키며, 스토리지 시스템의 새로운 기준을 제시할 것으로 보인다. AI 모델의 크기와 복잡성이 급격히 증가하면서, 기존 스토리지 아키텍처는 병렬 처리, 동시 읽기·쓰기, 초저지연, 비동기 체크포인팅 등에서 한계를 보이고 있다. 이에 따라 AI 및 HPC 환경을 위한 새로운 차원의 스토리지 확장성과 성능 최적화가 필수적이다. 플래시블레이드//EXA는 메타데이터 병목현상을 제거하고, 고속 데이터 처리를 위한 확장성을 제공한다. 또한 데이터와 메타데이터를 독립적으로 확장할 수 있는 대규모 병렬 아키텍처를 기반으로 AI 모델 학습과 추론 속
레노버 글로벌 테크놀로지 코리아(ISG)가 AI 서비스 공급사 아이크래프트(iCRAFT)와 고성능컴퓨팅(HPC) 및 AI 시장 공략 강화를 위한 파트너십을 체결했다. 레노버는 HPC/AI 시장 공략 강화를 위해 아이크래프트를 전문 협력사로 선정했다고 9일 밝혔다. 이번 파트너십은 고성능컴퓨팅 기술 발전과 산업 혁신에 있어서 중요한 이정표가 될 전망이며 특히 레노버의 액체 냉각 기술이 탑재된 신규 씽크시스템 제품의 수냉식 서버 시장 공략에 박차를 가할 것으로 기대된다고 회사는 전했다. 아이크래프트와의 협력을 바탕으로 레노버는 엔비디아의 GPU및 슈퍼칩을 지원하는 첨단 고성능컴퓨팅(HPC) 및 AI 서버인 씽크시스템 제품군의 국내 시장 공략을 가속화할 예정이다. 특히 ‘씽크시스템 SR780a V3’는 고밀도 HPC/AI 워크로드를 획기적으로 처리하는 수냉식 GPU 서버로, 8개의 엔비디아 GPU 및 NV링크 고속 인터커넥트를 지원한다. 레노버의 6세대 넵튠(Neptune) 액체 냉각 기술에 기반해 최대 95%의 열을 제거하는 등 뛰어난 에너지 효율성과 계산 성능을 보유한 점이 특징이다. 또한 지난달에 출시된 ‘씽크시스템 SC777 V4 넵튠’은 100% 직접 온
레노버(Lenovo)가 지난 18일 미국 아틀란타에서 개최된 ‘슈퍼컴퓨팅 2024’에 참가해 지속가능한 AI 전환을 구현하는 고성능컴퓨팅(HPC) 기술을 선보였다. SC24 발표에서 레노버는 과학 및 기술 연구, 엔지니어링, 비즈니스 등 다방면에서 AI의 잠재력을 극대화할 수 있는 에너지 효율적인 플랫폼 및 솔루션들을 소개했다. 스콧 티즈 레노버 인프라스트럭처 솔루션 그룹(ISG) 제품 총괄 부사장은 “생성형 AI의 시대에 데이터센터는 IT 인프라 및 디지털 경제의 중추로 자리잡고 있다. 데이터센터로 인해 급증하는 에너지 수요에 책임 있게 대응하는 것은 우리 모두의 과제”라며 “레노버 넵튠(Neptune) 액체 냉각 기술의 혁신적인 발전 덕분에 지속가능한 데이터센터 및 AI 워크로드를 구현하는 고성능컴퓨팅이 가능해졌다”고 말했다. 올해 10월 출시된 레노버 씽크시스템(ThinkSystem) SC777 V4 넵튠은 6세대 오픈 루프 및 직접 온수 냉각 기술을 탑재한 첨단 수냉식 서버다. 씽크시스템 SC777 V4넵튠은 엔비디아 GB200 그레이스 블랙웰(Grace Blackwell) NVL4 슈퍼칩을 지원하며, 신속함과 비용 및 에너지 효율성에 기반해 제품 출
넷앱 지능형 데이터 인프라를 엔비디아 고성능 컴퓨팅, 네트워킹 및 소프트웨어와 결합 넷앱이 생성형 AI 프로젝트의 잠재력을 극대화할 수 있는 새로운 기능을 발표했다. 이번 발표를 통해 고객들은 넷앱의 지능형 데이터 인프라를 엔비디아의 고성능 컴퓨팅, 네트워킹 및 소프트웨어와 결합할 수 있어 AI 프로젝트를 발전시키고 경쟁 우위를 확보하게 됐다. 생성형 AI는 번거로운 작업을 자동화하고 새로운 인사이트를 발견하며 제품 혁신을 이끌 수 있어 세계적인 관심을 끌고 있다. 넷앱의 2023 데이터 복잡성 보고서에 따르면, 절반이 넘는 기업이 이미 생성형 AI를 사용하고 있다고 밝혀졌다. 생성형 AI의 잠재력을 이끌어내기 위해서는 복잡한 하이브리드 및 멀티 클라우드 환경 내 산재된 데이터에 고성능의 안전한 액세스가 필요하다. 넷앱은 AI 지원 전문성에서 오랜 성공적인 역사를 가지고 있다. 넷앱은 저장 위치에 관계 없이 어디에서나 간편하게 데이터를 관리하고 새로운 인프라 사일로 없는 고성능을 제공하며 책임 있는 AI를 위한 신뢰할 수 있는 안전한 데이터를 제공하는 솔루션을 지원하고 있다. 아룬쿠마르 구루라잔(Arunkumar Gururajan) 넷앱 데이터 사이언스 및
AI 분야에서 증가하는 지역 내 HPC 리소스 수요 충족하기 위해 설계돼 인텔은 델 테크놀로지스, 엔비디아, 오하이오 슈퍼컴퓨터 센터(이하 OSC)와 협업한 결과로 최첨단 고성능 컴퓨팅(HPC) 클러스터인 '카디널(Cardinal)'을 공개했다. AI와 머신러닝은 과학, 공학, 바이오 의학 분야에서 복잡한 연구 문제를 해결하기 위해 필수적으로 활용되고 있다. 이러한 기술의 효능이 지속적으로 입증되면서 농업 과학, 건축학, 사회학과 같은 학문 분야에서도 활용도 늘어나고 있다. 카디널은 연구, 교육 및 산업 혁신, 특히 인공지능(AI) 분야에서 증가하는 지역 내 HPC 리소스 수요를 충족하기 위해 설계됐다. 카디널 클러스터는 증가하는 AI 워크로드의 수요를 충족하는 하드웨어를 갖췄다. 이 장비는 기능과 용량 면에서 2016년에 출시된 오웬스 클러스터를 대체할 시스템보다 더 대규모의 업그레이드가 될 것으로 보인다. 카디널 클러스터는 메모리 사용량이 많은 HPC 및 AI 워크로드를 효율적으로 관리하는 동시에 프로그래밍 기능, 이식성 및 에코시스템 채택을 촉진하는 기반이 되는 델 파워엣지 서버와 고대역폭 메모리(HBM)를 갖춘 인텔 제온 CPU 맥스 시리즈를 활용한
AI 기반 서비스 고도화, 맞춤형 콘텐츠 생산 비롯해 금융 서비스 개발 주력할 계획 디지털 리얼티는 카카오뱅크의 ‘AI 센터’ 개소식을 1월 30일 오전 서울 상암동 ICN10 데이터 센터에서 개최했다. 카카오뱅크는 AI를 기반으로 금융 혁신을 지원하기 위해 고성능 컴퓨팅(HPC), 고집적 워크로드에 최적화한 인프라와 연결성을 제공하는 디지털 리얼티의 ICN10 데이터 센터를 선택했으며, 카카오뱅크 AI 센터는 AI 기반의 서비스 고도화, 맞춤형 콘텐츠 생산뿐 아니라 금융과 연계한 다양한 서비스 및 신규 서비스 개발을 지원할 예정이다. 최근 생성형 AI가 전 산업의 영역에 걸쳐 본격적으로 활용되기 시작하면서 다양한 글로벌 금융 기관들도 챗 GPT와 같은 생성형 AI 기술의 중요성을 빠르게 인지하고 막대한 비용을 투입해 대규모언어모델(LLM)과 같은 원천 기술의 내재화와 적용에 힘쓰고 있다. 데이터 센터가 생성형 AI와 같이 최신 AI 워크로드를 지원하기 위해서는 충분한 전력 공급량과 서버 냉각 기술이 필수다. AI 서비스는 많은 전력을 소비하는 고성능 컴퓨팅이 필요한데, 전력을 많이 소비할수록 한 공간에 수용 가능한 서버 수가 줄고 높은 발열량 때문에 서버
HBM3e로 초당 4.8테라바이트의 속도로 141GB 메모리 제공 엔비디아가 엔비디아 HGX H200을 출시한다고 밝혔다. 이 플랫폼은 엔비디아 호퍼 아키텍처를 기반으로 고급 메모리가 내장된 엔비디아 H200 텐서 코어 GPU를 탑재하고 있다. 따라서 생성형 AI와 고성능 컴퓨팅 워크로드를 위한 방대한 양의 데이터를 처리한다. 이번 HGX H200 출시로 AI 컴퓨팅 플랫폼을 가속화할 것으로 기대된다. 엔비디아 H200은 HBM3e를 제공하는 최초의 GPU다. HBM3e은 더 빠르고 대용량 메모리로 생성형 AI와 대규모 언어 모델의 가속화를 촉진하는 동시에 HPC 워크로드를 위한 과학 컴퓨팅을 발전시킨다. 엔비디아 H200은 HBM3e를 통해 초당 4.8테라바이트의 속도로 141GB의 메모리를 제공하며, 이전 모델인 엔비디아 A100에 비해 거의 두 배 용량과 2.4배 더 많은 대역폭을 제공한다. 세계 유수 서버 제조업체와 클라우드 서비스 제공업체의 H200 기반 시스템은 2024년 2분기에 출시될 예정이다. 엔비디아 하이퍼스케일과 HPC 담당 부사장인 이안 벅(Ian Buck)은 "생성형 AI와 HPC 애플리케이션으로 인텔리전스를 생성하기 위해서는 대규모의
성능 및 비용 효율성 극대화하고자 하는 AI 전문 기업 지원할 계획 AI 및 성능 집약적인 워크로드용 데이터 플랫폼 소프트웨어 기업인 WEKA(웨카)가 한국 지사 설립을 발표했다. WEKA는 초대 지사장에 김승훈 전 인스퍼 지사장을 선임하고, AI, 머신러닝, 생성형 AI와 고성능 컴퓨팅(HPC)을 통한 기업 전반의 혁신을 도모하는 기업 지원에 나선다고 밝혔다. WEKA는 데이터가 저장, 처리 및 관리되는 방식에 대한 새로운 패러다임을 제시한다. WEKA의 클라우드 네이티브 아키텍처는 대규모의 복잡한 데이터 문제를 해결하도록 설계됐으며, 에지, 코어, 클라우드, 하이브리드 및 멀티 클라우드 환경 전반에 걸쳐 기존 대비 10배에서 100배까지 성능 향상을 돕는다. WEKA는 한국 지사 설립으로 보안 및 프라이버시 문제로부터 자유로운 자체 AI 플랫폼 개발 니즈가 높은 한국 기업을 비롯해 성능 및 비용 효율성을 극대화하고자 하는 AI 전문 기업을 지원할 계획이다. WEKA 데이터 플랫폼은 정체된 데이터 사일로를 동적인 데이터 파이프라인으로 변환해 GPU를 효율적으로 구동하고 성능 집약적인 워크로드를 끊김 없고 지속가능한 방식으로 지원하는 소프트웨어 솔루션이다.
슈나이더 일렉트릭 코리아가 광주과학기술원(GIST) 고성능컴퓨팅(HPC-AI) 기반 공용인프라에 엣지 데이터센터를 도입했다고 4일 밝혔다. 전 세계적으로 HPC기반 AI컴퓨팅 인프라 구축이 경쟁이 활발하다. 전체적인 AI 연구의 방향이 하이퍼스케일로 나아가는 가운데 규모 있는 인프라는 필수적이다. 지스트 HPC-AI 공용인프라는 컴퓨팅 클러스터 운영을 위해 국내 대학 최초로 엔비디아(NVIDIA)의 최신 DGX-A100 GPU 시스템을 도입해 데이터 분석 성능을 높였다. 지스트는 공용 인프라의 운영 효율성과 전력 안정성, 확장성을 해결하기 위해 슈나이더 일렉트릭 엣지 데이터센터 솔루션을 도입했다. 슈나이더 일렉트릭 엣지 데이터센터 솔루션은 전력 안정성, 운영효율성을 위해 하드웨어와 소프트웨어를 갖추고 있으며, 솔루션 제품에 대한 구성 및 프로젝트 수행은 데이터센터 전문기업 데우스시스템즈와 협업해 달성했다. 슈나이더 일렉트릭은 효율적인 인프라 운영 및 안정적인 전력 공급을 위해 슈퍼컴퓨팅 센터 랙(Rack, 선반) 인프라와 전원분배장치(Power Distribution Unit, 이하 PDU)를 설치했다. 슈나이더 일렉트릭 이지 랙 PDU는 표준 랙마운트 규격