SDT는 애니온 테크놀로지스(Anyon Technologies)와 초전도 양자 컴퓨터 구축을 위한 합작법인(JV)을 설립한다고 19일 밝혔다. 양사는 이번 JV 설립과 함께 두 회사의 독보적인 기술 IP와 인프라를 결합해 완성형 양자 컴퓨터 솔루션을 개발, 한국을 비롯한 중동과 동남아시아 등 아시아 전역에 공급함으로써 양자기술을 기반으로 한 차세대 컴퓨팅 시장에서 우위를 선점해 나간다는 계획이다. 이를 위해 한국에 JV를 설립해 한국 내 SDT의 생산 현장과 인프라를 활용해 QPU를 제외한 모든 양자 컴퓨팅 부품의 제조와 조립을 진행하며 한국을 중심으로 한 안정적인 공급망과 제조 체계를 구축해 나가기로 했다. 애니온 테크놀로지스는 2021년부터 대규모 하이브리드 양자-고전 컴퓨팅 환경에서 최고의 확장성과 성능을 발휘할 수 있도록 설계된 고성능 초전도 양자 프로세서와 온칩 제어 기술, 마이크로파 양자 네트워킹 구조 등 다양한 첨단 양자 기술을 개발해오고 있다. 오랜 기술 연구를 통해 초전도 기반 양자 컴퓨팅 분야에서 독점적 IP를 보유하고 있으며 특히 양자 냉동장치인 ‘Dilution Fridge(희석 냉동기)’와 QPU(Quantum Processing Un
슈퍼마이크로컴퓨터가 X14 포트폴리오에 인텔 제온 6900 시리즈 프로세서(P-코어) 기반 고성능 GPU, 다중 노드 및 랙 마운트 서버를 추가한다고 27일 발표했다. 기존의 슈퍼마이크로 X14 서버는 지난 6월에 출시된 인텔 제온 6700 시리즈 프로세서(E-코어)를 활용해 효율성에 최적화됐다. 여기에 워크로드에 최적화된 서버들이 새롭게 추가되면서 업계에서 가장 광범위한 최적화 서버 포트폴리오가 탄생하게 됐다. 새로운 서버는 컴퓨팅 집적도 및 성능을 극대화함으로써 까다로운 AI, HPC, 미디어 및 가상화부터 에너지 효율적인 엣지, 확장형 클라우드 네이티브 및 마이크로 서비스 애플리케이션까지 다양한 워크로드를 지원할 수 있다. 슈퍼마이크로는 조기 배송 프로그램을 통해 일부 고객에게 새로운 서버에 대한 조기 액세스를 제공하고 점프스타트 프로그램(JumpStart Program)으로 원격 액세스를 지원할 예정이다. 찰스 리앙 슈퍼마이크로 사장 겸 CEO는 “슈퍼마이크로 X14 서버는 차세대 CPU, GPU, 최고 대역폭과 최저 지연율을 자랑하는 MRDIMM, PCIe 5.0, EDSFF E1.S 및 E3.S 스토리지 등 최신 기술을 지원하도록 완전히 재설계됐다
100여 명 참여해 핵심 인프라에 대한 최신 트렌드 및 기술에 대해 논의 버티브는 최근 한국에서 개최한 2024 버티브 마스터클래스 행사를 성공적으로 마쳤다고 밝혔다. 버티브 마스터클래스는 컨설팅 엔지니어와 인프라 설계자에게 대화형 토론과 기술 프레젠테이션을 통해 지속적인 교육 및 지식 정보를 제공하기 위해 버티브가 마련한 일련의 교육 프로그램이다. 지난 6월 20일 서울 오크우드 프리미어 코엑스 센터에서 열린 이번 행사에는 데이터 센터 엔지니어, 설계자, 컨설턴트, 건설업계 관계자 등 100여 명이 참여해 핵심 인프라를 변화시키는 최신 트렌드와 기술에 대해 다양하고 심도 깊은 의견을 나눴다. 버티브는 매년 아시아 전역에서 마스터클래스 세션을 개최한다. 올해 한국에서는 국내 및 아시아 지역의 데이터 센터 동향, 인공지능(AI)이 핵심 인프라에 미치는 영향, 고밀도 컴퓨팅 요구 사항을 지원하는 버티브의 최신 전원 및 항온항습 기술 등과 관련한 주제에 초점을 맞췄다. 기조 연설은 버티브 코리아의 김성엽 사장과 데이터 센터 기획, 구축 및 운영 기업인 ㈜데우스의 류기훈 대표이사가 맡았다. 김성엽 사장과 류기훈 대표는 AI와 고성능 컴퓨팅(HPC)의 확산 등 한국과
엔비디아가 생성형 AI를 통해 HPC(고성능 컴퓨팅) 작업을 가속화하며 코드 생성, 기상, 유전학, 재료 과학 분야의 연구를 지원하고 있다고 16일 밝혔다. 생성형 AI는 국가와 기업 연구소에서 비즈니스와 과학을 위한 HPC을 가속화하며 기반을 다지고 있다. 샌디아 국립 연구소(Sandia National Laboratories)는 세계 최대 규모의 슈퍼컴퓨터에서 사용하도록 설계된 병렬 프로그래밍 언어인 코코스(Kokkos)로 코드를 자동으로 생성하는 야심찬 시도를 하고 있다. 여러 국립 연구소의 연구진들이 개발한 이 특수 언어는 수만 대의 프로세서에서 작업을 수행하는 데 필요한 미묘한 부분까지도 처리할 수 있다. 샌디아 국립 연구소의 연구진들은 검색 증강 생성(retrieval-augmented generation, RAG)을 사용해 코코스 데이터베이스를 생성하고 AI 모델과 연결하고 있다. 이들은 다양한 RAG 접근 방식을 실험하면서 초기 테스트에서 긍정적인 결과를 보여주고 있다. 과학자들이 평가하게 될 RAG 옵션 중에는 네모 리트리버(NeMo Retriever)와 같은 클라우드 기반 서비스도 있다. 로버트 훅스트라 샌디아 국립 연구소의 익스트림 스케일
KT가 자동차, 조선, 항공우주, 구조물 등 분야의 제조 R&D 기업에 원활한 시뮬레이션 수행을 지원하는 '엔지니어링 플랫폼 서비스'의 포털을 오픈했다고 5일 밝혔다. KT 엔지니어링 플랫폼 서비스는 고성능 클라우드 컴퓨팅 자원(HPC, High-Performance Computing)과 업계 표준 유동해석 및 구조해석 솔루션을 결합한 해석 시뮬레이션을 제공한다. 제조사의 R&D부서는 웹에서 직접 해석업무 환경 구성과 시점을 정해 제품 생산 이전에 성능, 강도, 내구성 등에 대한 테스트를 진행할 수 있어, 제품 생산을 위한 해석업무를 효율적으로 진행할 수 있다. 또한 제조사들은 KT 엔지니어링 플랫폼 서비스 도입을 통해 기존 해석업무 시스템의 구축형 방식 대비 최대 60% 비용을 절감 할 수 있다고 KT는 설명했다. 사용량에 따른 종량제 과금 방식으로 시스템 도입에 대한 초기 투자 비용 부담이 없으며, 산발적인 해석 업무 발생시에도 유연하게 대응이 가능하다는 장점이 있다. 이와 함께 KT는 엔지니어링 플랫폼 서비스에 웹 기반 콘솔의 자동화를 적용했다. 이를 통해 고객들은 최대 3168 코어에 달하는 HPC 환경을 빠르고 간편하게 구성할 수 있게
12인치 프로젝트 협업 진행 및 600mm PLP 공정 제품 개발도 추진 예정 네패스는 글로벌 팹리스 기업의 전력 반도체 양산을 시작으로 글로벌 HPC 및 자동차 시장 진출의 교두보를 마련했다고 밝혔다. 금번 유치한 신규 고객은 AI 제품 분야 가치사슬에 속한 기업으로서 늘어나는 반도체 수요에 대비하고자 네패스와 전략적 파트너십을 맺은 것으로 알려졌다. 챗GPT 등 생성형 AI 시장의 폭발적인 성장으로 인해 AI 시스템에 사용되는 전력 반도체(PMIC)의 첨단 패키징 수요가 폭증하고 있다. 네패스가 이번 수주로 양산을 시작하는 제품은 AI 칩셋용 전력 반도체며 향후 고성능 컴퓨팅(HPC), 자동차 시장으로 확장되는 첨단 PMIC다. 네패스는 자사 첨단 패키징 라인에서 해당 고객의 제품을 다수 개발 중이며, 지난해 처음 출하한 전력 반도체는 GPU 및 CPU, 컨슈머, IoT 업체들의 AI 칩셋에 탑재된 것으로 확인된다. 해당 제품은 이후 자동차용 ADAS에도 채택 예정이어서 전방 시장 성장에 따른 추가적인 큰 폭의 물량 확대가 예상된다. 최근 양사는 12인치 프로젝트 협업을 진행 중이며, 향후 600mm PLP 공정을 적용한 제품 개발도 추진 예정이다. 이를
AI 분야에서 증가하는 지역 내 HPC 리소스 수요 충족하기 위해 설계돼 인텔은 델 테크놀로지스, 엔비디아, 오하이오 슈퍼컴퓨터 센터(이하 OSC)와 협업한 결과로 최첨단 고성능 컴퓨팅(HPC) 클러스터인 '카디널(Cardinal)'을 공개했다. AI와 머신러닝은 과학, 공학, 바이오 의학 분야에서 복잡한 연구 문제를 해결하기 위해 필수적으로 활용되고 있다. 이러한 기술의 효능이 지속적으로 입증되면서 농업 과학, 건축학, 사회학과 같은 학문 분야에서도 활용도 늘어나고 있다. 카디널은 연구, 교육 및 산업 혁신, 특히 인공지능(AI) 분야에서 증가하는 지역 내 HPC 리소스 수요를 충족하기 위해 설계됐다. 카디널 클러스터는 증가하는 AI 워크로드의 수요를 충족하는 하드웨어를 갖췄다. 이 장비는 기능과 용량 면에서 2016년에 출시된 오웬스 클러스터를 대체할 시스템보다 더 대규모의 업그레이드가 될 것으로 보인다. 카디널 클러스터는 메모리 사용량이 많은 HPC 및 AI 워크로드를 효율적으로 관리하는 동시에 프로그래밍 기능, 이식성 및 에코시스템 채택을 촉진하는 기반이 되는 델 파워엣지 서버와 고대역폭 메모리(HBM)를 갖춘 인텔 제온 CPU 맥스 시리즈를 활용한
KT가 오는 26일부터 29일까지 스페인 바르셀로나에서 열리는 'MWC 2024'에 참가한다고 18일 밝혔다. KT 전시관은 '미래를 만드는 디지털 혁신 파트너 KT'를 주제로 ▲NEXT 5G ▲AI LIFE 총 2개 테마존으로 구성해 차세대 네트워크 기술 및 AI 혁신 기술을 바탕으로 한 KT의 디지털 기술을 소개한다. 먼저 NEXT 5G 존에서 KT는 항공망에 특화된 네트워크 기술을 적용한 UAM 체험 공간과 AI로 안전하게 UAM 교통을 관리하는 지능형 교통관리 시스템을 소개하고, 고객에게 편리성과 보안성을 더해주는 혁신 네트워크 서비스와 기술을 전시한다. KT는 고객이 쉽게 글로벌 사업자망에 접속해 연결성 등 네트워크 자원을 이용하는 '개방형 네트워크 API' 기술과 클라우드 HPC(고성능컴퓨팅) 환경에서 해석 시뮬레이션 솔루션을 제공한 '엔지니어링 플랫폼'을 선보인다. 아울러 유·무선 네트워크의 해킹 방지 기술인 양자암호 통신과 통신 인프라의 전력을 절감한 네트워크 전력 절감 기술 등도 소개할 예정이다. AI LIFE 존에서는 AI 솔루션을 확장해 초거대 AI가 적용된 다양한 사례를 공개한다. 'Generative AI Alliance' 코너는 거대
AI 기반 서비스 고도화, 맞춤형 콘텐츠 생산 비롯해 금융 서비스 개발 주력할 계획 디지털 리얼티는 카카오뱅크의 ‘AI 센터’ 개소식을 1월 30일 오전 서울 상암동 ICN10 데이터 센터에서 개최했다. 카카오뱅크는 AI를 기반으로 금융 혁신을 지원하기 위해 고성능 컴퓨팅(HPC), 고집적 워크로드에 최적화한 인프라와 연결성을 제공하는 디지털 리얼티의 ICN10 데이터 센터를 선택했으며, 카카오뱅크 AI 센터는 AI 기반의 서비스 고도화, 맞춤형 콘텐츠 생산뿐 아니라 금융과 연계한 다양한 서비스 및 신규 서비스 개발을 지원할 예정이다. 최근 생성형 AI가 전 산업의 영역에 걸쳐 본격적으로 활용되기 시작하면서 다양한 글로벌 금융 기관들도 챗 GPT와 같은 생성형 AI 기술의 중요성을 빠르게 인지하고 막대한 비용을 투입해 대규모언어모델(LLM)과 같은 원천 기술의 내재화와 적용에 힘쓰고 있다. 데이터 센터가 생성형 AI와 같이 최신 AI 워크로드를 지원하기 위해서는 충분한 전력 공급량과 서버 냉각 기술이 필수다. AI 서비스는 많은 전력을 소비하는 고성능 컴퓨팅이 필요한데, 전력을 많이 소비할수록 한 공간에 수용 가능한 서버 수가 줄고 높은 발열량 때문에 서버
생성형 AI, HPC 등 수요 증가에 힘입어 높은 성장세 보일 것으로 전망 올해 글로벌 반도체 생산능력이 월 3000만 장을 넘어 역대 최대치를 기록할 것이라는 전망이 나왔다. 국제반도체장비재료협회(SEMI)는 3일 발표한 보고서에서 200㎜ 웨이퍼 환산 기준으로 지난해 전 세계 반도체 생산능력이 전년 대비 5.5% 성장한 월 2960만 장이었고, 올해에는 6.4% 더 성장해 3000만 장을 돌파하겠다고 내다봤다. 작년에는 반도체 시장 수요 감소와 재고 조정으로 생산시설 투자가 위축돼 생산능력 확장이 제한적이었으나 올해에는 첨단 로직 반도체, 생성형 인공지능(AI) 및 고성능 컴퓨팅(HPC) 등의 수요 증가에 힘입어 높은 성장세를 보이겠다고 SEMI는 예측했다. 아짓 마노차 SEMI 최고경영자(CEO)는 "전 세계적으로 시장 수요가 다시 증가하고 있으며, 각국 정부의 지원 정책으로 주요 지역의 팹 투자가 급증하고 있다"며 "국가 및 경제 안보와 관련해 반도체 생산시설의 전략적 중요성에 대한 관심이 높아지면서 이 추세는 이어질 것"이라고 말했다. 중국은 지난해 반도체 생산능력이 전년 대비 12% 증가한 월 760만 장이었으나 올해에는 월 860만 장으로 13%
아마존웹서비스(이하 AWS)는 AWS 리인벤트(re:Invent)에서 중국 최대 자동차 제조사인 상하이자동차 해외지능형모빌리티기술이 i-SMART 커넥티드 차량 플랫폼을 위한 전략적 클라우드 사업자로 AWS를 선정했다고 19일 밝혔다. 상하이자동차는 고성능 컴퓨팅(HPC), 스토리지, 사물인터넷(IoT) 등 AWS의 글로벌 인프라와 기술 포트폴리오를 활용해 i-SMART 커넥티드 차량 플랫폼(이하 SAIC i-SMART)을 구동해 호주, 유럽, 중동, 뉴질랜드, 남미 전역에 걸쳐 50만 대의 차량에 지능형 주행 경험을 제공하고 있다. AWS상에서 실행되는 SAIC i-SMART를 통해 운전자는 전 세계 어디서나 휴대폰으로 차량 내 기능을 모니터링하고 업그레이드할 수 있다. 상하이자동차는 오브젝트 스토리지 서비스인 아마존 S3를 사용해 방대한 양의 차량 데이터를 저장한다. 또한 아마존 RDS(Amazon Relational Database Service)를 통해 차량 데이터에서 추가적인 가치를 추출해 운전 경험을 향상시킬 수 있다. 예를 들어 이 데이터를 사용해 원격 도어 잠금 및 해제는 물론, 운전자가 차량으로 돌아오기 전 실내 예열 또는 냉각과 같은 원격
버티브(Vertiv)는 인텔과 협력해 내년 출시 예정인 혁신적인 신형 인텔 가우디3 인공지능(AI) 가속기를 지원하는 액체 냉각 솔루션을 제공한다고 14일 밝혔다. AI 애플리케이션과 고성능 컴퓨팅(HPC)은 더 많은 양의 열을 방출하기 때문에 보다 효율적이고 친환경적인 냉각 방식을 도입하기 위해 액체 냉각 솔루션으로 전환하는 기업이 점점 더 많아지고 있다. 인텔 가우디3 AI 가속기는 수냉식 및 공랭식 서버를 모두 지원하며, 버티브 P2P(pumped two-phase) 냉각 인프라를 통해 지원될 예정이다. 이 액체 냉각 솔루션은 17°C~45°C(62.6°F~113°F)의 시설 용수를 사용해 최대 160kW의 가속기 전력까지 테스트를 마쳤다. 공랭식 솔루션은 실내 공기 온도가 최대 35°C(95°F)인 데이터센터에 구축할 수 있는 40kW의 열 부하에 대해 테스트를 마쳤다. 이 중간 압력 다이렉트 P2P 냉매 기반 냉각 솔루션은 고객이 열 재사용, 온수 냉각, 프리쿨링(free air cooling) 냉각을 구현함과 동시에, 전력 사용 효율(PUE), 용수 사용 효율(WUE) 및 총 소유 비용(TCO)을 낮출 수 있도록 한다. 버티브의 글로벌 항온항습 사
버티브(Vertiv)가 2024년 주목해야 할 데이터센터 업계 핵심 동향으로 인공지능(AI) 구현과 에너지 관리를 꼽았다. 버티브는 2024년 데이터센터 업계가 AI 기능에 대한 강렬하고 긴급한 수요와 에너지 소비, 비용, 온실가스 배출을 줄여야 한다는 압박에 직면할 것으로 내다봤다. AI의 확산과 함께 AI를 지원하는 컴퓨팅에 내재된 인프라 및 지속 가능성에 대한 과제는 업계 전반에서, 그리고 버티브의 2024년 데이터센터 동향 보고서에서 확인할 수 있다. 지오다노 알베르타치 버티브 CEO는 "데이터센터 밀도와 전력 수요에 대한 AI와 그 하위 영향은 우리 업계의 주요 화두가 됐다"며 "고객이 AI 수요를 지원하고 에너지 소비와 온실가스 배출을 줄일 수 있게 도울 방법을 찾는 것은 데이터센터, 칩 및 서버 제조회사, 인프라 제공회사 간의 새로운 협업을 필요로 하는 중요한 과제"라고 말했다. 버티브의 전문가들이 2024년 데이터센터 생태계를 지배할 것으로 예상하는 주요 동향은 다음과 같다. 데이터센터의 신축 대 개보수 결정의 키를 쥔 AI 애플리케이션 전반에서 AI에 대한 수요가 급증하면서 기업들은 운영 방식을 크게 바꿔야 한다는 압박을 받고 있다. 기존 시
고대역폭 메모리(HBM) 'HBM3E' 비롯해 AI 및 HPC 솔루션 공개 SK하이닉스는 지난 12∼17일(현지시간) 미국 콜로라도주 덴버에서 열린 '슈퍼컴퓨팅 2023(SC 2023)' 콘퍼런스에 참가해 인공지능(AI)과 고성능 컴퓨팅(HPC) 솔루션을 선보였다고 20일 밝혔다. SC 콘퍼런스는 미국 컴퓨터학회(ACM)와 국제전기전자공학회(IEEE) 컴퓨터학회가 1988년부터 개최하는 연례행사다. 글로벌 업계와 학회 등이 모여 HPC, 네트워킹, 스토리지, 데이터 분석 분야의 최신 기술을 공유하는 자리로, SK하이닉스는 올해 처음으로 참가했다. SK하이닉스는 현지 부스에서 AI와 HPC에 특화한 초고성능 고대역폭 메모리(HBM) 제품 HBM3E를 선보여 큰 관심을 받았다고 전했다. HBM3E는 SK하이닉스의 HBM3가 적용된 AI용 고성능 그래픽 처리장치(GPU) 엔비디아 H100과 함께 전시됐다. 대규모 언어모델(LLM) 구현에 특화된 생성형 AI 가속기 AiMX, 유연한 메모리 확장 기능을 통해 HPC 시스템 효율을 극대화하는 CXL 인터페이스 등도 관심을 받았다. 특히 이번에 공개한 '나이아가라 : CXL 분리형 메모리 솔루션' 플랫폼 시제품은 AI와
성능 및 비용 효율성 극대화하고자 하는 AI 전문 기업 지원할 계획 AI 및 성능 집약적인 워크로드용 데이터 플랫폼 소프트웨어 기업인 WEKA(웨카)가 한국 지사 설립을 발표했다. WEKA는 초대 지사장에 김승훈 전 인스퍼 지사장을 선임하고, AI, 머신러닝, 생성형 AI와 고성능 컴퓨팅(HPC)을 통한 기업 전반의 혁신을 도모하는 기업 지원에 나선다고 밝혔다. WEKA는 데이터가 저장, 처리 및 관리되는 방식에 대한 새로운 패러다임을 제시한다. WEKA의 클라우드 네이티브 아키텍처는 대규모의 복잡한 데이터 문제를 해결하도록 설계됐으며, 에지, 코어, 클라우드, 하이브리드 및 멀티 클라우드 환경 전반에 걸쳐 기존 대비 10배에서 100배까지 성능 향상을 돕는다. WEKA는 한국 지사 설립으로 보안 및 프라이버시 문제로부터 자유로운 자체 AI 플랫폼 개발 니즈가 높은 한국 기업을 비롯해 성능 및 비용 효율성을 극대화하고자 하는 AI 전문 기업을 지원할 계획이다. WEKA 데이터 플랫폼은 정체된 데이터 사일로를 동적인 데이터 파이프라인으로 변환해 GPU를 효율적으로 구동하고 성능 집약적인 워크로드를 끊김 없고 지속가능한 방식으로 지원하는 소프트웨어 솔루션이다.