엔비디아가 생성형 AI를 통해 HPC(고성능 컴퓨팅) 작업을 가속화하며 코드 생성, 기상, 유전학, 재료 과학 분야의 연구를 지원하고 있다고 16일 밝혔다. 생성형 AI는 국가와 기업 연구소에서 비즈니스와 과학을 위한 HPC을 가속화하며 기반을 다지고 있다. 샌디아 국립 연구소(Sandia National Laboratories)는 세계 최대 규모의 슈퍼컴퓨터에서 사용하도록 설계된 병렬 프로그래밍 언어인 코코스(Kokkos)로 코드를 자동으로 생성하는 야심찬 시도를 하고 있다. 여러 국립 연구소의 연구진들이 개발한 이 특수 언어는 수만 대의 프로세서에서 작업을 수행하는 데 필요한 미묘한 부분까지도 처리할 수 있다. 샌디아 국립 연구소의 연구진들은 검색 증강 생성(retrieval-augmented generation, RAG)을 사용해 코코스 데이터베이스를 생성하고 AI 모델과 연결하고 있다. 이들은 다양한 RAG 접근 방식을 실험하면서 초기 테스트에서 긍정적인 결과를 보여주고 있다. 과학자들이 평가하게 될 RAG 옵션 중에는 네모 리트리버(NeMo Retriever)와 같은 클라우드 기반 서비스도 있다. 로버트 훅스트라 샌디아 국립 연구소의 익스트림 스케일
덴마크 오덴세 소재 약 6000평 규모 본사 개소 “자동화 혁명 제공할 환경 조성돼...어디서나, 누구에게나 자동화 제공할 것” 유니버설로봇(Universal Robot)과 미르(MiR)가 덴마크 오덴세 소재에 약 6000평 규모의 새로운 본사를 구축했다. 양사는 미국 반도체 장비 업체 테라다인(Teradyne)을 모체로 둔 로보틱스 솔루션 업체로, 이번 본사 구축을 통해 덴마크에서 첨단 로봇 공학 분야의 시너지를 발산할 계획이다. 개소식에는 양사 대표를 비롯해 엔비디아·지멘스 등 유니버설로봇 글로벌 에코시스템 파트너사의 관계자가 참석해 본사 구축을 기념했다. 이 자리에 참석한 디푸 탈라(Deepu Talla) 엔비디아 로보틱스 및 컴퓨팅 부사장, 라이너 브렘(Rainer Brehm) 지멘스 팩토리 오토메이션 CEO, 우즈왈 쿠마르(Ujjwal Kumar) 테라다인 로보틱스 그룹 사장 등이 인공지능(AI) 활용 방향성과 첨단 자동화의 혁신에 대해 토론했다. 쿠마르 대표는 “이번 본사 출범은 테라다인 로보틱스에게 중요한 이정표를 제시할 것”이라며 “우리는 로보틱스 기술 역량을 제고하는 최적의 환경을 갖추게 됐다”고 소감을 전했다. 이어 장 피에르 하토(Jean
서비스나우가 K24(Knowledge 2024)에서 엔비디아, 마이크로소프트, IBM, 에퀴닉스 등과의 협력을 발표했다. 서비스나우는 기업 업무의 프로세스를 혁신하고자 각 파트너의 최첨단 생성형 AI 기능을 서비스나우의 나우 어시스트(Now Assist)에 통합했다고 밝혔다. 디지털 캐릭터를 현실같이 만들어내는 대화형 AI 아바타부터 생산성을 높이는 통합형 AI 어시스턴트, 데이터 기반 인사이트를 제공하는 기업용 언어 모델 등 서비스나우는 각 산업에서 고객 및 직원 경험을 변화시키기 위해 다채로운 파트너 AI 생태계를 본격적으로 구축한다고 전했다. CJ 데사이 서비스나우 최고 운영 책임자(COO)의 K24 기조연설에서는 엔비디아와의 파트너십을 발표했다. 또한 엔비디아 아바타 클라우드 엔진(ACE, Avatar Cloud Engine) 스피치, 대규모 언어 모델(LLM) 및 생성형 AI로 디지털 캐릭터를 생생하게 구현하는 애니메이션 기술을 활용한 AI 아바타를 선보였다. 이번 행사에는 젠슨 황 엔비디아 최고경영자가 기조연설에 참석해 직원 및 고객 경험의 잠재력에 대해 강조하기도 했다. 기조연설에서는 조직 전반의 워크플로우 참여 옵션을 발전시키고 확장하기 위한
개발 주기가 1년으로 단축되는 시장 상황 고려해 2026년 개발될 것으로 예상 SK하이닉스가 7세대 고대역폭 메모리(HBM)인 HBM4E 개발을 이르면 2026년에 완료할 가능성을 시사했다. 김귀욱 SK하이닉스 HBM선행기술팀장은 13일 서울 광진구 워커힐호텔에서 열린 국제메모리워크숍(IMW 2024)에서 "HBM이 4세대(HBM3) 제품까지는 2년 단위로 발전해왔지만, 5세대(HBM3E) 제품 이후로는 1년 주기로 단축되고 있다"고 말했다. 아직 SK하이닉스는 HBM4E 로드맵을 공식화하지 않았으나, 개발 주기가 1년으로 단축되는 시장 상황을 고려하면 2026년에 개발을 마칠 수 있다는 해석이 나온다. SK하이닉스는 엔비디아에 HBM3를 사실상 독점 공급한 데 이어 지난 3월 메모리 업체 중 가장 먼저 HBM3E 8단 제품을 납품하기 시작했다. 이어 HBM3E 12단 제품의 샘플을 이달 중 제공하고 오는 3분기 양산이 가능하도록 준비 중이다. 또 당초 2026년 공급 예정이던 6세대 HBM4 12단 제품을 내년으로 앞당겨 양산할 계획이다. 곽노정 SK하이닉스 최고경영자(CEO)는 지난 2일 기자간담회에서 이 같은 계획을 발표하며 "올해 이후 HBM 시장은
델 테크놀로지스(Dell Technologies)가 레드햇과 협력해 AI 인프라 구축을 간소화하는 턴키 솔루션 ‘레드햇 오픈시프트 AI를 위한 델 에이펙스 클라우드 플랫폼(Dell APEX Cloud Platform for Red Hat OpenShift AI)’을 출시했다고 9일 밝혔다. ‘레드햇 오픈시프트를 위한 델 에이펙스 클라우드 플랫폼’은 완전 통합형 애플리케이션 딜리버리 플랫폼으로서 기업이나 공공기관들이 온프레미스에서 가상 머신과 함께 컨테이너를 구축하고 관리, 운영할 수 있도록 돕는다. 델은 이번에 플랫폼에 ‘레드햇 오픈시프트 컨테이너 플랫폼’에 대한 컨트롤 플레인 호스팅 지원을 추가했다. 관리 비용을 줄이고 클러스터 구축 시간을 단축하며, 워크로드 관리 부담을 줄여 애플리케이션에 온전히 집중할 수 있도록 돕기 위함이다. 레드햇 오픈시프트 AI를 위한 델 에이펙스 클라우드 플랫폼은 기업과 기관에서 더 많은 GPU를 활용해 AI 결과물의 범위를 넓힐 수 있도록 설계됐다. 고유한 요구사항에 부합하는 맞춤형 인프라를 구성할 수 있는 유연성을 제공하며 특히 가장 까다로운 AI 애플리케이션에도 적합한 엔비디아(NVIDIA) L40S GPU를 탑재했다. 규
챗GPT를 시작으로 생성형 AI 수요가 급격히 증가하면서 주목받은 건 단연 엔비디아 GPU였다. 이와 동시에 GPU 메모리 성능을 담당하는 HBM(High Bandwidth Memory)이 또 하나의 블루오션으로 각광받고 있다. 이에 HBM 생산을 담당하는 삼성전자와 SK하이닉스의 행보에 업계의 관심이 쏠린다. 양사는 지속적인 기술 개발을 바탕으로 파트너십을 확대하고 생산량을 증대하는 데 집중하고 있다. 차세대 반도체 시장 이끌 HBM HBM은 고대역폭 메모리 기술로, 특히 대용량 데이터를 처리해야 하는 AI 개발에서 중요성이 두드러진다. 이 기술은 D램보다 빠른 속도로 데이터를 처리하며, 3D 스택 메모리 구조를 사용해 칩 간에 더 많은 데이터 통로를 제공한다. 이는 메모리 칩을 수직으로 쌓아 올려 칩과 칩 사이의 거리를 최소화하고, 대역폭을 극대화하는 방식이다. HBM의 특장점은 속도와 효율성이다. HBM은 그래픽 카드, 서버, 네트워킹 하드웨어 및 AI 계산과 같이 많은 양의 데이터를 빠르게 처리해야 하는 시스템에서 최선의 제품으로 자리잡고 있다. 구체적으로, HBM은 데이터 센터의 에너지 효율성을 향상시켜 운영 비용을 절감하는 데 기여한다. 무엇보다
1분기, MI300 판매 호조로 데이터 센터 부문에서 전년 대비 80% 성장한 23억 달러 기록 AMD가 시장 예상치를 약간 웃도는 지난 1분기 실적을 발표했다. AMD는 지난 1분기 57억4000만 달러(7조9000억 원)의 매출과 주당 0.62달러의 순이익을 기록했다고 30일(현지시간) 밝혔다. 매출과 순이익은 시장조사기관 LSEG가 집계한 월가 전망치 54억6000만 달러와 주당 0.61달러를 약간 웃도는 수치다. 또 매출은 지난해 같은 기간보다 2% 늘어난 수준이다. 2분기 매출은 1년 전보다 6% 성장한 약 57억 달러에 이를 것으로 추정했다. 이는 월가의 전망치와 일치하는 수준이다. AMD는 지난 1분기 자사의 최신 AI 칩인 MI300 판매 호조로 데이터 센터 부문이 전년 대비 80% 성장한 23억 달러를 기록했다고 밝혔다. MI300은 AI 칩 선두 주자인 엔비디아의 H100과 경쟁하는 칩이다. 리사 수 최고경영자(CEO)는 MI300 칩이 마이크로소프트와 메타, 오라클 등에서 사용되고 있다고 설명했다. 또한, 작년 4분기 출시 이후 10억 달러 이상 판매했으며, 올해 AI 칩 매출이 40억 달러에 이를 것으로 전망했다. 이는 지난 1월 전망한
범용 인공지능(AGI)은 인간과 동등한 수준의 지능을 갖춘 인공지능을 의미한다. 이는 특정 작업을 수행하는 인공지능(AI) 시스템을 넘어 인간이 할 수 있는 거의 모든 종류의 지적 작업을 수행하는 능력을 갖춘 것을 의미한다. 현재의 AI 기술력은 분명 AGI로 향하고 있다. 주요 AI 기업들은 시대적 요구를 반영해 기술 향상에 막대한 비용과 인력을 투자하고 있다. 아직은 AGI가 언제 실현될지 누구도 알 수 없다. 다만 머지않아 도래할 AGI 시대를 대비한 준비는 반드시 필요하다. 시작된 여정 ‘AI에서 AGI로’ AI의 기술 진화 단계를 설명할 때 보통 세 가지 과정으로 구분된다. 첫 번째는 인공지능(AI, Artificial Intelligence)이다. 다음 단계는 범용 인공지능 또는 강인공지능(AGI, Artificial General Intelligence), 마지막 단계로 초인공지능(ASI, Artificial Super Intelligence)에 도달한다. 현재는 AI에서 AGI로 가는 과정이라고 볼 수 있다. 무엇보다 생성형 AI 기술의 등장과 보급 및 확대로, AGI를 실현하기 위한 다양한 시도가 진행되고 있다. 이론적으로 AGI는 인간의 지
美연방자문기구 합류…머스크·저커버그는 명단서 빠져 샘 올트먼(오픈AI), 사티아 나델라(마이크로소프트·MS), 순다르 피차이(구글), 젠슨 황(엔비디아) 등 미국 기술 기업 최고경영자(CEO)들이 인공지능(AI)의 안전한 사용을 위해 머리를 맞댄다. 미 국토안보부는 26일(현지시간) AI의 안전한 사용을 위한 연방 자문기구인 AI 안전보안이사회(AI Safety and Security Board)를 발족하고, 자문위원 22명의 명단을 발표했다. 이 기구는 챗GPT로 촉발된 AI 열풍의 부작용을 막고 AI 시스템의 안전한 사용을 위해 설립된 자문기구로, 조 바이든 대통령이 지난해 행정명령을 통해 설립을 지시한 바 있다. 이 기구 설립은 경제, 공중보건 등 중요 산업이 AI로 인한 위협으로 피해를 당하지 않도록 보호하기 위한 것이라고 미국 정부는 설명했다. 명단에는 챗GPT 개발사 올트먼 CEO와 나델라 MS CEO, 피차이 구글 모회사 알파벳 CEO, 젠슨 황 엔비디아 CEO, 리사 수 AMD CEO 등이 이름을 올렸다. 어도비, 델타 항공, 아마존 AWS 클라우드 컴퓨팅 부문 CEO 등과 함께 스탠퍼드대 AI 연구소장, 메릴랜드 주지사, 시애틀 시장 및 시민
지난 4월, 미국 정부가 반도체 기업에 지급하는 보조금 책정이 일단락됐다. 업계에 따르면, 미국 정부는 반도체 기업의 설비 투자를 장려하기 위한 반도체법에 따라 미국에 공장을 짓는 기업에 반도체 생산 보조금과 연구개발(R&D) 지원금을 지원하기로 했다. 이로써 미국 내 파운드리 경쟁이 새로운 국면에 진입한 셈이다. 반도체 고객사인 빅테크가 몰린 미국에서 TSMC를 비롯해 삼성전자, 인텔 등이 참전하는 파운드리 시장 경쟁이 본격화하는 모양새다. 미국내 몸집 키우는 삼성 파운드리 지난 4월 삼성전자는 미국 정부가 자사에 반도체 생산시설 투자 보조금 64억 달러(약 8조9000억 원)를 지원하기로 결정했다고 발표했다. 이에 삼성전자는 미국 텍사스주 테일러시에 170억 달러를 투자해 짓는 파운드리 공장의 규모와 투자 대상을 확대해 총 400억 달러 이상을 투자할 계획이다. 삼성전자는 2022년부터 건설 중인 테일러 공장에 추가로 공장을 짓고, 패키징 시설과 함께 첨단 R&D 시설을 신축해 본격적인 미국 시장 공략에 나선다. 삼성전자의 첫 번째 텍사스 테일러 공장은 2026년부터 4나노미터 및 2나노미터 반도체를 생산할 예정이며 이후 두 번째 공장도 가
WP "AI 붐이 둔화하고 있다는 증거 늘어...투자 대비 수익성 문제도 부각" 엔비디아를 비롯한 인공지능(AI) 관련주 주가 상승세가 최근 주춤한 모습을 보이는 가운데, AI를 둘러싼 거품이 꺼지고 있다는 평가까지 나오고 있다. 미 일간 워싱턴포스트(WP)는 25일(현지시간) 챗GPT 등장 이후 1년 반 동안 이어지는 AI 붐이 둔화하고 있다는 증거가 늘어나며 투입 비용 대비 수익성 등의 문제가 부각되고 있다면서 이같이 보도했다. AI가 인류 존재에 위협이 되거나 인간의 모든 일자리를 대체할 수 있다는 우려는 자취를 감췄고, AI 기술 이용이 확대되려면 여전히 갈 길이 멀고 장애물로 가득 차 있다는 것이다. 그러면서 AI 경쟁에 뛰어든 기업들이 내놓은 제품들도 아직 사람들의 근무나 의사소통 방식을 바꾸지 못했고, AI 모델 개발·운용에 막대한 비용이 들어가지만 이익을 내는 기업은 극소수라고 설명했다. 마이크로소프트(MS)를 비롯한 빅테크들은 고급 인력을 고용하고 데이터 센터를 만드는 등 AI 분야에 수십억 달러를 투자하지만 수익성에는 의문이 제기되고 있다. MS는 코딩을 도와주는 깃허브 코파일럿 사용자가 130만 명에 이른다고 밝히고 있지만, 지금까지 내놓
미국, 대만 등 업체가 제조한 서버 통해 엔비디아 AI 칩 확보한 것으로 보여 중국 대학과 연구기관들이 미국 제재에도 불구하고 최근 재판매 업자 등 제3자를 통해 엔비디아의 첨단 인공지능(AI) 칩을 확보했다고 로이터통신이 23일 보도했다. 통신은 수백개의 중국 입찰 문서들을 자체 분석한 결과 중국 대학, 연구소 등 10개 단체가 미국, 대만 등 업체들이 제조한 서버를 통해 엔비디아 첨단 AI 칩을 확보한 것으로 나타났다고 보도했다. 이는 미국 정부가 과거 대 중국 수출통제 조치 때보다 강도를 높인 수출 규제 조치를 시행한 지난해 11월 이후에 이뤄진 것이라고 로이터는 전했다. 통신은 중국이 엔비디아 칩 확보 경로로 사용한 서버 제조업체로 미국 슈퍼마이크로 컴퓨터, 델 테크놀로지, 대만 기가바이트 테크놀로지 등을 거론했다. 통신이 확인한 입찰 문서들은 중국 공개 데이터베이스에 찾은 것으로, 지난해 11월 20일부터 올해 2월 말 사이에 중국 정부 기관에서 조달한 품목들이 담겨 있다. 미국 정부가 엔비디아와 이 회사 협력업체들이 첨단 칩을 직접 또는 제3자를 통해 중국에 수출하는 것은 금지했지만, 중국에서의 칩 거래는 불법이 아니라고 통신은 짚었다. 칩을 판매
AI 반도체는 대량 데이터를 효율적으로 처리해 AI 성능을 향상시키는 중요한 역할을 한다. 이는 에너지 소비를 최소화하며 비용 효율성과 확장성을 제공한다는 점이 핵심이다. 다시 말해 AI 반도체는 AI 기술 발전을 가속하는 요소다. 이런 이유로 세계 유수의 반도체 기업들이 AI 반도체 개발에 집중하고 있다. 압도적인 GPU 성능으로 AI 반도체 시장을 주도하는 엔비디아, 그 아성에 도전하는 인텔과 삼성전자 등이 그 주인공이다. 저만치 달아난 엔비디아, 따라잡을 수 있을까? 지난 3월, 엔비디아는 반도체 업계에 또 하나의 파장을 일으켰다. 엔비디아는 미국 캘리포니아주 새너제이 SAP 센터에서 열린 개발자 컨퍼런스 ‘GTC(GPU Technology Conference) 2024’에서 새로운 AI 칩을 전 세계에 공개했다. 엔비디아는 2019년 이후 5년 만에 오프라인으로 GTC를 개최해 업계의 화제를 모았다. 이 칩은 새로운 그래픽처리장치(GPU) ‘블랙웰’을 기반으로 한 ‘B100’이었다. 블랙웰은 2년 전 발표된 엔비디아 호퍼 아키텍처의 후속 기술로, B100은 기존 최고 성능을 자랑했던 H100을 뛰어넘는다는 평가다. 엔비디아에 따르면, B100의 연산
마이크로소프트, 엔비디아 등 주요 인공지능(AI) 기업의 관계자를 비롯한 전 세계 전문가들이 서울에 모여 AI 표준화 논의를 진행한다. 산업통상자원부 국가기술표준원은 오는 26일까지 닷새간 서울 중구 대한상공회의소에서 한국, 미국, 영국, 독일, 일본 등 40여개국, 270여명의 전문가가 온오프라인 방식으로 참석하는 가운데 국제표준화기구(ISO)와 국제전기기술위원회(IEC)가 공동으로 주최하는 'AI 국제표준화 총회(ISO/IEC JTC1/SC42)'가 열린다고 22일 밝혔다. 2017년 설립돼 현재 64개국에서 700여명의 전문가가 활동 중인 AI 국제표준화 총회는 자율운행차, 로봇, 의료, 금융 등 AI 응용 산업의 표준을 다루는 다른 위원회의 활동에 지침이 되는 표준을 마련하는 기구다. 총회 산하에는 AI 경영 시스템 등 기반(펀더멘털), 데이터 품질을 비롯한 데이터, AI 시스템의 신뢰성 등을 다루는 5개의 작업반(WG)과 4개의 공동작업반(JWG)이 운영 중이다. 이번 총회에서는 생성형 AI의 윤리 문제를 포함한 AI 성숙도 모델, AI 경영 시스템 가이드 등 산업계가 주목하는 분야에 관한 국제표준 개발 논의가 진행된다. 총회 기간 작업반별 실무 논
아카마이 테크놀로지스는 성장하는 클라우드 포트폴리오에 엔비디아(NVIDIA) GPU 기반의 새로운 미디어 최적화 제품을 추가했다고 22일 밝혔다. 이 새로운 클라우드 기반 서비스는 엔비디아 RTX 4000 Ada Generation GPU를 활용해 비디오 콘텐츠를 더 빠르고 효율적으로 처리해야 하는 미디어 및 엔터테인먼트 업계 기업의 생산성과 경제성을 높여준다. 아카마이가 실시한 내부 벤치마킹 결과 엔비디아 RTX 4000을 사용하는 GPU 기반 인코딩은 기존 CPU 기반 인코딩 및 트랜스코딩 방식보다 FPS(Frame Per Second)를 25배 빠르게 처리하며, 이는 스트리밍 서비스 사업자가 워크로드 문제를 해결하는 데 큰 도움을 준 것으로 나타났다. 미디어 및 엔터테인먼트 기업은 아카마이의 솔루션을 통해 탄력적이고 확장 가능한 아키텍처를 구축하고 전 세계에 분산된 클라우드 플랫폼과 통합 콘텐츠 전송 및 보안 서비스를 활용하는 동시에 더 빠르고 안정적이며 이식성이 뛰어난 워크로드를 배포할 수 있다. 숀 미셸 아카마이 클라우드 제품 담당 부사장은 “미디어 기업은 워크로드의 이식성을 유지하면서 지연 시간이 짧고 안정적인 컴퓨팅 리소스가 필요하다”며 “엔비디