1500여 개 IT 기업이 4500여 부스로 열려...5만 명 이상의 참관객 예상돼 타이베이 국제 컴퓨터 박람회(COMPUTEX 2024, 이하 컴퓨텍스)가 6월 4일 개막을 하루 앞두고 타이베이 난강 전시장 2관에서는 글로벌 프레스 컨퍼런스가 열렸다. 주최 기관인 중화민국대외무역발전협회(TAITRA)와 타이베이컴퓨터협회(TCA)는 오늘 국제 미디어를 대상으로 글로벌 프레스 컨퍼런스를 통해 대만 IT 산업의 위상과 영향력을 아낌없이 선보였다. 무대에 올라선 TAITRA 황즈팡(黃志芳) 회장은 "지금 이 순간, IT 산업인의 모든 시선이 컴퓨텍스에 쏠려 있다. 컴퓨텍스는 단순한 전시회가 아니라 컴퓨팅의 미래가 임박한 곳이다"는 말로 컨퍼런스의 시작을 열었다. 황즈팡 회장은 "우리는 PC에서 인터넷, 모바일, 클라우드를 거쳐 생성형 AI에 이르기까지 컴퓨팅에 대한 끊임없는 성장을 추구해왔다. 결국 인류는 AI라는 또 다른 형태의 지능을 창조했다. 이것은 우리가 이전에 불가능했던 방식을 가능하게 하며, 꿈꾸고 창조하기 위한 수단이 될 것이다"고 말했다. 이어 그는 "오늘날 강력한 반도체는 우리의 상상력을 실현하도록 돕는다. 이를 통해 만들어진 컴퓨팅 파워는 인류를
엔비디아가 폭스콘(Foxconn)에 엔비디아 옴니버스(NVIDIA Omniverse)와 아이작(Isaac) 플랫폼 기반 디지털 트윈을 지원한다고 3일 밝혔다. 전자제품 제조업체 폭스콘은 전 세계에 170개 이상의 공장을 운영하고 있으며, 그중 가장 최신 공장은 최첨단 산업 자동화를 추진하는 가상 공장이다. 이는 멕시코 전자 산업의 중심지인 과달라하라에 구축한 새로운 공장의 디지털 트윈이다. 폭스콘의 엔지니어들은 이 가상 환경에서 프로세스를 정의하고 로봇을 훈련시켜 실제 공장에서 차세대 가속 컴퓨팅 엔진인 엔비디아 블랙웰(Blackwell) HGX 시스템을 높은 효율로 생산할 수 있도록 지원한다. 최적의 조립 라인을 설계하려면 공장 엔지니어는 각각 무게가 수백 파운드에 달하는 수십 개 로봇 팔의 최적의 배치를 찾아야 한다. 전체 공정의 정확한 모니터링을 위해, 네트워크로 연결된 여러 대의 비디오 카메라를 포함한 수천 개의 센서를 매트릭스 형태로 설치해 공장 운영자에게 모든 세부 정보를 제공한다. 류양 웨이 폭스콘 회장은 “우리의 디지털 트윈은 새로운 수준의 자동화와 산업 효율성을 달성해 시간, 비용, 에너지를 절약할 것”이라고 말했다. 폭스콘은 그간의 노력을
서비스나우가 지난 7일부터 9일까지(현지시간) 미국 라스베이거스에서 개최한 ‘서비스나우 K24(Knowledge 24)’의 온디맨드를 공개했다고 3일 밝혔다. 서비스나우 K24 온디맨드는 서비스나우 연례 유저 컨퍼런스 행사인 K24에서 발표한 기조연설을 영상과 더불어 한국어 자막까지 제공한다. 서비스나우는 K24에서 나우 어시스트(Now Assist) 신규 생성형 AI 기능, 자동화 솔루션 및 전략적 파트너십을 발표했다. 역대급 규모로 진행됐던 K24는 기조연설에 이은 신규 솔루션 소개를 포함해 시연 및 다양한 고객사 사례 발표도 함께 진행됐다. 빌 맥더멋 서비스나우 회장 겸 CEO는 ‘사람을 위한 AI 활용(Put AI to work for people)’이라는 주제의 기조연설에서 나우 플랫폼(Now Platform)에 AI 기능을 통합해 워크플로우 자동화와 운영 간소화를 실현했다고 설명했다. 또한 “전세계 모든 산업의 모든 비즈니스에서 업무 프로세스 및 워크플로우가 생성형 AI로 재설계 될 것”이라며 “서비스나우는 인력을 대체하기 위해서가 아닌 가치 있는 업무에 더 많은 시간을 할애할 수 있도록 존재한다”고 전했다. 젠슨 황 엔비디아 최고경영자(CEO)가
키사이트테크놀로지스가 엔비디아 6G리서치 클라우드 플랫폼에서 협업을 진행하고 있다고 30일 밝혔다. 이 플랫폼은 연구원들에게 RAN(Radio Access Network)을 위한 새로운 인공지능 시스템 개발에 필요한 종합적인 도구를 제공하는 상호 연결된 유연한 개방형 프레임워크인 엔비디아 에리얼 옴니버스 디지털 트윈(NVIDIA Aerial Omniverse Digital Twin)을 포함하고 있다. 키사이트 네트워크 에뮬레이션 포트폴리오에 추가된 이 솔루션을 활용해 연구원들은 키사이트의 종합적인 네트워크 에뮬레이션 제품으로 무선 통신 액세스를 최적화하는 새로운 접근법을 개발하고 평가할 수 있다. 6G 연구가 초기 단계에서 급속도로 진행되고 AI 기술의 성숙 속도가 빨라지고 있는 가운데, 6G가 완벽히 AI를 적용한 첫 무선 세대가 될 가능성이 커지고 있다. 네트워크 용량, 속도 및 사용 유형을 높일 수 있도록 최적화된 새로운 AI 알고리즘 접근법을 활용하려면 실제 네트워크 조건에 대한 대규모 에뮬레이션이 요구된다. 상용화 전에 AI 알고리즘을 트레이닝하고 훈련시키고 미세하게 조정하기 위해서는 무선 시스템의 모든 부분을 실제적으로 에뮬레이션하는 도구가 필요하
회계연도 1분기 매출과 주당 순이익이 시장 예상치 크게 넘어서 엔비디아 주가가 처음 1000달러를 돌파하며 '천비디아'가 됐다. 23일(현지시간) 뉴욕 증시에서 엔비디아 주가는 전날보다 9.32% 급등한 1037.99달러(약 142만 원)에 거래를 마쳤다. 엔비디아 주가는 전날 시간외 거래에서 1000달러를 넘긴 했지만, 종가 기준으로 1000달러를 넘어선 것은 이번이 처음이다. 전날 949.50달러에서 거래를 마쳤던 주가는 이날 1020달러에서 거래를 시작한 뒤 상승 폭을 확대하며 장중 1063.20달러까지 치솟기도 했다. 작년 말 495.20달러였던 주가는 올해 들어 지속적으로 오르며 지금까지 상승률이 100%를 넘어섰다. 시가총액도 단숨에 2조5530억 달러로 불어나며 3조 달러를 향해 한 발짝 다가섰다. 엔비디아 주가의 이날 급등은 전날 실적 발표에 따른 것이다. 엔비디아의 회계연도 1분기(2∼4월) 매출과 주당 순이익이 시장 예상치를 크게 넘어섰다. 2분기(5∼7월) 매출 역시 월가의 전망치를 웃돌 것으로 예상됐다. 여기에 내달 10일부터 주식을 10분의 1로 분할한다고 발표했다. 2021년 7월 이후 3년 만인 이번 주식 분할은 가장 대폭적인 것이
삼성전자 "HBM 품질 및 성능 철저한 검증 위해 여러 테스트 수행하고 있어" 삼성전자는 24일 고대역폭 메모리(HBM)와 관련해 "다양한 글로벌 파트너들과 HBM 공급을 위한 테스트를 순조롭게 진행 중"이라고 밝혔다. 일각에서 HBM 5세대인 HBM3E 품질 테스트 통과 여부에 대한 우려가 나오자 공식 입장을 내고 이 같은 우려를 일축한 것이다. 삼성전자는 이날 입장문에서 "현재 다수의 업체와 긴밀하게 협력하며 지속적으로 기술과 성능을 테스트하고 있다"며 "HBM의 품질과 성능을 철저하게 검증하기 위해 다양한 테스트를 수행하고 있다"고 설명했다. 이어 "삼성전자는 모든 제품에 대해 지속적인 품질 개선과 신뢰성 강화를 위해 노력하고 있으며, 이를 통해 고객에게 최상의 솔루션을 제공할 예정"이라고 덧붙였다. 앞서 로이터통신은 이날 복수의 익명 소식통을 인용해 삼성전자가 HBM의 발열과 전력 소비 등의 문제로 엔비디아에 HBM을 납품하기 위한 테스트를 아직 통과하지 못했다고 보도했다. 다만 이 같은 보도 여파로 삼성전자의 주가는 이날 유가증권시장에서 2%대의 낙폭을 보이고 있다. HBM 4세대인 HBM3 시장의 주도권을 SK하이닉스에 넘긴 삼성전자는 올해 초부터
엔비디아는 젠슨 황 엔비디아 창립자 겸 CEO가 지난 20일 ‘델 테크놀로지스 월드 2024’ 기조연설에 참석했다고 22일 밝혔다. 기조연설에서 젠슨 황은 AI가 모든 산업 비즈니스에 새로운 혁신 시대를 예고하고 있다고 전했다. 또한 엔비디아와 델은 ‘델 AI 팩토리(Dell AI Factory)’에 대한 여러 업데이트를 발표했다. 젠슨 황은 델 테크놀로지스 CEO 마이클 델과 연단 위 대담에서 “우리는 이제 ‘인텔리전스(intelligence)’를 생산할 수 있는 능력을 갖추게 됐다”며 “지난 산업 혁명은 소프트웨어 생산이었고 이전에는 전기를 생산했지만 이제는 인텔리전스를 생산하고 있다”고 말했다. 젠슨 황은 마이클 델, 빌 맥더멋 서비스나우 CEO, 황성우 삼성SDS 대표이사와 함께 생성형 AI가 세계 경제와 다양한 산업에 미치는 광범위한 변혁에 대한 인사이트를 공유했다. 젠슨 황은 “모든 기업은 인텔리전스를 기반으로 하고 근본적으로 모든 기업은 인텔리전스 생산업체”라고 강조하며 디지털 인텔리전스를 창출할 수 있는 AI의 잠재력을 피력했다. 엔비디아와 델이 발표한 ‘델 AI 팩토리’에 대한 여러 업데이트에는 엔비디아 블랙웰 텐서 코어 GPU 8개와 수냉식
킨드릴은 AI 기반 인사이트와 비즈니스 성과에 대한 개발, 구축, 사용을 가속화하기 위해 엔비디아와 협력한다고 22일 발표했다. 킨드릴의 AI 기반 오픈 통합 디지털 비즈니스 플랫폼인 킨드릴 브리지(Kyndryl Bridge)는 풀스택 엔비디아 가속 컴퓨팅 및 소프트웨어를 사용하는 고객을 위해 실제 비즈니스 환경에서 AI 개발과 구축을 위한 전체 라이프사이클을 지원할 예정이다. 또한 고객이 생성형 AI 솔루션을 테스트, 검증 및 배포하는 속도를 높이고 신속한 애플리케이션 배포와 운영 경험 향상을 위해 킨드릴 컨설트(Kyndryl Consult)의 도메인 및 산업 전문성을 활용해 나갈 방침이다. 킨드릴은 이번 협력에 따라 각 산업에서 경쟁력을 유지하기 위해 생성형 AI 솔루션을 빠르게 확장하고자 하는 고객에게 중요한 기술과 서비스를 결합해 제공할 예정이다. 킨드릴의 전문성과 엔비디아 기술을 결합함으로써 고객들은 지속적으로 기술을 도입하고 범위를 확장하는 데 중요한 풍부한 전문 지식을 활용할 수 있게 된다. 고객의 미션 크리티컬 IT 운영에서 생성형 AI 솔루션의 도입과 구축을 더욱 가속화하기 위해 킨드릴은 ▲고객 지원 ▲IT 운영 자동화 ▲사기 및 손실 방지
엔비디아가 생성형 AI를 통해 HPC(고성능 컴퓨팅) 작업을 가속화하며 코드 생성, 기상, 유전학, 재료 과학 분야의 연구를 지원하고 있다고 16일 밝혔다. 생성형 AI는 국가와 기업 연구소에서 비즈니스와 과학을 위한 HPC을 가속화하며 기반을 다지고 있다. 샌디아 국립 연구소(Sandia National Laboratories)는 세계 최대 규모의 슈퍼컴퓨터에서 사용하도록 설계된 병렬 프로그래밍 언어인 코코스(Kokkos)로 코드를 자동으로 생성하는 야심찬 시도를 하고 있다. 여러 국립 연구소의 연구진들이 개발한 이 특수 언어는 수만 대의 프로세서에서 작업을 수행하는 데 필요한 미묘한 부분까지도 처리할 수 있다. 샌디아 국립 연구소의 연구진들은 검색 증강 생성(retrieval-augmented generation, RAG)을 사용해 코코스 데이터베이스를 생성하고 AI 모델과 연결하고 있다. 이들은 다양한 RAG 접근 방식을 실험하면서 초기 테스트에서 긍정적인 결과를 보여주고 있다. 과학자들이 평가하게 될 RAG 옵션 중에는 네모 리트리버(NeMo Retriever)와 같은 클라우드 기반 서비스도 있다. 로버트 훅스트라 샌디아 국립 연구소의 익스트림 스케일
덴마크 오덴세 소재 약 6000평 규모 본사 개소 “자동화 혁명 제공할 환경 조성돼...어디서나, 누구에게나 자동화 제공할 것” 유니버설로봇(Universal Robot)과 미르(MiR)가 덴마크 오덴세 소재에 약 6000평 규모의 새로운 본사를 구축했다. 양사는 미국 반도체 장비 업체 테라다인(Teradyne)을 모체로 둔 로보틱스 솔루션 업체로, 이번 본사 구축을 통해 덴마크에서 첨단 로봇 공학 분야의 시너지를 발산할 계획이다. 개소식에는 양사 대표를 비롯해 엔비디아·지멘스 등 유니버설로봇 글로벌 에코시스템 파트너사의 관계자가 참석해 본사 구축을 기념했다. 이 자리에 참석한 디푸 탈라(Deepu Talla) 엔비디아 로보틱스 및 컴퓨팅 부사장, 라이너 브렘(Rainer Brehm) 지멘스 팩토리 오토메이션 CEO, 우즈왈 쿠마르(Ujjwal Kumar) 테라다인 로보틱스 그룹 사장 등이 인공지능(AI) 활용 방향성과 첨단 자동화의 혁신에 대해 토론했다. 쿠마르 대표는 “이번 본사 출범은 테라다인 로보틱스에게 중요한 이정표를 제시할 것”이라며 “우리는 로보틱스 기술 역량을 제고하는 최적의 환경을 갖추게 됐다”고 소감을 전했다. 이어 장 피에르 하토(Jean
서비스나우가 K24(Knowledge 2024)에서 엔비디아, 마이크로소프트, IBM, 에퀴닉스 등과의 협력을 발표했다. 서비스나우는 기업 업무의 프로세스를 혁신하고자 각 파트너의 최첨단 생성형 AI 기능을 서비스나우의 나우 어시스트(Now Assist)에 통합했다고 밝혔다. 디지털 캐릭터를 현실같이 만들어내는 대화형 AI 아바타부터 생산성을 높이는 통합형 AI 어시스턴트, 데이터 기반 인사이트를 제공하는 기업용 언어 모델 등 서비스나우는 각 산업에서 고객 및 직원 경험을 변화시키기 위해 다채로운 파트너 AI 생태계를 본격적으로 구축한다고 전했다. CJ 데사이 서비스나우 최고 운영 책임자(COO)의 K24 기조연설에서는 엔비디아와의 파트너십을 발표했다. 또한 엔비디아 아바타 클라우드 엔진(ACE, Avatar Cloud Engine) 스피치, 대규모 언어 모델(LLM) 및 생성형 AI로 디지털 캐릭터를 생생하게 구현하는 애니메이션 기술을 활용한 AI 아바타를 선보였다. 이번 행사에는 젠슨 황 엔비디아 최고경영자가 기조연설에 참석해 직원 및 고객 경험의 잠재력에 대해 강조하기도 했다. 기조연설에서는 조직 전반의 워크플로우 참여 옵션을 발전시키고 확장하기 위한
개발 주기가 1년으로 단축되는 시장 상황 고려해 2026년 개발될 것으로 예상 SK하이닉스가 7세대 고대역폭 메모리(HBM)인 HBM4E 개발을 이르면 2026년에 완료할 가능성을 시사했다. 김귀욱 SK하이닉스 HBM선행기술팀장은 13일 서울 광진구 워커힐호텔에서 열린 국제메모리워크숍(IMW 2024)에서 "HBM이 4세대(HBM3) 제품까지는 2년 단위로 발전해왔지만, 5세대(HBM3E) 제품 이후로는 1년 주기로 단축되고 있다"고 말했다. 아직 SK하이닉스는 HBM4E 로드맵을 공식화하지 않았으나, 개발 주기가 1년으로 단축되는 시장 상황을 고려하면 2026년에 개발을 마칠 수 있다는 해석이 나온다. SK하이닉스는 엔비디아에 HBM3를 사실상 독점 공급한 데 이어 지난 3월 메모리 업체 중 가장 먼저 HBM3E 8단 제품을 납품하기 시작했다. 이어 HBM3E 12단 제품의 샘플을 이달 중 제공하고 오는 3분기 양산이 가능하도록 준비 중이다. 또 당초 2026년 공급 예정이던 6세대 HBM4 12단 제품을 내년으로 앞당겨 양산할 계획이다. 곽노정 SK하이닉스 최고경영자(CEO)는 지난 2일 기자간담회에서 이 같은 계획을 발표하며 "올해 이후 HBM 시장은
델 테크놀로지스(Dell Technologies)가 레드햇과 협력해 AI 인프라 구축을 간소화하는 턴키 솔루션 ‘레드햇 오픈시프트 AI를 위한 델 에이펙스 클라우드 플랫폼(Dell APEX Cloud Platform for Red Hat OpenShift AI)’을 출시했다고 9일 밝혔다. ‘레드햇 오픈시프트를 위한 델 에이펙스 클라우드 플랫폼’은 완전 통합형 애플리케이션 딜리버리 플랫폼으로서 기업이나 공공기관들이 온프레미스에서 가상 머신과 함께 컨테이너를 구축하고 관리, 운영할 수 있도록 돕는다. 델은 이번에 플랫폼에 ‘레드햇 오픈시프트 컨테이너 플랫폼’에 대한 컨트롤 플레인 호스팅 지원을 추가했다. 관리 비용을 줄이고 클러스터 구축 시간을 단축하며, 워크로드 관리 부담을 줄여 애플리케이션에 온전히 집중할 수 있도록 돕기 위함이다. 레드햇 오픈시프트 AI를 위한 델 에이펙스 클라우드 플랫폼은 기업과 기관에서 더 많은 GPU를 활용해 AI 결과물의 범위를 넓힐 수 있도록 설계됐다. 고유한 요구사항에 부합하는 맞춤형 인프라를 구성할 수 있는 유연성을 제공하며 특히 가장 까다로운 AI 애플리케이션에도 적합한 엔비디아(NVIDIA) L40S GPU를 탑재했다. 규
챗GPT를 시작으로 생성형 AI 수요가 급격히 증가하면서 주목받은 건 단연 엔비디아 GPU였다. 이와 동시에 GPU 메모리 성능을 담당하는 HBM(High Bandwidth Memory)이 또 하나의 블루오션으로 각광받고 있다. 이에 HBM 생산을 담당하는 삼성전자와 SK하이닉스의 행보에 업계의 관심이 쏠린다. 양사는 지속적인 기술 개발을 바탕으로 파트너십을 확대하고 생산량을 증대하는 데 집중하고 있다. 차세대 반도체 시장 이끌 HBM HBM은 고대역폭 메모리 기술로, 특히 대용량 데이터를 처리해야 하는 AI 개발에서 중요성이 두드러진다. 이 기술은 D램보다 빠른 속도로 데이터를 처리하며, 3D 스택 메모리 구조를 사용해 칩 간에 더 많은 데이터 통로를 제공한다. 이는 메모리 칩을 수직으로 쌓아 올려 칩과 칩 사이의 거리를 최소화하고, 대역폭을 극대화하는 방식이다. HBM의 특장점은 속도와 효율성이다. HBM은 그래픽 카드, 서버, 네트워킹 하드웨어 및 AI 계산과 같이 많은 양의 데이터를 빠르게 처리해야 하는 시스템에서 최선의 제품으로 자리잡고 있다. 구체적으로, HBM은 데이터 센터의 에너지 효율성을 향상시켜 운영 비용을 절감하는 데 기여한다. 무엇보다
1분기, MI300 판매 호조로 데이터 센터 부문에서 전년 대비 80% 성장한 23억 달러 기록 AMD가 시장 예상치를 약간 웃도는 지난 1분기 실적을 발표했다. AMD는 지난 1분기 57억4000만 달러(7조9000억 원)의 매출과 주당 0.62달러의 순이익을 기록했다고 30일(현지시간) 밝혔다. 매출과 순이익은 시장조사기관 LSEG가 집계한 월가 전망치 54억6000만 달러와 주당 0.61달러를 약간 웃도는 수치다. 또 매출은 지난해 같은 기간보다 2% 늘어난 수준이다. 2분기 매출은 1년 전보다 6% 성장한 약 57억 달러에 이를 것으로 추정했다. 이는 월가의 전망치와 일치하는 수준이다. AMD는 지난 1분기 자사의 최신 AI 칩인 MI300 판매 호조로 데이터 센터 부문이 전년 대비 80% 성장한 23억 달러를 기록했다고 밝혔다. MI300은 AI 칩 선두 주자인 엔비디아의 H100과 경쟁하는 칩이다. 리사 수 최고경영자(CEO)는 MI300 칩이 마이크로소프트와 메타, 오라클 등에서 사용되고 있다고 설명했다. 또한, 작년 4분기 출시 이후 10억 달러 이상 판매했으며, 올해 AI 칩 매출이 40억 달러에 이를 것으로 전망했다. 이는 지난 1월 전망한