에이디링크 테크놀로지는 초소형 저전력 엣지 컴퓨팅 플랫폼 ‘MXE-230’에 Hailo-8 AI 가속기가 통합됐다고 13일 발표했다. 에이디링크는 이번 통합을 통해 비디오 분석, 세분화, 이상 감지, 트랜스포머 등 다양한 AI 애플리케이션을 위한 사용자 친화적이고 신뢰할 수 있는 고품질 하드웨어 솔루션을 제공한다. 또한 감시 시스템, AI AOI, 빈 피킹(bin picking), 자율 주행 등 다양한 산업 분야에서 필수적인 역할을 한다고 회사는 설명했다. 26 TOPS의 AI 컴퓨팅 성능을 갖춘 MXE-230은 클라우드 기반 리소스 없이도 AI 작업을 효율적으로 처리할 수 있어 엣지 AI 환경에 최적화된 솔루션을 제공한다. MXE-230의 주요 특징은 ▲12W 저전력 Intel Processor N97 ▲최대 16GB DDR5 4800MHz 메모리 ▲20°C ~ 60°C 넓은 작동 온도 범위 ▲2개의 독립적인 4K 60fps 디스플레이 출력 지원 ▲TPM 2.0 보안 기능 지원 등이다. Hailo-8 AI 가속기를 MXE-230에 통합함으로써 시스템에 AI 컴퓨팅 성능이 추가돼 엣지에서 AI 모델을 원활하게 실행할 수 있습니다. MXE-230은 자체적으로
마우저 일렉트로닉스는 라즈베리 파이(Raspberry Pi)의 ‘헤일로 8L’(Hailo 8L) AI 키트를 공급한다고 16일 밝혔다. 이 AI 키트는 사전 설치된 라즈베리 파이의 M.2 HAT+와 M.2 포맷의 헤일로 8L AI 가속기가 결합돼 있어 즉시 사용이 가능하다. 헤일로 8L AI 키트는 공정 제어, 보안, 홈 자동화, 음성 인식 및 로보틱스 등 다양한 애플리케이션에서 경제적이고 전력 효율적인 방식으로 고성능 인공지능(AI)을 통합할 수 있도록 지원한다. 마우저에서 구매할 수 있는 라즈베리 파이의 헤일로 8L AI 키트는 13TOPS(tera-operations per second)의 신경망 추론 가속기로, 헤일로 8L 칩이 탑재돼 있다. 이 키트를 라즈베리 파이 5에 설치하면 사용자는 짧은 지연 시간과 최소한의 전력소모로 복잡한 AI 비전 애플리케이션을 신속하게 개발할 수 있다. 얼굴 랜드마크 추출, 인스턴스 분할, 객체 감지 등의 신경망 처리 작업이 헤일로 8L 모듈에서 완벽하게 실행되기 때문에 라즈베리 파이 5의 CPU는 다른 프로세스를 보다 자유롭게 처리할 수 있다. 또한 이 모듈과 HAT+ 사이에 사전 장착된 열 패드는 구성요소 전반에 걸
'제온 6 P-코어'와 '가우디 3' AI 가속기로 AI 시스템 지원해 AI를 통한 업계 혁신이 계속되면서 기업들은 비용 효율적이면서도 빠르게 개발 및 배포할 수 있는 인프라를 필요로 하고 있다. 이러한 요구에 대응하기 위해 인텔은 오늘 '제온 6 P-코어'와 '가우디 3' AI 가속기를 출시하며, 최적의 와트당 성능과 더 낮은 총 소유 비용(TCO)을 제공해 강력한 AI 시스템을 지원하겠다고 밝혔다. 인텔 데이터센터 및 AI 사업 총괄 저스틴 호타드(Justin Hotard) 수석부사장은 "AI에 대한 수요가 데이터 센터의 대규모 변화를 이끌며, 업계는 하드웨어, 소프트웨어, 개발 도구에서 다양한 선택지를 원하고 있다"고 말하며, "제온 6 P-코어 프로세서 및 가우디 3 AI 가속기의 출시와 함께, 인텔은 고객이 더 높은 성능, 효율성, 보안을 갖춘 워크로드를 구현할 수 있도록 개방형 생태계를 지원하고 있다"고 강조했다. 한편, 인텔코리아는 9월 26일 서울 전경련회관에서 데이터센터용 신제품 출시 기자간담회를 갖고, 제온 6 P-코어와 가우디 3 신제품의 상세한 기술사항을 발표했다. 인텔 데이터센터 및 AI 사업부 한국 영업 총괄 나승주 상무는 “지난 6
인텔은 IBM과 IBM 클라우드 상에서 서비스 형 인텔 가우디 3 AI 가속기 제공을 위한 글로벌 협력을 발표했다. 2025년 초 출시 예정인 이 서비스는 엔터프라이즈 AI를 비용 효율적으로 확장하고, 더욱 안전하고 탄력적인 AI 혁신을 촉진할 수 있도록 지원하는 것을 목표로 한다. 이번 협력을 통해 IBM의 왓슨엑스 AI 및 데이터 플랫폼 내에서 가우디 3를 지원할 예정이다. IBM 클라우드는 가우디 3를 채택한 최초의 CSP로, 하이브리드 및 온프레미스 환경 모두에서 사용할 수 있다. 인텔 데이터센터 및 AI그룹 총괄 저스틴 호타드(Justin Hotard) 수석 부사장은 "AI의 잠재력을 최대한 높이려면 개방적이고 협력적인 생태계를 조성해 고객에게 선택의 폭을 넓히고 접근성이 높은 솔루션을 제공해야 한다"며 "IBM 클라우드에 가우디 3 AI 가속기와 제온 CPU를 구축함으로써 새로운 AI 역량을 창출하고, 비용 효율적이며 안전하고 혁신적인 AI 컴퓨팅 솔루션에 대한 수요를 충족시키고 있다"고 밝혔다. 생성형 AI는 혁신적인 잠재력을 지니고 있으나, 이로 인한 컴퓨팅 파워에 대한 수요는 엔터프라이즈 환경에서의 가용성, 성능, 비용 효율성, 에너지 효율성
비씨엠테크가 오는 16일 열리는 ‘The AI Show 2023(TAS 2023)’에 참가해 자사 AI 엣지 시스템(AI Edge System), AI 가속 카드, AI 소프트웨어 등 솔루션을 선보인다. TAS 2023은 AI 전시회를 비롯해 컨퍼런스, 시상식 등이 함께 열리는 AI 축제다. 올해 첫 걸음을 떼는 TAS 2023에서는 화두인 생성형 AI 관련해 기술을 보유한 기업과 기업, 대학이 참가해 대중에게 AI 기술을 쉽게 알릴 예정이다. 비씨엠테크의 MAVERICK 시리즈는 NPU 기반의 하드웨어 솔루션 브랜드로, AI 하드웨어 가속기 카드인 MAVERICK H 시리즈, AI 엣지 시스템(AI Edge System)인 MAVERICK-nano와 MAVERICK-Shark가 대표적인 제품이다. 회사에 따르면 해당 시리즈는 동종 경쟁사에 비해 우수한 성능과 소비전력 효율, 합리적인 공급 가격을 통해 많은 고객사에 적용 중이다. 비씨엠테크는 또한 높은 고성능 고효율 AI 프로그램의 손쉬운 개발을 위한 소프트웨어 패키지인 MY Pack을 제공해 고객의 빠른 프로젝트 성공을 지원한다. 비씨엠테크는 인텔(Intel) CPU 기반의 산업용 컴퓨터 전문 회사로, 산
초저전력 엔벨로프 고성능 에지 AI 및 비전 프로세싱 지원 콩가텍이 텍사스인스트루먼트(이하 TI)의 Jacinto 7 TDA4x 및 DRA8x 프로세서를 기반으로 하는 최신형 SMARC 모듈 2.1 컴퓨터 온 모듈을 출시했다고 밝혔다. 산업용 등급의 이 컴퓨터 온 모듈은 듀얼 ARM Cortex-A72 프로세서와 강력한 AI 가속기 및 3D 그래픽을 지원하고 초저전력(ULP, Ultra Low Power) 엔벨로프(envelope)를 갖춘 고성능 AI 에지 애플리케이션에 이상적이다. 소비전력 5~10W의 conga-STDA4 모듈은 2D/3D Camera, Radar, Lidar 기반의 근거리 분석이 필요한 무인운반차(AGV), 자율주행로봇(AMR), 건설·농업기계 등 산업용 모바일 기계에 적용할 수 있다. 이 제품은 에지 컴퓨팅에서 강력하고 에너지 효율적인 AI 프로세서를 필요로 하는 비전 기반 의료·산업용 애플리케이션에도 적합하다. 새롭게 출시한 SMARC 모듈은 2개의 MIPI CSI 카메라 입력부가 적용돼 있다. TDA4x 프로세서 기반의 conga-STDA4는 이미지 시그널 프로세서(ISP), 비전 가속기, TI Model Zoo의 사전 훈련된 AI
류수정 대표, 'ML/AI 반도체의 최신 연구 동향과 기술' 소개 글로벌 AI 반도체 기업인 사피온은 지난 16일 류수정 대표가 '국제 고체회로 학회(ISSCC) 2023 Preview 및 최신 반도체 집적회로 설계 기술 워크숍'에서 AI 반도체 동향을 소개했다고 17일 밝혔다. 최신 반도체 집적회로 설계 기술을 발표하는 이번 워크숍에서 류 대표는 'Digital / System Architecture' 세션에서 'ML/AI 반도체의 최신 연구 동향과 기술'을 소개했다. 류수정 대표는 발표에서 "ML/AI 워크로드에 대한 요구 사항이 지속적으로 증가함에 따라 높은 에너지 효율성이 요구되고 있다"며 "이에 대용량 데이터를 처리해야 하는 AI 반도체의 병목현상을 해결하기 위한 CIM(Compute-in-Memory) 기술, 널리 사용되고 있는 '합성곱신경망'과 인간의 두뇌에 가장 가까운 인공두뇌를 구현하는 '스파이킹 신경망'기술 등이 지속적으로 연구되고 있다"고 소개했다. 류 대표는 "ML/AI 단일 코어뿐만이 아닌 전체 시스템 성능과 효율성 향상을 위한 기술 연구가 상당수 진행되고 있다"며 "실제로 시스템 구성상에서 이종의 코어들을 활용하여 다양한 응용에서의
인텔과 ARM 그리고 엔비디아는 인공지능(AI) 학습과 추론에 적용되는 교환가능 포맷을 제공하기 위해 8비트 부동소수점(FP8) 사양 및 E5M2와 E4M3을 기술하는 논문을 공동으로 작성했다고 밝혔다. 이러한 기업간 사양 합의를 통해, 다양한 AI 모델이 하드웨어 플랫폼을 넘나들며 일관되게 작동하고 성능을 발휘, AI 소프트웨어 개발을 가속화할 수 있다. 인공지능에 대한 컴퓨팅 요구 사항은 기하급수적으로 증가하고 있다. AI를 발전시키는 데 필요한 컴퓨팅 처리량을 달성하기 위해서는 하드웨어와 소프트웨어에 걸쳐 새로운 혁신이 필요한 상황이다. 증가하는 컴퓨팅 격차를 해결하기 위해 각광받고 있는 연구 분야 중 하나는 메모리 및 계산 효율성 개선을 위한 딥 러닝에 대한 수치 정밀 요구 사항을 줄이는 것이다. 정밀도 감소 방법은 심층 신경망의 고유한 노이즈 복원 특성을 활용해 컴퓨팅 효율성을 향상한다. 인텔은 하바나 가우디 딥러닝 가속기를 포함한 CPU, GPU 및 기타 AI 가속기에 대한 AI 제품 로드맵에서 해당 사양을 지원할 계획이다. FP8은 하드웨어와 소프트웨어 간의 균형을 기반으로 기존 IEEE 754 부동소수점 형식으로부터의 편차를 최소화하여 기존에