스노우플레이크(Snowflake)가 자사 생성형 AI 기반 애플리케이션 생성 도구인 ‘코텍스 AI(Cortex AI)’에서 ‘딥시크-R1(DeepSeek-R1)’ 모델을 지원한다고 5일 밝혔다. 딥시크-R1은 지도학습(SFT) 없이 대규모 강화학습(RL)만으로 훈련된 최초의 오픈소스 모델로 자체검증, 스스로 답을 찾는 추론하는 사고체계(Chain-of-Thought, CoT), 추론 생성 등이 가능하다. 폐쇄형 모델인 오픈AI의 o1 수준의 고급 추론, 수학, 코딩 성능을 보이며 응답의 무한 반복, 언어 혼재, 낮은 가독성 문제를 해결하고 추론 능력을 개선하기 위해 콜드 스타트 데이터를 전략적으로 통합했다. 딥시크-R1은 스노우플레이크 코텍스 AI를 통해 서버리스 추론에 사용할 수 있는 비공개 프리뷰 형태로 제공된다. 배치(SQL 함수)와 대화형(파이썬 및 REST API) 모두를 통해 액세스할 수 있어 기존 데이터 파이프라인, 애플리케이션 및 통합개발환경(IDE)에 통합된다. 코텍스 AI는 고객이 코텍스 가드(Cortex Guard)를 활성화할 수 있도록 해 잠재적으로 유해한 콘텐츠를 필터링하고 고객이 생성형 AI 애플리케이션을 대규모로 안전하게 배포할 수
스노우플레이크가 AI와 보안을 강화한 AI 데이터 클라우드 플랫폼을 10일 발표했다. 먼저 스노우플레이크는 데이터 에이전트를 생성하고 실행하도록 하는 ‘스노우플레이크 인텔리전스’를 공개했다. 이를 통해 사용자들은 기업 내에서 데이터를 기반으로 한 비즈니스 질문에 대한 답변을 얻을 수 있게 된다. 셰어포인트, 슬랙, 세일즈포스, 구글워크스페이스 등의 외부 툴을 연결할 수도 있다. 스노우플레이크 인텔리전스를 통해 기업 사용자가 자연어로 엔터프라이즈 데이터와 대화하고 단일 통합 플랫폼에서 결과를 분석, 요약, 실행할 수 있는 데이터 에이전트를 쉽게 만들 수 있다. 엔터프라이즈 데이터를 더욱 직관적으로 활용할 수 있도록 하는 이 플랫폼은 스노우플레이크 데이터 기반에서 업무를 효율화하고 IP를 보호하면서 신뢰할 수 있는 답변을 제공한다. 또한 스노우플레이크는 데이터 환경을 단순화하고 AI 개발과 애플리케이션 구축을 가속화하기 위해 플랫폼과 AI 기능 강화를 발표했다. 주요 업데이트로는 스노우플레이크 코텍스 AI와 스노우플레이크 ML 등이 있다. 스노우플레이크 코텍스 AI는 생성형 AI 및 자연어 처리(NLP), 멀티모달 데이터 분석을 지원해 고품질 대화형 애플리케이션
실시간의 고처리량 추론 구현과 추론 시스템 스택 개발 및 오픈소싱 추진 스노우플레이크가 기업이 강력한 AI 애플리케이션을 대규모로 쉽게 활용 및 구축하도록 스노우플레이크 코텍스 AI에서 라마 3.1에 대한 호스팅을 개시한다고 발표했다. 라마 3.1은 다중 언어 오픈소스 대규모언어모델(LLM)의 컬렉션이다. 이번에 출시한 서비스에는 메타에서 가장 큰 규모이자 강력한 성능의 오픈소스 LLM인 라마 3.1 405B가 제공된다. 스노우플레이크는 실시간의 고처리량 추론을 구현함은 물론 강력한 자연어 처리 및 생성 애플리케이션의 보편화를 증진하는 추론 시스템 스택을 개발하고 오픈 소싱한다. 스노우플레이크 AI 리서치팀은 추론 및 파인튜닝에 대해 라마 3.1 405B를 최적화함으로써 서비스 개시 첫날부터 거대한 128K 컨텍스트 윈도우를 지원한다. 동시에 기존 오픈소스 솔루션에 비해 엔드투엔드 지연시간은 최대 3분의 1로 낮아지고 처리량은 1.4배 높아진 실시간 추론을 구현한다. 또한, 코텍스 AI에서 하나의 GPU 노드만을 사용해 거대 모델을 미세 조정할 수 있어 개발자와 사용자 모두에게 비용과 복잡성을 완화해준다. 스노우플레이크는 메타와 협력을 통해 고객에게 AI 데