알리바바가 자사 최고 수준의 에이전틱 AI 코딩 모델 ‘Qwen3-Coder’를 공개하며 AI 기반 소프트웨어 개발의 패러다임 전환을 예고했다. 이 모델은 코드 생성, 워크플로우 자동화, 디버깅 등 전체 개발 과정을 아우르는 고성능 에이전트형 코딩 시스템으로, 오픈소스 모델 중 최고 수준의 성능을 기록하며 시장의 주목을 받고 있다. Qwen3-Coder-480B-A35B-Instruct는 Mixture-of-Experts(MoE) 아키텍처를 기반으로 설계됐다. 전체 4,800억 개 파라미터 중 토큰당 350억 개 파라미터만을 활성화함으로써 연산 효율성과 성능을 동시에 확보했다. 이 모델은 SWE-Bench Verified 벤치마크에서 추론 확장 없이도 오픈소스 AI 모델 중 최고 성능을 달성했으며, 에이전틱 코딩 및 툴 연동 테스트에서도 주요 SOTA(state-of-the-art) 모델들과 어깨를 나란히 했다. Qwen3-Coder는 단순한 코드 자동완성을 넘어, 명령 수행, 도구 제어, 문제 해결 등 복잡한 소프트웨어 개발 업무를 다단계로 수행할 수 있는 점이 특징이다. 최대 100만 토큰까지 처리 가능한 확장형 컨텍스트 윈도우를 통해, 대규모 코드베이스
자체 개발한 하이브리드 추론 기능으로 처리 효율 극대화해 알리바바 클라우드가 오픈소스 대규모 언어모델(LLM) 신제품군 ‘큐원3(Qwen3)’를 공개하며 생성형 AI 경쟁에서 다시 한 번 존재감을 드러냈다. 이번 시리즈는 모바일부터 자율주행까지 다양한 AI 활용 환경을 겨냥해 설계됐으며, 사고 기반 하이브리드 추론 등 새로운 구조로 성능과 효율성 모두를 잡았다는 평가다. 큐원3는 총 6종의 밀집 모델(0.6B, 1.7B, 4B, 8B, 14B, 32B)과 2종의 전문가 혼합(MoE) 모델(30B 중 3B 활성, 235B 중 22B 활성)로 구성된다. 모든 모델은 깃허브, 허깅페이스, 모델스코프를 통해 누구나 자유롭게 활용 가능하며, 곧 API 형태로도 서비스될 예정이다. 큐원3의 가장 큰 특징은 알리바바가 자체 개발한 하이브리드 추론 기능이다. 복잡한 논리 추론이나 수학, 코딩과 같은 다단계 작업에는 사고 기반 추론 모드를, 빠른 응답이 필요한 일반 대화에는 비사고 기반 추론 모드를 자동 전환해 처리 효율을 극대화한다. 개발자는 API 상에서 최대 3만8000개의 토큰까지 사고 지속 길이를 조절할 수 있어, 성능과 리소스의 균형을 자유롭게 맞출 수 있다. 큐