本周阿里巴巴云栖大会期间,公司旗下通义千问团队推出多款重磅AI新模型。知名AI博主Alex Volkov将此盛况戏称为又一场“千问盛宴”。 这场技术盛宴的背后,是阿里巴巴集团CEO吴泳铭首次系统阐述的宏大AI战略。吴泳铭认为,通用人工智能(AGI)只是起点,终极目标是发展出能自我迭代、全面超越人类的超级人工智能(ASI)。为实现这一目标,阿里云将坚定走通义千问开源开放路线,致力于打造“AI时代的Android”,并构建作为“下一代计算机”的超级AI云。为支撑这一愿景,阿里巴巴正推进一项为期三年、总额达3800亿人民币的AI基础设施建设计划。
Qwen3-Max:通义千问团队推出最新旗舰AI模型,参数规模超万亿,提供指令微调版(Instruct)和思维(Thinking)版两种版本,多项基准测试均接近业界顶尖水平,尤其在代码生成和智能体调用方面表现突出。据悉,Qwen3-Max预训练数据量高达36万亿token,现已登陆阿里云大模型服务平台百炼(Model Studio)。
Qwen3-VL:通义千问推出的全新多模态模型套件,包含指令微调版和思维版,其中以Qwen3-VL-235B-A22B-Thinking模型尤为亮眼。该系列模型专注于图文任务和视觉推理,Qwen3-VL-235B-A22B-Thinking更是在视觉推理任务上达到业界顶尖水平,表现甚至超越GPT-5。
Qwen-Image-Edit-2509:通义千问发布的AI图像编辑模型升级版,为创作者提供“像素级精准多图编辑能力”。例如可实现“人物+产品”或“人物+场景”的智能融合,消除合成痕迹。该模型已在HuggingFace、ModelScope和Qwen Chat上线。
Qwen3-Omni-30B-A3B:通义千问开源的原生全模态(Omni-modal)AI模型,支持文本、图像、音频和视频输入,并能输出文本和流式音频。模型分为指令微调版、思维版和字幕生成版三个版本。技术报告详见GitHub仓库,体验版已经上线Hugging Face。
Qwen3-TTS-Flash:通义千问团队发布的语音合成模型,支持多音色、多语种,多语言语音质量和准确性均达到业界顶尖水平,能输出表现力极强的语音。目前可以在HuggingFace Spaces上试用。
Wan-Animate:阿里开源了Wan2.2的组成部分Wan-Animate,该模型支持通过动作迁移和口型同步技术轻松实现角色动画制作。通义实验室发布了技术论文以及演示视频,展示如何将表演者的视频动作迁移到目标角色上。目前,Wan 2.2 Animate 14B模型已经上线HuggingFace。