阿里通义家族重磅发布6款模型,全模态全场景覆盖

今天在阿里的云栖大会上,他们一口气发了6款模型 和 1个全新品牌发布,覆盖文本、视觉、语音、视频、代码、图像全场景,忍不住说一句,真牛逼!

Qwen MAX不再只是”会说话的百科全书”

现在Qwen MAX的模型,居然有超过1万亿参数!MoE模型,1万亿的大小,支持100万Token的上下文。

阿里通义家族重磅发布6款模型,全模态全场景覆盖

目前Qwen3-Max-Instruct已经在官网 https://chat.qwen.ai/ 上线了。虽然深度推理功能还是灰色的,但据说也快上线了。

我真心建议大家去体验一下。不管你是技术爱好者还是普通用户,这种”与AI对话”的体验都会让你对科技发展有新的认识。

Thinking版:当AI开始”深度思考”

如果说Instruct版已经让我惊叹,那么Thinking版则让我感到一丝”恐惧”。

虽然Thinking版目前还没有完全开放,但公布的能力图已经足够震撼:在AIME 25和HMMT这两个地狱难度的数学推理竞赛题集上,Qwen3-Max-Thinking,拿了100分。

阿里通义家族重磅发布6款模型,全模态全场景覆盖

满分。直接跟GPT-5 Pro打平了。

当然,如果你对Thinking版感兴趣,可能还需要再等等。但相信我,等待是值得的。

“全能选手”Qwen3-Omni:当AI有了”五官”

如果说Qwen MAX是个”学霸”,那Qwen3-Omni就是个”全能选手”。

我突发奇想,上传了一张我在厨房手忙脚乱的照片,配上一段语音:”我该怎么做这道菜?”结果,这个叫Qwen3-Omni的模型不仅识别出我手里拿着的是鸡肉和西兰花,还从我的语音中听出了我的困惑,然后生成了一个视频教程,详细演示了如何做这道菜,甚至在我可能切到手的地方特意提醒!

最神奇的是,整个过程几乎没有延迟,就像和一个真正懂烹饪的朋友在视频通话。我忍不住想:如果早有这个,我之前那些黑暗料理是不是就不会诞生了?

Qwen3-VL能”看懂”你的心

但真正让我”上头”的,是Qwen3-VL这个视觉语言模型。

我给它看了一张我办公桌的照片,随口说了句:”帮我整理一下桌面”。我以为它会给我一些整理建议,结果它直接生成了一个重新布局后的3D效果图,还解释了为什么这样摆放更符合人体工学,甚至考虑到了我平时使用电脑的习惯!

我盯着屏幕,突然有种被”看穿”的感觉——这AI不仅”看见”了我的桌面,还”理解”了我的工作习惯和需求。那一刻,我有点毛骨悚然,又有点兴奋。

从”画图工具”到Qwen-Image

作为一个不会画画的设计小白,我对Qwen-Image这个模型本来没抱太大期望。不就是另一个AI绘画工具吗?我错了。

我试着输入了一个复杂的场景描述:”一个穿着红色连衣裙的女孩在雨中跳舞,背景是模糊的城市灯光,雨滴要清晰可见,女孩的表情要既忧郁又充满希望”。

说实话,我预期会得到一张勉强符合描述的图片。但结果呢?不仅完全符合我的描述,那个女孩的表情简直精准地捕捉到了我想要的那种复杂情感。更神奇的是,后来我想把女孩的裙子改成蓝色,只需简单描述,裙子颜色变了,但其他细节完全保持不变——没有变形,没有奇怪的边缘,就像真的给照片换了色一样。

我不禁感叹:这已经不是工具了,这简直是个懂我心思的创意伙伴!

程序员的福音?Qwen3-Coder让我这个”代码小白”都惊呆了

我对编程一窍不通,但出于好奇,我还是尝试了Qwen3-Coder。我给它描述了一个我想做的小工具:”一个能记录我每天喝水情况,并在我忘记喝水时提醒我的小程序”。

我以为会得到一堆我看不懂的代码,但没想到,它不仅生成了完整的代码,还解释了每一步的功能,甚至提供了几种不同的实现方案让我选择!更震撼的是,它还能根据我的反馈实时修改代码,就像有个程序员坐在旁边陪我一起开发一样。

我突然理解了为什么程序员朋友们对这个模型如此兴奋——这简直就像有了一个24小时待命、不知疲倦的编程伙伴!

AI”导演”视频:Wan2.5-Preview的魔法

我尝试了Wan2.5-Preview这个视频生成模型。

官网地址:https://tongyi.aliyun.com/wan/explore

阿里通义家族重磅发布6款模型,全模态全场景覆盖
阿里通义家族重磅发布6款模型,全模态全场景覆盖

我输入了一段文字描述:”清晨,阳光透过窗帘洒进房间,一只猫懒洋洋地伸懒腰,然后跳下床,走向窗台”。

几分钟后,我得到了一个短视频——画面流畅自然,猫的动作栩栩如生,阳光的效果极其逼真。最让我惊讶的是,它还自动配上了合适的背景音乐和轻微的环境音,比如猫的脚步声和窗外的鸟鸣。

我盯着屏幕,忍不住想:这是不是意味着,未来每个人都能成为”导演”,只需要用文字描述自己的想法?

“通义百聆”:当AI能听懂你的”弦外之音”

最后,我体验了”通义百聆”这个语音模型。我故意用带着浓重口音的普通话,夹杂着一些方言词汇,语速时快时慢地描述了我的一天。

结果,它不仅准确识别了我的内容,还能理解我语气中的情绪变化——当我提到工作中的挫折时,它的回应带着安慰;当我谈到周末的计划时,语调又变得轻快起来。

这让我想起之前用其他语音助手时的挫败感——它们要么听不懂我的口音,要么机械地回应,完全不考虑我说话时的情绪。而”通义百聆”却像是一个真正懂你的朋友,不仅听你说了什么,还理解你为什么这么说。

AI正在悄悄改变我们的世界

这些通义千问系列的AI模型们,已经不再是简单的”工具”,它们更像是各个领域的”专家”和”伙伴”。它们能看、能听、能说、能创作、能分析、能预测…最关键的是,它们似乎越来越”懂”我们。

我不禁思考:当AI能理解我们的需求,甚至能预判我们的想法,我们的世界会变成什么样子?工作方式会如何改变?创作会有哪些新的可能?人与人之间的互动又会如何演变?

这些问题没有标准答案,但有一点是确定的:AI不再是科幻电影里的遥远概念,它已经悄然进入我们的生活,而且正在以超乎想象的速度进化。

作为一个普通用户,我既感到兴奋,又有些忐忑。但更多的是好奇——我迫不及待想看看,这些AI”伙伴”们,未来还会带给我们怎样的惊喜。

你呢?你对这样的AI世界,期待吗?还是担忧?或者,你已经有了自己的AI”伙伴”?欢迎在评论区分享你的想法和经历!

AI工具测评文章

DeepSeek-V3.1-Terminus 专业测评:混合推理架构与高效能表现

2025-9-22 22:51:21

AI前沿文章

大模型的Temperature和Top_p在知识抽取任务中的最佳实践研究报告

2025-9-25 10:36:08

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索