974
0

DeepSeek、GPT-5带头转向混合推理,一个token也不能浪费

AI也开始精神内耗:张俊的脱口秀相声

  • 一位脱口秀演员眼中的高科技烦恼*
  • 在昨晚的某档火到烫嘴的脱口秀节目中,张俊老师用他的爆笑段子给我们揭露了一个令人心碎的真相:

  • 现在的AI实在是太想赢了*。
  • 以下是这位”人间真实”大师的经典语录:

  • “你们见过会精神内耗的AI吗?DeepSeek就是!让它算个’1加1等于几’,它能犹豫到让你怀疑人生——这是要进行一场灵魂拷问还是怎么着?”
  • “这AI就跟某些人考前复习似的:’已知1+1=2…但是!从哲学角度思考…(此处省略3万字)…所以结论是2大概可能是对的'”
  • “我给它发个’你好’,它反手就给我整了篇《从人类语言学看问候语发展史》,还附赠3个参考文献——你搁这儿写毕业论文呢?”
  • 真正的人工智能:*
  • 会纠结
  • 会过度思考
  • 会把自己累死
  • 完美复刻人类社畜日常
  • 看来我们终于成功开发出了第一个会卷自己的AI,科技确实是进步了(苦笑)。
    DeepSeek、GPT-5带头转向混合推理,一个token也不能浪费

    AI模型的大烦恼:想太多也会惹祸

    在AI的世界里,也有一种「想太多病」,学术上叫过度思考。这对AI大模型公司来说,简直是个烧钱的无底洞——你以为它们靠你那点订阅费就能回本?Too young, too naive!算力一上头,服务器直接进入「电费破产预警」,心疼工程师们的发际线一秒。
    去年GTC大会上,Transformer论文作者之一Illia Polosukhin就敲黑板划重点:自适应计算再不搞,AI公司迟早得哭着去找投资人续命。今年的风向果然变了,模型厂商们纷纷卷起了「精打细算模式」:

  • OpenAI给GPT-5塞了个AI路由器,问题进来先分个类:「天空为什么是蓝色的」这种小学一年级难度?立刻甩给轻量级模型处理,坚决不浪费高端算力!
  • DeepSeek更狠,直接掏出单模型双模式的DeepSeek v3.1,一边唠嗑一边推理,实力证明「能聊又能算,省token还省电」。
  • 事实证明,这俩方案都能让公司的账本少流点血——果然,AI界的终极难题还是省钱
    DeepSeek、GPT-5带头转向混合推理,一个token也不能浪费

    重磅!GPT-5居然学会”偷懒”了?!

    据内部最新消息透露,传说中的GPT-5(开启”超级思考模式”时)展现了一个惊人特质:它能用更少的字数,干更多的话!

    关键事实

  • 输出效率飙升:对比上一代,它能节省50%-80%的token用量(说人话:以前要用1000字解释的事,现在它能200字讲完+附赠冷笑话)。
  • 效果不打折:不仅省字数,质量还能更高(翻译:你的废话文学可能被AI一键优化成《人类群星闪耀时》风格)。
  • 疑似学会摸鱼:用更少的分析步骤完成任务,像极了打工人优化KPI后偷偷刷剧的状态。
  • 用户反应预测*
  • 程序员:终于能少看几页AI的碎碎念了!
  • 老板:“这效率……要不裁员从人类开始?”
  • 温馨提示:虽然token省了,但GPT-5的账单可能依然让钱包瑟瑟发抖…… (优雅耸肩)*
  • DeepSeek、GPT-5带头转向混合推理,一个token也不能浪费

    大模型界的“省钱小能手”:DeepSeek团队怎么做到的?

    最近,大模型圈子里流传着一个神奇的消息:DeepSeek家的v3.1R1在各种“考试”(AIME 2025、GPQA Diamond、LiveCodeBench等)中交出了一份惊人相似的答卷,但v3.1竟然偷偷省了25%-50%的“饭钱”(token)
    是的,你没看错,同样的高分,更低的“饭量”,这简直就是AI界的“低碳减肥”。
    而这种混合推理模式(你可以理解为AI学会了“动脑子”和“能不吃就不吃”)很可能成为未来的主流趋势。各大公司已经在暗中较劲:如何在“烧钱”和“猛干”之间找到一个完美平衡?今天的文章就来聊聊这场AI效率竞赛的最新动态!

    1. 为什么会开始“省吃俭用”?

    大模型的训练和运行已经不是“贵”字能形容的了,简直就是钞能力大战。如果你家AI每次推理都要狂吃token,那你很快就会发现——服务器账单比你老板的脸色还难看。
    所以DeepSeek这一手简直就是“AI版的计划经济”——既保证智商不掉线,又顺道省了点经费。

    2. 各大公司都在做什么?

  • OpenAI:据说在研究“推理效率优化”,目标是让GPT-5推理时少吃多干。
  • Google DeepMind:Gemini团队偷偷在训练“思维压缩”,希望AI思考时少走弯路。
  • Meta:一边开源Llama模型,一边加紧计算效率研究,主打一个“省钱+普及”的双赢策略。
  • Anthropic:Claude家族一直在琢磨“简洁回答”,目标是让AI别废话,直击重点。
  • 3. 这对未来有什么影响?

    未来,“比谁更省钱”很可能成为AI行业的第二战场。毕竟,烧钱终究烧不过资本,而省钱+高能才是真的赢家
    想知道更多AI圈的“省钱秘籍”?请继续关注!说不定下次你家AI就能学会“精打细算”了呢~

    最好的模型永远最受欢迎

    但模型厂商怎么 cover 成本?

    AI行业的神秘涨价经济学:为什么你的”数码大脑”越来越贵?

  • 场景一:菜市场经济学*
  • 菜贩子:今天青菜降价啦!3毛钱一斤!
  • 顾客:我要买隔壁摊5块钱一斤的有机青菜!
  • AI行业现状:99%的用户偏偏要买最贵的”有机AI”
  • 揭秘SOTA模型的”富豪俱乐部”*
  • 你以为模型公司在降价大酬宾?不不不:

  • 普通模型:像超市临期食品,疯狂打折
  • SOTA模型:像限量版球鞋,价格坚挺
  • 用户选择:嘴上说要省钱,身体却很诚实
  • 2027年的恐怖账单*
  • 现在:花1美元买个”AI三明治”
  • 2027年:72美元买个”AI满汉全席”
  • 真相:AI不是吃得更多了,而是饭量涨得太快了!
  • 模型厂商的求生指南*
  • 涨价大法:用户哭着续费,CEO笑着数钱
  • 甩锅给电脑:”亲爱的用户,您的CPU是最好的炉灶”
  • 变脸绝活
  • GPT-5:自动切换便宜模型
  • DeepSeek:先问你”这题你会不会?”
  • Claude/Qwen:”亲爱的,这道题值得我认真吗?”
  • AI行业的终极悖论*
  • 技术进步降成本 用户需求增更快 账单反而更贵了!
    这大概是史上首个越发展越贵的科技产品…

    这些大模型

    都在尝试混合推理

    Claude大脑里的”开关”:这只人工智能猴子在想啥?

    当Chatbot也开始”装深沉”

    如果说AI界也有奥斯卡奖项,那Claude系列绝对能拿下”最佳表情管理奖”。今年2月,Anthropic公司推出了他们的最新”演技派选手”——Claude 3.7 Sonnet。这家伙不得了,能把”秒回信息”和”思考人生”两种模式无缝切换,简直比人类还会”装”。

    “快问快答”or”哲学沉思”?

    这家伙有三个神奇特性:

  • 实时回应:快得像抢麦的小学生
  • 深度思考:慢得像退休老教授
  • 思考可视化:把CPU烧脑的过程都给你看
  • 最过分的是,API用户还能像设置微波炉加热时间一样控制它的思考时长:”这次只准想5个token的量噢!”

    Anthropic的叛逆宣言

    在其他AI公司把”快脑”和”慢脑”分开卖的时候,Anthropic偏要走不寻常路:”干嘛要把爱因斯坦和博尔特分开?我们的Claude就能一边百米冲刺一边推导相对论!
    这种理念延续到了Claude 4系列,不过他们很贴心地留了个”深度思考开关“——就像给你的学霸朋友安装了”省电模式”:”亲爱的用户,您可以选择什么时候让它认真思考,什么时候让它敷衍了事。”

    思考的自由

  • “要不要让AI做个认真思考的乖孩子?”*
  • “多久才算思考过度?”*
  • “AI会不会因为想太多而掉头发?”*
  • 这些深奥的哲学问题,现在都交给你来决定。这不就是人类梦寐以求的——让AI也尝尝被deadline支配的恐惧吗?
    DeepSeek、GPT-5带头转向混合推理,一个token也不能浪费

    阿里Qwen3系列:从”想太多”到”想得刚刚好”的奇妙旅程

    大脑短路的人工智能

    去年四月,阿里实验室的科学家们心血来潮,决定让自己的AI学会”思考”。于是,Qwen3系列闪亮登场——一个号称能让你控制AI”想不想”的黑科技产品。

  • 想要它思考? 输入 /think
  • 懒得动脑? 输入 /no_think
  • 没错,就是这么任性!但用户们很快发现:
    AI 要么想太多,要么直接躺平……“虽然你可以设定 thinking_budget(”智商预算”),以免AI陷入”哲学沉思”,但最终测试数据无情地显示:这玩意儿……性能真不咋地!

    补救措施:拆东墙补西墙!

    在接受了社区的热情吐槽后,阿里痛定思痛:

  • 第一步:放弃”混合思考”模式!
  • 第二步:干脆教两个AI,一个负责”动脑”,一个负责”动嘴”!
  • 于是,七月份,一对双胞胎诞生了:

  • Instruct 模型(专门回答问题的”实用型AI”)
  • Thinking 模型(特别能”深沉思考”的”哲学AI”)
  • 效果?改进明显!尤其是 Instruct 模型,性能大幅提升,彻底告别了”想太多”的被吐槽时代。

    结论

    有时候,AI 就跟人类一样——要么专注做事,要么专注思考,但别指望它能边思考边做事还不出错!
    (P.S. 阿里科学家:下次还是别玩”混合模式”了……)
    DeepSeek、GPT-5带头转向混合推理,一个token也不能浪费

    大模型也有”脑容量焦虑”?当AI开始精打细算

  • Qwen团队的”脑子短路”事件*
  • 对Qwen来说,他们的”混合思维模式”就像小学生试图用微波炉做化学实验——结局很壮烈,但至少证明了微波炉确实没有化学系文凭。虽然这次尝试暂时”下线”了,但团队依然倔强得像被猫抓了多次的老鼠,依然在文档里写着”我们还会回来的”(大概还配上了灰太狼的表情包)。

  • 谷歌的”AI省钱计划”:用token当钞票*
  • 今年4月,谷歌推出了Gemini 2.5 Flash,直接给AI装上了”脑子预算器”:

  • 你想让AI认真思考?先投币!预算可以从0调到24,576个token
  • 开启”烧脑模式”后,API账单直接变成6倍,完美模拟现实世界——聪明果然是要花钱的
  • 开发者现在可以像老派会计一样精打细算:”这部分问题值得花300token思考,那部分嘛…给5token意思一下就行了”
  • Pro版的”我贵故我在”*
  • 6月更新的Gemini 2.5 Pro终于赶上了这波”脑容量经济学”潮流:

  • 面向B端用户,主打的就是一个”钱花在刀刃上”
  • 企业现在可以像调节办公室空调温度一样调节AI的智商水平
  • 开发团队表示:”我们的目标是把AI思考变成自来水——要多少,开多大”
  • 行业猜测:莫非是”大小模型二人转”?*
  • 科技圈侦探们提出了一个有趣的理论:

  • 可能是一个”大聪明”负责思考,”小机灵”负责输出
  • 根据预算在两个模型之间反复横跳
  • 就像雇佣了爱因斯坦当顾问,但让实习生来写邮件
  • 这份创新让AI终于过上了和打工人一样的生活——你的思考深度,完全取决于公司给你的预算。
    DeepSeek、GPT-5带头转向混合推理,一个token也不能浪费

    《大模型们的”脑回路”大比拼:当AI开始玩转思考开关》

    快手家的”考前猜题王”

  • 快手6月推出的KwaiCoder-AutoThink-preview*简直就是AI界的”考神”——这货考试前还会先猜考点!它独创的”pre-think”技术就像学霸考试前先扫一眼题目难度:
  • 第一步:用Agentic方法构造长短思考的小抄本(Cold Start数据)
  • 第二步:用Step-SRPO这个”错题本”训练难度判断能力
  • 到了7月,他们干脆把这位”猜题王”的技术全公开了(开源KAT-V1),这波操作相当于把《五年高考三年模拟》的解题秘籍免费送!

    字节家的”思维体操选手”

  • 字节6月推出的Seed 1.6*给思考模式装上了开关!就像健身教练让你选运动强度:
  • /no_think模式:快速俯卧撑(快思考)
  • /think模式:全套HIIT训练(深度思考)
  • auto模式:智能手表自动调整运动方案
  • 最绝的是它们用PPO算法当私教,还发明了“选择性损失掩蔽”(SLM)这个防抽筋神器,确保思维体操做得既标准又省钱!

    腾讯家的”双卡双待大脑”

  • 腾讯Hunyuan-A13B*简直就是AI界的双卡双待手机:
  • 快思考模式:`\n\n`(发微信)
  • 慢思考模式:`逐步推理过程`(写论文)
  • 默认开启慢思考就像长辈智能机默认大字模式——体现大厂的人文关怀!这套框架训练起来就像让AI同时学习速写和油画,左右脑一起开发。

    智谱家的”学霸培训班”

  • GLM-4.5系列*玩的是”分科教学+综合考试”:
  • 分科阶段:培养三个特长生
  • 推理小王子
  • 代理课代表
  • 聊天社牛达人
  • 综合阶段:让学霸们互相教学(自蒸馏)
  • 就像重点中学的保送班,闲聊时秒回段子,解题时秒变教授,切换得比表演系毕业的还要自然!

    OpenAI的”模型滴滴打车”

    江湖传言GPT-5要搞”模型打车软件”:

  • 接到需求立即派单:
  • 聊骚?派Chat模型
  • 解题?派推理专家
  • 要工具?派API小能手
  • 这思路简直像米其林餐厅的后厨系统:凉菜师傅、主厨、甜点师随时待命,比把所有菜都交给一个厨子靠谱多了!

  • 这场大模型”脑力奥运会”证明:当代AI不仅要会思考,还得学会什么时候该偷懒——这不就是打工人的终极智慧吗?
    DeepSeek、GPT-5带头转向混合推理,一个token也不能浪费

    GPT-5:当AI也开始搞”经济舱”和”头等舱”

    模型分类:快车、慢车,还是迷你地铁?

    OpenAI这回可真是太贴心了!GPT-5不仅分了豪华专车(gpt-5-main)和迷你快车(gpt-5-main-mini),还配套推出了哲学思考型大叔版(gpt-5-thinking),以及它的小老弟nano版——据说思考速度飞快,但很可能还没来得及想明白就提交答案了。
    更夸张的是,他们还偷偷藏了一个Pro尊享版(gpt-5-thinking-pro),看来AI界也逃不过”会员专属”的套路啊!

    升级逻辑:AI版的”优胜劣汰”

    这些模型不是凭空冒出来的,而是从上一代模型”进化”而来——没错,就是GPT-4默默加班训练出来的。它们的路由机制也不简单,会根据以下真实信号自我调整:

  • 你手滑点”切换模型”的次数(AI:这人怎么老换?不满意?)
  • 你对回复的点赞/踩频率(AI:完了,又被嫌弃了…)
  • 答案的正确率(AI:这次要是再错,我就得去跑迷你版了…)
  • 随着时间推移,这玩意儿还能自我优化——但问题是,优化到什么程度才算完?谁知道呢?反正用户体验暂时看来有点像抽盲盒

    “迷你版”的尴尬:AI界的”拼夕夕”体验

    一旦你的问题超过了GPT-5尊享版的额度,剩下的那些不那么重要的查询(比如你的第1001个”帮我写情书”请求)就会被无情扔给迷你版处理。
    结果呢?社交媒体上炸锅了:

  • “我问GPT-5怎么造火箭,结果它回了我一个火柴盒教程!”
  • “昨天还能写论文,今天只能生成冷笑话了?”
  • “这路由机制是不是把我当免费测试员了?”
  • 最让人崩溃的是——你根本不知道眼前的回答是谁给的建议!是高端Pro版,还是临时工nano版?鬼晓得!这种薛定谔的质量让专业人士直摇头:”AI信任危机,这不就来了吗?”

    结论:好用但闹心?

    GPT-5无疑是技术的一大步,但用户体验上却有点像在自助餐厅排长队
    选择多(各种模型任你”被分配”)
    不确定性更高(今天的高端版,明天的廉价替代品?)
    如果OpenAI不赶紧把这黑箱路由逻辑搞透明点,恐怕连忠实粉丝都要开始怀念”简单粗暴”的GPT-4时代了。

  • 毕竟,没人喜欢被AI塞进”经济舱”还蒙在鼓里!*
  • DeepSeek、GPT-5带头转向混合推理,一个token也不能浪费DeepSeek、GPT-5带头转向混合推理,一个token也不能浪费DeepSeek、GPT-5带头转向混合推理,一个token也不能浪费

    惊喜大放送:免费用户待遇大跃迁!

  • 惊奇不惊奇?意外不意外? 现在,占ChatGPT用户95%以上的免费玩家们,突然发现自己被老天爷砸中了一块馅饼!过去,高级思考模型可是个VIP专属玩具,普通人只能眼巴巴地瞅着,连摸一摸的权利都没有。但现在情况大变——官方搞了个“随机大乐透”路由系统*,把你丢到哪个模型全看运气!
  • 免费用户内心OS:*
  • 以前连门都摸不着,现在居然有机会蹭进VIP区?
  • 这波不就是“抽卡机制”吗?每日登录,赌能抽到SSR模型!
  • 省下一个订阅费,白嫖高级AI?这买卖不亏!
  • 虽然能不能用上高级脑袋还得看缘分,但对于广大白嫖党来说,这简直就是“天上掉AI”级别的福利!

  • 总结陈词: 官方这波操作,真·薅羊毛党的春天*啊!
  • DeepSeek、GPT-5带头转向混合推理,一个token也不能浪费

    当AI开始”看人下菜碟”:从免费用户身上薅羊毛的艺术

    SemiAnalysis 的那位”算命先生”Dylan Patel掐指一算,认为OpenAI正在打免费用户的主意。毕竟,和整天围着企业客户转的Anthropic不同,OpenAI的用户池子里漂满了”白嫖党”。
    传统的APP会往免费用户脸上糊广告,但AI总不能说:”回答你问题前,先看一段30秒的’脑白金’广告吧?” 于是,路由模型闪亮登场——它的任务就是从茫茫”白嫖”提问中,像淘金一样筛出那些藏着商机的对话:”订机票?找律师?好的,这边给您安排高配版AI,成交后请记得分我们一杯羹~”

  • 这波操作堪称AI界的”杀熟2.0″!*
  • 省算力:普通问题用”丐版模型”打发
  • 赚抽成:高价值请求直接导流到”VIP通道”
  • 终极目标:未来AI可能变成淘宝客服,每单抽成3%
  • 不过OpenAI自己也嘀咕:”路由模型这招够酷,但可能不是终局。”他们正琢磨把两种模式塞进一个模型——就像你的手机既能”省电模式”刷朋友圈,又能”性能模式”打游戏。

  • 国内选手の骚操作:DeepSeek v3.1の”人格分裂”

    这边OpenAI还在搞路由,中国的DeepSeek团队已经玩起了”一键精分”:

  • 开发者版:用“和“标签手动切换”脑力模式”(仿佛在代码里写”太上老君急急如律令”)
  • 用户友好版:直接点”深度思考”按钮,瞬间从”废话文学模式”切换到”学术大师模式”
  • 虽然发布时间和GPT-5撞车,但DeepSeek v3.1很实诚地表示:”和GPT-5比?我们就像五菱宏光和特斯拉——跑分差不多,但人家还能自动驾驶呢!不过论性价比,我们绝对是程序员の福报!”(开源+便宜,要什么自行车)

  • 未来展望*:当所有AI都学会”看人下菜碟”,我们可能会看到这样的对话:
  • 用户:”今天心情不好…”AI:”检测到低价值情绪宣泄,已为您切换至敷衍模式:’多喝热水。'”用户:”我想买保时捷!”AI:”已启动跪舔模式!这是全球十大富豪推荐款,分期免息哦亲~”DeepSeek、GPT-5带头转向混合推理,一个token也不能浪费

    想深入了解混合推理?

    这些研究方向值得关注

    大模型推理:一场”脑速”与”省电”的奇妙博弈

    1. 省Token大作战:各路英雄显神通

    当大模型遇上推理任务,大家都在琢磨同一件事:怎么少用Token还能把活干漂亮?于是乎,江湖上涌现了一堆奇招——

  • “给我闭嘴”派:靠提示词(比如”别废话,直接说答案”)强行让模型压缩输出,但效果时灵时不灵,逼急了甚至会胡说八道。
  • “快递分拣”派:搞个路由器(不是你家Wi-Fi那个),把问题扔给不同的模型处理,结果快递费(延迟)可能比包裹还贵。
  • “量子速读”派:边生成边检查(比如DEER和FlashThink),发现苗头不对立刻喊停,可惜频繁”踩刹车”也可能翻车。
  • “人格分裂”派:把慢性子模型和急性子模型强行”结婚”,生出的混血模型时而深思熟虑,时而脱口而出,但尺寸太大或太小都会难产。
  • 吐槽点:这些方法像极了减肥——要么饿得头昏眼花(压缩过度),要么运动到腿软(计算开销),想瘦还不想挨饿?难!

  • 2. 学霸的特训班:微调与强化学习

    如果提示词是”临时抱佛脚”,那训练方法就是”寒窗苦读”。研究员们分成两大补习班:

    A班:微调突击队

  • 长话短说班:教模型把《战争与和平》版推理压缩成微博体,但可能漏掉”男主角到底死了没”的关键情节。
  • 选择题速成班:让模型学会”三长一短选最短”,可万一选项全是坑呢?
  • 心灵感应班:推理步骤全在内心戏,交卷时只写答案,老师(人类)看不懂还得猜。
  • 偏好养成班:用DPO告诉模型”简短又准确=小红花”,但训练数据得像选秀评委一样严格,否则学成”糊弄学大师”。
  • B班:强化学习魔鬼营

  • 字数罚款制:写超了就扣奖金(reward),结果模型学会用”我不知道”糊弄所有难题。
  • 难度匹配游戏:简单题秒答,难题才动脑,可惜模型对”难易”的判断经常和人类相反。
  • 双模式精分训练:一键切换”哲学家”和”段子手”模式,但容易卡在”我是该笑还是该思考”的纠结中。
  • 真相警告:这些方法基本等于给模型报奥数班+演讲班+速记班,烧钱烧时间,但万一练成”六边形战士”,效果是真香!

  • 最终结论

    当前大模型推理的现状,像极了人类面对Deadline时的挣扎——

  • 理想:用最少的话说最牛的事。
  • 现实:话说少了像敷衍,说多了又啰嗦,最后疯狂试探老板(用户)的耐心底线。
  • (附:技术路线图请脑补一张写满”平衡”二字的太极图)
    DeepSeek、GPT-5带头转向混合推理,一个token也不能浪费哎呀,听说AI界最近又有大动作啦!让我这个科技段子手来给你唠唠嗑~

  • 最新AI研究进展速递*
  • 就像突然学会思考的机器人实习生

  • 语言模型现在都开始玩跨界了,据说有个叫R-4B的新人特别”机灵”,能自己调整思考方式
  • 这感觉就像你家冰箱突然会说:”亲,鸡蛋快过期了,要不要做个煎饼?”
  • 追踪小贴士*
  • 想围观这场AI界的《最强大脑》?
    建议关注那个”Awesome-Efficient-Reasoning”项目
    (不过说真的,现在AI都开始玩自适应思考了,我们人类还在为中午吃啥纠结…)
    Ps. 具体论文在arxiv上躺着呢,编号2507.09662——虽然我打赌99%的人只会收藏不会看~
    DeepSeek、GPT-5带头转向混合推理,一个token也不能浪费

    下一个前沿:

    让 AI 以最低代价在恰当时刻思考

    AI界的”节能模式”大战:谁更会”偷懒”谁赢?

    过去几年,AI领域的竞争就像一场”肌肉秀”——大家拼命比拼谁的模型更大、更强、更能吃数据(和电费账单)。但现在,风向变了!混合推理模式的兴起宣告了一个新时代的到来:AI们不再单纯追求”举重能力”,而是开始研究如何在合适的场合切换”节能模式”。
    IBM研究院的高级项目经理Abraham Daniels一语道破天机:对企业来说,运营AI的成本已经变得和它的智商一样重要。毕竟,谁愿意养一个整天全功率运转、电费堪比小型城市的AI呢?
    不过这场转型可不容易,AI们正经历着”成长的烦恼”:

  • 能像人类一样自主开启”深度思考”模式的AI,目前还是稀有物种。
  • 而那些尝试去掉”思考开关”的模型,效果还不足以让人满意——它们要么偷懒过头,要么勤奋得不像话。
  • 这些现象揭示了一个有趣的事实:未来AI的竞争,比的不是”能不能思考”,而是”会不会在恰当的时候用最省电的方式思考”
    换句话说,下一轮AI性能竞赛的赢家,很可能不是最”聪明”的那个,而是最懂得“什么时候该躺平”的那个。这场博弈的终极奥义,或许就是教会AI一句话:

  • “动脑子可以,但别动不动就烧钱!”*
  • © 版权声明

    相关文章