GPT-5 还是被低估了??
难如量子复杂性理论,它也能在不到半小时内给出关键证明思路。
消息来自量子计算理论大牛 Scott Aaronson 的一篇博客,他在当中无限感慨道:
如果是一个学生把它(GPT-5 提供的思路)交给我,我会说他很聪明。
而且通过对比一年前使用 GPT 的相似经历,Scott 直言:
之前的结果远不如现在……在 2025 年 9 月,我可以凭经验告诉大家,AI 终于攻克了最具人类特质的人类智力活动,即证明量子复杂度类之间的预言分离。
所以,到底是什么样的问题被 GPT-5 给出了"灵魂一击"?
来看 Scott 讲述的完整事件经过——
GPT-5 不到半小时给出关键思路
大约几天前,Scott 和另一位伙伴 Freek Witteveen (来自荷兰数学和计算机科学研究学会)发表了一篇论文。
标题为《Limits to black-box amplification in QMA》,主要研究在量子复杂度类 QMA 中黑盒放大技术的局限性。
要想稍微搞懂这项研究,我们就不得不先了解啥是 QMA(Quantum Merlin Arthur)?
打个比方,想象你是一个名叫 Arthur 的侦探,正在调查一个复杂案件。你有一个非常聪明的助手 Merlin,他可以给你提供一些线索或证据来帮助你解决案件。
但是,你不能完全信任这个助手,因为他也可能犯错。所以,你需要验证这些线索或证据是否真的有用。
而在量子计算中,QMA 类就是描述这种"验证"过程的。具体来说:
Merlin(提供证据):一个量子计算机,它可以生成一些量子状态(可以理解为"量子证据")。这些量子状态可能非常复杂,包含了大量信息。
Arthur(验证证据):一个普通的量子计算机,它需要验证 Merlin 提供的量子状态是否真的能证明某个问题的解。Arthur 可以通过一些量子算法来检查这些量子状态,看看它们是否符合预期。
如果答案为"是",那么 Merlin 可以提供一个量子状态,让 Arthur 以高概率(如至少 2/3)接受这个答案;如果答案为"否",那么无论 Merlin 提供什么量子状态,Arthur 接受的概率都很低(如最多 1/3)。
QMA 的一个长期悬而未决的问题是:是否可以将完备性误差从 2/3 提高到 1?
换句话说,是否存在一种方法,使得如果答案为"是",Arthur 可以 100% 接受这个答案,而不是只有 2/3 的概率?
2008 年,Scott 通过构造一个量子预言机,证明了 QMA ≠ QMA ₁(完备性误差为 1)在该模型下成立。
这意味着,至少在某些情况下,你不能总是找到一个 100% 可靠的助手 Merlin。
直到最近,Freek Witteveen 和 Stacey Jeffery 有了一项重磅发现:
他们在一篇名为《QMA = QMA1 with an infinite counter》的论文中指出,任意 QMA 协议都可以通过黑盒放大,使得完备性误差变为双指数小。
打个比方,普通放大就像把错误率从 10% 压到 1%,再压到 0.01%;而他们的方法能直接压到 0.00000000000000000001 这种程度。
在此基础上,Scott 和 Freek 进一步证明:这个双指数放大就是黑盒方法的极限。
具体证明过程这里就不再展开,我们唯一需要了解的就是:GPT-5 在这个过程中起了很大作用。
在证明主要结果时,一个关键技术步骤实际上来自于 GPT5-Thinking。
当时二人需要分析一个 Hermitian 矩阵的最大特征值如何随着参数变化。如果时间充裕(能有一两周),二人完全能自己解决这个问题。
但当 Scott 把问题抛给 GPT-5 后,5 分钟后它就自信满满地给出了一个答案,不过 Scott 一眼就发现这个答案是错的。
随后 Scott 耐心告诉 GPT-5 错在哪,于是它又不断改进。
终于,经过一人一 AI 数次沟通,在不到半小时内,GPT-5 给出了让 Scott 眼前一亮的答案:
这正是我们需要的关键突破口。后来我们验证它完全正确,于是把它写进了论文。
Anyway,虽然还写不出整篇严谨的论文,但如果研究者方向清晰,GPT-5 可以在关键卡住时给出突破思路。
在 Scott 看来,这就是当前人和 AI 协作的"甜蜜时刻"。
网友们也表示,如果 GPT-5 现在正在共同撰写量子证明,那么游戏规则真的改变了。
One More Thing
不过嘛,GPT-5 再厉害也挡不住 OpenAI "偷换模型"的骚操作啊(doge)。
就在最近,有不少开发者和用户发现,ChatGPT 在未征得用户同意的情况下,竟悄悄把付费版本的 GPT-4、GPT-5 模型"降级"为新的低算力模型(如 gpt-5-chat-safety)。
这下大家伙纷纷不干了,眼见事态迅速发酵,OpenAI 高管也不得不出来回应:
这种切换属于"安全路由测试",目的是在用户对话触及敏感、情绪化话题时,路由到更"严谨"的模型进行处理。
而且他声称目前该行为是临时性的,未来 ChatGPT 在询问时仍会向用户说明所用模型。
BTW,你觉得 GPT-5 好用吗?GPT-5 是否被人们低估了呢?
参考链接:
[ 1 ] https://x.com/SebastienBubeck/status/1972368891239375078
[ 2 ] https://scottaaronson.blog/?p=9183&fbclid=Iwb21leANGXI1leHRuA2FlbQIxMQABHhhc-brYxsroE9QSWVS64u9EhPyULyGu340pc2Kz390HXvqRiIqT5z97eovH_aem_u5H_DiLrxt3onieDqzm7cw
[ 3 ] https://x.com/slow_developer/status/1972413507841700331
[ 4 ] https://x.com/nickaturley/status/1972031684913799355
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!
— 完 —
� � 年度科技风向标「2025 人工智能年度榜单」评选报名开启啦!我们正在寻找 AI+ 时代领航者 点击了解详情
❤️� � 企业、产品、人物 3 大维度,共设立了 5 类奖项,欢迎企业报名参与 � �
一键关注 � � 点亮星标
科技前沿进展每日见
股票杠杆配资平台,十大股票软件排行榜揭晓,114配资网提示:文章来自网络,不代表本站观点。