18888889999
notice 网站公告
— 新闻资讯 —
【新智元导读】随着现在的主流大模型都能轻松通过图灵测试,这个持续了数十年的标准开始逐渐过时。奥特曼和量子计算之父David Deutsch讨论得出了一个新的图灵测试2.0标准,可以更好地衡量究竟怎样AI才算拥有真正的智能。
在过去的一年里,如果你还在用图灵测试来评判一款大模型是否聪明,那可能已经有点跟不上节奏了。
从GPT-4、Claude 2、Gemini、LLaMA 3开始的这些模型,已经可以轻轻松松在图灵测试中拿到通行证。
在最近的Axel Springer颁奖典礼上,奥特曼和量子物理学家David Deutsch正面交锋,提出了一个新标准。
1950年,图灵在那篇著名论文《计算机器与智能》(Computing Machinery and Intelligence)中设想:如果一台机器能通过文字交流骗过人类评审,让人以为它是另一个人,那么它就具备了智能。
2023年底,UCSD的一项研究找来500名受访者与大模型对线在伪装成人类时胜率超过50%,而人类本身在这个测试中的识别率也不过如此。
Claude 2、LLaMA 3也都在类似实验中表现出色,顺利蒙混过关。
也就是说,按照图灵的标准,它们已经可以被认为是「有智能」的了。但这真的够了吗?
在Axel Springer的颁奖典礼上,主持人提到奥特曼最喜欢的一本书是《无穷的开始:世界进步的本源》,于是主办方搞了个「惊喜连线」——作者David Deutsch出现在大屏幕上。
Deutsch的核心观点是:真正的智能,应该能够创造新知识、提出新假设、解决新问题,甚至推翻旧认知。
如果某个模型哪天解出了量子引力的问题,并且能清楚地告诉我们它是怎么想的、为啥这么选,那这是不是就能算是真正的智能?
在《无穷的开始:世界进步的本源》里,他提出一个观点:人类文明的进步,来自于不断创造好解释(good explanations)。
所以他在那场对谈中,不断强调「解释力」——不仅要得到答案,还要能说清楚它为什么成立。否则只能算是黑箱,不算是真正的理解。
从一开始,图灵测试就是个伪装游戏。考验的不是AI是否聪明,而是它能不能骗过人类。
而Deutsch和Altman所设想的版本,更像是一种「创造力测试」——模型是否具备科学研究的能力,是否能提出新理论,是否能自洽地解释自己的推理。
但它至少指向了一个方向:我们真正关心的,不仅仅是机器能不能说得像人,而更重要的是它有没有可能在理解世界这件事上,成为我们的伙伴。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
港易生变?巴拿马港口运营合同被裁定违宪,李嘉诚旗下长和股价大跌!香港政府:强烈不满,企业应认真审视其现时及未来在当地的投资
爆iPhone 18 Pro将首搭星链卫星通信,无需额外硬件实现“无死角”联网
新商业周报 鸣鸣很忙正式敲钟上市;安踏宣布将成为彪马最大股东;挪瓦咖啡完成数亿元C轮融资
如有需求请您联系我们!
地址:海南省海口市58号
电话:18888889999
手机:海南省海口市58号
ICP备案编:琼ICP备88889999号
