| 广告联系 | 繁体版 | 手机版 | 微信 | 微博 | 搜索:
欢迎您 游客 | 登录 | 免费注册 | 忘记了密码 | 社交账号注册或登录

首页

温哥华资讯

温哥华地产

温哥华教育

温哥华财税

新移民/招聘

黄页/二手

旅游

我们终于知道AI如何"思考"了——基本没啥思考

QR Code
请用微信 扫一扫 扫描上面的二维码,然后点击页面右上角的 ... 图标,然后点击 发送给朋友分享到朋友圈,谢谢!
华尔街日报专栏作者Christopher Mims评论文章:研究人员正在开发新工具,以便能够观察AI模型的内部。研究结果让许多人开始对这些模型接近通用人工智能的结论产生疑问。


人工智能领域的大佬——OpenAI、Anthropic、谷歌(Google)及其他公司的领导者——仍然自信满满地预测,人工智能很快就会变得跟人类一样聪明。但持反对意见的人越来越多,声量也越来越大。他们说,人工智能压根就不会像人类这样思考。

这些研究人员的工作表明,今天的人工智能模型在底层架构上存在某种根本性限制。今天的人工智能之所以能够模拟人类的智能,从本质上说是通过学习大量经验法则来实现的,它们将这些法则有选择地应用于遇到的所有信息。


而人类乃至动物则能够以多种方式对世间万事进行推理并预测未来。我们生物体会建立“世界模型”来理解事物如何运作,包括因果关系。

许多人工智能工程师声称,他们的模型也在庞大的人工神经元网络内建立了这样的世界模型,证据是这些模型能够写出明显表现出推理能力的流畅文字。所谓“推理模型”的最新进展让一些观察人士更加确信,ChatGPT和其他公司已经达到与人类相当的能力水平,这在业内被称为AGI,也就是通用人工智能。

ChatGPT及其竞品自问世以来,大多数时候都像是神秘的黑盒子。

我们不知道它们是如何生成结果的,因为我们对它们进行的是训练而不是编程,构成这些模型人工“大脑”的大量参数以创造者捉摸不透的方式对信息和逻辑进行编码。但研究人员正在开发新工具,以便能够观察这些模型的内部。研究结果让许多人开始对这些模型接近通用人工智能的结论产生疑问。




“关于这些模型究竟在做什么,还有用来描述它们的一些拟人化语言,存在一些争议。”圣菲研究所(Santa Fe Institute)研究人工智能的教授梅兰妮·米切尔(Melanie Mitchell)说。




圣菲研究所教授梅兰妮·米切尔图片来源:KATE JOYCE/SANTA FE INSTITUTE

“启发式规则包”

探索大语言模型的新技术——属于“机械可解释性”这一不断发展的领域——能够向研究人员展现这些人工智能如何进行数学运算、学习玩游戏或在环境中导航。米切尔在最近发表的一系列文章中指出,越来越多的研究表明,可能的情况似乎是,模型会建立巨大的“启发式规则包”,而不是创建效率更高的场景心智模型,然后通过推理来完成手头的任务。(用平白的话来说,“启发式”是指解决问题的捷径。)

哈佛大学(Harvard University)的人工智能研究者基恩·瓦法(Keyon Vafa)第一次听说“启发式规则包”理论时,“我觉得它为我解锁了一些东西,”他说。“这正是我们试图描述的东西。”
不错的新闻,我要点赞     还没人说话啊,我想来说几句
上一页123下一页
注:
  • 新闻来源于其它媒体,内容不代表本站立场!
  • 在此页阅读全文
    猜您喜欢:
    您可能也喜欢:
    我来说两句:
    评论:
    安全校验码:
    请在此处输入图片中的数字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西网为北美中文网传媒集团旗下网站

    页面生成: 0.0363 秒 and 5 DB Queries in 0.0071 秒