| 广告联系 | 繁体版 | 手机版 | 微信 | 微博 | 搜索:
欢迎您 游客 | 登录 | 免费注册 | 忘记了密码 | 社交账号注册或登录

首页

温哥华资讯

温哥华地产

温哥华教育

温哥华财税

新移民/招聘

黄页/二手

旅游

我们终于知道AI如何"思考"了——基本没啥思考

QR Code
请用微信 扫一扫 扫描上面的二维码,然后点击页面右上角的 ... 图标,然后点击 发送给朋友分享到朋友圈,谢谢!
瓦法自己的研究是探索人工智能在接受数百万次类似谷歌地图那种逐个提示转弯的导航训练之后,会构建出什么样的心智地图。瓦法和同事使用了曼哈顿密集的街道网络作为原始材料。




AI在经过数百万条逐个转弯路线的训练后,在其“思维”中生成的曼哈顿地图。该研究成果来自于Keyon Vafa、Justin Y. Chen、Ashesh Rambachan、Jon Kleinberg和Sendhil Mullainathan的论文《评估生成式AI模型中隐含的世界模型》(Evaluating the World Model Implicit in a Generative Model)。


结果看起来一点也不像曼哈顿的街道地图。经过仔细观察,研究者发现人工智能推断出了各种脱离现实的机动路线,比如直接越过中央公园或斜穿许多街区的路线。但由此产生的模型成功给出了曼哈顿区任意两点之间可用的逐个转弯路线,准确率高达99%。

瓦法说,尽管这张乱七八糟的地图会让驾车者抓狂,但人工智能模型已经基本学会在多种情况下从每一个可能的起点出发进行导航的单独规则。

人工智能庞大的“大脑”加上前所未有的处理能力,使它们能够学会如何以一种杂乱无章的方式来解决问题,而这是人类不可能做到的。

思考还是记忆?


还有一些研究关注大语言模型尝试进行数学运算时所表现出的特殊性,这些模型从前不擅长数学运算,但现在的表现越来越好。一些研究表明,模型在做某个数值范围内的乘法,比如200到210之间数字的乘法时,会学习一套单独的规则,在做其他数值范围内的乘法时,则会学习另一套规则。如果你认为这种数学运算方式不太理想,那你说得没错。

这方面的研究都表明,在引擎盖下,今天的人工智能是过于复杂、拼拼凑凑的鲁布·戈德堡机械,其中充满了回答我们提示的临时性解决方案。瓦法说,如果理解了这些系统是一长串拼凑在一起的经验法则,就能很好地解释,为什么当它们被要求做未经训练的事情,哪怕只是超出训练范围一丁点的事情,也会非常困难。当他的团队阻断仅1%的曼哈顿虚拟道路,迫使人工智能绕道而行,人工智能的表现便直线下降。

他补充说,这说明了今天的人工智能与人类之间的一项重大差异。人可能无法以99%的准确率记住纽约市内的每一处转弯,但人的思维足够灵活,可以避开一些道路作业。


这项研究还揭示出为什么许多模型都如此庞大:它们必须记住无穷无尽的经验法则,而无法像人一样,把知识浓缩到心智模型中。这或许也有助于解释,为什么人工智能必须从海量的数据中学习,而人只需要经过几次尝试就能掌握知识:为了得出这一条条经验法则,它们必须看到单词、图像、棋盘位置等所有可能的组合。而要想真正训练好人工智能模型,需要让它们反复看这些组合。

这项研究或许还能解释,为什么不同公司推出的人工智能似乎都在以同样的方式“思考”,甚至性能水平也在趋同——而这种性能水平的发展可能趋于停滞。

以前的人工智能研究者也曾信心满满。1970年,麻省理工学院(Massachusetts Institute of Technology)教授马文·明斯基(Marvin Minsky)告诉Life杂志,“三到八年后”,计算机将拥有普通人的智力。


不错的新闻,我要点赞     无评论不新闻,发表一下您的意见吧
注:
  • 新闻来源于其它媒体,内容不代表本站立场!
  • 在此页阅读全文
    猜您喜欢:
    您可能也喜欢:
    我来说两句:
    评论:
    安全校验码:
    请在此处输入图片中的数字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西网为北美中文网传媒集团旗下网站

    页面生成: 0.0360 秒 and 5 DB Queries in 0.0067 秒