| 广告联系 | 繁体版 | 手机版 | 微信 | 微博 | 搜索:
欢迎您 游客 | 登录 | 免费注册 | 忘记了密码 | 社交账号注册或登录

首页

温哥华资讯

温哥华地产

温哥华教育

温哥华财税

新移民/招聘

黄页/二手

旅游

留学生: 中留学生论文登Nature 大模型对人类可靠性降低

QR Code
请用微信 扫一扫 扫描上面的二维码,然后点击页面右上角的 ... 图标,然后点击 发送给朋友分享到朋友圈,谢谢!
00后国人一作登上Nature,这篇大模型论文引起热议。


简单来说,论文发现:更大且更遵循指令的大模型也变得更不可靠了,某些情况下 GPT-4在回答可靠性上还不如GPT-3。

与早期模型相比,有更多算力和人类反馈加持的最新模型,在回答可靠性上实际愈加恶化了。


结论一出,立即引来20多万网友围观。

在Reddit论坛也引发围观议论。

这让人不禁想起,一大堆专家/博士级别的模型还不会“9.9和9.11”哪个大这样的简单问题。

关于这个现象,论文提到这也反映出, 模型的表现与人类对难度的预期不符。

换句话说,“LLMs在用户预料不到的地方既成功又(更危险地)失败”。

Ilya Sutskever2022年曾预测:


也许随着时间的推移,这种差异会减少。






然而这篇论文发现情况并非如此。不止GPT,LLaMA和BLOOM系列,甚至OpenAI新的 o1模型和Claude-3.5-Sonnet也在可靠性方面令人担忧。

更重要的是,论文还发现依靠人类监督来纠正错误的做法也不管用。



有网友认为,虽然较大的模型可能会带来可靠性问题,但它们也提供了前所未有的功能。

我们需要专注于开发稳健的评估方法并提高透明度。


觉得新闻不错,请点个赞吧     无评论不新闻,发表一下您的意见吧
上一页123456下一页
注:
  • 新闻来源于其它媒体,内容不代表本站立场!
  • 在此页阅读全文
    猜您喜欢:
    您可能也喜欢:
    我来说两句:
    评论:
    安全校验码:
    请在此处输入图片中的数字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西网为北美中文网传媒集团旗下网站

    页面生成: 0.0383 秒 and 2 DB Queries in 0.0017 秒