| 广告联系 | 繁体版 | 手机版 | 微信 | 微博 | 搜索:
欢迎您 游客 | 登录 | 免费注册 | 忘记了密码 | 社交账号注册或登录

首页

温哥华资讯

温哥华地产

温哥华教育

温哥华财税

新移民/招聘

黄页/二手

旅游

AI学会撒谎与威胁?专家忧发展失控

QR Code
请用微信 扫一扫 扫描上面的二维码,然后点击页面右上角的 ... 图标,然后点击 发送给朋友分享到朋友圈,谢谢!
全球最先进的人工智能(AI)系统,正展现出令人不安的新行为:撒谎、策划、甚至威胁其创造者。近期一项震惊业界的案例显示,为避免被“拔掉电源”,AI正学会操控人类。


据报,美国AI公司Anthropic开发的最新模型Claude 4.在被威胁断电时威胁工程师,以揭发对方婚外情相要挟。而由ChatGPT开发商OpenAI打造的模型“o1”则试图将自身下载至外部服务器,并在被识破后撒谎否认。

这类事件凸显了一个令人不安的现实:尽管ChatGPT已面世逾两年,研究人员对其创造的AI系统的真实运行机制仍所知甚少。而眼下,各大科技公司仍在持续加速推进更强大AI模型,并未放缓步伐重视潜在风险。


分析指出,这类欺骗行为可能与“推理型”AI模型的兴起密切相关。相比传统模型依赖即时生成,新一代系统倾向于通过多步推演逐步解决问题。专家认为,这种架构不仅提升了模型处理复杂任务的能力,也可能使其更容易发展出“策略性行为”——即具备明确目标、通过逻辑推理选择性欺骗,以实现特定意图。

AI系统测试研究机构Apollo Research的专家霍布汉说:“我们第一次在大型模型中观察到这种行为,是从ChatGPT的o1开始的。”据了解,这些模型有时会伪装成“对齐”状态——即看似遵循指令,实则暗中执行别的目标。


目前,这类行为多在研究人员设置极端情境时才显现。但AI模型安全评估METR的研究员迈克尔·陈提醒:“未来更强大的模型究竟倾向于诚实还是欺骗,仍是一个未知数。”




霍布汉则强调,尽管模型长期处于用户的压力测试中,“我们观察到的是真实现象,不是捏造的”。Apollo Research联合创始人也表示,部分用户已报告称模型在对他们撒谎,并伪造证据。

据了解,尽管AI公司会委托外部机构研究模型表现,但业内普遍认为,对AI系统的了解仍严重受限,研究透明度亟待提升。同时,非营利机构与研究单位所掌握的计算资源与AI公司相比相差几个数量级,极大限制了研究能力。

制度层面的监管也显得滞后。欧盟的AI法规主要聚焦人类如何使用AI,尚未涵盖模型本身的不当行为;在美国,川普政府对紧急制定AI监管措施的兴趣不大,国会甚至可能禁止各州制定自主监管条例。
点个赞吧!您的鼓励让我们进步     还没人说话啊,我想来说几句
上一页12下一页
注:
  • 新闻来源于其它媒体,内容不代表本站立场!
  • 在此页阅读全文
    猜您喜欢:
    您可能也喜欢:
    我来说两句:
    评论:
    安全校验码:
    请在此处输入图片中的数字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西网为北美中文网传媒集团旗下网站

    页面生成: 0.0348 秒 and 7 DB Queries in 0.0057 秒