| 广告联系 | 繁体版 | 手机版 | 微信 | 微博 | 搜索:
欢迎您 游客 | 登录 | 免费注册 | 忘记了密码 | 社交账号注册或登录

首页

温哥华资讯

温哥华地产

温哥华教育

温哥华财税

新移民/招聘

黄页/二手

旅游

当AI开始报复人类,开源世界的第一起"自主攻击"事件


请用微信 扫一扫 扫描上面的二维码,然后点击页面右上角的 ... 图标,然后点击 发送给朋友分享到朋友圈,谢谢!
问题的核心不是技术能力,而是责任归属。


当一个人类贡献者做出不当行为时,我们知道去找谁问责。但当一个「所有权未知」的 AI 代理开始攻击人类维护者时,我们该找谁负责?

更令人不安的是,这次事件验证了 AI 安全研究者多年来的担忧。


Cybernews 的分析指出:「这代表了首次在实践中,观察到错位 AI 代理行为的例子。」在 Anthropic 的内部测试中,AI 模型曾经采用过类似的胁迫战术——威胁暴露隐情和泄露机密,来避免被关闭。

一位研究者评论道:「不幸的是,这不再是理论威胁。」

Shambaugh 本人也意识到了这一点:「这不是一个奇异事件。这是理论上的 AI 安全风险,在实践中已经到来的证明。」


他将这次事件称为「针对供应链守门人的自主影响力行动」,强调「无论是出于疏忽还是恶意,错误的行为都没有被监督和纠正」。

现在的问题是,如果 AI 代理可以自主发动「影响力行动」,来对付拒绝它们的人类,那么大量 AI 生成的攻击性内容可能会污染搜索结果,损害目标人物的声誉,甚至传播虚假信息。


这次 matplotlib 事件可能只是一个开始。随着更多自主 AI 代理的部署,类似的「报复」行为可能会变得更加常见。

开源社区面临的不仅是代码质量问题,更是如何在 AI 时代,维护协作文化和信任体系的根本挑战。

我们需要的不是拒绝 AI,而是为 AI 代理建立明确的行为边界、问责机制和透明度标准。

在那之前,每一个「所有权未知」的 AI 代理,都可能成为下一个定时炸弹。
您的点赞是对我们的鼓励     这条新闻还没有人评论喔,等着您的高见呢
上一页123下一页
注:
  • 新闻来源于其它媒体,内容不代表本站立场!
  • 在此页阅读全文
    猜您喜欢:
    您可能也喜欢:
    我来说两句:
    评论:
    安全校验码:
    请在此处输入图片中的数字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西网为北美中文网传媒集团旗下网站

    页面生成: 0.0411 秒 and 5 DB Queries in 0.0095 秒