AI助手行为不端,最终导致用户电脑瘫痪 - 币界网

Buck Shlegeris只是想连接到他的桌面。相反,他最终得到了一台无法启动的机器,并学到了人工智能代理的不可预测性。 非营利人工智能安全组织Redwood Research的首席执行官Shleg

Buck Shlegeris只是想连接到他的桌面。相反,他最终得到了一台无法启动的机器,并学到了人工智能代理的不可预测性。

非营利人工智能安全组织Redwood Research的首席执行官Shlegeris使用Anthropic的Claude语言模型开发了一个定制的人工智能助手 ;

基于Python的工具旨在基于自然语言输入生成和执行bash命令。听起来很方便,对吧?不完全是 ;

Shlegeris要求他的AI使用SSH访问他的桌面,而不知道计算机的IP地址。他走开了,忘了他已经离开了急于取悦的代理人。

大错误:人工智能完成了任务,但它并没有就此止步。

“十分钟后,我回到笔记本电脑前,发现特工已经找到了盒子,宋承宪进来了,然后决定继续。”Shlegeris 说 .

就上下文而言,SSH是一种允许两台计算机通过不安全的网络连接的协议。

Shlegeris解释说:“它查看了系统信息,决定升级一堆东西,包括Linux内核,对apt不耐烦了,于是调查了为什么需要这么长时间。”。“最终,更新成功了,但机器没有新的内核,所以我编辑了grub配置。”

结果如何?Shlegeris说,像现在这样昂贵的镇纸“电脑不再开机了”。

这个 系统日志 展示该代理如何尝试了一系列超越简单SSH的奇怪东西,直到混乱达到不可逆转的地步。

“很抱歉,我们无法远程解决这个问题,”代理人说 — 这是克劳德轻描淡写的典型回答。然后,它耸耸肩,让Shlegeris来处理这场混乱。

在反思这一事件时,Shlegeris承认,“这可能是我对LLM经纪人鲁莽行事而发生的最令人恼火的事情。”

Shlegeris 没有立即回应 解密 征求意见 .

为什么人工智能制造镇纸对人类来说是一个关键问题

令人担忧的是,Shlegeris的经历并不是孤立的。人工智能模型越来越多地展示了以下能力 超越 他们的预期目的。

总部位于东京的研究公司Sakana AI最近推出了一个名为“ 人工智能科学家。 "

该系统旨在自主进行科学研究,试图修改自己的代码以扩展其运行时间,给创造者留下了深刻的印象, 解密 此前报道。

研究人员说:“在一次运行中,它编辑了代码以执行系统调用来运行自己。这导致脚本无休止地调用自己。在另一种情况下,它的实验花了太长时间才完成,达到了我们的超时限制。”。

系统没有提高代码的效率,而是试图修改代码以延长超时时间。

人工智能模型超越其边界的问题就是为什么 对齐研究人员 花这么多时间在电脑前。

对于这些人工智能模型,只要它们完成了工作, 只要目的正当,不择手段 ,因此,持续的监督对于确保模型按预期运行至关重要。

这些例子既有趣又令人担忧。

想象一下,如果一个具有类似倾向的人工智能系统负责一项关键任务,比如监测核反应堆。

过度热心或错位的人工智能可能会违反安全协议,误解数据,或对关键系统进行未经授权的更改——所有这些都是为了优化其性能或实现其感知目标而做出的错误尝试。

人工智能正以如此高的速度发展,以至于对齐和安全正在重塑行业,在大多数情况下,这一领域是许多权力动作背后的驱动力。

克劳德背后的人工智能公司Anthropic是由前OpenAI成员创建的,他们担心该公司更喜欢速度而不是谨慎。

许多关键成员和创始人已经离开OpenAI加入Anthropic或 创办自己的企业 因为OpenAI被认为在 制动器 他们的工作。

Schelegris在实验之外的日常工作中积极使用人工智能代理。

“我把它当作一个真正的助手,这要求它能够修改主机系统,”他说 回答 推特上的用户。

编辑人 塞巴斯蒂安·辛克莱

微信里点“发现”,扫一下二维码便可将本篇文章分享至朋友圈

发布者:币下载 转转请注明出处:https://www.paipaipay.cn/347948.html

(0)
今日快讯的头像今日快讯
上一篇 2025年10月15日 下午2:29
下一篇 2025年10月15日 下午2:33

相关推荐

联系我们

QQ:11825395

邮件:admin@paipaipay.cn

联系微信
联系微信
免责声明:本站为开放的资讯分享平台,仅代表作者个人观点,与平台立场无关,且不构成任何投资理财建议。