揭开 AI 关系聊天机器人的真相

![Emma McGowan](https://486579.fs1.hubspotusercontent- na1.net/hub/486579/hubfs/image%20(3) .png?width=48&height=48&name=image%20(3).png)
2024年2月14日

最近,Mozilla发布的一份报告发现,浪漫AI聊天机器人的激增正引发一系列新的隐私担忧。

自20世纪60年代以来,AI浪漫伴侣一直是流行文化中的一部分。从《我生活的玩偶》中像“罗达·米勒”这样的全身机器人到2013年《她》中斯嘉丽·约翰逊配音的无形声音,我们已经集体梦想着人工智能能够满足我们所有的情感需求。而现在,随着生成AI的发展与发布,这个梦想似乎终于有可能变为现实。

但这是一个美梦吗?还是我们正在无意识地走入隐私噩梦?Mozilla的研究团队在最近的 __ 中对此进行了探讨。

结果令人震惊,在测试的11个聊天机器人中,有10个未能满足Mozilla的最低安全标准(这意味着它们未要求用户创建强密码,也没有处理任何安全漏洞的方式)。随着在GooglePlay商店下载量预计超过1亿,并且OpenAI的应用商店最近也迎来了,这个庞大的问题只会继续扩大。

但这份报告不仅仅是关于数字;它还涉及这些发现的重大潜在隐私影响。以ReplikaAI为例。根据Mozilla的说法,人们在这一应用上与“AI灵魂伴侣”分享他们最私密的想法、感受、照片和视频,而该应用不仅记录这些信息,还有可能将其出售给数据经纪人。同时,它还允许用户创建弱密码(如“111111”)的账户,导致所有这些敏感信息面临被黑客攻击的风险。

Calder表示,尽管这些隐私和安全缺陷已经“令人毛骨悚然”,但某些机器人还声称可以帮助用户解决心理健康问题。她以RomanticAI为例,指出其中这样写道:

“Romantic AI既不是医疗保健或医疗服务的提供者,也不提供医疗、心理健康或其他专业服务。只有您的医生、治疗师或其他任何专家可以做到。RomanticAI不做任何关于服务提供治疗、医疗或其他专业帮助的声明、陈述、保证或担保。”

然而,他们的网站却说:“RomanticAI旨在维护您的心理健康”(重点是他们的)。虽然我们没有数字来说明有多少人阅读条款和条件与有多少人阅读网站,但可以肯定的是, 许多 人更容易接收到网站的信息而不是免责声明。

在心理健康的主张和客户自愿分享的个人和私人信息之间,Calder担心这些机器人可能会轻易操纵人们做出他们平时不会做的事情。

“有什么能阻止坏人创建聊天机器人来了解他们的灵魂伴侣,然后利用这种关系操控那些人去做可怕的事情、接受可怕的意识形态或伤害自己或他人?”Calder说。“这就是为什么我们迫切需要在这些AI应用中实现更多透明度和用户控制。”

因此,虽然AI聊天机器人承诺提供陪伴,但我们还没有达到《她》的水平:目前的局面揭示了用户隐私是入场费的严峻现实。现在是时候让用户、开发者和政策制定者要求透明度、安全性以及对个人边界的尊重,才能安全探索这些数字伴侣的潜力,而不会妥协我们的数字自我。

Leave a Reply

Required fields are marked *