ChatGPT的另一面:监控与隐私的风险
大多数用户使用ChatGPT主要是为了聊天、学习或办公。然而,现在一些“间谍软件”公司正在探索如何利用ChatGPT及其他新兴的AI技术监视社交媒体上的用户。
其中一家由俄罗斯企业家创立的Social Links公司正在利用ChatGPT作为助手,监控用户在Facebook、Instagram、Twitter和Telegram等社交平台上的通信。
在巴黎的一场安全展览会上,Social Links展示了利用ChatGPT进行“情感分析”的功能。通过AI评估社交媒体用户的情绪和群体热议话题,该工具能够帮助预测在线活动是否可能演变为真实暴力,以及是否需要采取执法行动。
早在2022年底,Meta就将该公司列为间谍软件供应商,并禁用了3700个用于抓取社交媒体信息的Facebook和Instagram帐户。然而,Social Links否认与这些账户有任何关联,且Meta的指控并未对其造成显著影响,该公司目前拥有500多位客户,其中一半位于欧洲,另有100多位在北美。
AI能否变得更加公正?
Social Links的一位分析师提供了一个案例,展示了他们如何使用AI工具评估网上对西班牙代理总理最近达成的有争议协议的反应。该AI工具扫描Twitter上包含特定关键词和标签的帖子,并通过ChatGPT评估这些帖子情感的积极、消极或中性,随后以交互式图表展示结果。同时,该工具还能够快速总结和剖析主要平台(如Facebook)上的在线讨论,提取常见的讨论主题。
一旦Social Links的工具标记某人在社交媒体上表达了“负面”情绪,Social Links就可以进行面部识别匹配。用户可以选择一张面部照片,使用Social Links的算法在社交媒体上寻找匹配,从而让执法机构对个人身份有更全面的了解。
尽管塔拉维拉表示公司不会存储面部图像,而是在网络上寻找匹配项,这一过程类似于在谷歌上进行反向图像搜索,Social Links还通过自己的面部识别软件,搜索公共社交媒体群组和用户的照片集合。
一位美国高级政策分析师在接受《福布斯》采访时表示,使用像ChatGPT这样的AI工具进行技术上的窃听,可能会放大错误的事实和偏见,也可能导致网络讨论变得冷漠。因为每个人都可能感觉到“他们正在被监视,不一定是由人类监视,而是被AI监控。AI能够记录你在网上的所有痕迹,可能会给你带来不公正的后果。”
OpenAI对此事并未作出回应,但ChatGPT的使用政策明确指出,禁止将其用于“侵犯他人隐私的活动”,如“未经个人同意跟踪或监控个人”。
Social Links则表示:“我们严格遵守OpenAI的政策,只使用ChatGPT进行文本分析:包括总结内容、识别主题、将文本分类为积极、中性或消极,并评估文本中的各个要素的情感。”
为了确保AI的公正性,Meta发言人Ryan Brack表示,Meta拥有一个超过100人的团队,专注于打击未经授权的网络爬虫,并可能对这些抓取者采取法律行动。
AI的“自相残杀”
同时,意大利的一家监控公司正在利用其最新的Gens.AI工具,根据一系列特征创建逼真的社交媒体人类头像。这些头像不仅看上去合法,还可以作为自主的AI个体在Facebook和Telegram等平台上活跃。该公司声称,只要这些头像足够真实,就能够“接近目标并建立信任关系”,避免被发觉,卧底调查人员可通过这些虚假资料获取关于犯罪嫌疑人的更多信息。
当将Social Links与Gens.AI等工具结合使用时,就形成了一种非常真实但奇特的“AI回音室”,由一个间谍软件公司开发的AI社交媒体监控软件用于监控另外由ChatGPT和其他大语言模型创建的AI角色。
或许,这就是AI间谍软件的“自相残杀”。