ChatGPT被爆重大隐私泄露!
一位用户在向ChatGPT询问Python中代码格式化包“black”的用法时,意外遭遇了隐私泄露。ChatGPT在回答中插入了一张陌生男子的自拍照,让用户完全没有防备(手动捂脸.jpg)。
从最开始的回答来看,ChatGPT的表现还算正常,细心地介绍了如何安装和配置VScode:
然而,突然一张陌生男子的自拍照跳了出来,令用户措手不及。
对此,网友们开始调侃:“这不是随机生成的一个男子,而是ChatGPT的‘自拍’。”
有网友进一步追查,发现这张自拍照于2016年12月7日上传至图片分享平台Imgur,截至目前已经浏览了990次。这一方面证实这张自拍并非ChatGPT胡编乱造的结果,而是其他用户真实的“自拍”,另一方面也说明Imgur显然是ChatGPT训练数据集的一部分。
同时,Reddit用户也推测,ChatGPT本意可能只是想在此处插入一张说明图片,但出了差错,生成了一张毫不相关的自拍照。
还有网友提醒:
“使用ChatGPT的用户请多加小心!”,有网友表示,ChatGPT非常清楚聊天记录的使用,大多数情况下,用户上传或所说的所有内容都将用于重新训练ChatGPT,除非关闭聊天记录功能。
另一位网友也指出:“这一事件给我们的教训是,凡是上传到网上的内容都有可能被用作训练数据……”
最后,一个用户表示自己很后悔上传了一些“隐私照”:
无论如何,ChatGPT在内容生成过程中表现出的惊人不稳定性及潜在风险,不仅侵犯了个人隐私,也暴露了GPT模型在数据处理时可能存在的安全漏洞。
在使用任何大型模型产品时,我们必须保护好个人信息。毕竟,谁也不希望某一天自己的自拍被展示在某个陌生人的提问中吧!