2025年初,OpenAI 宣布进一步加强对 ChatGPT 平台上恶意账户的打击力度,以遏制其被用于网络犯罪、虚假信息传播及其他恶意活动。这一举措不仅反映了 OpenAI 对技术安全的重视,也为 AI 行业的健康发展树立了新标杆。
根据 OpenAI 在2025年2月21日发布的报告,自2024年以来,公司已发现并阻止了超过20起利用 ChatGPT 进行恶意操作的案例。这些活动涉及来自中国、伊朗、朝鲜等地的威胁行为者,具体包括:
监控与情报收集:例如,一组疑似中国相关的账户利用 ChatGPT 开发名为“千月海外舆情 AI 助手”的社交媒体监控工具,旨在实时收集西方反华抗议活动的数据并分享给中国当局。
欺诈与伪造:朝鲜相关账户被发现使用 ChatGPT 生成虚假简历和求职材料,试图通过欺诈手段获取西方公司的职位。
虚假信息传播:伊朗和中国的网络试图利用 ChatGPT 生成针对美国及其他国家的负面文章,并在社交媒体和新闻网站上传播。
这些案例表明,ChatGPT 的强大生成能力正被恶意行为者利用,从网络钓鱼到舆论操控,威胁范围不断扩大。面对这一挑战,OpenAI 不得不采取更强硬的措施以保护其技术和用户。
延伸阅读:
为应对这一趋势,OpenAI 实施了一系列强化措施:
账户封禁与监测升级
2025年2月,OpenAI 封禁了数十个涉嫌恶意活动的账户,尤其针对来自中国和朝鲜的用户。仅在“Peer Review”监控工具案例中,就有多个账户因使用 ChatGPT 调试代码和生成销售文案被关闭。
公司还升级了其 AI 驱动的检测系统,能够更精准地识别异常行为模式,例如批量生成内容或异常登录地点。
政策与技术调整
OpenAI 更新了其服务条款,明确禁止将 ChatGPT 用于欺诈、监控或任何非法活动,并引入更严格的身份验证流程(如电话号码验证)。
在技术层面,公司优化了模型输出审查机制,减少生成可能被滥用的内容,如恶意代码或煽动性文本。
行业协作与信息共享
OpenAI 表示将与 Meta、谷歌等科技公司及网络安全研究人员分享威胁情报,以提升整个行业的防御能力。例如,其已将部分恶意账户的 IP 地址和行为特征提供给了合作伙伴。
这些措施显示出 OpenAI 从被动防御转向主动出击的决心,旨在将威胁扼杀在萌芽状态。
对用户与生态的影响
这一打击行动短期内可能导致部分正常用户因误判而受影响,例如中国地区的合法用户在 X 上抱怨账户被意外封禁。然而,从长远看,这有助于提升 ChatGPT 的安全性,增强用户信任。数据显示,ChatGPT 的周活跃用户已超过4亿,任何安全漏洞都可能引发严重后果。
对 AI 行业的启示
OpenAI 的行动为其他 AI 开发商提供了借鉴。谷歌在其 Gemini 模型中也发现了类似滥用情况,而 DeepSeek 等新兴竞争者则因成本低廉成为恶意行为的潜在工具。OpenAI 的主动披露和协作模式,可能推动行业建立更统一的安全标准。
未解之题与未来挑战
尽管措施力度加大,但恶意行为者可能转向其他开源模型(如 Meta 的 Llama)或自建 AI 系统,绕过 OpenAI 的限制。此外,如何在安全与用户隐私之间找到平衡,仍是未解难题。例如,强化身份验证可能引发隐私争议。
OpenAI 加强对 ChatGPT 恶意账户的打击力度,既是对当前威胁的果断回应,也是对 AI 技术未来发展的深远布局。通过技术升级、政策调整和行业合作,OpenAI 正在努力确保其技术不被滥用,同时维护用户的合法权益。