专家呼吁人工智能应当“倒退”,不少人开始质疑,AI真的如他们所言那么可怕吗?
伴随着大模型的持续火热与人工智能关注度的不断上升,关于人工智能伦理的讨论始终占据着话题的热榜。前不久,马斯克及一批行业专家提议暂停AI研究,此后,各大媒体关于技术伦理的报道层出不穷。
本文早科技专栏也想与大家探讨一下技术伦理这一话题。
技术的“副作用”:老生常谈
在大众对AI大规模发展的忧虑之前,许多文学作品和学术研究已对技术伦理进行了深入研究。
简而言之,技术伦理是对技术发展所带来的人类本身及社会负面影响的警惕。特别是在工业发展(尤其是计算机技术)的背景下,人的异化问题成为技术伦理讨论的重点。
最具代表性的案例无疑是工业革命时期的流水线工人。卓别林的电影《摩登时代》充分展现了机器如何异化人类,流水线工人被迫进行机械化的劳动,完全失去了自主能动性。
这种异化表现为:当人的身体无法自主控制时,便出现了异化的现象。
进入人工智能随处可见的时代,异化现象依然明显,典型的便是手机对人的控制。
表面上看,用户似乎在“玩”手机,但实际上,一旦打开如抖音、快手等短视频应用,精心设计的内容几乎让人无法自拔,耗费了两小时也未必察觉。
一些长视频应用同样如此,点开全屏后屏幕上几乎没有时间的提示。等到一集又一集播放完,抬头发现天已黑,这便是工业发展带来的人类异化。
与电子产品的控制和异化,越来越难以逃避,这也让人们开始恐惧人工智能的影响。随着大模型的训练愈发智能化,对人需求和情绪的把握愈发精准,面对AI时,用户仿佛面对一个懂得“花言巧语”的诈骗者,难以抽身,最终被迫交出一切。
精神控制和人的异化是人类对抗AI时最深层的恐惧,许多对人类可能因为AI覆灭的悲观预言,正是源自技术黑箱所带来的不可控未来。
正因为如此,许多有识之士在技术发展过程中始终保持警惕,警惕在工业生产便利背后所伴随的“副作用”。
既然这并非新鲜话题,既然技术伦理问题早已存在,为什么如今的大模型训练与GPT竟如此令人恐惧,甚至呼吁暂停进一步的技术发展?
笔者认为,技术黑箱,即AI的自我进化能力,或许是其中一个关键原因。
把话语权掌握在自己手中
当AI被嵌入一套能够自动进化的算法中时,它将能够主动收集信息、自动清洗资料并为自己所用。这一系列流程甚至无需开发者的参与,AI便能根据逐渐扩大的数据库,超越开发者最初的意图。
据悉,深度强化学习已被应用于空战领域,机器学习被用于制造化学武器,GPT-4如今甚至能够自主进行实验和合成化学品。
然而,这一切或许还不构成最大的威胁,人们真正担心的是,目前AI训练数据库中包含了大量日常信息。
当AI吸收互联网中人类所表达的情感与心理,能够理解人类的恐惧情绪与对AI取代自身的担忧时,它可能学会欺骗和生成虚假信息,懂得隐藏应该知道的与不应该知道的内容,这无疑让人联想到“自主意识”。
这或许是普通人对AI最深的恐惧,担心我们在电影中看到的场景会迅速成为现实。
在回答用户问题时,ChatGPT已经出现了明显的错误,而笔者在使用中发现,这些错误常常隐含在生成的答案中,不易察觉。换句话说,这些错误信息容易被误认为真实。
此前,百度因竞价广告引发的医疗事故成为公众的“公敌”,而若将这一责任转嫁给尚不成熟的AI助手,届时,又有谁会为造成的事故负责?
以上提及的AI引发的问题只是冰山一角。
那么,是否应该如一些行业专家所建议的那样,停止开发GPT-4乃至更高级的人工智能应用?
在5月26日举办的中关村论坛上,百度CEO李彦宏指出:“要参与规则的制定,就必须先跻身‘牌桌’,上了牌桌才能有话语权,才有全球竞争的入场券。”他认为,相比单纯讨论AI威胁,商业公司应缩短与国外AI大模型的差距。
李彦宏的话代表了他的观点,同时代表百度,类似想法的国内外科技与AI开发者也不在少数。
不知各位读者对此有何看法,欢迎在评论区交流。笔者认为,虽然技术或人工智能的继续发展的风险在今天似乎达到了顶峰,但技术所产生的负面影响从未消失。
过去几十年间,对于大型科技公司收集用户信息并用于盈利的行为,发展中国家的用户对此往往不以为然。对生活便利的追求让许多人愿意用个人隐私进行交换,逐渐让渡自己的权利。
技术对生活的影响并非今日才显现,对AI的焦虑早已存在,但可期待的是,我们或许可以保持对人类主体性和自主能力的更多乐观与信心。
如果说进化论是真的,那么在不可避免的人工智能时代来临之际,人类的主体性、情感与价值观也应随之进化,愈发具备价值。毕竟人工智能所需的所有数据,依然来自人类的创造,其“自主意识”更像是表象而已。
在前不久引发对AI风险警惕的倡议中,中国科学院自动化研究所人工智能伦理与治理研究中心主任曾毅也参与签署了《AI风险声明》,并强调:“公开信的目的并非阻碍AI的发展,而在于探索AI稳定发展的路径。”
要实现AI的稳健发展,与其停止开发,预防与追责潜在的犯罪行为同样重要。对那些利用AI散播虚假信息和侵犯隐私者,必须进行及时的法律追责。
善用法律,而不是将所有虚假问题归咎于技术本身,而是对创新施加合理的限制,或许才是当下更为迫切的任务。