语言学巨头乔姆斯基评ChatGPT:缺乏任何智能的关键能力,追捧就是浪费资源

推荐使用ChatGPT4.0中文网,国内可直接访问:www.chatgp4.com

人类语言与人工智能的边界:乔姆斯基对ChatGPT的看法

诺姆·乔姆斯基曾以“无色绿色的想法愤怒地沉睡”来强调语言学的重要性,认为人类语言的语法基础无法仅仅依赖于统计关系。如今,随着ChatGPT的崛起,科技领域又掀起了一轮军备竞赛,但AI领域仍有许多未解之谜:ChatGPT究竟是否代表真正的创新?它是否预示着通用人工智能的初步实现?对此,众多学者持有不同的观点,随着新技术的热度,相关讨论亦愈演愈烈。

而在语言学领域,诸如乔姆斯基等大佬是如何看待ChatGPT的进步呢?最近,著名语言学家诺姆·乔姆斯基、剑桥大学教授Ian Roberts及科技公司Oceanit人工智能总监Jeffrey Watumull在《纽约时报》上联合撰写文章,批判了大型语言模型的缺陷。

在科技巨头迅速推出类似于ChatGPT的产品,例如谷歌的Bard和微软的Sydney时,乔姆斯基承认这些机器学习技术的确是奇迹。但他也指出,这些程序的本质不过是在大量数据中搜索规律,然后生成看似人性化的语言和思想。

对AI的双重看法

乔姆斯基认为,这些大型语言模型被视为通用人工智能的曙光,然而他又强调了其存在的明显不足。他指出,当前人工智能技术的“进步”既令人担忧,又令人乐观:乐观地看,是因为智慧可以帮助我们解决问题;而担忧的是,由于机器学习模型在整合语言和知识方面的根本缺陷,可能会降低我们的科学水平和道德标准。

乔姆斯基的观点可以被归结为:虽然这些AI程序在某些狭窄领域可能有一定的实用性,但从语言学和知识哲学的角度来看,它们与人类推理和使用语言的方式存在显著差异。这些差异为这些程序的功能带来了极大的限制,形成了不可弥补的缺陷。

常识与智能的界限

乔姆斯基提出,机器学习程序,例如ChatGPT,与人脑的运作机制截然不同。人脑不仅能够通过少量信息有效工作,它所具备的能力在于能够超越纯粹的模式匹配而思考。例如,一个正在学习语言的孩子,能够迅速从有限的数据中形成复杂的语法,显现出一种内在的“操作系统”,从而自由表达复杂的思想。

他援引阿根廷作家博尔赫斯的话,指出若机器学习程序继续主导AI领域,那么类似“启示”的深刻理解将永远无法实现。他反对将太多的关注和资源投入到如此狭窄的领域,认为这既是悲剧也是喜剧。

机器的局限性与思维的深度

对于ChatGPT及其他程序,乔姆斯基指出,它们缺乏基本的智能能力:不仅能够描述发生了什么,也能够预测将要发生什么,但却无法进行真正的解释或推理。他用“苹果掉下来”的例子来说明,描述和预测只是认知的基础,而解释和因果关系才是真正智慧的体现。

在强调机器学习的限制时,乔姆斯基批评道,机器学习程序无法提供具有因果机制的解释,因此其预测往往是肤浅且不可信的。此外,他也指出,从某种角度来说,机器学习没有能力区分“可能”与“不可能”,这使得其输出常常更加模糊。

批判与创新的平衡

乔姆斯基对于ChatGPT等模型的批判,引发了业内广泛讨论。斯坦福大学的克里斯托弗·曼宁教授认为,乔姆斯基的观点夸大了机器学习算法的缺陷,且没有充分探讨其潜力。而DeepMind的研究总监Oriol Vinyals则站在实践者一方,他认为批评容易但建设性更为重要。

结论

总的来说,乔姆斯基对ChatGPT的评论不仅揭示了当前人工智能技术的限制,也反映了更广泛的哲学和伦理思考。面对AI的迅速发展,如何在创造力和道德约束之间找到平衡,仍然是一个值得深思的话题。那么,ChatGPT是否真的不值得被赞美?这仍然是一个令人深思的问题。

滚动至顶部