无法阻止ChatGPT杀入学术圈,Nature一周连发两文引发大辩论

推荐使用ChatGPT4.0中文网,国内可直接访问:www.chatgp4.com

在科技巨头之间为了ChatGPT展开激烈竞争的同时,学术界对其关注度也在逐步上升。最近一周,《Nature》期刊连续发布了两篇文章,深入探讨ChatGPT及生成式AI的相关问题。

最初,ChatGPT在学术界引起了广泛讨论,许多学者尝试使用它来撰写论文摘要或修改学术论文。因此,《Nature》特意发布了禁令,明确规定 ChatGPT 不能作为论文的作者,而《Science》则全面禁止以ChatGPT生成的文本进行投稿。

尽管如此,趋势已然显现,学界亟需明确 ChatGPT 在科学研究中的角色和影响。

如《Nature》所言,生成式AI及其背后的技术发展迅猛,几乎每月都会有新的创新出现。研究人员如何使用这些工具,将在很大程度上决定新技术与学术界的未来。

ChatGPT改变学术规则

在题为《ChatGPT:五大优先研究问题》的文章中,研究人员指出,无法阻止ChatGPT进入学术领域,亟需探讨其潜在影响。随着ChatGPT可能被用于设计实验、进行同行评审、辅助出版以及帮助编辑判断文章接收与否,学界需要明确哪些问题需加以关注。

研究团队认为,应优先考虑以下五个方面,并详细解释原因。

1. 坚持人类审查

ChatGPT等对话式AI的一个突出特点是,回答内容的准确性无法得到保障。即使错误的表述听起来很自然,依然容易误导用户。例如,当研究人员让ChatGPT总结一篇关于认知行为疗法(CBT)治愈焦虑的论文时,结果却包含许多事实错误。ChatGPT声称该评估是基于46项研究,而实际上应为69项,并且夸大了CBT的有效性。

因此,研究者警告,如果学者们依赖ChatGPT进行研究,他们可能会被错误信息所误导,甚至在无意中剽窃他人的成果。因此,在论文评审过程中,必须避免过度依赖自动化系统,最终的责任仍需由人类承担。

2. 制定问责规则

为了应对生成式AI的滥用,各种AI文本鉴别工具纷纷问世,它们能够有效分辨一段文字是否为人类撰写。然而,研究人员认为,与其进行这种“军备竞赛”,不如促使学术圈和出版商更加公开透明地使用AI工具。论文作者应清楚标注哪些工作是由AI完成的,而期刊在使用AI进行审稿时,也应公开说明。

此外,目前关于生成式AI引发的专利问题尚无定论。AI生成的图像版权究竟归谁?是为AI提供训练数据的人、制作公司的所有者,还是使用AI撰写的学者?这些作者身份的问题需要清晰定义。

3. 投资真正开放的LLM

目前,许多先进的对话式AI由科技巨头开发,其背后的算法运作原理仍不明确。这引发了社会各界对巨头垄断行为的担忧,认为这违背了科学界开放原则,并可能妨碍学术界对对话式AI缺陷的探讨,进而影响科技进步。

为了克服这种不透明性,研究团队认为应优先考虑开源AI算法的开发与应用。例如,开源大模型BLOOM是由1000位科学家联合发起的,性能上能与GPT-3匹敌。

4. 拥抱AI的优点

尽管在许多方面需要设限,但不可否认,AI有潜力提高学术研究的效率。例如,AI可以快速完成审查工作,解放学者的精力,让他们能够更加专注于实验,从而加快成果的发表进度,推动整个学术界的发展。

在某些创造性工作中,AI也能发挥重要作用。早在1991年,就有开创性论文提出,人类与AI之间形成的“智能伙伴关系”,有可能超越单独人类的智力与能力,推动创新达到前所未有的水平。不过,关键在于这种自动化的适度与界限。

5. 展开大辩论

考虑到当前LLM带来的深远影响,研究人员呼吁学界紧急展开一次大辩论。他们建议每个研究小组立即召开会议,讨论并亲自尝试使用ChatGPT。大学教师应主动与学生探讨ChatGPT的应用及伦理问题。在尚未明确规则的早期阶段,各研究小组的负责人需鼓励团队更公开透明地使用ChatGPT并制定相应规则。同时,所有研究人员应对自己的成果负责,无论其是否使用了ChatGPT。

进一步来说,研究团队建议立即举办国际论坛,聚集各领域的科学家、科技公司代表、投资者、出版商、非政府组织及法律与隐私方面的专家,共同探讨LLM的研究与应用问题。

结语

许多研究人员对于ChatGPT的前景充满期待与担忧。随着ChatGPT日渐成为许多学者的数字助手,更多人开始尝试将其应用于修改论文、审查手稿和撰写PPT等日常工作中。

然而《Nature》对ChatGPT输出内容的总结却言简意赅:流畅但不准确。ChatGPT的一大缺陷在于生成的内容不一定真实准确,这将直接影响其在学术界的应用效果。

从当前的发展状况来看,是否能解决这一问题尚不明朗。尽管ChatGPT的竞争对手Anthropic声称已解决了一些问题,却未参与《Nature》的采访。元公司曾推出名为Galactica的语言模型,号称擅长生成学术内容,但由于用户发现其带有种族歧视,该模型的演示版已不再开放。

无论如何,ChatGPT及生成式AI都为人类打开了一扇新的想象之门。医学学者埃里克·托普(Eric Topol)表示,他期待未来能够利用包含LLM的AI,对学术文献中的文本和图像进行交叉验证,以帮助人类更好地诊断癌症和理解疾病。但这一切都需要专家监督。

正如他所言,令人惊讶的是,在2023年年初,我们就已经目睹了这样的趋势,这才仅仅是一个开始。

滚动至顶部