Home
JournalsCollections
For Authors For Reviewers For Editorial Board Members
Article Processing Charges Open Access
Ethics Advertising Policy
Editorial Policy Resource Center
Company Information Contact Us
OPEN ACCESS

ChatGPT成为论文作者,行还是不行?

  • 裴磊
Medical Research & Publication   2023;9(1-4):96-100

doi: 10.14218/MRP.2023.003S

Published online:

 Author information

最近,风靡全球的人工智能(AI)聊天机器人ChatGPT(图1)正在颠覆包括学术界在内的许多行业,并且在科学文献中ChatGPT也获得正式亮相——在已发表的论文和预印本上至少获得了四份作者署名。

人工智能聊天机器人ChatGPT正在颠覆包括学术界在内的许多行业(图片来源:Iryna Imago/Shutterstock)。
图1  人工智能聊天机器人ChatGPT正在颠覆包括学术界在内的许多行业(图片来源:Iryna Imago/Shutterstock)。

2022年11月,加州旧金山的科技公司OpenAI作为一款免费工具发布了聊天机器人ChatGPT(图2)。期刊编辑、研究人员和出版商现在正在讨论这类人工智能工具在已发表文献中的地位,以及将机器人作为作者引用是否合适。出版商们正在为人工智能的合理使用制定政策。

ChatGPT是由OpenAI公司开发的,这是一家总部位于加州的公司,以其GPT-3软件而闻名。
图2  ChatGPT是由OpenAI公司开发的,这是一家总部位于加州的公司,以其GPT-3软件而闻名。

GPT-3软件用于回复文本(图片来源于ChatGPT: OpenAI’s new Artificial Intelligent chatbot | by Abhishek Srivastava | Dec, 2022 | Medium)。

ChatGPT是一个大型语言模型(LLM),它通过模仿从互联网上整理的巨大文本数据库中的语言统计模式来生成符合逻辑的文字和语言。ChatGPT正在颠覆包括学术界在内的多个领域,尤其在学术论文和研究成果的应用方面,科学家们对此提出了质疑。

《自然》出版商和预印本服务器的新闻团队一致认为,ChatGPT等人工智能不符合研究作者的标准,因为它们无法对科学论文的内容和完整性负责,例如,一位编辑告诉《自然》杂志,ChatGPT被错误地引用为合著者,该杂志将纠正这一错误。但有些出版商却表示,人工智能对论文写作的贡献可以在作者列表以外的地方得到承认。

ChatGPT是2022年12月发布在医学数据库medRxiv上的一篇关于使用该工具进行医学教育的预印本论文的12位作者之一(图3)。纽约冷泉港实验室出版社(Cold Spring Harbor Laboratory press)副主任、联合创始人理查德•塞弗(Richard Sever)表示,该信息库及其姐妹网站bioRxiv背后的团队正在讨论在撰写研究报告时使用和信任ChatGPT等人工智能工具是否合适。

2022年12月发表的一篇预印本论文中,作者中出现了ChatGPT的名字(图片来源https://www.medrxiv.org/content/10.1101/2022.12.19.22283643v1.ful)。
图3  2022年12月发表的一篇预印本论文中,作者中出现了ChatGPT的名字(图片来源https://www.medrxiv.org/content/10.1101/2022.12.19.22283643v1.ful)。

理查德•塞弗说:“我们需要区分学术手稿作者的正式作者和一般作者的概念。”作者应对他们的作品承担法律责任,所以只有人应该被列为作者。但人们可能会试图悄悄地把人工智能写进来——这已经在medRxiv上发生过了——就像人们在过去的期刊文章中把宠物、虚构的人物等列为作者一样,但这是一个检查问题,而不是政策问题。(这篇预印本的通讯作者、加州山景城Ansible Health的医疗总监维克多•曾森(Victor Tseng)没有回应置评请求。)

本月发表在《护士教育实践》(Nurse Education in Practice)杂志上的一篇社论将ChatGPT与英国曼彻斯特大学的健康技术研究员西沃恩•奥康纳(Siobhan O 'Connor)列为合著者(图4)。该杂志的主编罗杰•沃森说:“这是错误的,应该得到纠正。”他认为,社论与研究论文的管理系统不同。

发表在 2023年1月的 Nurse Education in Practice的这篇论文的题目是《护理教育中的开放人工智能平台:学术进步的工具?还是滥用?》(Open Artificial Intelligence Platforms in Nursing Education: Tools for Academic Progress or Abuse?)这是和 ChatGPT联署的期刊论文(图片来源第1篇 ChatGPT联署期刊论文 – 教育技术学自留地 (jiaojianli.com))。
图4  发表在 2023年1月的 Nurse Education in Practice的这篇论文的题目是《护理教育中的开放人工智能平台:学术进步的工具?还是滥用?》(Open Artificial Intelligence Platforms in Nursing Education: Tools for Academic Progress or Abuse?)这是和 ChatGPT联署的期刊论文(图片来源第1篇 ChatGPT联署期刊论文 – 教育技术学自留地 (jiaojianli.com))。

香港一家人工智能药物研发公司Insilico Medicine的首席执行官亚历克斯•扎沃龙科夫(Alex Zhavoronkov)称赞ChatGPT成为上个月发表在《肿瘤科学》(Oncoscience)杂志上一篇观点文章的合著者(图5)。他表示,他的公司已经发表了80多篇由人工智能工具生成的论文。这篇最新的论文讨论了服用雷帕霉素的利与弊。Zhavoronkov说,ChatGPT写的文章比前几代人工智能工具要好得多。他表示,在他要求编辑这样做之后,Oncoscience的同行审查了这篇论文。该杂志没有回应《自然》杂志的置评请求。

ChatGPT 以共同作者的身份,与英矽智能创始人兼首席执行官 Alex Zhavoronkov 博士在科学期刊 Oncoscience 发表了一篇研究观点文章, 通过帕斯卡赌注(Pascal's Wager)的哲学框架探讨了雷帕霉素(Rapamycin)在抗衰老方面的应用(图片来源ChatGPT首次与人类一起,成为了“共同作者”-36氪 (36kr.com))。
图5  ChatGPT 以共同作者的身份,与英矽智能创始人兼首席执行官 Alex Zhavoronkov 博士在科学期刊 Oncoscience 发表了一篇研究观点文章, 通过帕斯卡赌注(Pascal's Wager)的哲学框架探讨了雷帕霉素(Rapamycin)在抗衰老方面的应用(图片来源ChatGPT首次与人类一起,成为了“共同作者”-36氪 (36kr.com))。

瑞典哥德堡Sahlgrenska大学医院的神经生物学家Almira Osmanovic说,第四篇文章是由早期的聊天机器人GPT -3共同撰写的,并于2022年6月发布在法国预印本服务器HAL上,很快将在同行评审期刊上发表。她说,有一家期刊在审查后拒绝了这篇论文,但另一家期刊在她应审稿人要求重写了这篇文章后,以GPT-3作为作者接受了这篇论文。

出版商的政策

《自然》和《科学》的主编告诉《自然》的新闻团队,ChatGPT不符合作者的标准(图6)。伦敦《自然》杂志主编Magdalena Skipper说:“作者身份意味着对工作负责,这不能有效地适用于语言模型。” Nature 列出两项原则:

  • 任何大型语言模型工具(比如 ChatGPT)都不能成为论文作者;

  • 如在论文创作中用过相关工具,作者应在“方法”或“致谢”或适当的部分明确说明。

针对 ChatGPT,Nature 团队及很多出版商、平台均认为,该工具无法对科学论文的完整性及内容本身负责(图片来源Nature官网https://www.nature.com/articles/d41586-023-00191-1)。
图6  针对 ChatGPT,Nature 团队及很多出版商、平台均认为,该工具无法对科学论文的完整性及内容本身负责(图片来源Nature官网https://www.nature.com/articles/d41586-023-00191-1)。

华盛顿特区《科学》(Science)期刊家族主编霍尔顿•索普(Holden Thorp)说:“我们不会允许人工智能在我们发表的论文中被列为作者,而使用人工智能生成的文本没有适当的引用可能会被视为抄袭。”

伦敦的Taylor & Francis出版社出版伦理和诚信主管Sabina Alam说,他们正在重新审视自己的政策。她同意作者对其工作的有效性和完整性负责,并且应该在致谢部分引用语言模型LLM的任何使用情况。Taylor & Francis目前还没有收到任何将ChatGPT列为合著者的意见书。

物理科学预印本服务器arXiv的董事会已经进行了内部讨论,并开始在使用人工智能的方法上达成一致。位于大学公园的宾夕法尼亚州立大学的天文学家、科学总监斯坦恩•西于尔兹松(Steinn Sigurdsson)说,他同意软件工具不能成为提交内容的作者,部分原因是它不具有同意使用条款和发布内容的权利。Sigurdsson并不知道arXiv有任何将ChatGPT列为合著者的预印本,并表示新的作者指南即将出台。

AI的伦理

伦敦英国研究诚信办公室(UK Research Integrity Office)的主任马特•霍奇金森(Matt Hodgkinson)说,现在他们已经有了明确的作者准则,意味着ChatGPT不应该被视为合著者。他说,合著者需要对文章做出“重大的学术贡献”。如果ChatGPT等工具能够实现,那么它也必须对研究承担责任——或者,至少是它贡献的部分。

Zhavoronkov说,当他试图让ChatGPT写出更具有技术性的论文时,它并不具备这个能力。它经常会返回不正确的语句,而且如果你多次问它同一个问题,它会给你不同的答案。所以,如果ChatGPT在学术界被使用肯定会产生大量问题。

References

  1. ChatGPT listed as author on research papers: many scientists disapprove. https://www.nature.com/articles/d41586-023-00107-z View Article PubMed/NCBI
  2. Kung TH, Cheatham M, Medenilla A, Sillos C, De Leon L, Elepaño C, et al. Performance of ChatGPT on USMLE: Potential for AI-Assisted Medical Education Using Large Language Models. medRxiv 2022 View Article PubMed/NCBI
  3. O’Connor S, ChatGPT. Open artificial intelligence platforms in nursing education: Tools for academic progress or abuse?. Nurse Educ Pract 2023;66:103537 View Article PubMed/NCBI
  4. Zhavoronkov A, ChatGPT Generative Pre-trained Transformer. Rapamycin in the context of Pascal’s Wager: generative pre-trained transformer perspective. Oncoscience 2022;9:82-84 View Article PubMed/NCBI
  5. Thunström AO, Steingrimsson S, Gpt Generative Pretrained Transformer. Can GPT-3 write an academic paper on itself, with minimal human input? 2022. Available from: https://hal.science/hal-03701250 View Article PubMed/NCBI