kaiyun官方注册
您所在的位置: 首页> 其他> 业界动态> Nature 新规:用 ChatGPT 写论文可以,列为作者不行

Nature 新规:用 ChatGPT 写论文可以,列为作者不行

2023-01-29
来源:量子位

面对ChatGPTNature终于坐不住了。

本周,这家权威学术出版机构下场,针对 ChatGPT 代写学研文章、被列为作者等一系列问题,给了定性。

具体来说,Nature 列出两项原则:

(1)任何大型语言模型工具(比如 ChatGPT)都不能成为论文作者;

(2)如在论文创作中用过相关工具,作者应在“方法”或“致谢”或适当的部分明确说明。

现在,上述要求已经添进作者投稿指南中。

近段时间,ChatGPT 染指学研圈情况越来越多。

去年 12 月一篇雷帕霉素抗衰老应用的论文中,ChatGPT 就曾被列为一作,引发业内争议。该篇之外,还有不少研究将 ChatGPT 列为作者。

Nature 也已注意到此类状况,他们于 12 月进行了一项调研显示,293 名受访的教授老师中,20% 已经发觉或目睹学生在用 ChatGPT 完成作业或论文,更多人对此表示担忧。

此次,Nature 所发表的声明,正是希望对种种争议给予定性。

多篇论文已将 ChatGPT 列为作者

ChatGPT 由 OpenAI 在去年 11 月末推出,因其表现大幅超越此前大型语言模型(LLM),迅速成为岁末年初第一号“窜天猴”。

在新媒体、影视、软件开发、游戏互动等领域中,ChatGPT 被迅速加以利用,辅助生产提升效能。

学研圈也不例外。

据 Nature 统计,使用 ChatGPT 并将其列为作者的论文最少有 4 篇。

其中一篇预印本在 2022 年 12 月发表于医学预印本资料库 medRxiv 上。该论文研究了 ChatGPT 在美国医学执照考试中的表现。尽管研究关于 ChatGPT,但作者栏中也列上了 ChatGPT。

另一篇论文发表在《护士教育实践》杂志上,关于开放人工智能平台在护理教育中的利弊,同样,ChatGPT 被列入作者栏:

第三篇论文来自 AI 药物研发公司 Insilico Medicine,内容关于一种新药雷帕霉素,发表于《Oncoscience》。同样,ChatGPT 被列为作者。

第四篇稍显“古早”,发表于 2022 年 6 月,探讨主题就是 ——AI 生成论文的能力如何。被列入作者一栏的 AI 也并非 ChatGPT,而是更早发布的 GPT-3。

尽管上述研究内容多少都与生成语言模型有关,但对于严肃的科研活动来说,使用“研究对象”写论文,并将其列入作者栏,不可避免引发了争议和质疑。

且即便不将 AI 列为作者,学研圈使用 ChatGPT 的情况也越来越普遍。

前文提及 AI 药物研发公司 Insilico Medicine 的 CEO,Alex Zhavoronkov,他透露道,其所在的机构已发表了 80 多篇由 AI 工具生成的论文。

英国教授 Mike Sharples 一直关注生成 AI 对学术研究的影响。不久前,他在推特上亲手演示了如何用大型语言模型 10 分钟生成一篇学术论文,一步步描述自己如何用 AI 根据标题生成摘要,也引发不小讨论。

学生使用 ChatGPT 帮助撰写论文、生成代码、完成作业更为普遍,目前,美国已有部分地区教育机构禁止使用该工具。

就在上周,北密歇根大学一位学生依靠 ChatGPT 写出全班最高分论文。

有意思的是,该学生之所以被抓住,是因为所提交文章逻辑过于连贯,结构过于合理,以至于导师专门去质问了一下才得知真相。

△ 北密歇根大学

需要明确的是,上述抓包只是偶然,更多时候,生成内容已让科学家们真假难辨。

Nature 此前一篇文章指出,ChatGPT 发布后,伊利诺伊州西北大学一个研究小组就在探究,使用该 AI 工具生成医学论文摘要,科学家是否能识别。

结果发现,AI 生成摘要均通过了抄袭检测器,在人工审核中,32% 的 AI 生成摘要被认为是真实人类完成的。

已在开发辨别工具

此番 Nature 下场,表明了他们对 ChatGPT 引发问题的重视。

在最新内容中,Nature 表示,学研圈都在担心,学生及研究者们可能会以大型语言模型生成的内容当作本人撰写的文本,除却冒用风险外,上述过程还会产生不可靠的研究结论。

尤其针对 ChatGPT,Nature 团队及很多出版商、平台均认为,该工具无法对科学论文的完整性及内容本身负责。

一个侧面佐证是科技媒体 CNET 这两天曝出,该平台 AI 编写的 77 篇内容中,41 篇有错误,目前,平台已予以更正,并表示将暂停此种方式生产内容。

正是基于对上述情况的担忧,Nature 出台了相关规定。

至于如何分辨 AI 生成内容?

Nature 表示,目前 ChatGPT 原始输出可以通过仔细检查而被发现,尤其涉及具体科学工作时,内容可能包含最简单的错误及泛泛乏味的措辞。此外,Nature 也表示,他们还在开发相关识别技术。

值得一提的是,相关识别工具也有人开发出来了。

比如 OpenAI 自己推出的 GPT-2 Output Detector,输入 50 个以上字符(tokens)就能较准确地识别 AI 生成的文本。

再比如普林斯顿大学生 Edward Tian,也做出过相关工具 GPTZero。

不过,并非所有大学教授和老师对 AI 生成工具持否定态度。

比如宾大沃顿商学院一位教授 Ethan Mollick,反其道而要求学生使用 ChatGPT 完成课堂作业,并认为这是在拥抱新兴技术工具。

论文发表平台 medRxiv 一位工作者也表示,ChatGPT 也不算新麻烦。

他认为,此前,研究者都尝试偷偷加入宠物、虚构人物名字。因此,他们认为,问题核心是 —— 需要继续加强检查。

最后问问,你在科研工作中用了 ChatGPT 么?

参考链接:

[1]https://www.nature.com/articles/d41586-023-00191-1

[2]https://www.nature.com/articles/d41586-023-00056-7

[3]https://www.nature.com/articles/d41586-023-00204-z

[4]https://www.theverge.com/2023/1/26/23570967/chatgpt-author-scientific-papers-springer-nature-ban

[5]https://www.businessinsider.com/wharton-mba-professor-requires-students-to-use-chatgpt-ai-cheating-2023-1

本文来自微信公众号:量子位 (ID:QbitAI),作者:詹士




更多信息可以来这里获取==>>电子技术应用-AET<<

本站内容除特别声明的原创文章之外,转载内容只为传递更多信息,并不代表本网站赞同其观点。转载的所有的文章、图片、音/视频文件等资料的版权归版权所有权人所有。本站采用的非本站原创文章及图片等内容无法一一联系确认版权者。如涉及作品内容、版权和其它问题,请及时通过电子邮件或电话通知我们,以便迅速采取适当措施,避免给双方造成不必要的经济损失。联系电话:010-82306116;邮箱:aet@chinaaet.com。
Baidu
map