在过去的2个多月的时间里,许许多多的科学家和科学研究人员,尝试使用ChatGPT辅助科学研究过程中的某些任务,取得了令人振奋的成绩,也发现了许多发人深思的问题。
研究人员和其他人已经使用 ChatGPT 和其他大型语言模型来撰写论文和演讲稿、进行文献综述、起草论文和修改完善论文,以及找到和确定研究差距与研究空白,编写计算机代码,包括统计分析。
很快,这项技术将发展到可以设计实验、撰写和完成手稿、进行同行评审以及支持编辑决定接受或拒绝手稿的程度。
为此,有不少人惊呼,ChatGPT之类的聊天机器人在一定程度上可以说是科学研究的游戏规则改变者。
ChatGPT之类的聊天机器人可能会彻底改变科学研究实践和学术出版,从而创造更多的机会和更多的担忧。
它可能会加速创新过程,缩短出版时间,并通过帮助人们流利地写作,使科学变得更加公平,从而增加科学观点和学术思想的多样性。
然而,它也可能会降低研究的质量和透明度,并从根本上改变我们作为人类研究人员的自主权。
ChatGPT 和其他大型语言模型所生成的文本令人信服,但往往是错误的,因此,将其应用到科学研究实践中,如使用不当,可能会歪曲科学事实,甚至传播错误信息
将生成性人工智能创造性地应用于科学研究的过程之中,无论是文献研读、写作、思路凝练、文献萃取、甚至文本声称,我们应当鼓励研究人员创新应用,但是,无论是研究人员,还是编辑和审稿人员,应当始终坚持人工验证,这是我们的基础和前提。
不仅如此,对于科学研究机构、高等院校、科研院所、期刊杂志、学术会议、和学术评审部门,应当及时升级更新规则,制定问责机制。
学术论文和学位论文的作者,在论文贡献声明和致谢部分,应当清楚具体地说明,在准备手稿和收集与数据分析等过程中,作者是否使用了AI 以及在何种程度上使用了 ChatGPT 等人工智能技术。他们还应该明确地指出使用了哪些大型语言模型或其他人工智能技术。这将提醒编辑和审稿人更仔细地审查手稿,以发现潜在的偏见、不准确和不正确的来源来源。
同样,科学期刊应该对大型语言模型的使用保持透明,例如,在选择提交的手稿时。