7位顶级大咖如何使用ChatGPT

短短一年时间,ChatGPT已渗透到科学研究领域。

11月30日,也正是 ChatGPT发布整一年的时候,《自然》杂志(Nature)采访了全球领先的七位研究人员,试图发现,《ChatGPT一周年:谁在使用它、如何使用以及为什么?》(ChatGPT one year on: who is using it, how and why?)

这七位研究人员分别是:Marzyeh Ghassemi, Abeba Birhane, Mushtaq Bilal, Siddharth Kankaria, Claire Malone, Ethan Mollick 以及 Francisco Tustumi。

七位科学家透露了他们对聊天机器人应该如何使用以及不应该如何使用的真知灼见。

Marzyeh Ghassemi

Marzyeh Ghassemi 是美国剑桥麻省理工学院电气工程和计算机科学系以及医学工程与科学研究所的计算医学助理教授。

在文章中,Marzyeh Ghassemi 使用 ChatGPT 主要是为了帮助以不同的风格重写内容。

例如,使科学摘要更适合一般受众,或者为财务官员总结她的研究。

Marzyeh Ghassemi 还用它来建议文章、电子邮件或论文开头的介绍性语言。

在这篇文章中,Marzyeh Ghassemi表示,她确实对这些生成式人工智能工具被用于内容创作感到担忧,无论是学生、学者、公司还是公众。例如,众所周知,生成模型会“产生幻觉”内容(即给出不正确或虚构的输出)。

更紧迫的是,文本和图像生成容易产生无法轻易修复的社会偏见。

在美国的一些医院,生成模型被用来管理和生成部分电子病历。

医院实际上有责任确保大语言模型的使用公平和准确。这是一个巨大的担忧。

例如,他们还发现聊天机器人可以根据患者的性别、种族和民族以及社会经济地位推荐不同的治疗方案。

Marzyeh Ghassemi 主张用大语言模型纠正而不是放大医疗保健中的偏见。

Abeba Birhane

Abeba Birhane 是 Mozilla 基金会人工智能问责制高级顾问,也是爱尔兰都柏林三一学院计算机科学与统计学院的兼职助理教授。

Abeba Birhane 指出,大语言模型已经进入主流,许多学者都感受到了跟上潮流的压力,否则就会被视为错过了机会。

他们可能并不知道如何使用这种人工智能技术,但他们认为这种日益强大的最先进技术必须以某种方式找到用途——就像锤子寻找钉子一样。

到目前为止,关于生成式人工智能工具将如何改变社会的假设比比皆是,但这项技术还没有明确或无可争议的用途。

在Abeba Birhane看来,从学术研究到新闻和政策报告,生成式人工智能的潜在好处通常都被夸大了。

它们的失败、局限性和缺点要么被省略,要么只是顺便提及。现有的关键讨论仅限于较小范围的主题,例如准确性、可靠性、性能以及模型训练数据和模型权重是封闭还是开源。这些都是重要的问题。

但很少有人提出一个基本问题:这项技术是否应该被使用——尤其是作为医疗保健等复杂、多方面挑战的“解决方案”?

Abeba Birhane认为,提出一个简单化的“技术解决方案”,比直面这些巨大挑战的根源要容易得多。

我们需要的是政治意志力以及权力和资源的公正分配,而不是大语言模型。

Mushtaq Bilal

Mushtaq Bilal 是丹麦欧登塞南丹麦大学汉斯·克里斯蒂安·安徒生中心的后殖民研究和世界文学博士后研究员。

在过去这一年里,Mushtaq Bilal 一直是自留地君膜拜与学习的超级偶像之一。

Mushtaq Bilal 将ChatGPT用作头脑风暴合作伙伴和概述研究论文的工具。

他认为,生成式人工智能非常适合创建结构,但不适合创建内容。

大语言模型经过训练可以预测句子中的下一个单词。这意味着聊天机器人生成的内容通常是可预测的,而原始研究则不然。 

相反,ChatGPT 可以作为头脑风暴的合作伙伴。它不会给你任何突破性的想法,但通过细心的提示,它肯定可以帮助你往正确的方向思考。

它还可以提出研究论文的大纲,作为起点。

OpenAI 最近推出了针对特定目的(包括教学和研究)量身定制的 ChatGPT 定制版本。

例如,可以为课程创建自定义 ChatGPT,要求其始终基于提供的课程材料做出答案。

这应该可以防止聊天机器人产生幻觉,使其成为学生的有用资源。

Siddharth Kankaria

Siddharth Kankaria 是印度班加罗尔国家生物科学中心的科学传播研究员、实践者和教师。

Siddharth Kankaria认为,以更有针对性的方式使用 ChatGPT 是明智的,同时,要注意它的优点和缺点。

在教授中学生科学传播和公众参与的时候,Siddharth Kankaria使用 ChatGPT 集思广益,提出课堂活动的提示、问题和内容。

Siddharth Kankaria 说,他知道许多学生可能会转向 ChatGPT 来进行这些活动和小组项目。

但是,他并没有限制学生对ChatGPT的访问,相反,他鼓励他们自由使用人工智能工具,但要反思它们的局限性。

在科学写作课上,Siddharth Kankaria和他的学生们集体批评了学生和 ChatGPT 撰写的匿名研究论文摘要。

这引发了关于什么是好的开头句、使用人工智能工具的局限性以及提高自己写作技巧的有趣讨论。 

这种逐步接受新技术的方法,同时仍然对其偏见和陷阱持尖锐批评态度,对他来说是最谨慎的,至少在教学和传播科学的背景下是这样。

Claire Malone

Claire Malone 是英国伦敦的一名科学记者和包容性顾问。

Claire Malone 认为,ChatGPT 实用性的关键是知道如何避免不相关的结果。

Claire Malone 发现,ChatGPT 是一种获得主题粗略概述的有效方法,然后,他可以深入研究该主题。

随着 ChatGPT 在未来几年内增强功能和准确性,每个用户的体验可能会变得越来越个性化。 

在他看来,ChatGPT在激发人们对各种主题的好奇心方面发挥着重要作用。

它是一种即时的、交互式的信息来源——尽管并不总是保证准确。

ChatGPT的角色与记者的角色截然不同,记者除了事实核查之外,还考虑更广泛的影响,并经常揭示读者可能没有想过探索的话题。

Ethan Mollick

Ethan Mollick 是美国费城宾夕法尼亚大学沃顿商学院创新与创业学副教授。

在自己的课堂上,Ethan Mollick 副教授并没有回避人工智能,而是将其融入到每项作业和课程中。

根据该实验以及生成式人工智能工具的早期研究,他认为这就是未来的发展方向。

人工智能作弊将仍然难以察觉且普遍存在。人工智能检测器已多次被证明会产生大量误报和误报,尤其是对于母语不是英语的学生。

教师需要考虑采用家庭作业以外的方法来评估学生的学习情况。

Ethan Mollick 认为,人工智能技术仍将无处不在。人工智能将改变教学。

“当你可以向 ChatGPT 提问时,为什么还要在课堂上举手呢?” 

他指出,我们需要深入思考如何将这些工具及其所有缺陷和优点整合到课堂中。

我们可以通过有利于教师、学生和整个教育的方式来做到这一点。随着模型变得更加准确和强大,它们可能会承担直接教学的角色,但直接教学只是教师所做工作的一小部分。

课堂提供了更多——练习所学技能的机会、解决问题的协作、教师的支持和社交。

Ethan Mollick 认为,以合乎道德的、适当的方式试验人工智能可以发现应用教学原则来促进学生学习的最佳方法。

Francisco Tustumi

Francisco Tustumi 是巴西圣保罗大学胃肠病学系胃肠外科和循证医学研究员。

ChatGPT 和其他生成式人工智能系统的能力让一些人认为,这些工具最终可能会取代人类在审阅和撰写科学文章方面的角色。

事实上,这些系统可以——而且可能会——用于稿件准备和审阅,包括数据搜索。然而,它们受到某些方面的限制。 

首先,ChatGPT 不是一个搜索引擎,而且它已被证明会提供错误的答案(S. Fergus等人 J. Chem. Educ . 100 , 1672–1675; 2023)。

另一个问题是它的文本构建方式并不透明。科学论文必须具有清晰且可重复的方法论。

信息来源、搜索、选择、数据提取和报告策略应该详细说明,使读者不仅能够批判性地评估稿件中的数据,而且能够批判性地评估其文本。 

希望未来基于人工智能的项目能够更经得起这种严格的评估。

在此之前,它们无法可靠地用于稿件写作和审阅。

Francisco Tustumi 认为由大语言模型驱动的聊天机器人需要更容易接受批判性评估。

至此,自留地君简要概述了《自然》杂志上的这篇引人入胜的文章。

文章中介绍的这七位在生成式人工智能用于科学研究方面的大咖的观点,对于我们了解他们如何使用 ChatGPT,进一步深入理解和认识生成式人工智能及其应用,尤其是如何负责任地在工作中使用 AI 非常有启发。

行文至此,礼尚往来,现在该您了!请扫码👇 这个二维码,回应三个问题:

作为教育工作者

1. 你用生成式人工智能干什么?(目的)

2. 你是怎么使用生成式人工智能的?(方法)

3. 使用之后的感受如何?(效果)

期待读到您的高见!谢谢啦!

摘取自焦建利在2023年中国基础教育年度议题暨神仙湖教育论坛发言
摘取自焦建利在2023年中国基础教育年度议题暨神仙湖教育论坛发言

2023年12月2日,深圳神仙湖. 香港中文大学(深圳)