人在环路中?做AI的全程把关人?

学生用 AI 作弊,

这是人工智能智能教育应用热门话题之一。

学生用生成式人工智能作弊,

为什么会发生这种认知减负和用 AI 替代自己思考的现象?其背后的原因究竟是什么?它的动机到底是什么?

学生用AI替自己肩负,认知外包动机和原因是多种多样的。

有些人是完美主义者,总担心自己的想法不够好;

有些人则比较冲动,容易感到无所适从,或者只是筋疲力尽。

还有一部分学生背负着远比学业更沉重的负担,而人工智能成了他们减轻负荷的一种方式。

人工智能并未制造这些倾向,却恰好迎合了它们:流畅、即时、不带评判。

对于害怕犯错的学生,人工智能提供了润色;

对于担心落后的学生,它带来了速度;

对于不堪重负的学生,它则给予了解脱。

我常常想,如果我们不教学生如何使用人工智能,那么,我们可能就是在纵容他们用人工智能作弊。

在全球范围内,应对人工智能出错,解决学生用AI作弊,经常被谈到的一个举措,人在环路中(be the human in the loop)。

图片源自socialketchup.in,特别鸣谢!

过去这些年,相信人们听到了太多太多的“人在环路中”(Be the human in the loop)。

我其实一直不喜欢这个说话,“人在环路中”的每个字我们都认识,

但是,我们很可能并不理解,这到底是什么意思?

到底什么是“人在环路中”?

再退一步想,这其实是一个非常难以执行难以落地的策略和措施。

你有替在环路中的人想过吗?

我们有替在环路中的人想过吗?

在一个作业和生产已被人工智能全面加速的世界里,

他们,那些留在环路中的人,如何看待自己作为思考者的角色?

他们自己又如何面对诱惑或延迟满足?

在这个新环境中,也就是在那个“环路中”,他们又面临着怎样的压力?

当他们面对困惑、阻力或疑虑时,会作何反应?

有的时候我想,这种人在环路中的说法,多少有那么一点“道德安全带”的味道,不是吗?

这个“人在环路中”告诉我们,人应该产生创意和想法;人应该修改人工智能的输出结果;人应该对人工智能产生的任何内容负责。

我们告诉学生,这是确保合乎伦理地使用人工智能的最佳方式。

我一直不喜欢“人在环路中”这种说法。

将“be the human in the loop”翻译成“人在环路中”让人有些费解。

我会将其翻译成“做人工智能的全程把关人”。

这里的“loop” 环路,我翻译成“全程”,

我把 Be the human in the loop的目的突出翻译出来了,做人工智能的全程把关人。

这解释了人在环路中的目的是做人工智能的全程把关人。

人在环路中,保持“人机协同中的主导地位”,这从来都不是简单地把一个人塞进涉及AI的流程里。

而是要培养那种自觉自愿地真正想要留在回路中的人——那种仍然能感受到好奇心的牵引、体会到来之不易的洞见所带来的满足、享受到那种自己弄明白某件事的尊严的人。

这件事从未像现在这样充满挑战,也从未像现在这样必要和紧迫。

这也就是我们前面的推文中跟您分享的帕斯卡的那句名言,人是一根会思考的芦苇。

在人工智能时代,教育工作者的真正使命,是以身作则,教学生做一根会思考的芦苇

毕竟,人工智能对教育的风险不在于学生考试作弊,

而在于人们普遍会自欺欺人地认为自己理解了实际上并不理解的东西。

2026年4月12日,与郭歆教授及澳门大学教育博士合影留念,摄影 Joyce Yang