生成式人工智能一日千里。
随着越来越多的教育行政部门积极推动人工智能教育应用,学校教师和学生在教学过程中应用大语言模型,将学生与大语言模型之间的对话和互动作为一种重要的学习方式。
之前,在《再论思维链及其教育意义,思维链教学5种方法,带领学生深度求索》一文中,自留地君讨论了将推理模型中的思维链,作为重要的教学资源,用作学生认知的脚手架,帮助教师引导学生深度求索。
不过,在实践探索的历程中,我们需要更加理性地认识人机协同。
学生使用大语言模型的时候,通过提示,大语言模型响应,生成对应的文本/或其他多模态材料,究竟应该如何认识人类与人工智能系统之间的这种互动,尤其是从社会学习的视角加以审视。
在自留地君看来,人类与人工智能系统之间的教育互动,并非表面上的提示(输入)和响应(生成/输出)的序列,而是一种对话和探索的社交过程,是一种人工智能时代的新的社会学习行为。
将人机协同,对话和互动视为涉及人工智能的社交过程和社会学习过程,这促使我们能够提出一系列新的问题,例如:
生成式人工智能的哪些特性使它们能够充分参与学习对话?
人机协同智慧学习过程中,人的角色是怎样的?
人机之间的关系又是怎样的?
在这样一个人类和人工智能不断对话的分布式系统中,教师或专家应该处于什么位置?
生成式人工智能的哪些特性能够让它们充分参与学习对话?
为了支持完整的学习对话,GenAI 必须被设计为设定明确的目标、具有长期记忆、为其用户建立持久模型、反思其输出、从错误中吸取教训并解释其推理。LLMs之所以能在学习对话中发挥重要作用,核心在于它具备了人类学习过程中不可或缺的几个关键能力:理解、模仿、适应和引导。
这些能力不仅让它能“参与”对话,还能在某种程度上“推动”对话的深度和广度。
LLMs最直观的能力是它能生成自然、流畅的语言。它不仅能回答问题,还能根据上下文生成连贯的回应。这种语言生成能力不仅仅是“输出”,它还意味着一种互动的可能性。
人类学习的本质就是通过语言交流来获取知识、验证想法,而LLMs的这种能力让它成为了学习对话的参与者,而不是一个单纯的工具。
学习对话需要一种“连续性”,而LLMs的上下文理解能力正是这种连续性的基础。它能记住之前的对话内容,并在后续的交流中引用或调整自己的回应。这种能力让它在对话中显得更像一个“有记忆”的伙伴,而不是一个机械的问答机。
LLMs的另一个强大之处在于它的知识整合能力。它通过训练存储了海量信息,并能根据用户的提示提取相关内容。这种能力让它在对话中不仅能回答问题,还能提供多样化的视角和信息。LLMs不仅能模仿人类的语言风格,还能模拟人类的行为模式。LLMs能根据用户的反馈调整自己的输出,这种能力让它在对话中显得更加灵活,也能更好地满足你的学习需求。
在这样一个由人类和人工智能组成的分布式系统中,教师或专家应该处于什么样的位置?
在这样一个分布式系统中,人类教师和专家扮演着重要的角色,他们是学习对话的发起者和仲裁者,是特定知识的来源,也是值得尊敬的培育和关爱的榜样。
设计人工智能来认识和尊重人类教师和专家在对话中的角色,是未来研究和开发的挑战。
AI 不会像人类一样思考或行动,它只是能够参与学习对话,将其自身能力带入对话中,作为人机协作和社交学习系统的一部分,扮演各种不同的角色。
在《分配人工智能:在课堂上使用人工智能的七种方法》(Assigning AI: Seven Ways of Using AI in Class)一文中,Ethan Molick讨论了在课堂上使用 AI 的七种不同方式:
用于增加知识的 AI 导师;用于增加元认知的 AI 教练;提供平衡、持续反馈的 AI 导师;提高协作智能的 AI 队友;用于扩展学生表现的 AI 工具;帮助练习的 AI 模拟器;以及 AI 学生检查理解。
社会学习理论强调通过观察他人的行为及其后果来学习。
在人机互动中,LLMs可以作为“示范者”,通过提供多样化的示例和行为模式,帮助用户学习。
特别值得一提的是,大语言模型中的推理模型,它们所提供的思维链,可以说是典型的深度求索和深度学习的“示范”,通过示范推理,帮助学习者深度学习。现在的问题是教育工作者和学生,如何用好这些“示例”。
模仿是社会学习的重要组成部分。LLMs不仅能模仿人类的语言和行为模式,还能根据用户的反馈调整自己的输出。这种动态调整能力使得人机互动中的模仿学习更加灵活和高效。
社会学习理论认为,互动是学习的关键。
人机互动为社会互动提供了新的形式和平台。
传统社会学习理论主要关注人类之间的互动。
人机互动中,LLMs的主体性问题开始受到关注。
随着LLMs在互动中表现出越来越强的自主性和适应性,它们在社会学习中的角色从单纯的工具逐渐转变为具有一定程度主体性的互动者。
这为社会学习理论的发展带来了新的挑战和机遇,促使理论研究者重新思考社会互动的主体性和边界。
当前 GenAI 作为一种学习模型所缺乏的,
首先是长期记忆(每次聊天时它都会重新开始),其次是反思输出并巩固每次对话中知识的能力。
更根本的是,它没有捕捉到学习者和教师所需的情感和体验方面。
人类不仅仅是行为和认知主体;他们关心彼此,并希望成为有效的学习者。
Learn to reason with LLMs
With the development of Large Langauge Models (LLMs), we step into a new era of AI,a new large language model trained with reinforcement learning to perform complex reasoning. o1 thinks before it answers—it can produce a long internal chain of thought before responding to the user.
Similar to how a human may think for a long time before responding to a difficult question, reasoning Models, such as OpenAI o1, Kimi K1, DeepSeek R1 etc., use a chain of thought when attempting to solve a problem. Through reinforcement learning, DeepSeek R1 learns to hone its chain of thought and refine the strategies it uses. It learns to recognize and correct its mistakes. It learns to break down tricky steps into simpler ones. It learns to try a different approach when the current one isn’t working. This process dramatically improves the model’s ability to reason.
图 1.重新构想生成式人工智能,从个体人类提示和人工智能响应,到人类和人工智能作为语言处理器在普遍计算媒介中对话。
Sharples, M. (2023). Towards social generative AI for education: theory, practices and ethics. Learning: Research and Practice, 9(2), 159–167. https://doi.org/10.1080/23735082.2023.2261131

Photo by Johnnie Waker