人工智能与高等教育的10个问题

Andrew Maynard 是一位科学家、作家他是亚利桑那州立大学的教授,目前担任该校“人类未来倡议”(Future of Being Human initiative)的负责人。

之前,在自留地,曾介绍过他的一个大胆尝试,《4天400页博士学位论文,人工智能加速学术写作过程的案例》。

最近,受到迪士尼 1940 年的电影《幻想曲》的启发,尤其是其中的《魔法师的学徒》场景,米老鼠在不知情的情况下,迷于不劳而获的魔法力量的故事,让他理清了脑海中萦绕不去的疑问。

米奇究竟是学生、教育者,还是教育机构本身呢……?(来源:迪士尼)

受到这个场景的启发,Andrew Maynard提出了人工智能与高等教育的10个问题

这10个问题分别是:

1. 在人工智能时代,能力意味着什么?  

2. 在人工智能时代, 成功意味着什么?  

3. 如何帮助学生在使用人工智能时避免产生理解和能力的错觉?  

4. 如果未来学生成为人工智能大师,而教师成为人工智能学徒,将会发生什么?  

5. 当人工智能能够近乎无摩擦地掌握某个领域时,如果没有人工智能,追求精通该领域还有什么价值呢?  

6. 在人工智能时代,我们对学生负有什么责任?  

7. 对成熟的人工智能应用进行建模意味着什么?  

8. 我们如何帮助学生应对人工智能带来的效率提升所带来的挑战和机遇?  

9. 在人工智能时代,我们如何帮助学生拓展想象力,而不被技术所吞噬?  

10. 我们如何为学生提供工具和技能,让他们发现并接受在人工智能时代作为人的意义?

用Andrew Maynard教授所提出的这10个问题,自留地君分别对Deepseek、Kimi、千问进行了采访,他们分别的答复如下,供我们一起品味琢磨和思考:

1. 在人工智能时代,能力意味着什么?  

千问:在AI时代,能力的定义正在从“知识储备”向“智慧驾驭”发生根本性跃迁。传统的“听、说、读、写、算”等基础技能虽然仍是基石,但核心价值已转移至高阶思维与“根能力”。 

元知识与根能力: 能力不再体现为记忆多少事实(这是AI的强项),而在于掌握“关于知识本身的知识”(元知识),即理解知识的底层逻辑、边界和生成方式。同时,人类独有的“根能力”——包括批判性思维、系统思考、情感智能、意志力以及跨学科的整合能力,成为了支撑一切发展的底层力量。 

人机协同与认知编排: 核心能力变成了“驾驭AI而非依赖AI”。这包括精准提问(提示工程)、对AI生成内容的批判性评估、以及将AI嵌入工作流以解决复杂问题的“认知编排”能力。 E型人才模型: 过去我们推崇“T型人才”(一专多能),现在正向“E型人才”进化。

E代表“反脆弱”和“进化”,意味着具备在未知领域快速建立认知框架、跨越学科边界整合资源、并能利用AI放大自身创造力的综合能力。

Kimi:在人工智能时代,”能力”的定义正在发生根本性重构。根据UNESCO 2025-2026年”AI for Skills Development in Higher Education”项目框架,能力不再仅仅是知识的积累或技能的掌握,而是批判性思维、创造力、协作能力与伦理推理的综合体现 。AI素养框架(AI Literacy in Teaching and Learning, ALTL)进一步将能力分解为四个维度:技术理解(Technical)、批判性评估(Evaluative)、实践应用(Practical)和伦理意识(Ethical)。

更深层的转变在于:能力从”知道什么”转向”知道如何与AI协作”。AI作为知识放大器(knowledge multiplier),其效用取决于使用者已有的知识深度——”任何数乘以零仍然是零”。因此,真正的能力意味着在AI辅助下保持独立判断、验证信息真伪、识别AI幻觉(hallucination)的能力,以及在AI无法触及的领域(如价值判断、情境化决策)中展现人类独特优势的能力。

Deepseek:在AI时代,能力的内涵已从“知识储备量”和“技能熟练度”转向了更高阶的人机协作素养与深层思维。传统的“背诵”、“计算”乃至“标准格式写作”已被大模型轻易替代。当下真正的能力体现为:在未知领域快速建立认知框架的学习力、跨越学科边界整合资源的迁移力,以及面对失败持续迭代的韧性。简单来说,能力不再是“拥有答案”,而是“提出好问题、辨别真伪、做出价值判断”的复合素养。

2. 在人工智能时代, 成功意味着什么?  

千问:成功的定义正在从外部的社会指标(如财富、职位)转向内部的创造与价值实现。 

自我定义的成功: 过去,成功往往是被资本和市场定义的(如上市、规模)。在AI时代,成功更多是由好奇心驱动,去解决自己认定的根本性问题。 

推动认知边界: 成功的终极价值不在于个人财富积累,而在于是否推动了人类认知的边界。即使最终目标(如实现AGI)未达成,只要探索过程为人类积累了经验或思想,即为成功。 

从“解题”到“提问”: 以前成功可能意味着你能多快解决一个难题,现在成功意味着你能提出一个AI无法提出的、具有深刻人文关怀或科学价值的新问题。

Kimi:成功范式正在从”个体知识占有”转向”人机协作效能”。在高等教育语境下,成功不再以考试分数或学位获取为唯一标尺,而是以学生能否在AI环境中实现高阶认知目标来衡量——包括:设计有效的AI协作策略、对AI输出进行学科化批判、在AI辅助下产生原创性洞见 。

从职业维度看,成功意味着成为”知识渊博的合作伙伴”(knowledgeable partner)而非AI的附庸 。正如Wenstein的分析指出,未来最具竞争力的人不是提示工程(prompt engineering)专家,而是拥有深厚领域知识并能引导AI放大其价值的人。成功的核心指标是”不可替代性”——不是因为会使用AI,而是因为拥有AI无法复制的深度认知与价值判断能力。

Deepseek:成功正在从“成为某个领域的绝对专家”转向成为“能驾驭AI的决策者”。当AI能高效完成代码编写、设计出图或外文翻译时,个人的成功不再取决于作为个体执行者的效率,而在于作为“架构师”的统筹力。例如,设计师的成功标准已转变为像“设计总监”一样定义问题、监控过程并评价结果;软件工程师的成功则在于掌握需求分析、系统设计等高阶工程能力,而非单纯的代码产量。成功不再是知道所有答案,而是能在混沌中指明了方向,并承担相应的责任。

3. 如何帮助学生在使用人工智能时避免产生理解和能力的错觉?  

千问:学生容易陷入“看懂了=会做了”的认知陷阱,这被称为“虚假掌握幻觉”。我们需要构建“边界-反思-重构”的防御机制: 

设定“无AI区”: 在核心基础能力培养阶段(如算法手推、论文核心论点构建),必须强制划定AI禁区,确保学生经历痛苦的独立思考过程,这是神经连接建立的关键。 

人机比较与反思: 鼓励学生将AI生成的答案与自己的思考进行“人机比较”。通过分析AI的逻辑漏洞或“幻觉”,反向激活学生的批判性思维。 

过程性评价: 改变评价方式,不再只看最终产出(因为AI可以生成完美的作业),而是关注过程。要求学生提交代码迭代记录、解题思路手稿或与AI的对话日志,评估其思维推理过程而非结果的正确性。

Kimi:这是当前高等教育面临的最紧迫的 pedagogical challenge 之一。研究表明,学生普遍存在”能力错觉”(illusion of competence)或”理解的错觉”(illusion of understanding)——当AI提供流畅、连贯的解释时,学生容易将”信息获取的便利性”误认为是”知识的内化”。

具体策略包括:

元认知校准(Metacognitive Calibration):要求学生在使用AI后,独立复述核心概念或解决变式问题,暴露真实的理解水平 。

“无AI”评估(Closed-World Assessment):定期进行禁止AI辅助的考试或作业,检验知识的内化程度 。

过程性文档(Process Documentation):要求学生提交学习过程的草稿、迭代记录和决策日志,而非仅提交最终成果 。

认知卸载检测(Cognitive Offloading Detection):设计需要学生先独立思考、再与AI协作对比的任务,使其意识到自身知识的缺口 。

延迟满足训练:在教学中刻意引入”技术静默期”(technological silence),让学生重新体验认知挣扎(productive struggle)的价值 。

Deepseek:关键在于将思维过程“强制显性化”。AI生成的流畅文本极易制造“无所不知”的假象,导致“认知外包”——学生会调用答案,却丧失了推演逻辑的能力。教师可以通过设计“对抗性”作业来破除这种假象,例如:要求学生给AI“找茬”并批注修改理由,或者在提交AI辅助成果时,必须附上批判性修正记录和独立完成的那部分思考增量。比如中国传媒大学的翻译课,专门选取影视剧台词让学生审校AI译文,那些大模型“翻不明白”的文化内涵,反而成了学生锻炼判断力的契机。

4. 如果未来学生成为人工智能大师,而教师成为人工智能学徒,将会发生什么?  

千问:这种角色的倒置实际上是一种“人机共智”的进化,而非简单的地位互换。 

教师角色的升华: 教师不再是知识的垄断者或唯一的传授者,而是转型为“学习设计师”和“价值引领者”。教师负责设计真实的学习场景、提供情感支持、进行伦理导航,并利用AI来增强教学效能。 

学生的主体性回归: 学生利用AI作为“外脑”和“认知伙伴”,在教师的引导下进行深度探究。 

师生机三元结构: 教育将从“师-生”二元结构转变为“师-生-机”三元结构。机器负责知识的高效传递与生成,师生则专注于价值塑造、思维创新和情感交流。在这种关系中,教师引导学生“驯服”AI,确保技术服务于人类的福祉。

Kimi:这一假设触及高等教育权力结构的深层变革。虽然完全反转的可能性较低,但”师生AI能力不对称”的现象已经显现。根据EDUCAUSE的框架,教师的AI素养(AI literacy)不应追求成为”技术专家”,而应定位为” confidently guiding students in an AI-driven academic environment”。

如果这一趋势加剧,可能产生以下后果:

教学权威的解构与重构:教师的权威将从”知识垄断者”转向”学习设计师”和”认知教练”。教师的核心价值在于其领域专业知识(Domain Human Expertise, DHE)——在教师精通的领域(green domain),AI的使用是安全的,因为教师的知识超越AI;而在师生都不精通的领域(yellow/red domain),AI可以作为共同探索的工具 。

“认知债务”(Cognitive Debt)的代际传递:如果教师本身缺乏AI批判能力,可能无法识别学生的”能力错觉”,导致浅层学习模式的制度化 。

新型师生协作关系:最理想的状态是”共生关系”——学生可能在AI工具操作层面更熟练,但教师在学科判断、伦理框架和学术规范方面保持引领 。

Deepseek:这正是当前高校面临的“师生角色倒置”现象,倒逼教育回归本质。如果师生关系仅围绕“工具使用技巧”展开,教育将沦为技术培训。事实上,教师的不可替代性正在于其作为价值引领者和思维教练的角色。未来的理想图景不是“大师与学徒”的对立,而是“师生共创”。复旦大学提出的“师生共创”模式便是例证:教师负责设计真实复杂的学术情境、提供情感支持与伦理校准,而技术敏感度高的学生则反向输出工具应用经验,双方在对话中共同进化。

5. 当人工智能能够近乎无摩擦地掌握某个领域时,如果没有人工智能,追求精通该领域还有什么价值呢?  

千问:即使AI能瞬间掌握技能,人类追求精通的价值不仅没有消失,反而更加重要,因为只有精通者才能成为AI的“守门人”和“驯兽师”。 

品控与纠偏: AI会“一本正经地胡说八道”(产生幻觉)。只有真正精通该领域的专家,才能识别AI输出中的细微错误、逻辑漏洞或伦理风险。外行无法判断AI生成的代码是否安全,也无法判断AI诊断的医疗方案是否合理。 

定义真问题: AI擅长解决问题,但“定义问题”需要深厚的专业直觉和人文素养。只有精通领域知识的人,才能敏锐地捕捉到人性的微妙需求,提出AI无法构想的本源性问题。 

创新的基础: 真正的创新往往源于对基础原理的深刻理解。精通领域知识能让人类在AI生成的无数方案中,凭借审美和直觉筛选出最具突破性的方向。

Kimi:这个问题触及教育的本体论核心。答案是:追求精通的过程本身就是价值所在,而非仅仅是结果。

认知架构的建构:神经科学研究表明,深度学习过程中建立的神经连接(neural connectivity)无法通过AI外包获得。AI依赖导致的”cognitive debt”会削弱大脑连接性,使知识变得脆弱 。

判断力的培养:没有领域精通,就无法评估AI输出的质量。正如研究所示,”AI expertise without domain knowledge is worthless”——深度领域知识是识别AI幻觉、偏见和错误的前提 。

迁移与创新能力:真正的精通意味着能够在全新情境中应用知识,而AI擅长的是模式匹配而非因果推理。没有内化理解的”AI辅助精通”在面对未知问题时必然崩溃 。

人的完整性(Human Integrity):追求精通是一种存在方式,体现了人类对真理、美和卓越的内在追求,这本身就是”作为人的意义”的一部分(详见第十问)。

Deepseek:这种“无AI的修炼”不仅有价值,甚至是防止思维退化的底线。这类似于计算器普及后仍需学习基础算术——没有对运算规则的切身推演,就无法建立起对数感、量感的直觉。在编程领域,如果学生过早脱离编码训练,就很难形成关于软件架构的“品味”和判断力。清华大学写作课上的案例也证明:学生越具有基本的写作和思维能力,越能更好地驾驭AI;若跳过艰辛的推敲过程,面对AI生成的理论名词就会失去鉴别力。这种看似低效的笨功夫,实则是构建高阶认知不可或缺的“必要难度”。

6. 在人工智能时代,我们对学生负有什么责任?  

千问:我们的责任是培养“干细胞式”的人才和“清醒的建造者”。 

培养数字素养与伦理意识: 我们必须教会学生如何安全、合规、道德地使用AI。这包括理解数据隐私、算法偏见以及知识产权问题,让他们成为负责任的数字公民。 

重塑学习观: 引导学生从关注“产出效率”转向关注“个人成长”。教育要帮助学生建立正确的价值观,确保技术理性服从于价值理性,防止学生成为技术的附庸。 

提供真实场景: 责任在于创造真实、复杂的学习场景,让学生在解决现实问题的过程中,锻炼那些AI无法替代的协作、沟通和抗压能力。

Kimi:教育者的责任正在从”知识传授”扩展到”认知守护者”(Guardian of Cognition)的角色。具体包括:

防止认知侵蚀的责任:教育者必须主动设计课程和评估,避免学生沦为”lazy thinkers”。这包括重新引入传统的监考考试、设计需要深度认知参与的任务 。

AI素养培育的责任:帮助学生发展验证技能、学科判断力和对”人类专长仍然不可替代”的清晰认知 。

伦理引导的责任:确保AI的使用符合学术诚信,并培养学生对AI偏见、数据隐私和社会影响的伦理敏感性 。

“消退支架”(Fading Scaffolding)的责任:教育者必须在学生依赖AI时适时撤除辅助,恢复其认知自主性。这是一种道德行为——”affirms that genuine learning requires effort, delay, and cognitive resistance”。

超越技术局限的责任:利用教师的研究知识,设计超越AI局限的课程内容,引导学生理解”宇宙智能”(universal intelligence)的未完成性 。

Deepseek:首要责任是弥合“数字鸿沟”并坚守“智能向善”。一方面,要避免因技术资源不均导致学生竞争力分化,确保所有学生都能接触并批判性地使用AI。另一方面,必须将伦理教育贯穿始终。复旦大学的做法值得借鉴:他们将AI伦理细化为课堂教学、学业评价等各环节的警示与规范,培养学生的技术责任感。最终的责任是培养出能自觉抵制算法偏见、维护数据隐私、有温度且负责任的“技术人文主义者”。

7. 对成熟的人工智能应用进行建模意味着什么?  

千问:在高等教育语境下,对成熟AI应用进行建模,意味着从“实验性使用”向“系统性变革”的跨越。

这可以参考AI成熟度模型: 

从工具到生态: 建模不仅仅是引入一个聊天机器人,而是构建一个“人机共智”的生态系统。这包括将AI融入教学、科研、管理和评价的全过程。 

数据驱动与循证治理: 成熟的应用意味着利用AI对海量教育数据进行感知和分析,实现从“经验治理”向“循证治理”的转型。通过数据画像,精准识别学生的学习困难,提供个性化的干预。 

标准化与规模化: 建立AI应用的标准规范、伦理框架和评价体系,确保AI在教育中的规模化应用是安全、有效且可持续的。

Kimi:“建模成熟的AI应用”意味着教师向学生展示如何批判性、有目的地、透明地使用AI,而非仅仅演示工具操作。具体内涵包括:

透明性建模:公开自己的AI使用过程,包括输入的提示词(prompt)、对输出的评估和修改、以及最终决策的理由 。

学科化建模:在不同学科中展示差异化的AI应用策略——例如,在STEM中展示如何验证AI生成的解题步骤,在人文学科中展示如何批判AI对历史语境的简化 。

“失败示范”建模:刻意展示AI输出的错误、偏见或局限性,培养学生”不信任的素养”(literacy of distrust)。

伦理决策建模:展示在学术写作、数据分析和研究中如何平衡效率与诚信,明确标注AI辅助的边界 。

人机协作流程建模:展示”人类主导、AI辅助”的工作流——先独立思考,再与AI对话,最后批判性整合,而非反向操作 。

Deepseek:意味着展示一种具备自我校正和批判性思维的“人机协同流程”。教师不只是演示如何输入提示词拿到完美答案,更是要坦诚地展示自己如何拆解复杂问题、鉴别AI输出的“幻觉”、回溯逻辑漏洞,并根据真实情境对AI方案进行重构的全过程。这是一种“元认知”的建模,向学生展示在高度智能化的环境中,人是如何保持主体性,保持持续的追问、验证与迭代的。

8. 我们如何帮助学生应对人工智能带来的效率提升所带来的挑战和机遇? 

千问:效率提升是一把双刃剑,它可能带来认知惰性,也可能带来创造力的爆发。 

警惕“认知依赖”: 我们要教育学生意识到,效率不等于能力。如果完全依赖AI生成代码或文案,人类的思维肌肉会萎缩。因此,要在利用AI提效的同时,刻意保留“慢思考”的空间。 

重构工作流: 帮助学生掌握新的工作范式——从“人类创作→AI优化”转向“AI生成→人类赋魂”。利用AI处理低阶、重复性的认知劳动,将节省下来的时间用于更高阶的策略制定和创意整合。 

培养“认知套利”能力: 教导学生如何利用AI作为杠杆,去处理以前一个人无法完成的复杂任务,从而实现个人能力的指数级增长。

Kimi:AI的效率提升是一把双刃剑:一方面降低认知负荷、加速学习进程;另一方面可能导致认知卸载(cognitive offloading)和技能退化 。

应对挑战的策略:

重新定义”效率”:将效率从”任务完成速度”重新定义为”认知投入产出比”。鼓励学生思考:AI节省的时间是否被用于更深层的思考?

设计”AI+人”的混合任务:例如,让学生先独立完成写作,再使用AI改写,最后比较分析两者的差异,从而理解人类表达的独特价值 。

培养”慢思考”能力:在课程中保留需要长时间专注、无技术干扰的深度学习环节,对抗AI带来的即时满足倾向 。

把握机遇的策略:

个性化学习路径:利用AI的自适应学习系统,为学生提供个性化的学习资源和反馈,将教师解放出来进行高影响力的互动 。

拓展学习边界:AI使学生能够接触以往难以获取的知识和工具(如复杂数据分析、多语言资源),教育者应引导学生将这些能力用于解决真实世界的问题 。

新型技能培养:将AI工具的使用本身作为学习对象,培养学生的提示工程、AI输出评估和人机协作设计能力 。

Deepseek:引导学生从追求“量”的效率转向追求“质”的深度。机遇在于利用AI压缩重复性劳动,将精力集中在复杂问题的解决与创新上;挑战则在于避免陷入“高效率的平庸”。教师需要设计仅靠AI无法直接“交差”的挑战性任务,例如引入真实产业场景、跨学科复杂议题等。同时,引导学生视AI为“乘法”,只有当自身具备扎实的思维能力时,AI的介入才能放大价值;若自身空空如也,AI的增效只能是零或负增长。

9. 在人工智能时代,我们如何帮助学生拓展想象力,而不被技术所吞噬?

千问:AI是“思维放大器”,但也可能成为“想象力牢笼”。 

从0到1的元创新: AI擅长在已知参数空间内重组(从1到N),而人类的价值在于从0到1的开拓。我们要鼓励学生进行“无中生有”的想象,提出AI训练数据中不存在的概念。 

跨界融合与审美培养: 想象力往往产生于不同学科的交叉点。通过通识教育和跨学科项目,培养学生的审美感知和文化底蕴,这是AI难以模仿的“暗知识”。 

意义赋予: 引导学生思考“为什么要创造”,而不仅仅是“如何创造”。当AI能提供无数路径时,人类需要运用想象力去选择那条通往更美好未来的路径。’

Kimi:想象力是人类最后的前沿,也是AI最难以复制的领域。研究表明,过度依赖AI可能”静音”(mute)学习过程,产生机械化的思维模式 。

具体策略:

“无AI”创意空间:设立完全脱离技术的创意工作坊,让学生通过手绘、辩论、角色扮演等模拟方式探索想法。这些”认知摩擦”(cognitive friction)往往是突破性想象的温床 。

跨学科碰撞:AI倾向于在单一领域优化,而人类的想象力在学科交叉处最为活跃。设计需要融合多学科视角的开放性项目,迫使学生超越AI的线性思维 。

“反事实”思维训练:要求学生思考”如果AI不存在,这个问题会如何被解决?”或”AI的解决方案遗漏了什么人类维度?”,培养对技术局限性的批判意识。

审美与情感教育:AI可以生成艺术,但无法体验美。通过文学、哲学和艺术教育,培育学生的情感深度和审美判断力,这是想象力的源泉。

失败容忍文化:AI的即时正确性可能让学生恐惧错误。教育者需要创造允许失败、鼓励试错的环境,因为”伟大的想法往往诞生于玩耍和实验的时刻”。

Deepseek:保护想象力需要回归身体感知与独立思考。当AI可以轻易生成蒙娜丽莎在校园里喝奶茶的图像时,真正的创造力教育不是比谁生成得快,而是比谁更懂背后的文化逻辑与情感表达。亚洲大学在训练学生使用AI作画时,刻意要求其理解艺术史脉络。教师应鼓励学生多做“无用”的哲学思辨、用身体去接触真实世界、进行脱离屏幕的线下深度阅读。这种看似与AI无关的沉淀,恰是防止想象力被算法驯化、被模板格式化的沃土。  

10. 我们如何为学生提供工具和技能,让他们发现并接受在人工智能时代作为人的意义?

千问:最终,我们要回归教育的本质——育人。 

强化情感与价值教育: 在AI时代,人类最稀缺的价值是情感、同理心和爱。我们要通过人文社科教育,培养学生的“善”与“美”,这是人类区别于机器的终极生态位。 

培养“自燃型”内驱力: 帮助学生找到内心的火焰。AI可以执行指令,但只有人类拥有“想要改变世界”的冲动和意愿。这种内驱力是人类存在的意义所在。 

接受不完美与脆弱性: 机器的优势是精准和高效,而人的意义往往体现在不完美、试错、等待和情感的波动中。我们要让学生明白,正是这些“非理性”的特质,构成了人性的光辉。

Kimi:这是十个问题中最根本的存在论追问。答案在于将教育从技术训练提升为”人的培育”(human formation)。

核心路径:

培养”批判性存在”(Critical Being):不仅教学生批判性思维(critical thinking),更培养”批判性存在”——一种持续的自我反思和对技术异化的抵抗意识。这包括理解AI的运作机制、识别算法偏见、质疑技术决定论 。

强化”关系性能力”(Relational Competence):AI可以模拟对话,但无法建立真正的关系。通过小组协作、导师制和社区参与,培养学生的共情、倾听和冲突解决能力——这些是”作为人”的核心标识。

价值锚定(Value Anchoring):帮助学生建立超越功利的技术价值观。讨论:什么是值得追求的?什么是AI不应该介入的(如隐私、尊严、创造性表达)?

“认知主权”(Cognitive Sovereignty)的捍卫:教育学生认识到,将思考完全外包给AI是一种存在层面的异化。通过定期的”数字禁食”(digital fasting)和深度阅读,维护独立的认知空间 。

意义建构能力:最终,作为人的意义在于创造意义本身。AI可以提供信息,但无法赋予生命以意义。高等教育应引导学生通过哲学反思、艺术创造、社会参与和伦理实践,主动建构自己的人生叙事。

Deepseek:核心是提供反思性工具与情感联结技能。工具不应只是AI软件,更应是批判性思维的框架(如“AI审校红绿灯”)、伦理决策模型和元认知训练方法。技能上,要强化的是AI不具备的共情力、跨文化理解力和意义感建构力。中国传媒大学的课程让学生在翻译斯瓦希里语时感悟AI难以触及的情与境,就是在帮他们确立人在跨文化深层对话中的不可替代性。当学生意识到自己能定义“什么是好”、“什么是美”、“什么是公正”,并能从无意义中创建意义时,他们就真正接纳了作为人的使命与尊严。

最后,请三位每人一段总结:

千问:在人工智能时代,教育不再是填充知识的容器,而是点燃智慧的火种。我们的目标是培养出既有深厚人文底蕴,又能熟练驾驭AI工具的“超级个体”,让他们在与机器的共舞中,活出更加丰盈、更具创造力的人生。

Kimi:人工智能时代的高等教育正站在一个十字路口:一条路径通向”认知依赖”(cognitive dependency),人类在效率的诱惑中逐渐丧失深度思考的能力;另一条路径通向”认知精通”(cognitive mastery),人类将AI作为知识的放大器,同时守护那些使人类成为人类的本质特征 。

作为教育者,我们的责任不是抵制技术,而是确保技术服务于人的全面发展。这意味着重新设计课程、评估和教学法,将AI素养嵌入学习目标,同时捍卫那些AI无法替代的人类能力:批判性判断、创造性想象、伦理抉择和意义建构。

最终,在人工智能时代,高等教育的最深层使命依然是苏格拉底式的追问——”认识你自己”——只是现在,这一追问必须在人与机器的对话中重新展开。

DeepSeek:这十个问题层层递进,从能力、成功的重新定义,到师生角色、教育价值的深层追问,精准地触及了当前高等教育在AI时代面临的核心困境。

关于人工智能与高等教育,

对于Andrew Maynard教授的这10个问题,您怎么看? 

对于 千问、Kimi、和 Deepseek 三家关于这10个问题的观点,

您又怎么看?

欢迎跟帖分享您的主张!

左起:陈韵姿、孙驰曦、焦建利、夏妙娴(非全)、曾君、黄青虹、林小琴(非全)

两位非全四位全日制硕士顺利通过答辩!祝贺他们!祝福他们!