答《中国社会科学报》记者问

不久前,收到《中国社会科学报》记者明海英的微信,希望我就有关人工智能对社会科学研究的影响,谈谈自己的看法。

同时接受采访的还有西南大学历史文化学院田阡主任、武汉大学信息管理学院王晓光院长、《当代外语研究》杨枫主编、湖北省作家协会副主席,华中科技大学人文学院周新民教授。

明海英给我一个采访提纲,包括不少问题,希望我就其中几个问题做出回应,我采用了《焦式采访:零星时间用文字回应》一文中,我采用的焦式采访的方式,利用零星时间用文字进行了回应。

后来,这个联合采访2025年7月4日《中国科学报》以《人工智能介入社科研究的多维透视》予以刊发。

这里,我将自己当时回应明海英记者的所有文字,采用问答的形式,全文分享给您,请您批评指正!以下为全文:

明海英问:在您的研究领域中,AI 具体如何改变了传统研究范式?

我所从事的是教育学的二级学科,教育技术学,尽管它属于一个交叉学科,但是,我依旧深切地感受到了新一代人工智能技术对传统研究范式所带来的巨大的冲击。

它改变了人们获取信息的方式,仅此一条,就足以改变传统研究。

人工智能彻底改变了阅读、写作和计算,AI通过自动化数据处理和增强分析能力,使海量信息的高效挖掘成为可能,替代人工完成文献综述、实验设计等重复任务。

不仅如此,人工智能以其类主体性,已经开始渗透和介入到了人类科学研究的全过程,促使混合范式(如人机协同)和新型研究伦理的兴起,最终重塑了从工具应用到方法论设计的全研究链条,重新定义了人类专家能力边界与研究边界。

在2月初,谷歌公司的研究团队发布了一个称之为 Co-Scientist 的应用,它实际上是一个人类科学家和多智能体协同开展科学研究的模型,它向我们成功地展示了人工智能时代科学研究的新图景。

明海英问:您在日常社科研究中主要使用哪些AI工具?这些工具为您的研究带来了哪些便利?

在我的日常工作中,尤其是学术写作和研究过程中,我经常使用国产通用大语言模型,通过对话获取思路和启发,我会使用AI搜索和 Semantic Scholar, Connected Paper, Research Rabbit 之类的工具获取最新的研究文献,我会使用Deep Research 和 Elicit之类的专注于学术研究的 AI 工具,它们会通过多步骤分析整合跨学科文献,辅助梳理领域背景、知识空白及理论框架,帮助我生成带引用的综述报告。

此外,还会使用其他一些专门的垂直功能的智能体,在研究设计、图表生成、数据处理、基金申请中的研究计划设计、文档审阅修订、语法纠错、参考文献格式修改等方面,使用许多专门性的工具。

这些应用、智能体和垂类工具,不仅大幅度减轻了研究人员的负担,而且提高了效率,成为了科研人员的AIz助理、“研究架构师”和合作伙伴,它们聚焦创意汲取、跨源信息综合、文本生成,帮助科研人员开展人机协同,推动研究范式向人机协作、效率驱动的方向演进。

明海英问:您能举例说明AI如何帮助社科研究者更深入地理解复杂的社会现象和文化问题吗?

人工智能(AI)为社会科学研究者提供了全新的工具和方法论,能够从多维度破解传统研究中的局限性,从而更深入地解构复杂社会现象与文化问题。

2023年4月7日,斯坦福大学和谷歌的联合研究团队在预印本文库arXiv上发表了一篇文章,这篇文章的题目是《生成式智能体:人类行为的交互式模拟》的研究论文。 在这篇论文中,研究者们报告了一项实验:他们构建了一个名叫Smallville的虚拟小镇,并安排了25个虚拟人物作为小镇上的居民。 接着,他们将ChatGPT的能力接入到了这些虚拟小人上。 这样,这些虚拟人物就成了有记忆、会交流、会互动的生成式智能体。

类似的研究和探索,实现了社会互动的高保真动态模拟,为研究文化传播、群体决策等非线性现象提供可控实验场。这在传统研究范式中是难以想象的。

明海英问:在您看来,AI技术为人文社会科学研究带来了哪些前所未有的机遇?

新一代人工智能技术为人文社会科学研究提供了全新的方法论工具箱,特别是AI通过机器学习、自然语言处理和大数据分析,突破了传统质性研究的解释边界与量化研究的样本局限,拓展了研究对象的时空维度,帮助研究人员处理以往难以企及的宏观历史尺度(如千年跨度的语言变迁)与微观社会颗粒度(如社交媒体中的情感传播),通过计算机视觉分析艺术作品风格演变,或利用知识图谱重构思想史的隐性关联,揭示了传统方法无法捕捉的潜结构规律,它不仅催生了数字人文、社会物理学等交叉学科,更推动人文社科研究从经验归纳走向”数据驱动”与”理论建模”辩证统一的新范式。

明海英问:AI的多模态数据处理能力(如文本、图像、音频)如何拓展了您的研究视角?

作为教育科学研究人员,新一代人工智能技术的多模态数据处理能力显著拓宽了研究人员的研究视野与方法论边界。

比如,传统教育研究多依赖单一模态数据(如文本问卷或结构化测试),而AI技术使我们能够整合文本(学生作业、讨论记录)、图像(课堂行为录像、学习表情)、音频(师生对话、语言表达)等多模态数据,更全面地捕捉学习过程中的隐性信息。

在研究方法方面,AI的多模态融合技术(如跨模态表征学习)为教育研究提供了新工具。比如,研究人员可以通过视频识别学生的手势、姿势(图像模态)与电子笔记(文本模态)的关联,揭示协作学习中的非言语互动规律。通过实时分析学生答题(文本)、语音提问(音频)和屏幕操作轨迹(图像),AI自适应学习系统能够帮助教育工作者动态调整教学策略,为精准化的教育干预提供定制化的策略。

归纳起来,多模态能力使教育研究从“单一维度推测”迈向“全息动态解析”,为理解学习本质和优化教育实践提供了革命性视角。

明海英问:AI是否为您提供了新的理论灵感?

在过去这几年,随着生成式人工智能教育应用的发展,尤其是在包括教育科学在内的人文社会科学研究中的融合创新,它不仅作为工具拓展了研究人员的研究方法,更通过其多模态数据处理能力和算法逻辑,为教育科学理论的发展提供了新的灵感来源,甚至促使人文、社会科学、教育科学和行为科学等领域的研究人员重新审视传统和经典理论的边界。

展望未来,新一代人工智能技术将会进一步推动教育科学从“人类中心理论”向“人机协同理论”转型。

当AI智能体(代理)成为学习环境中的主动参与者时,“教学交互”的定义是否需要重构?人际人机交往将会勾勒出怎样的人类学和社会学景象?算法如何重构社会权力结构?AI能否成为新的“文化参与者”?在虚拟民族志研究中,AI聊天机器人是否可以被视为“社会行动者”?我们是否需要重新定义“意识”和“智能”?当AI成为社会、文化、认知的参与者,传统理论(如社会建构主义、认知心理学)是否需要重构?未来是否会形成“人机协同社会科学”的新范式?

所有这些问题正是AI赋予理论创新的深层契机,对这些问题的深入研究和探索,相信有望深刻影响未来社会科学的理论发展。

明海英问:在您的研究中,AI是否可能削弱某些“只有人类才能捕捉”的维度?(如情感、文化语境)

人工智能的崛起引发了一个深刻的人文命题:当机器能够模拟情感、解析文化时,那些曾被我们视为人类独有的精神维度是否会逐渐褪色?

当前AI对情感与文化的“理解”本质是概率计算而非真实体验。尽管它能识别”喜悦”的词汇特征,但可能永远也无法感受孩童第一次触碰雪花时的那种战栗。

当人们将情感倾诉交付聊天机器人,将文化诠释托付算法推荐的时候,我们可能正在无意识中钝化自己的共情神经,甚至让文化演变成数据标注的扁平化标本。

当学生把苦思冥想交给聊天机器人,把问题解决的过程请人工智能来代工,认知外包,思维钝化,可能就成了一种必然。

技术从来都是双刃剑,技术的悖论就在于,它既能遮蔽,也能照亮人性的光芒。问题的核心和关键在于我们是否坚持“以人为本”、“人类为尺”的原则。

真正威胁和危险的并非AI的不足,而是人类对自身独特性的放弃。

明海英问:您如何看待AI在创造性工作中的角色?它是否威胁到人文精神?

AI在创造性工作中的角色是一个充满张力却又极具潜力的议题。

它能帮助科研人员在几秒钟之内迅速浏览和归纳90个网页,为作家提供灵感迸发的关键词组合,帮助音乐人快速尝试数百种和声编排,让视觉艺术家看到不同文化风格的融合效果……

作为工具,新一代人工智能拓展人类创造力的边界,它业已成为诸多前沿学者和先进的思想伴侣、科研伙伴和协作者。

摄影术没有杀死绘画,反而催生了印象派。

AI可能正在为我们打开一扇新的创作之门。

在那扇门之后,是人类情感与机器智能共舞的新文艺复兴。

明海英问:您认为AI在社科研究中可能存在哪些潜在的风险和局限性?

新一代人工智能在社会科学研究中存在多重潜在风险与局限性。

算法依赖、数据偏差、数据殖民主义等等,即使最先进的伦理对齐技术,也无法完全消除模型中的隐性偏见。

作为人文社会科学研究者,我们必须高度警惕数据殖民主义风险、方法论陷阱、人类主体性侵蚀之类的伦理困境、学术评价异化、以及知识生产断层。我们必须要保持方法论自觉,将人工智能定位为“批判性对话伙伴”而非真理机器。

明海英问:在您的领域中,AI技术引发了哪些伦理争议?

在教育科学领域,AI技术的广泛应用带来了诸多伦理争议,主要集中在数据隐私、学术诚信以及主体性削弱等方面。

第一、数据隐私方面,AI在教育中的应用(如个性化学习系统、智能评分工具)需要收集大量学生数据,包括学习行为、成绩、甚至生物识别信息(如面部识别)。这些数据可能被滥用或泄露,威胁学生隐私。

如何确保教育数据在AI系统中的安全存储和合规使用?

是否应限制AI公司对教育数据的商业化利用?

第二、学术诚信问题,生成式人工智能可以生成文本、代码、图像、音乐、视频,它可轻松完成论文和作业,导致学术作弊问题激增,挑战传统教育评估方式。

如何区分AI生成内容与学生原创作品?

是否应调整教育评估标准,更注重批判性思维而非内容复现?

第三、主体性削弱,过度依赖AI可能导致学生丧失自主学习能力,削弱教师的教育主导地位,甚至改变“教与学”的本质关系。

AI是辅助工具还是替代教师?如何平衡技术效率与人文关怀?

学生是否因AI的便捷性而丧失深度思考能力?

解决这些争议需要技术开发者、教育者、政策制定者和伦理学者的共同协作,以确保AI技术真正服务于教育的核心目标——促进人的全面发展。

明海英问:您认为研究者应如何培养“AI素养”,以更批判性地使用技术工具?

自生成式人工智能全面介入科学研究的全流程开始,研究人员究竟应该具备怎样的“AI素养”?如何更批判性地使用技术工具?这些问题便成为了全球科学共同体共同关注的重点课题。

在我看来,科学研究人员的AI素养,首先体现在人工智能的意识,其次是掌握包括AIGC 在内的生成式人工智能基本技能,尤其是人机协同工作的策略、基本技能和方法,第三是坚持“以人为本,技术为辅助”,避免滥用、过度依赖、认知外包;第四是坚持诚信和学术规范,尤其是人工智能应用于科学研究的学术规范,合理恰当地运用和标注,避免学术不端。第五是与时俱进,从做中学,向同行学习,同侪互助,不断总结经验和教训,将人类生物智能和人造智能(人工智能)有机结合,协同发展,共生智慧,促进和深化科学研究,造福人类。

明海英问:在您的领域中,哪些研究问题应明确保留给人类,而非交给AI处理?

新一代人工智能是人类研究者的合作伙伴、思想伴侣、智能助理,它能够辅助和增强科学研究,但是,某些核心问题仍需留给人类研究者,仍需由人类研究者主导。

在教育和人文社会科学领域,涉及伦理与价值判断的问题,毕竟AI 缺乏道德主体性,无法理解复杂的社会文化语境或承担伦理责任。需要主观体验与共情的研究,AI无法真正“共情”。对历史文本的语境化解读(如意识形态批判),类似的研究依赖研究者的哲学思辨和对社会权力的敏感度,AI仅能提供表面关联。AI依赖现有数据,难以突破既定范式提出颠覆性见解,因此,创造性理论建构要留给人类研究者。复杂情境中的决策制定需综合政治、文化等非结构化因素。确定研究问题的社会意义,对研究结果的终极解释,需人类赋予目的性,AI无法自主判断“什么值得研究”,这些任务必须由人类研究者来完成。

一句话,人类研究者在人机协同研究中具有主导地位,是决策者,是人机协同分工的责任人。

人类研究的不可替代性在于追问动机、价值与目的(如“教育为了什么”),而AI仅能回答“如何发生”。在人文社科领域,保留这些问题的研究权,本质是守护学科的人文本质。

明海英问:学术界与期刊界需建立哪些长效机制,以避免AI技术滥用?

为了顺应趋势,深化人机协同开展科学研究,为了防范AI技术在学术研究中的滥用,趋利避害,扬长避短,把科学研究中人类生物智能和人工智能融合的共生智能发扬光大,推动包括人文社会科学在内的科学研究,学术界与期刊界需建立多层次的长效机制。

1、定规立制。建立AI使用声明制度,要求作者在投稿时明确标注AI工具的使用范围(如文献筛选、数据分析、文本生成等),并提供原始数据或交互日志以供核查。学术界与期刊界对话和写作,建立人工智能时代的学术诚信与透明度机制。

2、开发结合文本风格分析(如AI生成文本检测器)、图像生成溯源(如GAN指纹)、代码相似性比对的多维检测系统,定期更新以应对新型AI。期刊联盟可共建共享数据库,存储论文的原始实验数据、代码和AI交互记录,供交叉验证。通过技术检测与验证体系,加强学术的技术治理。

3、期刊编辑部设立专职小组,审查AI可能引发的伦理问题,建立作者问责制,若发现滥用AI(如伪造AI生成内容为人类成果),按学术不端处理,并追溯通讯作者和团队责任。

4、加强研究者教育与能力建设,将AI伦理纳入研究生必修课,教授合规使用AI工具的方法(如合理提示词设计、结果验证流程)。定期举办工作坊,提升编辑识别AI生成内容、处理争议案例的能力。

通过以上措施,在促进AI助力科研的同时,维护学术生态的公正性。核心在于构建”披露—检测—问责—教育”的闭环体系,并将伦理考量嵌入研究全流程。

人工智能重塑千行百业,科学研究和新闻出版也不例外。

学术界和期刊界应该比以往任何时候都要更加加强沟通和对话,开展更加密切的深度对话和合作。

唯有与时俱进,方能应对瞬息万变的社会发展。

Photo by Johnnie Walker