人工智能智能体不是普通的聊天机器人。
AI智能体是分配了特定角色的大语言模型,无论是英语口语教练、经理、公关专家、作家等等。
Agent,代理
其实,早在 1950 年代,Alan Turing 就将“智能”的概念扩展到了人工实体,并提出了著名的图灵测试。
这些人工智能实体通常被称为“代理(Agent)。
“代理”这一概念起源于哲学,描述了一种拥有欲望、信念、意图以及采取行动能力的实体。
在人工智能领域,这一术语被赋予了一层新的含义:具有自主性、反应性、积极性和社交能力特征的智能实体。
Agent 术语的中文译名并未形成共识,有学者将其翻译为智能体、行为体、代理或智能代理等等。
在教育技术学自留地,自留地君经常交替使用”代理”、“人工智能代理”、“智能代理”、以及“AI智能体”,所有这些,均指代 Agent。
什么是AI智能体?
AI智能体,也被称为人工智能代理,人工智能智能体。
AI智能体是一种计算机程序,它能够根据其环境、输入和预定义目标做出决策,自主执行任务。
这些AI 智能体代表了传统自动化的飞跃,因为它们不仅被设计为遵循一组指令,而且能够独立思考、适应和行动。
AI智能体是能够在无需人工干预的情况下执行任务的自主计算机程序。它们可以独立运作,也可以通过自然语言或其他通信模式与其他智能体或人类交互。
设想一下,一个AI智能体不断地评估其周围环境,从交互中学习并做出选择以实现特定目标。
想象一下,当我们为几乎所有工作角色(职业/岗位)创建一个人工智能智能体,那该是一幅怎样的场景啊?!
与人类同行一样,这些AI智能体可以团队协作来实现目标和完成目标,超越单纯的对话,而共同努力实现共同目标。
AI 智能体的潜在应用涵盖客户服务、个人助理、软件开发、游戏、机器人等,前景广阔。
AI智能体代表了人工智能技术进化的伟大飞跃。
这些AI智能体将人工智能的强大功能与类人交互和决策的复杂性融为一体。
当我们站在新时代的风口浪尖时,AI智能体不仅仅是工具,而且是战略决策和客户参与的合作伙伴,很明显,他们的影响力只会越来越强大。
AI智能体的需求
虽然大语言模型具备了足够的智慧,但是,想要让它给出精确答案,还需要输入足够精准的提示语(prompt)。
在过去这一年多的时间里,大家都有很深的感受:一个掌握了prompt的人和一个普通人使用同一个大模型提问问题,得到的答案会有很大区别:前者可以用多种技巧得到想要的结果,而后者就只能望LLM兴叹了。
因此,想要用好大语言模型,就得先学会使用提示语,这个需求已经催生出一个不小的培训市场。
提示语工程,事实上,在增加大语言模型使用难度的同时,也使得用户的使用体验有所降低。本来应该尽显自然语言优势的大语言模型,反而因为繁杂的提示语而变得对普通用户不是那么友好。
这样,提示语工程也就变成了横亘在普通人与大模型之间的一座大山。
如何更好地解决这个问题呢?
答案正是AI智能体(AI Agent)。
复旦团队的AI智能体综述
去年9月,复旦大学自然语言处理团队(FudanNLP)推出一篇 LLM-based Agents 综述论文,全文长达 86 页,共有 600 余篇参考文献!
在这篇综述文章中,作者们从 AI Agent 的历史出发,全面梳理了基于大型语言模型的智能代理现状,包括:LLM-based Agent 的背景、构成、应用场景、以及备受关注的代理社会。
同时,作者们探讨了 Agent 相关的前瞻开放问题,对于相关领域的未来发展趋势具有重要价值。
在文章中,作者们指出,AI智能体的设计原则:
1、帮助用户从日常任务、重复劳动中解脱出来,减轻人类的工作压力,提高解决任务的效率;
2. 不再需要用户提出显式的低级指令,就可以完全自主的分析、规划、解决问题;
3. 在解放用户的双手以后,尝试解放大脑:在前沿科学领域充分发挥潜能,完成创新性的、探索性的工作。
在这个基础上,代理的应用可以有三种范式:单代理场景(Singel Agent)、多代理场景(Agent-Agent)、人机交互场景(Agent-Human)
其中,人机交互(Human-Agent Interaction)是智能代理通过与人类交互,合作完成任务。一方面,代理的动态学习能力需要沟通交流来支持;另一方面,目前的代理系统在可解释性上的表现依然不足,可能会存在安全性、合法性等方面的问题,因此需要人类参与进行规范与监督。
目前,阿里、腾讯、华为等科技大厂相继推出Agent项目,创业团队也在争相发布Agent产品。办公类Agent越来越多,垂直类Agent增量明显。
原生类Agent抓人眼球,原始类Agent先声夺人。
4月11日今天早上9点
石牌校区教育科学学院411室
得闲一起来聊?