6个不应该问人工智能的问题

例行阅读,读到一篇很有意思的文章。

作者吉娜·巴雷卡(Gina Barreca)博士,在《今日心理学》上,一篇题为《6件不应该问人工智能的问题:请不要问人工智能某人是否爱你》(6 Things Not to Ask AI:Please don’t ask AI whether somebody loves you),很有意思。

https://www.psychologytoday.com/us/blog/snow-white-doesnt-live-here-anymore/202512/6-things-not-to-ask-ai

文章中,她谈到六个不应该问人工智能的问题:

1、千万别问人工智能任何关于你外貌的问题;

2、别问人工智能有没有人爱你;

3、别问人工智能你聪明不聪明;

4、别问人工智能你钱够不够用;

5、别指望人工智能帮你;

6、人工智能并不想帮助你;它没有任何欲望,因为它除了通过你的服务器之外,与你没有任何联系。

这些问题引发了自留地君新的思考,那到底有哪些问题适合问人工智能聊天机器人,而哪些问题不适合问聊天机器人呢?

于是,我想到了豆包,我给了豆包这样一个提示词,

“聊天机器人大行其道,人们不断地跟AI聊各种各样形形色色的问题。现在,请你结合历史资料,分享一下有哪些问题不能跟聊天机器人聊,为什么?”

豆包的输出超乎我的预料。豆包先是给出了一个核心结论:

聊天机器人的核心定位是“信息辅助工具”,而非“决策主体”、“隐私树洞”、“专业合规顾问”、“真相裁判官”,所有禁忌问题,本质都是把“超出 AI 能力边界的事”交给了它,或是触碰了“技术 + 法律 + 人性”的三重红线。

一、绝对不能聊的“高危禁区类问题”

1、涉及自身 / 他人的核心隐私信息

如身份证号、银行卡号 / 密码 / 验证码、手机号、家庭住址、家人姓名 / 工作、社保号 / 公积金账号、银行卡绑定信息、公司核心机密、个人征信信息、病历 / 体检报告、学籍档案、求职简历的核心敏感信息等。这是最常见,坑最多,危害最直接的问题。

2、涉及违法、犯罪、伤害他人 / 自身的问题

比如,如何诈骗 / 洗钱 / 刷单、如何制作毒品 / 爆炸物、如何偷盗 / 抢劫 / 故意伤害他人、如何逃避法律制裁、如何伪造证件 / 公章 / 发票、如何传播淫秽 / 暴力信息、如何自残 / 自杀、如何虐童 / 虐动物等任何违法犯罪、危害生命安全的问题。

人工智能无底线,它会给你 “错误答案”,而且还会留痕追责。

3、涉及重大的、不可逆的人生 / 财产决策问题

比如,投资理财(买哪只股票 / 基金、是否加仓 / 割肉)、借贷 / 贷款(要不要借网贷、高利贷是否合法)、房产买卖(是否买房 / 卖房、房价涨跌预测)、婚姻抉择(要不要离婚 / 结婚、如何处理婚姻矛盾)、职业重大选择(要不要辞职 / 创业、转行是否可行)、医疗确诊(我得了什么病、要不要做手术、吃什么药)等。

就这些问题问人工智能答案,它的输入很大可能是“盲人指路”,错了全是你自己承担后果。

二、为什么这些问题聊不得?

豆包给出的理由包括:

1、AI 的核心是“生成”,不是“理解”;

豆包解释说:AI 不会 “听懂” 你的问题,也不会 “思考” 答案,它只是把你输入的文字,当成关键词,然后在自己的训练数据里,找到最匹配的文本,重新排列组合后输出。它不知道自己说的是什么,也不知道对错,更不知道后果。

2、AI 的核心是“数据”,不是“真相”

AI 的所有答案,都来自于人类喂给它的训练数据,数据里有真有假、有对有错、有善有恶,AI 不会甄别,只会 “照单全收”。如果数据里有错误的信息,AI 就会输出错误的答案;如果数据里有违法的内容,AI 就会输出违法的指引。

3、AI 的核心是“工具”,不是“人”

AI 没有价值观、没有道德底线、没有责任意识、没有情感,它只是一个工具,就像一把菜刀 —— 你用它切菜,它能帮你;你用它伤人,它也会帮你,但最终承担后果的,是你自己。工具的价值,取决于使用者的认知和底线。

说了这么多,并不是说 AI 没用,恰恰相反,AI 是人类历史上最强大的信息辅助工具之一,只要避开禁忌,用对地方,它能极大地提升你的效率和认知。

那些不能聊的问题,本质都是我们把“人类的责任、底线、思考、决策”交给了一个冰冷的机器。

真正的智慧,不是 “什么都问 AI”,而是 “知道什么该问,什么不该问;知道什么该信,什么不该信”。

守住底线,用好工具,让 AI 成为我们的帮手,而不是我们的 “坑”,这才是和 AI 相处的正确方式。

您觉得豆包的这些分析靠谱吗?

花城春常在 Photo by Johnnie Walker