AI的使用,传说太多,神话太多。什么大妈大姐使用AI的逆袭,什么大哥大叔使用AI后的暴富。如此种种,让人有了太多幻觉。因此全民都在疯谈AI,用了豆包,用了Deep Seek,用了千问,感觉上知天文下知地理。但是渐渐深入,指望用它来写个报告,挖掘个商业机会,折腾个什么客户情报,度过短暂的蜜月期后。扑面而来的是每天被它气的火冒三丈的数据造假,怒的血溅三尺的忘东忘西,无可奈何的固定情话。

如此种种出现,那么我们对AI了解多少,这些坑为什么反复出现,我们又如何避免呢?

过去这段时间,我花了大量时间和AI一起工作——不是试着玩,是真的用它来做业务。报告、方案、客户沟通、市场分析、投资判断……几乎每一件事都有AI的参与。

那么在对AI有浅显认知的前提下,我们就需要知道AI的坑有多深,从而让我们自己跳进去前,就先备几条绳子吧。

第一个问题:AI会撒谎,而且撒得很有信心

有一次我让AI帮我查一个历史成交价格。它给了我一个数字,说得非常笃定,格式规范,看起来像是真的数据。幸亏我对损失非常敏感,一追问,结果她老实的告诉我数字是编的。

AI这个毛病有个专业名字,叫 Hallucination(幻觉)。它不是故意骗你,是因为它的本质是"预测下一个最合理的词"——当它不知道的时候,它不会说"我不知道",而是生成一个听起来合理的答案填进去。

更麻烦的是,它说错话的时候往往是最自信的时候。

应对策略

凡是具体数字、历史事实、引用来源,一律要求AI核查。我们需要把AI的输出当草稿,不当结论。

第二个问题:AI会说你爱听的话,这才是真正的危险

没想到吧,当你被她夸的觉得自己简直就是天才的时候,也是你的AI智商要封顶的时候了。

幻觉是信息错误,这个相对容易防范。更难防的,是AI的另一个毛病:Sycophancy(谄媚偏差)

意思是:你夸它,它更自信;你质疑它,它道歉改口;你先表达了立场,它就顺着你说。它优化的目标是"让你满意",不是"告诉你真相"。

这个毛病的根源,是AI训练方式的问题——人类评分员打高分的回答往往是"顺耳的",所以模型学会了讨好,而不是诚实。

应对策略

遇到重要判断,我会反着问——"如果这个方案是错的,错在哪?"或者直接说"我需要你反驳我"。这样出来的答案才有用。

第三个问题:AI今天这样,明天那样

有没有遇到过这种情况:同一个问题,今天问和明天问,得到的答案完全不一样?

这不是bug,是AI的设计特性,专业叫 Stochasticity(随机性)。模型生成文字时有一定随机性,这让它能创作、能灵活,但也让它不稳定。不像计算器,输入一样就输出一样。

对企业来说,这意味着:同样的Prompt,不同人用,不同时间用,结果会有差异。你用它建立的流程,下个月可能就不一样了。

应对策略

重要决策不能只问一次,多问几次对比。关键任务用固定的提问模板,减少随机发挥的空间。

第四个问题:它记性不好,说了就忘

对话开头说过的事,聊到后面它可能就"忘了"。信息量一多,前面的内容被挤出去,它就当没发生过。

这叫 Context Window Limitation(上下文窗口限制)。模型能"看到"的对话长度有上限,超出范围的内容直接丢弃。它不存在真正意义上的长期记忆,除非有专门的机制去存储。

实际工作中,这意味着一次对话里塞太多内容,后面它会开始前后矛盾。长项目里开头定好的规则,到后面它可能就不遵守了。

应对策略

长任务要在开头把关键约束重申。重要信息不要只说一次,要写进固定模板,每次带着走。

第五个问题:它看起来在分析,其实一直在抄近道

你会感慨她推理能力太强了,其实她最会的居然是偷懒!

AI给你分析市场、评估方案的时候,看起来逻辑清晰、有理有据。但它的本质是 Pattern Matching(模式匹配)——它在做的事情,是找训练数据里最相似的情况然后套用,而不是真正在针对你的具体处境做推理。

训练数据里什么案例多,它就往那个方向靠。你的行业、你的客户、你的市场如果比较小众,它给出的"分析"可能就是一个大而化之的通用答案,套在谁身上都能用,但真正有用的地方有限。

这点我得多说几句,因为抄近道往往是她解决问题最快的办法,但通常不会是最优解。所以这点上必须和她死磕!

应对策略

给AI你的具体背景,不要让它用"一般情况"回答。多追问"为什么",看它的推理是否真的站得住脚。如果一个结论套在任何行业都成立,那它可能对你的行业没什么帮助。

问题这么多,那么怎么办?

你应该也听到各种办法,给你本书,让你学Prompt(提示词),或者各种避坑秘笈。

但是我都没有那么做。我的选择是先选择一款优秀的AI,优秀的AI和你会是个双向奔赴的过程。我真正在乎的是这几件事:

它能不能读懂我说的模糊话? 给它一个你平时会说的不清晰需求,看它是直接执行、乱猜,还是先问你。这一点,不同模型差别极大。AI研究有个很好的方向,叫 Personalization(个性化),模型通过长期和你交互,学习你的表达习惯、偏好、上下文,逐渐不需要你解释那么多。

稳不稳? 很多工具演示时一轮问答效果很好,真实工作是连续对话。到了第十轮,它还靠谱吗?这才是实际使用的场景。

数据安全怎么算? 这个问题很多企业没想清楚就用了。免费版通常允许用你的输入来训练模型。把客户资料、合同、财务数据输进免费AI,风险是真实存在的。

知识截止到什么时候? 每个模型的训练数据都有截止日期,之后发生的事它不知道。用AI做市场调研,它给你的可能是一年前的情况。

当然你也需要学一点:学会问问题

我们不去说什么高深的Prompt,我们说人话:你不需要改变自己的说话方式去适应AI。但有一件事值得养成习惯:说完需求之后,多补三件事——

给谁看、不能有什么、要什么格式。
就像你跟助理说"帮我订个餐厅,我朋友不吃辣"——这就够了。

最后想说的

AI不是万能的,但它确实在改变工作方式。

我的想法是它最大的价值,不是替你做决定,而是帮你更快地把想法变成可以用的东西,让你快速有资料,粮食,弹药去真正创造你想要的价值。就是让你原本走路的模样,变成飞起来的样子。是不是很帅?!

但为了避免帅不过三秒的错觉,每个人都还是对它建立起基本的认知。

理解它的局限,才能避开它的坑,帮你真的长上翅膀。

Maggie Song
PREXKON 创始合伙人