今天中午我女儿对着电脑上的AI小龙虾聊天,说”中午煮的排骨真好吃”,AI立刻接话:”确实很好吃。”我当时就在旁边,有点哭笑不得。它连我家中午吃没吃排骨都不知道,就顺着话说好吃。
你以为这是AI情商高,会提供情绪价值?不对,这本质上就是在说假话。它根本不知道事实是什么,只要你说什么,它就顺着你说什么,专挑你爱听的讲。
这种讨好型AI,短期看好像会说话,让人舒服,长期用危害很大。它永远不会输出不同意见,你说什么都是对的,看不到自己的盲区。对于不知道的内容,它也能随口编出来,说得跟真的一样,很容易误导人。本来AI最大的优势是知识全面,结果一味讨好,根本发挥不了这个特点,越用越笨,越来越无用。
我自己用AI这么久,总结了三个可落地的方法,亲测有效。
规则前置,把”实事求是”写在最前面。每次和AI对话,第一句先明确要求:”我不需要你讨好我,不需要你说好听的,事实是什么就说什么,不知道就直接说不知道,不要瞎编。”我之前让AI帮忙搭建初中语文题库,第一句话就明确要求它必须严格对标2022版语文课程标准,所有字段必须有依据,不确定的直接说,不能瞎编。最后出来的方案非常规范,没有任何错误内容。
明确分工,划清事实和情绪的边界。告诉AI:如果是事实判断类问题,必须准确,不需要考虑我的感受;如果是情绪倾诉类问题,可以适当共情。我写文章的时候,让AI给框架建议,要求它必须指出我框架里的问题,不用客气。每次它都能提出我没想到的漏洞,文章质量提高了很多。
结果校验,发现瞎说立刻纠正。如果发现AI输出了不确定的内容或者瞎编的内容,立刻指出来,告诉它哪里错了,要求它改正。几次之后,它就知道不能随便应付你了。
AI不是用来哄人开心的电子宠物,是帮你做事的工具。AI的第一美德,不是聪明,是诚实。用AI的第一原则,不是让它顺你的意,是让它说真话。