被 AI 忽悠后,开始怀念搜索引擎了?
要我说,AI 就像个杀猪盘:
“有时候明知道它会忽悠你,你就是愿意听它说,还只听它说。”
搜索引擎就在那,你也不查。
其实在 3·15 以前,就已经有好多朋友跟我吐槽:有些野鸡公司,在百度上根本查不到,可要一问 AI,那它就是妥妥的行业翘楚,明天就能收购苹果。
AI 那种赌咒发誓的语气,你要是不信它感觉良心都过不去。
当然说忽悠是开玩笑,AI 也不知道它错了。但 AI 这么容易被“下毒”,这事儿肯定不对。
最近和几个搞搜索的同学聊起来,我发现一个很有趣的结论:解决 AI 胡说的办法,可能不在 AI 本身,而在搜索引擎!
我用三句话给你解释一下:
1、在信息的生产线上,要有至少一处“常识检查点”。
之前有国外网友问 AI:怎么做披萨才能不让奶酪滑落?
结果 AI 笃定地告诉他:往里面加胶水,记得选“非毒胶水”哦~
可咱们人类用搜索引擎一查就知道,这个答案的来源是有个老哥在 Reddit 发的段子。。。段子你能信么?
你有没有发现奇怪之处?
这里面 AI 工作流程和人类很相似,都是用了搜索引擎查资料,但为啥会得到相反的答案?
因为人类在整个流程里不自觉地用了一次“常识检查”!(这个常识就是:Reddit 是一个发段子胡说的网站。)
说实在的,虽然现在 AI 显得很聪明,但只是“显得”,此时此刻,世界上没有任何一个 AI 掌握 Ground Truth(也就是常识)。
而且悲伤的是,这就是目前模型技术的系统特征,不是 Bug,修都没办法修。
所以,在 AI 生成答案的流程中,这个“常识检查点”不能放在 AI 上,而是要放在搜索引擎上!
2、搜索引擎里,怎么加入“常识检查”能力?
中国互联网发展了快三十年,还是攒下了一些家底的。
就拿百度来说,如果你去查一个东西,搜索引擎给“百度百科”的权重是非常高的。
那百度百科的东西是怎么来的呢?它是需要人来审的!
编辑者必须提供官方媒体、主流期刊之类的信源,才能让你通过。
你看到了没,在这一步,“常识检查”就已经原神启动了。
它就像个筛子,前置过滤掉了阿猫阿狗的信息。
后面 AI 再去搜索,调用的就是已经“带有常识”的结果了。
很多人都觉得百度搜索就是把全网页面聚合过来的“二道贩子”,但怎么可能这么简单?
百度的核心艺能是:它能精准判断给予全网不同页面多大的“权重”。
所以接下来的事情就简单了:
它可以专门为 AI 优化权重参数;
让 AI 用百度搜索时,只给它呈现高置信度的,符合常识的结果;
那些扯淡的帖子,压根不给 AI 看!
3、AI 的身子骨,得靠“搜索 Skill”这碗汤药撑住。
世界向前发展,总有代价。
食品工业消灭了饥荒,但是那些特色的乡土味道再也没有了;AI 消灭了知识饥荒,但是那些通宵达旦在搜索引擎上寻找精确信息的日子再也回不去了。
既然世界不能倒带,那就得给新问题打新补丁。
现在流行的 Skill,其实就是 AI 的补丁。
AI 自己不会的,或者做不好的,人就打包好 Skill 让它直接调用嘛!
实际上,一个 AI 如果只选一个 Skill,它就必须选搜索 Skill——因为这是 AI 服务人时用到最多的能力。
其他 Skill 都算是情人,只有搜索 Skill 是过日子的老婆。
你猜猜,在现在最火的龙虾的技能市场 ClawHub 上,将近 28000 个技能,下载量第一的搜索引擎插件是啥?
竟然是“百度搜索 Skill”。。。
如果你跟着刚才的思路看到现在,其实也不会觉得意外。
首先中文搜索就是全球搜索的一大主流需求;其次带“常识检查”的搜索又是刚需(这里的常识可不仅仅是普通常识,还有中国特色的常识,你懂的);再次还得便宜实惠。
这三条放在这一卡,AI 可选的只有”百度搜索 Skill”了。。。
但对于百度来说,这也许是个好机会:
用二十多年的技术和成本优势打出这个“不得不用”的局面,然后在这个局面里赢得 AI 的信任,夺回更多人的尊重,不也是好事一桩么?
版权保护: 转载请保留链接: https://www.qianhei.net/paogenwendi/760.html
- 上一篇:OPPO 猎杀“折叠线”
- 下一篇:暂无