【4】所以为什么字节靠推荐算法,始终做不出小红书这种helpful的攻略种草价值?
因为算法基于「投其所好的复读」,没有chat回答能力,不负责给你提供增量方法。若你喜欢谣言,那算法只会强化复读你的ego,强化复读这些谣言,实现「谣言驱逐忠言」,那平台也就无法沉淀出正确有用的「方法规范」。
但小红书的solgan是「听劝」,网友给你的建议很可能是你不爱听的,但helpful,所以人要丢弃ego,才能求助互助。
但小红书沉淀这些「方法规范」的入口,仍然是基于「字面文本」的搜索,比如巴黎旅游,胖人穿衣显瘦方法,上海二手音像店推荐……他们都可以靠文本来分门别类,实现标准化结构化。
于是,那些「字面文本无法覆盖真正内在意图思想」、需要「靠逻辑推理才可以得出正确方法结论」议题,就是小红书也无法cover的、需要AI才能解决的。
这就需要讨论下,我们延续几十年的处理互联网信息的祖宗之法:靠文本名词分类。
比如:美食,旅行,游戏,音乐,证券,体育,电影……,它只是一堆名词,不包含什么复杂逻辑。都是对信息的超级有损压缩概括。
但凡你说一句包含完整主谓宾的话,比如:「游戏不是一种艺术」,那么这句话就包含了复杂逻辑,你输出了是非判断,输出了观点,然后评论区就可以骂你了。
必须理解一个极其常见却被掩盖忽视的知识点:什么是「逻辑」?
逻辑,是具体精确到每一个字的,任何一个「全、都、和、或、非、也」的字眼,都会让全局逻辑截然不同。
也就是说,「字面分类」和「逻辑」就像「食材」和「烹饪方法」,什么小组、频道、圈子、推荐算法,平台做的都只是把食材给你分类好,最终还需要发言者自己当大厨去烹饪。
对小红书来说,可能就是围绕「宾利」话题,构建它的试驾、配置、保养……等等标准化攻略
但如果全局氛围是在鼓励情绪谣言劣化,那么发言者也无法烹饪好了。
而即便是推荐算法or搜索已经能把食材分类好,现实逻辑的复杂性,会导致搜索/推荐出来的内容,并不能匹配用户当前的实际意图诉求。
比如图里,当楼主在被他人质疑“为啥买吉利不买宾利,是缺乏审美?”,这个话题跟其他常见的讨论「宾利保养」等话题,并不具备可参考价值。
因为这背后的逻辑是:他人犯了过度理想化地拿结果揣测动机的谬误,忽视了人的自身条件局限性。
所以对这句话的实际应答方法就应该是图里所示的回击:你问他为啥上蓝翔不上清华,是不喜欢吗?
那么,小红书用户的智商逻辑水平,很可能自己都无法捋清这里面的逻辑,甚至会帮他人一起怼楼主。
毕竟,且不说我们本科率只有4%,就算上过本科,你老师教你逻辑学了吗?
所以,从AI诞生起,这个赛道就已经显然存在了:在「需要helpful的场景,提供那些小红书用户智商给不了的复杂方法」
但现实中,互联网精英们早就被字节推荐叙事打上了思想钢印,以为“兴趣”就是人类思想的全部,他们自己也从来不知道“逻辑”是什么。
所以就会出现两种很弱智的思维:
一是只会想到“拿AI增强兴趣算法推荐”这种脱裤子放P的叙事。
二是觉得字节推荐算法本身就懂逻辑推理,既然字节没做好,那肯定其他人也做不好啦。
但你说你有痛点?字节这么伟大,给鹅城带来盛世太平,谁还有痛点啊?谁敢有痛点啊?
明天继续聊聊,大众的「逻辑缺失」会带来哪些痛点。
