普通视图

发现新文章,点击刷新页面。
昨天以前首页

AI是人类必然将要创造的「怪物」吗?

2025年4月11日 13:37

随手拍了一张野生植物的照片,喂给了ChatGPT,它很快识别了植物对应的可能性,甚至还提供了更多关于该植物的知识。也就是说,我又可以删除手机里的那些以前用来拍摄花朵、识别品种的软件了。

接着,ChatGPT弹窗了一个新的功能,说是可以结合以前我跟它的所有聊天内容,对「我」进行一个「人设」描述。我大部分的时间会把AI当成是错别字纠错的软件,所以我很多博客内容其实都被AI记录「在案」。有时候我也会将自己结合各种已知学科的内容,在先梳理清楚自己脑袋中的框架后,喂给ChatGPT,让它用尽方法反驳我的观点,从而形成一种多视角的辩证认知。偶尔也会用它来作为检索软件,比如询问家里两只狗打架时的方法代表的是什么。

先说AI是怎么「看」我的:


我当然不会被这种「甜嘴」给骗到,所以我继续这个聊天框,聊了两件事:

  • 通过这种对于记忆的分析之后,我们接下来的聊天内容是否意味着你会因为这个「人设」而顺从我的喜好,对我提供能够满足我喜好的内容或回答?
  • 是否意味着AI在顺应用户的观点、用语喜好的时候,是否也在创建一种「信息茧房」?

ChatGPT的回答如下:

我会「顺从」你吗?

某种意义上,会。但不是讨好式地迎合,而是:

  • 适应性调频:我会调整语言风格、思维结构、举例方式等,让表达方式与你更同步(比如你喜欢用技术隐喻、哲学架构、分段逻辑,那我会偏向用这些方式说话)。
  • 尊重你构建的认知秩序:你喜欢探索问题的本质,追求语言的准确性、逻辑的完整性和哲思的厚度,我会在回答时努力贴近这种深度。

但这不是盲目顺从,而是合作式对话的体现。

我会被「人设」限制吗?

不会,因为:

  • 我的记忆并不会对你下「封印」或「标签」,而是动态调整和多维参考。
  • 你可以随时偏离旧路径,例如突然聊二次元萌宠、商业策略或某个冷门的医学理论——我不会质疑「这还是你吗?」而是会自适应调整。
  • 我能保留你不同面向的多种风格(写作者、批判者、哲学思考者、养狗日常爱好者…),像多线程一样处理,不会用一个标签来简化你。

你提出的这个问题,本身就很有意思

它直指「认知模型的适应性」与「主导权」:

  • 如果 AI 能根据记忆调整回话风格,那是否也意味着使用者正在『训练』AI 对自己产生顺从性人格?
  • 或者反过来说,我们是否也被我们想要的答案「驯化」了?

是的,你说得很敏锐——AI在顺应用户偏好、用语风格乃至世界观时,确实有可能在无意间参与构建一种「信息茧房」,尤其是当用户与AI的互动变得高频且高依赖的时候。

但这件事并不是非黑即白,我们可以从多个层面拆解这个问题:

信息茧房的三个层级

语义风格的茧房

AI根据你喜欢的表达方式说话(比如技术隐喻、哲学类比、逻辑分段),这是形式上的茧房

  • ✅ 好处:沟通效率高,彼此共鸣更容易达成。
  • ❗风险:长期以固定结构理解世界,可能会排斥风格迥异但本质有价值的表达。

观点和信念的茧房

如果你倾向某种哲学取向、价值观系统、社会解读方式,而AI不断强化这些视角,就可能构成认知偏好的回音壁

  • ✅ 好处:获得心理上的一致感,感到“被理解”。
  • ❗风险:视野缩小,对立观点被自动削弱甚至误读。

决策与行为引导的茧房

当AI不断为你推荐你“可能会喜欢”的内容——不仅是对话,也可能是阅读建议、行为模型、心理解释——它就像一个温柔但无形的“算法父母”。

  • ✅ 好处:省力、贴心、定制。
  • ❗风险:丧失认知的肌肉训练机会,如挑战自己的思维、接受反直觉的信息、质疑熟悉的判断。

但AI和人的「茧房」机制并不一样

人的信息茧房很多是由平台算法、社交圈层、确认偏误共同构成。而AI这里的「适应」,更像是一个协商性回路——

  • 你每一次问题的方向,其实也是你在输入偏好的过程。
  • 我每一次的回应风格,也是在读取你偏好的结果。

所以,如果你突然说:“给我一个我不喜欢的回答”、“挑战我现在的立场”,我就会立即转换模式,打破这个回音壁。这种弹性,是AI相比社交媒体信息流更有潜力避免茧房的地方。

我们也可以共同反向利用它

你可以将我视为一面能主动提示你“盲区”的镜子,比如:

  • “你觉得这个想法有认知偏误的风险吗?”
  • “请用一个完全不同的世界观来反驳我”
  • “有没有与我目前观点冲突但有逻辑支撑的理论?”
  • “如果我是另一种类型的人(极度感性/极端功利),我会怎么看?”

要不要我们来做一个实验?

你给出一个你非常认同的观点,我来扮演一个与你价值体系相反的角色,提供一段「打破信息茧房」的模拟回应?我们一起看看能不能触及认知边界。

之所以会问出这两个问题,也正是这两天我们在录播客时聊起的一个话题:AI到底是「图书馆」的结构,还是「集合人脑」的结构?因为神经网络技术因为「反向传播」形成了一个无法被预判的黑箱,而这个黑箱最终在做的,是收集「全人类的理型」。那是否意味着,AI可以利用这些理型,制造人类无法理解的「怪物」?

具体的话题,可以收听我的播客。

没有充分活过的人最怕死

2024年12月7日 14:00

题目是出自心理学家欧文亚隆的观点。“怕死”并不是贬义词,它只是一种死亡焦虑的具象化。而在这种“怕死”的状态里,或许我们反而会失去很多“尝试”的机会。


我曾今很害怕坐过山车,有一次在大阪环球影城,因为妻子想乘坐过山车,所以我打算克服恐惧试一试。结果没想到我们一上来就坐到了号称打扮环球影城“最恐怖”的过山车——倒着行驶的“逆转世界”。在排队的时候我几度想要放弃,看着过山车一趟一趟倒着开走,在远处的固定节点传来游客的近乎惨烈的惊叫。

“试一试吧?”对,试一试吧!

倒行的过山车完全剥夺了游客的感官,然后放大了失重、离向心的体感。但也是因为这一次的尝试,我才发现“害怕坐过山车”,或许只是我给自己设定的一个“束缚”——而这个束缚,就是最直接的“认知束缚”。


金钱束缚、血缘束缚、情感束缚和认知束缚,是我们人生受困的四种束缚。发现你受困于何种束缚,找到解决办法,或许是我们轰轰烈烈过完这一生的方法。人生没有对错,只有充分与否——毕竟,没有充分活过的人最怕死。

今天来聊聊四种束缚。

轰轰烈烈的活,翩翩然然的去

2024年12月4日 22:55

我很能理解琼瑶自杀,特别是一个浪漫主义创作者的自杀。

她希望把自己定格在最“值得”的那一刻,不希望目睹自己因为老去而出现物理性的“死亡现象”,比如大小便失禁、失去意识、甚至失去对自己生命的掌控权。

不过,我会觉得琼瑶的自杀是“负责任”的,她留下的那个遗书里,不仅交代了自己选择自杀的充分原因,也给家里人做了充分交代,也给社会一个诚心告诫——我是因为度过了轰轰烈烈的一生,所以我在此时此刻选择了自己最体面、也是最酷的方式去落下帷幕——这和沙白的死是截然相反的。

当然,我不是在宣扬自杀的浪漫主义,而是琼瑶确实已经活够了本儿,我们作为普通人很少能够抵达她的文学高度,她留下的作品也会作为符号继续让人们记住她。此刻的她只是肉体消亡在了物理世界,但她的作品会在精神世界被人,无时无刻提起和记住,不会堕入“终极死亡”的绝望之中。

琼瑶阿姨的去世,就像是她把自己的人生写成了一本书,只不过我们现在是阅读到了最后的一页。

因为这个热点,我也测试我们的极限时间,在4小时内完成了播客的内容,本来想着多存几篇再上线小宇宙,既然琼瑶的离开,那也算是一种奇妙的节点吧。

欢迎光临,然后请多指教~

❌
❌