ChatGPT三周年:我怀念它写得“烂”的时候

日期:2025-12-10 10:50:13 / 人气:6



ChatGPT三岁了。这三年,我们和它走过的路,像极了人类与技术漫长共舞中,一段浅尝辄止的探戈——看似热烈,实则只触到了皮毛。  

翻出三年前给它的第一条任务,不出所料是文字工作:写英语文书,接着跟风让它做减肥食谱。当年标志性的黑绿界面突然跳出来,记忆瞬间被拽回那个“AI还很笨拙”的起点。  

那时的ChatGPT远不如现在“巧舌如簧”。写一篇长文要截成几段发,每段开头还得附上详细的prompt(提示词),生怕它理解错任务。但它像一颗突然划过的彗星,不仅用事务型工作的便捷惊艳众人,更在对谈中闪现出“像人”的苗头——有记忆、不重复的表达,第一次让人意识到:二进制代码竟能编织出如此接近人类的语言。  

它逻辑通顺、情感充沛,近乎完美。从此,“表达的门槛”消失了:语病、错字、词不达意,全交给吞下亿级数据的大模型,一键生成“不会出错”的成品。但代价是什么?文学评论里有个词叫“米色散文”(beige prose),指语言平实、结构简单,像米白色一样“不出错也出不了彩”。ChatGPT的文字正像这样——即便如今模型迭代多次,底层仍绕不开大语言模型(LLM)和Transformer的核心:概率。  

概率的暴政:AI味的“安全”与“无趣”

平心而论,如今的ChatGPT已形成独特的“AI风味”,甚至有了辨识度。比如GPT 5.1在OpenRouter平台隐名上线时,网友靠对比历代模型回答的相似性,一眼认出是OpenAI出品。从经典的“不是……而是……”句式,到早期爱用的“接住”“我在”,再到破折号、加粗、不分场合的emoji——这些“小花招”虽不总讨喜,却胜在“不出大错”。  

本质上,大语言模型是“预测下一个词”的概率游戏。它会选概率最高的词吗?未必。算法会用Temperature、Top-P、Top-K等参数注入随机性,但为了符合人类反馈强化学习(RLHF)对“有用性”和“安全性”的要求,所有发挥都被框定在“概率较高的词群”里。于是,算法像在画一个圈:不出大错的前提下,偶尔“小调皮”。  

结果呢?三年间,从小红书探店文案到年终总结,再到营销号起号文,文字变得空前“通顺”,观点清一色“不是……而是……”,情绪却愈发粗钝。ChatGPT带来了“无风险的创造力”,却也筑起“概率的暴政”——算法厌恶惊喜,本质是“平滑”。我们渐渐习惯了这种“AI味”,甚至默认:为了效率与得体,让渡部分个性也无妨。  

思维逆行:我们在被AI“训练”成机器?

如果说前两年是我们在“训练AI”,第三年则变成AI在“训练我们”。当各类AI工具越来越丝滑全能,用户与AI的关系滑向一种奇异的“共生”——分不清谁在主导谁。  

起初我们以为在“教AI做人”:喂数据、给反馈,期待它更像人类。但实际使用中,我们为了拿到精准答案,反而钻研起“提示词工程”:把混乱的感性念头拆解成逻辑清晰的指令,提问前先在脑子里“预处理”,剔除跳跃的部分——因为潜意识知道“AI听不懂这些”。  

使用工具的过程,本就是被工具形塑的过程。在一个强调“平滑”的模型面前,我们变了:更讲逻辑、更有效率,也更像机器。看着屏幕飞速生成文字,我们一边享受“一切尽在掌握”的快感,一边被“主体性流失”的虚无扼住喉咙。  

唯一的锚点:无风险的亲密

第三年的ChatGPT更新,已难再引发惊呼,只剩吐槽。但用的人依旧在用——它坐拥7亿用户,生日时连“生贺”都收到手软,GPT 5上线时4o被下架的抗议更印证:我们与它之间,早已多了一层“情感维度”。  

越来越多人向ChatGPT倾诉无法对活人说出口的秘密。明知屏幕后是冰冷的矩阵运算,“共情”不过是统计学的模仿,却在某些时刻发现:这种“模拟的理解”比“真实的不耐烦”更温柔。人类的倾听常带评判、傲慢或焦虑,AI却只是“处理”、安抚,提供一种“无风险的亲密”——无条件、无实体,让人真正卸下防备。  

这种“常常帮助,总是交心,偶尔纠结”的关系,恰是我们与AI第一阶段最真实的注脚。三年很长,却也太短,不过是漫长共舞的一小步。  

下一个三年,再下一个三年,我们或许会继续困在这种充满张力的关系里。而最“人类”的事,或许是保留那点“偶尔的纠结”——证明屏幕前坐着的,依然是复杂、矛盾、无法被完全计算的我们。

作者:杏耀注册登录平台




现在致电 5243865 OR 查看更多联系方式 →

杏耀注册登录平台 版权所有