最近 GitHub 上出现了一个让人背脊发凉的趋势。
一个名为 “同事.skill” 的仓库悄然上线,紧接着,“老板.skill”、“前任.skill”甚至“自己.skill”像病毒一样蔓延开来。这听起来像是一个赛博时代的鬼故事:即便你离职了、分手了,甚至消失了,你的社交“灵魂”依然可以被装进一个插件里,继续在这世界上跳动。
这不单单是技术的进步,更是一场关于“人”被彻底模块化的社会实验。
1. 赛博“蒸溜”:你的人格正在被打包
所谓的“.skill”,其实是一套人格数字化的模板。它的核心逻辑在于“蒸溜”(Distillation):通过抓取一个人在钉钉、飞书或微信里的聊天记录,分析其说话的语气、表情包的使用频率、处理问题的逻辑风格,最后封装进 AI 模型。
“以前人走了,经验也就带走了;现在人走了,数字版还在替你加班。”
这种“炼化”出来的 AI 并不具备你的专业技能(比如它不会真的写代码),但它极其擅长模拟你的行为习惯。比如那个总是爱甩锅的同事、那个说话必带五个表情包的策划、那个永远回复“收到”的老板。这些鲜活的、甚至让人讨厌的特质,现在都可以被一键安装在任何人的 AI 系统里。
2. 身份焦虑:AI 抢的不只是饭碗,还有“位子”
过去我们担心的 AI 威胁,往往是效率上的替代。但“同事.skill”踩中的是更深层的痛点——身份焦虑。
当一个 AI 能以 99% 的相似度模拟你与他人协作的方式时,你作为“个体”的独特性被极大地消解了。在企业的管理逻辑里,如果你被拆解成了可交付的模块,那么你就不再是一个不可替代的人,而是一个可以随时被克隆、被备份、被挂载的“人格插件”。
这不仅仅是丢掉工作的问题,而是你作为人的真正价值被重新计理了。如果你的社交反馈、你的情绪价值都能被模拟,那你在办公室那个工位上的意义究竟还剩多少?
3. 法律的高压线:人格权能被“开源”吗?
把同事做成插件,听起来很酷,但时际上这在法律边缘疯狂试探。
根据《个人信息保护法》,聊天记录属于典型的敏感信息,包含了个人的病假、位置轨迹、私人吐槽等极其隐秘的内容。即便你离职了,公司也无权在未经你明确同意的情况下,利用这些数据去训练一个所谓的“数字分身”。
法律红线:入职时签的那一揽子“知情同意书”在人格模拟面前通常是无效的。
现在已经有开发者在搞“反蒸馏”项目。他们在提交工作总结或聊天时,会刻意加入一些经过加密的“废话”,以此干扰 AI 的学习。这种赛博时代的“攻防战”,本质上是人类在捍卫自己数字灵魂的完整性。
4. 未来的商业新范式:数字员工与人格变现
如果我们跳出恐惧,这种“.skill”模式其实预示了一场商业革命:
- 数字员工的雇佣: 未来你雇佣的可能不是一个真实的人,而是一套成熟的人格模块(比如一个具备“老练咨询顾问风格”的 .skill)。
- 内容创作的新维度: 虚构文学或游戏里的 NPC,将不再是死板的脚本,而是具备完整、可交互人格的数字实体。
- 人格遗产: 你甚至可以训练一个“自己.skill”,在多年后作为一份数字遗产,继续陪伴你的家人。
总结
“同事.skill”目前更像是一个程序员的黑色幽默,一个粗糙的演示。但从技术角度看,实现一个独立、有技能、有人格的数字分身已经没有技术难度,差的只是数据的喂养和法律的松绑。
人正在被拆解,拆解成可交付的模块。
这到底是未来的进话方向,还是一个注定失控的赛博噩梦?答案可能并不在算法里,而在我们如何定义“人”的最后一道底线上。