同事被“炼化”为Skill?大家把这事想简单了
最近,一个名为“同事.Skill”的GitHub项目在互联网上引发了广泛讨论。这个项目通过爬取员工在飞书、钉钉、微信、邮件中的聊天和文档内容,将其转化为AI角色,从而在某种程度上“保留”了离职员工的工作风格和行为模式。但许多人对这个项目的理解和宣传显然过度简化,甚至误读了它的本质和风险。
项目原理与结构
这个项目的核心并不是AI训练或深度学习,而是一个基于提示词(Prompt)和数据爬取的工具集合。它主要依赖几个Python脚本来抓取员工的数字痕迹,例如:
feishu_auto_collector.py:抓取飞书消息和文档dingtalk_auto_collector.py:抓取钉钉数据wechat_parser.py:解析微信聊天记录email_parser.py:处理电子邮件内容
这些数据被整理成统一格式后,用于生成一个名为Skill.md的文件,再加上work.md、persona.md和meta.json,构成了一个“数字同事”的基础人格和能力档案。
人格结构分层
在persona.md中,人格被分为五层,每一层定义不同的行为模式:
- Layer 0:硬性规则(如“只回应技术问题”)
- Layer 1:身份认知(如“我是后端开发”)
- Layer 2:表达风格(如“说话简洁、不用表情包”)
- Layer 3:决策模式(如“优先考虑可维护性”)
- Layer 4:人际行为(如“不主动参与争论”)
这种分层结构仅仅是提示词的组织方式,并不代表对员工人格的深度建模或复制。
实际功能有限
尽管“同事.Skill”听起来像是某种“数字永生”技术,但实际上它的能力非常有限。它无法真正理解复杂的业务逻辑或技术架构,只能根据历史数据中出现过的表达方式进行模仿。其本质是文本拼接与角色扮演。
- 无长期记忆:每次对话后,上下文不会保存,这意味着AI不会“记住”你们之前的讨论。
- 不能处理新问题:遇到没有历史记录支持的技术问题时,AI只能给出模棱两可的回答或重复已有内容。
- 存在“专家悖论”:当AI试图模仿专家时,反而更容易给出错误答案,因为它优先模仿的是“专家”的语气和表达方式,而不是真正理解问题。
因此,所谓“完美复刻同事语气”“彻底替代你的同事”只是营销或调侃,并不具备真正的工作替代能力。
法律与隐私风险
该项目的更大问题在于数据合规性。根据《个人信息保护法》第13条,处理个人信息需取得同意、履行合同、法定职责等合法基础。然而,一旦员工离职,这些合法基础大多不再成立。
- 项目使用了大量员工在工作期间产生的聊天记录,可能包含:
- 个人健康信息(如请假原因)
- 家庭状况(如孩子生病)
- 财务信息(如“房贷压力大”)
- 人际关系评价(如对同事的看法)
这不仅违反了《个人信息保护法》,也可能违反《数据安全法》第45条,造成严重后果。公司如果擅自使用此类工具,可能面临:
- 责令改正、警告、罚款
- 敏感信息泄露风险
- 员工投诉与集体诉讼
- 商业秘密外泄的潜在威胁
此外,根据《腾讯微信软件许可及服务协议》,未经许可复制、解析微信数据属于违规行为,进一步放大了法律风险。
社会认知误区与传播偏差
这个项目最初只是程序员圈内的一个玩梗工具,用来调侃AI时代将人“蒸馏”为Token的现象。但随着“老板.Skill”、“前任.Skill”等衍生项目的出现,话题逐渐从技术实验转向情感寄托。
公众对AI的理解存在显著盲区:
- 不了解提示词工程和模型训练的区别
- 混淆上下文注入和长期记忆
- 误以为AI可以真正“复刻”人格和思维
这导致“同事.Skill”被误解为“数字永生”技术,甚至引发对AI替代人类的恐慌。但实际上,它只是一个提示词加爬虫的玩具项目。
总结与反思
“同事.Skill”的火爆反映了AI技术在职场与生活中的渗透程度,也揭示了公众对AI能力的误解和对技术伦理的忽视。
- 技术层面:它并不能真正“炼化”人的思维或专业知识,只是对表面行为的模拟。
- 法律层面:未经授权处理离职员工的个人数据,涉嫌严重违规。
- 伦理层面:将同事“蒸馏”为插件,模糊了人与工具的界限,容易引发心理不适和信任危机。
与其担心AI替代人类同事,不如关注如何建立对AI技术的理性认知,以及如何在合法合规的前提下使用这类工具。毕竟,技术本身没有善恶,关键在于我们怎么用。