AI承诺提升效率,却可能催生大量看似精美、实则无效的“工作废料”,将验证和修改的负担转嫁给同事。真正的AI素养并非使用技巧,而是建立以“责任”为核心的组织原则。企业需要警惕效率幻觉,建立公平、透明、可问责的AI使用框架,让人类判断力回归中心。
一个危险的信号正在出现:AI工具正在制造大量看似精美、实则无效的“工作废料”(Work Slop)。
想象一个场景:你的同事用AI在半小时内生成了一份市场分析报告,图文并茂,洋洋洒洒。但你仔细阅读后发现,数据来源模糊,核心论点经不起推敲,充满了华丽而空洞的“AI八股文”。结果,你花了两个小时去核实、修正和重写。AI为他节省了时间,却消耗了你的时间。这并非效率的提升,而是工作负担的隐性转移。
当所有人都沉浸在“AI流利度”(AI Fluency)的狂热中时,一个更根本的问题浮出水面:我们究竟需要什么样的AI素养?是熟练的Prompt技巧,还是对AI产出质量的绝对问责能力?

AI首先是一件工具,而工具的价值取决于使用它的人。当AI的输出质量参差不齐时,将最终责任归于人类使用者,是遏制“工作废料”泛滥的唯一方法。
一些硅谷科技公司已经开始将这种理念制度化。他们内部的AI使用指南明确规定:无论AI参与了5%还是95%的工作,员工都必须对最终产出的质量、判断和影响负100%的责任。
这个逻辑的核心是,AI可以放大你的思考,但绝不能外包你的思考。AI生成的建议或草稿,不应成为推卸责任的借口。在团队协作中,评价工作成果的标准也应聚焦于“价值”而非“工具”。“你这段话像是AI写的”是一种无效的反馈,而“你的论证缺少数据支撑”才是有效的沟通。这迫使每个人在使用AI时,从追求速度转向追求质量。
仅仅强调个人责任还不够,企业需要建立一套系统性的AI使用框架,让原则落地。一套缩写为“FACTS”的原则正在成为行业参考,它包含五个关键维度:
公平(Fairness):主动对抗AI系统内置的偏见。AI模型是历史数据的投射,天然会放大主流观点,忽视边缘声音。在使用AI进行招聘筛选、用户反馈分析等工作时,必须警惕并修正其可能带来的歧视性结果,确保决策的公平性。
问责(Accountability):如前所述,人类为最终结果负责。AI不能成为决策的黑箱,“模型就是这样建议的”不能成为解释。团队必须能用清晰的语言解释任何一项决策的来龙去脉,以及AI在其中扮演的角色。
审慎(Care):谨慎处理数据。无论是用户数据还是公司内部数据,都不能随意输入到未受公司安全审核的第三方AI系统中。尤其在中国,随着《数据安全法》和《个人信息保护法》的实施,数据合规是企业使用AI时不可逾越的红线。
透明(Transparency):AI的使用应该是可见且可解释的。当AI被用于影响他人的重要决策时,相关方有权知道AI的参与程度和作用。这不仅是尊重,也是建立信任的基础。
有效管理(Stewardship):意识到AI的资源成本。每一次调用大模型API,背后都有真实的环境和财务成本。企业应引导员工合理使用AI资源,避免用于与工作无关的个人项目,并优先选择那些在能源效率和可持续发展方面有明确承诺的技术供应商。
这套“慢思考”的AI治理哲学,在中国科技行业面临着独特的挑战。硅谷公司可以像摆弄案头的蜗牛摆件一样,提醒自己“慢下来,想清楚”。但在“大力出奇迹”和“快速迭代”为信条的中国市场,这种审慎的文化似乎有些奢侈。
与海外公司热衷于公开发布AI伦理白皮书不同,中国的科技巨头更倾向于一种实用主义的内部治理。他们或许不会公开讨论抽象的原则,但会通过飞书、钉钉等协同办公平台,将AI使用的规则(比如数据权限、合规审查)嵌入到工作流中,用技术手段实现“硬约束”。
例如,字节跳动的飞书在集成AI功能时,其底层逻辑必然经过了严格的数据隔离与合规设计,这是业务发展的生命线,而非一个可有可无的道德口号。这种“代码即规则”(Code is Law)的治理方式,或许比一份公开的原则声明,在执行层面更为有效。
AI浪潮之下,真正的分野不在于是否使用AI,而在于如何驾驭AI。
未来,真正的“AI素养”将包含三个层次:熟练使用工具的操作能力、辨别AI产出优劣的批判性思维,以及对最终结果承担责任的职业精神。
企业需要从对“效率提升”的盲目崇拜中冷静下来,正视“工作废料”带来的隐性成本。最终,能够在AI时代胜出的组织,不是那些最快拥抱AI的,而是那些最懂得如何让AI服务于高质量人类判断的。
免费获取企业 AI 成熟度诊断报告,发现转型机会
关注公众号

扫码关注,获取最新 AI 资讯
3 步完成企业诊断,获取专属转型建议
已有 200+ 企业完成诊断