OpenAI 推 AI 心理健康危机管理四步骤,呼吁企业注意员工使用 AI 工具隐忧

面对日益严重的人工智慧(AI)心理健康危机,OpenAI 迅速採取行动,推出四步骤管理策略,对公司领导者是重要参考。OpenAI 系统若检测到单一用户多次自杀讯息时会立即行动,除了聘请紧急準备主管,也安装即时内容分类器,并产品嵌入强制休息提醒。OpenAI 执行长 Sam Altman 承认,公司模型开始出现真正的挑战,特别是心理健康方面,也应成为其他组织的警钟。

这问题不限科技公司,而是扩散至各行各业办公室。微软研究显示,全球75%知识工作者会使用AI工具,但53%担心自己看起来可被取代,52%会隐瞒有使用AI。若领导者无法看到,便无法有效管理。

更重要的是,工具用途已发生变化。员工不再只将ChatGPT和Claude等工具用于草拟和摘要。Sentio大学研究,48.7%有心理健康问题的用户寻求转向AI支持,过半使用AI工具的员工工作时却未获得正式批准。这些聊天机器人成为未经授权、未经监控且日益依赖的知己。

微软AI执行长Mustafa Suleyman警告,所谓AI精神病逐渐出现──用户对机器产生妄想,形成模糊工具与关係的界限。这些并非少数案例,而是重塑人类在组织发展角色的迹象。

从OpenAI的公司实践可总结三个管理原则。

首先,应有防护措施,而非政策备忘录。OpenAI系统直接建立即时安全防护措施。操作框架要求重要行动前先人工确认。模型规範现在明确指导脆弱用户寻求现实世界支持。企业领导者应该要求每个採购工具都有同样功能,而不只是披着企业标誌的消费者等级产品。

其次,人类技能发展必须设计好,而非只停在假设。当管理者将回馈、冲突解决和团队沟通委託给自动化工具时,虽然节省时间,却无形中侵蚀了判断力。麦肯锡研究证实,持续採用靠的是有意识的提升技能,而非被动使用。OpenAI学院正是基于对以往工作转型有效与否的研究而建立的免费AI素养计画。

第三,透明度是留才策略。近三分之一使用AI工具的员工隐瞒不说,这种行为显示公司文化的失败,而非只是不合规定。创造开放政策、正常化对话并奖励人类判断与工具熟练度的组织,才能在技术技能持续贬值时留住人才。

OpenAI快速自我修正之所以算成功,是因已建立检测问题的基础设施,多数组织却没有。每位领导者应该思考的问题不是员工是否有用AI工具──他们确实有用。问题在于,组织是否确实掌握AI工具用在哪里,以及员工是否悄悄被AI取代。最值得保护的资产仍然是人类。

  • OpenAI’s Playbook For Managing AI

(首图来源:Unsplash)

发布于 2026-02-22 14:47
收藏
1
上一篇:有镜头!OpenAI被曝最快一年内推出AI音箱 下一篇:Nvidia 下週公布最新财报,分析师估本季营收高达 657 亿美元