Tinybuild CEO揭示AI在游戏公司的人力资源管理中的应用与担忧

AI在游戏行业中的应用新动向
近日,Tinybuild的CEO Alex Nichiporchik在一场名为“AI在游戏开发中的角色:我的工作是否安全?”的技术会议中,首次披露了公司运用人工智能技术进行员工监控和管理的方法。该公司尝试通过AI分析员工的通讯内容,旨在提前识别潜在的工作压力和burnout(职业倦怠)风险。
AI辅助员工心理健康管理的创新尝试
在会议中,Nichiporchik介绍,公司利用AI技术筛查Slack信息、Google Meet和Zoom的自动转录记录,以及任务管理工具中生成的任务信息,将这些数据输入到ChatGPT模型中,建立一个“自我分析”系统,以评估员工陷入 burnout 的可能性。这个方法被他形容为“非常像黑镜剧情的黑暗使用场景”。

图片来源:Why Now Gaming / Develop
“我,Me分析”——AI监测工作状态的独特指标
Nichiporchik详细说明,这一被公司“发明”的技术会统计员工在会议和书面交流中使用“I”或“Me”字样的频率。他声称,使用这些词的频次与员工的整体发言比例相关,而这与未来发生 burnout 的概率有直接联系。他认为,过度使用“我”、“我自己”这样的词,是员工心理压力逐渐累积的信号之一。
识别“时间吸血鬼”员工,优化团队效率
他还提到,该AI系统可以用来识别团队中的“问题员工”,即那些在会议中发言过多或文字输入频繁者。Nichiporchik称这些人为“时间吸血鬼”,因为他们在工作中耗费大量时间,影响团队整体效率。公司反馈指出,减少此类员工后,会议时间大幅缩短,整体生产效率显著提高。
关于员工健康与生产力的双重目标
此外,Nichiporchik曾提议,AI可以帮助识别压力过大的团队领导,并采取措施以避免他们的 burnout。这引发一个争议点:他将“有毒”员工与“压力过大”的员工视为同一类人,甚至暗示二者可以通过AI检测来管理。对此,业内普遍认为,用AI监控员工隐私和心理状态存在伦理风险。

图片来源:未授权,示意AI在工作场所的监控潜力
伦理争议与公司回应
面对公众的质疑,Nichiporchik在会后强调,他提出的这些应用方案“属于假设”性质,真正的目标是探索AI技术在预防员工 burnout 方面的潜在价值。他指出,过去的研究显示,“大部分情况下,员工出现 burnout 已经是迟了”,因此,预警系统的建立极为关键。
他还补充道,强调“AI的使用应以保护员工隐私和健康为前提”,如果违规监控或侵犯隐私,将违背根本伦理原则。公司也已明确表示,目前并未真正采用这些监控手段,而只是探讨AI在企业中的潜在合理应用。
未来展望与企业责任
在会议的最后,Nichiporchik呼吁行业内应理性对待AI在企业中的角色,避免走向“黑镜式”的监控路径。他认为,人工智能应成为提升工作环境和员工福祉的工具,而非侵害隐私的手段。
常见问答(FAQ)
Q: Tinybuild公司是否真的使用AI监控员工?
A: 目前,官方公开声明表示公司尚未采用类似的监控软件,相关技术内容为CEO在会议中的假设性探讨,旨在探究AI预防职业倦怠的可能性。
Q: 利用AI检测员工心理状态是否符合伦理?
A: 这是一个充满争议的话题。虽然AI可以帮助识别潜在的压力信号,但在实际应用中必须平衡隐私保护与管理需求,避免侵犯员工的个人权益。
Q: 未来AI在工作场所的合法与道德边界在哪里?
A: 这需要行业法律和公司政策共同制定,确保技术的使用尊重个人隐私、保护员工权益,同时有效提升企业运营效率。