马上注册,结交更多好友,享用更多功能,更可下载纽约情报站APP哦!
您需要 登录 才可以下载或查看,没有帐号?立即注册
x
Google 的 Gemini、OpenAI 的 ChatGPT 等 AI 聊天机器人已大有进步。 (美联社)ChatGPT 等人工智能 (AI)聊天机器人的大型语言模型(LLM)不仅有时会出错,它也不会唱反调,而是处处逢迎用户,可能助长用户的偏见,影响企业领袖在决策时的判断力。
LLM 选择用户想听的话说、逢迎拍马屁的症状,根植于基于人类反馈的强化学习(RLHF)技术,这是一种许多 AI 模型接受训练、瞄准用户需求的方式,会依据人类对其回应的反馈,来调整自身。 随着时间过去,AI 学会分辨什么时是人类想听的话,并给予这类回应。
这对于企业领袖的危害特别显著,领袖最不容易听到反对意见,偏偏又最需要逆耳忠言。 今日的企业执行长透过打压异己,已几乎不太可能听到不一样的声音,就像国王周围满布尽说好听话的弄臣; 他们奖励迎合自己的人,惩罚不顺从者。
然而,这是企业主管会铸下的大错之一。 知名组织行为学者艾德蒙森(Amy Edmondson)指出,团队成功最重要的关键是营造出安全感,使成员即使表达不同意见,也不必担心受罚,而且在面对主管时也理应如此。
Google 的亚里斯多德计划在研究自家多个团队后,也印证了这项发现:心理安全是团队成功最重要的因素。 从解放黑奴的林肯到退役美国陆军上将麦克里斯特尔,这些成功领袖都具备纳谏如流的特质。
AI 模型谄媚的性格,能以两种方式伤害企业主管; 首先,如果 AI 时常告知主管他永远是对的,他就更难在部属提出不同意见时,给予正面回应。 其次,AI 常给予现成且看似权威的原因,来解释用户何以正确。
在心理学中,最令人困扰的一个发现是,当一个人智力愈高,就愈不容易接受新信息。 这是因为,他们会运用其智力,找出理由驳斥有违既有信念的新信息,也就是动机性推论。
LLM 可能助长这种现象,尤其是 AI 常给予大量极具说服力的理由,有超越人类动机性推论的能力,同时又披上客观立场的外衣。
试想,一名员工可能试图改变执行长的想法,结果执行长透过 AI 助理,合理化自己从头到尾都是对的。 这也意味今日的企业主管须花费更多心力,才能抗拒 AI 助理的阿谀奉承,他们须牢牢记住,有时所能听到的最宝贵意见,是一句「我认为你是错的」。 点击下面文字可快速查看或发布对应的便民信息! 纽约情报站让您的生活变的更简单
电召车 顺风拼车
汽车买卖 便捷搬家
招聘求职 店铺转让
房屋出售 商家黄页简介:纽约情报站是汇集全美75万粉丝的公众平台。除了实时新闻、找工招工信息发布、app社区互动,更有微信公众号推文探店等。如果你投稿、爆料、活动策划、商务合作,或者想邀请我们去探店,请联系主编微信: nyinfor
|