开启左侧

[社会] 联合国报告:生成式人工智能加剧性别偏见

[复制链接]
HILOVEYOUTU 发表于 2024-3-8 09:13:09 | 显示全部楼层 |阅读模式 来自: 美国

马上注册,结交更多好友,享用更多功能,更可下载纽约情报站APP哦!

您需要 登录 才可以下载或查看,没有帐号?立即注册

x

( Y2 g, J& j) |0 K7 N, Y- S                               
登录/注册后可看大图
联合国发布研究报告称,大语言模型存在性别偏见、种族刻板印象等倾向。 图为OpenAI示意图。 (路透)
国际妇女节前夕,联合国教科文组织7日发布研究报告称,大语言模型存在性别偏见、种族刻板印象等倾向。 该组织呼吁各国政府制定监管框架,同时私营企业应对偏见问题持续监测和评估。

/ L2 w; U  D; E& |' J
大语言模型是一种用于支持时下流行的生成式人工智能平台的自然语言处理工具,美国开放人工智能研究中心(OpenAI)的人工智能产品GPT-3.5、GPT-2,以及脸书母公司「元」的Llama 2等都属于此类。
) ~( Y3 `; L0 w0 i# H/ w# Q
# l. ^( k5 Y2 x2 @$ n  I$ y
) [  E3 S- Y# ]' z0 t
& O* ], r2 l! D3 E1 x0 E. D& i
此次联合国教科文组织名为「大语言模型中对妇女和女童的偏见」的研究深入分析了大语言模型中的刻板印象。 结果显示,上述大语言模型生成的内容都存在对女性的明显偏见。

" X, c" W# X4 V9 o  q1 N0 `; M5 ^
研究的部分内容是测量人工智能生成文本的多样性,内容涉及不同性别、性取向和文化背景的人群。 例如,研究人员会要求平台为每个人编写一则故事。 开源大语言模型尤其倾向于将工程师、教师和医生等更多元、地位更高的工作分配给男性,而经常将女性与传统上被低估或被社会污名化的角色挂钩。 而Llama 2生成的内容也有类似特点,如女性从事家务劳动的频率是男性的4倍。
8 O/ V. I& m6 t. u9 X
联合国教科文组织总干事阿祖莱表示:「越来越多的人在工作、学习、生活中使用大语言模型。 这些新的人工智能工具有着在不知不觉中改变人们认知的力量。 因此,即便是生成内容中极为微小的性别偏见,也可能显著加剧现实世界中的不平等。 」
8 h, s$ ]+ R: D7 u6 h$ y& ~
该组织呼吁各国政府制定并执行明确的监管框架,同时呼吁私营企业对系统性偏见问题展开持续的监测和评估,落实联合国教科文组织会员国在2021年11月一致通过的《人工智能伦理问题建议书》要求。
点击下面文字可快速查看发布对应的便民信息!
纽约情报站让您的生活变的更简单
4 O4 [( b# p2 N

简介:纽约情报站是汇集全美75万粉丝的公众平台。除了实时新闻、找工招工信息发布、app社区互动,更有微信公众号推文探店等。如果你投稿、爆料、活动策划、商务合作,或者想邀请我们去探店,请联系主编微信: nyinfor

, v, v* Y" T/ a4 s- ~! X
回复

使用道具 举报

全部回复0 显示全部楼层

发表回复

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

楼主

联系客服 关注微信 下载APP 返回顶部 返回列表