HILOVEYOUTU 发表于 2024-4-29 11:41:14

AI能看面相 却让研究人员害怕起来

https://pgw.worldjournal.com/gw/photo.php?u=https://uc.udn.com.tw/photo/wj/realtime/2024/04/29/29561200.png&x=0&y=0&sw=0&sh=0&sl=W&fw=800&exp=3600&q=75人工智能(AI)脸部识别技术可预测人的政治倾向。 (示意图,Pexels/Bolarinwa Olasunkanmi)福斯电视台FOX 11报导,「美国心理学家」(journal American Psychologist)近期发表一项研究称,人工智能(AI)脸部识别技术「比先前想像的更具威胁性」,对隐私构成「严重挑战」。 研究发现,人工智能可从一个「无表情的脸部图像」预测一个人的政治取向。
该研究主要作者,史丹福大学商学院组织行为学副教授科辛斯基(Michal Kosinski)表示,人工智能算法能准确猜测某人的政治观点能力,与工作面试预测成功与否,或酒精驱动攻击性的能力相当。
该研究有591名参与者,他们填写政治取向问卷,而人工智能捕捉他们的面部特征、纹路与指纹,再将这些数据与他们回答问卷的内容数据库进行比对,以判读他们政治观点。
研究人员表示,该研究参与者照片,是以高度控制的方式收集。 「参与者穿着调整过的黑色T恤,取下所有珠宝,必要的话还要剔除面部毛发,使用纸巾擦拭面部,直到脸上没有任何残留物。 此外头发用发带、发夹固定等。 」之后,脸部辨识算法VGGFace2验证这些影像,确定「脸部描述相符,即一个既独特于该个体,又在不同图像间保持一致数值向量。 」
「我认为人们并未意识到,仅将一张照片放在那,就能暴露多少讯息」科辛斯基说,「人们性向、政治取向与宗教观点应该受保护。 过去你可进入某人脸书等账户了解他们上述观点,但多年前脸书关闭这项功能,因大家都清楚这样很危险。 」「然而我们研究表明,脸书向你展示它们的照片,在某种程度上,等同告诉你他们政治倾向。 」
作者指出,他们的研究强调学者、公众和政策制定者认识和解决面部识别技术,对个人隐私潜在风险的紧迫性。 我们的研究还表明,稳定的面部特征传达大量讯号,这意味着个人对其隐私控制将更少。 」不仅如此,与政治取向相关的面部特征分析表明,「保守派更倾向于具有较大的下半脸。 」
科辛斯基说,这类算法可很轻易的运用于数百万人,且非常快速与廉价。 」该研究更像是与人工智能相关技术的「警示」,这种技术已存在于手机中,且广泛的在各处使用。 他们认为学者、公众和政策制定者,应该注意并考虑加强监管相关议题。点击下面文字可快速查看或发布对应的便民信息!纽约情报站让您的生活变的更简单:hug:电召车 :hug:顺风拼车:hug:汽车买卖 :hug:便捷搬家:hug:招聘求职 :hug:店铺转让:hug:房屋出售 :hug:商家黄页简介:纽约情报站是汇集全美75万粉丝的公众平台。除了实时新闻、找工招工信息发布、app社区互动,更有微信公众号推文探店等。如果你投稿、爆料、活动策划、商务合作,或者想邀请我们去探店,请联系主编微信: nyinfor
页: [1]
查看完整版本: AI能看面相 却让研究人员害怕起来