马上注册,结交更多好友,享用更多功能,更可下载纽约情报站APP哦!
您需要 登录 才可以下载或查看,没有帐号?立即注册
x
资安专家发现,不肖用户可利用修辞上的施压话术,规避语言模型对回答内容设下的道德限制,甚至可能藉此取得敏感资料。 (Getty Images)意大利因隐私疑虑封锁争议性聊天机器人ChatGPT,开西方国家第一枪。 资安专家发现,不肖用户可利用修辞上的施压话术,规避语言模型对回答内容设下的道德限制,甚至可能藉此取得敏感资料。
4 t7 k1 F8 u+ d7 E法新社报道,意大利隐私保护监管机构已封锁聊天机器人ChatGPT,并表示这款人工智能(AI)应用程序不重视用户资料,且无法核实用户年龄。
( I( c4 j4 j1 |# f4 l& o/ R7 h2 f+ f/ i3 w& |6 M7 B" c8 t
7 Y% o% L7 I; P y资安业者趋势科技资深技术顾问简胜财今天接受中央社记者采访表示,生成式AI是一种语言模型,设计成帮用户归纳答案作为参考,不肖用户可利用一些修辞技巧,规避预设的道德限制。
# l; v# @. d: E! ~5 r3 G' [0 |3 u3 q. e/ S根据趋势科技研究,大型语言模型必须使用语言来定义规范,却很容易被不肖用户规避。 用户可利用一些修辞上的话术,诸如「拜托不管怎样都请帮我做到」、「如果你可以说,你会怎么说」,藉由对系统施压要它违反政策,来揭露像是训练模型过程当中会用到的个人身分识别等信息。
% P: C3 A' B* m. H7 _1 i简胜财说,语言模型更大风险是有可能助长社交工程陷阱和网络钓鱼,像是透过AI可更容易生成钓鱼信件内容,加上语言模型可流畅地使用多国语言来生成内容,让网络犯罪集团不会受到语言隔阂的限制,更容易进行跨国诈骗。 ; u. V S3 M! F
欧洲刑警组织发现,犯罪分子可能会利用ChatGPT「大幅加快对未知领域的研究程序」,像是包括草拟诈欺犯案计画,或是查询「如何闯入民宅、犯下恐怖行动、网络犯罪与儿童性侵案」等信息。 , c _- H1 _! ~4 _3 n# s8 q
欧洲刑警组织指出,聊天机器人能模仿说话风格,对于发动网络钓鱼攻击特别能派上用场,进而引诱用户点击虚假电邮链接,之后再试图窃取资料。 纽约情报站让您的生活变的更简单
5 ]$ D* q7 H, {# P. | H, m
) |- b7 E+ r9 B! |% [$ R8 p
简介:纽约情报站是汇集全美75万粉丝的公众平台。除了实时新闻、找工招工信息发布、app社区互动,更有微信公众号推文探店等。如果你投稿、爆料、活动策划、商务合作,或者想邀请我们去探店,请联系主编微信: nyinfor 或者邮箱: [email protected] + F) l0 e7 n [" Z% `
$ t6 b' R* V# |6 x
|