人工智能研究人员周五表示,他们已经从一个用于训练流行的人工智能图像生成工具的数据库中删除了2000多个涉嫌儿童性虐待图像的网络链接。
LAION研究数据库是一个巨大的在线图像和说明索引,一直是领先的人工智能图像制造商(如Stable Diffusion和Midjourney)的来源。
斯坦福互联网观测站(Stanford Internet Observatory)的一项研究发现,其中包含儿童露骨色情图片的链接,这使得一些人工智能工具能够轻松地制作出描绘儿童的逼真深度假照片。
去年12月的报告导致非盈利组织大规模人工智能开放网络(LAION)立即删除了它的数据集。8个月后,LAION在一篇博客文章中表示,它与斯坦福大学监督组织以及加拿大和英国的反滥用组织合作,解决了这个问题,并为未来的人工智能研究发布了一个清理后的数据库。
但是,斯坦福大学认为“最受欢迎的生成清晰图像的模型”之一——一个较老的、经过轻微过滤的Stable Diffusion版本——仍然可以公开访问,直到周四,总部位于纽约的Runway ML公司将它从人工智能模型库“拥抱脸”中删除。Runway在周五的一份声明中表示,这是“有计划地弃用没有积极维护的研究模型和代码”。
目前,世界各国政府正密切关注一些科技工具是如何被用来制作或传播非法儿童图像的。
本月早些时候,旧金山市检察官提起诉讼,试图关闭一家允许人们制作人工智能生成的女性和女孩裸体照片的网站。消息应用Telegram涉嫌传播儿童性虐待图片,导致法国人周三反对该平台创始人兼首席执行官帕维尔·杜罗夫(Pavel Durov)。
本文来自作者[仙女棒]投稿,不代表章湃装修百科网立场,如若转载,请注明出处:http://m.2fof.com/decoration/202412-13096.html
评论列表(4条)
我是章湃装修百科网的签约作者“仙女棒”!
希望本篇文章《研究人员称,从人工智能图像生成器训练源中删除了虐待儿童的图像》能对你有所帮助!
本站[章湃装修百科网]内容主要涵盖:时事资讯,生活百科,小常识,生活小窍门,家居装修知识分享
本文概览:...