人工智能研究人员周五表示,他们已经从一个用于训练流行的人工智能图像生成工具的数据库中删除了2000多个涉嫌儿童性虐待图像的网络链接。
LAION研究数据库是一个巨大的在线图像和说明索引,一直是领先的人工智能图像制造商(如Stable Diffusion和Midjourney)的来源。
斯坦福互联网观测站(Stanford Internet Observatory)的一项研究发现,其中包含儿童露骨色情图片的链接,这使得一些人工智能工具能够轻松地制作出描绘儿童的逼真深度假照片。
去年12月的报告导致非盈利组织大规模人工智能开放网络(LAION)立即删除了它的数据集。8个月后,LAION在一篇博客文章中表示,它与斯坦福大学监督组织以及加拿大和英国的反滥用组织合作,解决了这个问题,并为未来的人工智能研究发布了一个清理后的数据库。
但是,斯坦福大学认为“最受欢迎的生成清晰图像的模型”之一——一个较老的、经过轻微过滤的Stable Diffusion版本——仍然可以公开访问,直到周四,总部位于纽约的Runway ML公司将它从人工智能模型库“拥抱脸”中删除。Runway在周五的一份声明中表示,这是“有计划地弃用没有积极维护的研究模型和代码”。
目前,世界各国政府正密切关注一些科技工具是如何被用来制作或传播非法儿童图像的。
本月早些时候,旧金山市检察官提起诉讼,试图关闭一家允许人们制作人工智能生成的女性和女孩裸体照片的网站。消息应用Telegram涉嫌传播儿童性虐待图片,导致法国人周三反对该平台创始人兼首席执行官帕维尔·杜罗夫(Pavel Durov)。
有话要说...