人们几乎无法识别AI生成的媒体新结果。
人们几乎无法识别AI生成的媒体新结果。
人们几乎看不到AI生成的媒体
ki生成的图片,文本和音频文件是如此令人信服,以至于人们不能再将它们与人造内容区分开。这是对来自德国,中国和美国的约3,000名参与者进行在线调查的结果。这项研究是由Cispa教师LeaSchönherr博士和Thorsten Holz教授进行的,并在旧金山举行的第45届IEEE安全与隐私研讨会上进行了演讲。这项研究是与鲁尔大学,汉诺威莱布尼兹大学和柏林的鲁尔大学合作进行的。
近年来,人工智能的快速发展仅需单击几下即可允许群众,文本和音频文件。但是,这一发展具有风险,尤其是在政治意见的制作方面。随着今年即将举行的重要选举,例如欧盟议会选举或美国总统大选,AI产生的媒体将被用于政治操纵。这是对民主的巨大危险。
这项研究的结果令人惊讶:人们发现很难将真实媒体与AI生成的媒体区分开。这适用于所有类型的媒体,例如文本,音频和图像文件。令人惊讶的是,只有少数因素可以解释人们是否更好地识别AI生成的媒体。不同年龄段,教育背景,政治态度或媒体素养之间几乎没有任何显着差异。
在德国,中国和美国进行了一项定量在线调查。参与者意外地分配了三个媒体类别之一(文本,图像或音频),并看到了真实和AI生成的媒体。此外,还收集了有关AI生成的媒体和其他因素的社会生态数据。评估中总共包括2,609个数据记录。
该研究为网络安全研究提供了重要的见解。 AI生成的文本和音频文件的风险用于社会工程攻击。为这种攻击情况开发防御机制是未来的重要任务。此外,我们必须更好地了解人们如何完全区分AI生成的媒体。一项计划的实验室研究旨在要求参与者看看他们是否认识到某物是否是生成的。此外,将开发用于自动化事实检查的技术过程。
可以根据指定的链接查看该研究的完整科学出版物。
表:研究结果概述
|媒体艺术|真正分类的数量| Ki生成的分类|
| ————— | ———————— | —————————— |
|文字| 65%| 35%|
|图像| 52%| 48%|
|音频| 60%| 40%|
研究表明,大多数参与者将AI归类为人造媒体,而不管媒介的类型如何。
这项研究的结果提供了有关AI生成的媒体的感知和识别的宝贵知识,并代表了该领域进一步研究的重要起点。人工智能的发展将来将如何发展以及这将如何对社会产生什么后果,还有待观察。
Kommentare (0)