默多克|IEEE Spectrum调查:AI 的 6 种最坏情况

默多克|IEEE Spectrum调查:AI 的 6 种最坏情况
文章插图
编译丨辛西娅
审核丨维克多
对于人类社会,人工智能(AI)带来的最大威胁是什么?好莱坞科幻电影的“想象”提供了答案:它逐渐进化,获得人类思考能力,然后变成霸主,奴役或毁灭人类。也有些观点认为:在AI不知不觉杀死所有人之前,会存在许多危险情形。
2022年1月份,IEEE Spectrum访谈了多位技术专家,列举出了当前6种AI危险事例,这些危险比科幻电影的描述“风平浪静”,却同样具有威胁性,如果放任自由会有意想不到的后果。它们分别是:虚拟定义现实、AI军备竞赛、隐私透明、斯金纳箱现象、AI偏见以及过度担忧AI影响。

1

当虚拟定义现实……
当人类无法区分数字世界中的真实与虚假时,会发生什么?
设想这样一个场景:AI已经拥有完美生成的能力,利用先进的机器学习工具生成的图像、视频、音频和文本已经“以假乱真”。但如果决策者陷入假信息旋涡,并做出决断,不可避免会导致危机。当上升到国家高度,甚至会发动战争。乔治敦大学的研究员安德鲁?罗恩(Andrew Lohn)认为:AI已经能够产生大量以假乱真的信息。而且AI的特点是“随着大量信息的生成,系统会不断与真实信息进行对比,并且升级生成能力”。
【 默多克|IEEE Spectrum调查:AI 的 6 种最坏情况】AI信息生成技术也被称为“DeepFake”,其带来的恶作剧已经造成了某些影响。例如去年5月份,一些欧洲高级议员收到了一些“俄罗斯反对派人物”的视频会议邀请,还煞有其事地讨论了克里米亚问题之类的政治事务,结果发现在这些所谓的“俄罗斯反对派人物”都是别人用Deepfake换脸假冒的。这些受骗者包括拉脱维亚议会外交事务委员会主席Rihards Kols,以及来自爱沙尼亚和立陶宛的议员……
2

一场危险的逐底竞赛
当谈到AI和国家安全时,开发速度既是重点也是问题所在。由于AI系统能为用户带来速度优势,所以最先开发军事应用的国家将获得战略优势。但是,一味追求速度可能会牺牲哪些设计原则呢?
首先,是“质量”问题。例如黑客会利用系统中微小的缺陷。乔治敦大学的海伦·托纳(Helen Toner)表明:“从一个无伤大雅单点故障开始,然后所有通信失灵,人们恐慌,经济活动陷入停滞;随后持续的信息缺乏,再加上其他错误计算,可能导致局势失控。”
另一方面,瑞典的斯德哥尔摩国际和平研究所高级研究员文森特?布拉南警告可能发生重大灾难:“大国为了赢得先发制人的优势而‘偷工减料’,如果一个国家将开发速度置于安全、测试或人为监督之上,那么这将是一场危险的竞逐。”例如,为了获得速度优势,国家安全领导人可能会倾向于授权指挥和控制决策,取消黑盒机器学习模型的人为监督。想象一下,如果自动发射导弹防御系统处于无人监督的环境下会发生什么?
3

隐私和自由意志的终结
使用数字技术的过程中产生了大量的电子数据,例如发送电子邮件,阅读文本,下载,购买,发帖等等。当允许公司和政府访问这些数据时,也意味着赋予工具监视和控制我们的权限。