这些规则可以拯救人类免受“流氓AI”的威胁?

日期:2019-05-13 10:17:52 作者:被窝网 浏览: 查看评论 加入收藏


​如今,人造机器转向“创作者”的问题已经成为一个主流的话题。毫无疑问,艾萨克·阿西莫夫的三部机器人定律不再适用于目的。为了全球公益,我们需要一些严肃而具体的东西来保护我们无限的野心,以及人类本身。

今天,互联网连接了世界一半以上的人口。虽然互联网为我们提供了便利和效率,但它也带来了威胁。在大数据和人工智能驱动大量日常生活的时代,尤其如此。算法被广泛用于确定我们阅读的内容,我们去哪里以及如何到达那里,我们听什么音乐以及我们以什么价格购买某些东西。自动驾驶汽车、自动癌症诊断和机器编写从未如此接近大规模的商业应用。
 

如果数据是新的石油,那么人工智能是新的钻探-并且为了扩展这种类比,故障算法是新的污染。

重要的是要注意,故障不等于恶意。同样,良好的意图并不能保证缺乏法律,道德和社会方面的麻烦。已经有人工智能,我们已经看到了许多这样的问题的例子:即无意识的行为,缺乏远见,监督和监督的困难,分布式责任,隐私侵犯,算法偏见和滥用。此外,一些研究人员开始担心智能机器取代人工造成的失业率可能上升。

问题迫在眉睫

“行为不端”的AI现在越来越多。一个面部识别应用程序将非洲裔美国人称为“大猩猩” ; 另一个人将28名美国国会议员确定为通缉罪犯。据称,美国法院使用的风险评估工具对非洲裔美国人有偏见; 优步公司的自动驾驶汽车在亚利桑那州杀死了一名行人 ; Facebook和其他大公司因歧视性广告行为被起诉 ; 和致命的人工智能武器正在开发中。

我们正在进入未映射的领域,这就是为什么我们迫切需要规则和指导原则作为指南针来指导我们朝着正确的方向前进。技术伦理现在比以往任何时候都更加重要,必须成为这套规则和原则的核心。

我们应该承认建立这样一个框架的一些早期努力。值得注意的例子包括“Asilomar AI”原则,以及IEEE的道德标准和认证计划。

而在2018年末,腾讯创始人兼首席执行官马化腾提出了人工智能治理的道德框架,即ARCC:可用、可靠、全面和可控。

实用、可靠、易于理解和可控制

马化腾的框架可以成为中国及其他地区人工智能系统治理的基础。其目的是在未来几千年内确保人类与机器之间的友好和健康的关系。

实用性

人工智能应该面向群众,而不仅仅是少数人群。我们已经习惯了智能手机和笔记本电脑的好处,但我们常常忘记,半数世界仍然被这场数字革命所切断。

人工智能的进步应该解决这个问题,而不是加剧它。我们需要将生活在发展中地区,老年人和残疾人的人带入数字世界。整个人类的福祉应该是人工智能发展的唯一目的。这就是我们如何确保人工智能不会超越其他人的利益。

以最近医疗机器人的发展为例。腾讯觅影是腾讯的AI医疗诊断成像解决方案,目前正与数百家当地医院的放射科医生合作。该癌症预筛查系统研究了数十亿个医学图像,并检测了数十万个高风险病例。机器人然后将这些案例提交给专家。通过这样做,它可以让医生免于日常看病的劳动,并让他们有更多时间照顾病人。

此外,可用的AI是一种公平的AI。一个完全理性的机器应该是公正的,没有人的弱点,如情绪或偏见-但这不应该被视为理所当然。最近发生的事件,如微软聊天机器人使用的粗俗语言表明,当提供不准确,不完整或有偏见的数据时,AI可能会严重错误。这里首选道德设计方法-即在AI开发过程中仔细识别,解决和消除偏差。

监管机构已经在制定解决偏见和歧视的准则和原则。谷歌和微软等公司已经建立了自己的内部道德委员会来指导他们的人工智能研究。

可靠性

由于人工智能已安装在数百万户家庭中,我们需要它们安全,可靠并能够防范网络攻击和其他事故。

以自动驾驶汽车为例。腾讯正在开发3级自动驾驶系统,并已获得在深圳公路上测试其自动驾驶汽车的许可证。但在获得测试许可证之前,其自动驾驶汽车已在一个封闭的地点进行了超过一千公里的测试。今天,我们的道路上没有真正的自动驾驶汽车在商业上使用,因为有关其认证的标准和规定仍有待确定。

此外,为了让AI变得可靠,它应该确保数字,物理和政治安全,特别是在隐私方面。我们已经看到了在未经用户同意的情况下收集用于培训AI系统的个人数据的情况。因此,AI应遵守隐私要求,通过设计保护隐私并防止数据滥用。

可理解性问题

人工智能系统的巨大复杂性意味着说起来容易做起来难。深度中性网络的输入和输出之间的隐藏层使其难以穿透,即使对于其开发人员也是如此。因此,如果发生涉及算法的车祸,我们可能需要数年才能找到故障背后的原因。

幸运的是,AI行业已经对可解释的AI模型进行了一些研究。算法透明度是实现可理解的AI的一种方式。虽然用户可能不关心产品背后的算法,但监管机构需要深入了解其技术细节。尽管如此,良好的做法是为用户提供有关AI系统协助或制定的决策的易于理解的信息和解释。

为了建立一个易于理解的人工智能,应该保证和鼓励公众参与和行使个人权利。人工智能开发不应成为商业公司的秘密事业。作为最终用户的公众可以提供有价值的反馈,这对于高质量AI的开发至关重要。

应要求技术公司向其客户提供有关AI系统的目的,功能,限制和影响的信息。

可控制性

但并非最不重要的原则是确保我们人类负责。每一项创新都伴随着风险。但是,我们不应该让一些人为的一般情报让人们对人类灭绝的担忧阻止我们用新技术追求更美好的未来。我们应该做的是确保AI的好处大大超过潜在的风险。最重要的是,我们必须制定适当的预防措施,以防范可预见的风险。

就目前而言,人们经常比AI更信任陌生人。我们经常听说自动驾驶汽车不安全,过滤器不公平,推荐算法限制我们的选择,定价机器人向我们收取更多费用。这种深深的怀疑源于信息短缺,因为我们大多数人不关心或没有必要的知识来理解AI。

我们应该做些什么?

我想提出一系列规则,从道德框架开始,可以帮助AI开发人员及其产品赢得他们应得的信任。

一方面,我们有轻松的规则,如社会习俗,道德规则和自我规范。上面提到的道德框架适合这里。在国际层面,谷歌,微软和其他大公司已经提出了自己的AI原则,而Asilomar AI Principles和IEEE的AI道德计划则备受好评。

随着我们的发展,有一些强制性和有约束力的规则,例如标准和法规。我们今年写了一份关于自动驾驶汽车的政策报告,发现很多国家都制定法律来鼓励和规范自动驾驶汽车。未来,人工智能将有新的法律。

此外,还有刑法规定惩罚不良行为者恶意使用人工智能。极右翼,有国际法。例如,一些国际学者一直在推动联合国提出关于致命自主武器的公约,就像“禁止或限制使用某些常规武器公约”一样。

任何新技术,无论是受控的核反应还是人形机器人,都不具备本质上的好坏。确保它是前者取决于我们。

中国寻求到2030年成为人工智能开拓者。技术领导者现在开始强调技术发展的重要性。但这只是“道德洗涤”吗?还是中国认真对待实现道德人工智能?

 

支付宝转账赞助

支付宝扫一扫赞助

微信转账赞助

微信扫一扫赞助

留言与评论(共有 0 条评论)
   
验证码: