我们的隐私被AI扒光了?欧盟出台道德标准

前几天,欧盟委员会发布了七条关于人工智能(AI)发展的道德标准。在这七条标准中,我们可以看的出来欧盟对于AI的发展保持着很大的警惕,所以相比起AI技术的发展,欧盟更加重视AI的伦理问题和道德问题,可以说“以人为本”这一件事欧盟是走在全世界的前面。

一直以来,欧盟在AI技术方面的发展并没有走在世界的前列,但是在AI的道德伦理方面却是一直是欧盟第一。所以这七条AI的道德准则在发布之后欧盟并没有打算停下来,而是打算在拿到即将到来的G20峰会上讨论,看欧盟的动作是真心打算将全世界的AI的道德伦理标准定下来,在下面我们一起来看看欧盟制定的七条AI道德标准是什么?

我们的隐私被AI扒光了?欧盟出台道德标准

受人类监管:欧盟认为AI不应该成为不受控制的的力量,一个好的AI是不能侵犯人类的权利,更加不能对人类做出控制或者威胁,人类应该能够随时能控制住AI每一个决定。

技术的稳健性和安全性:AI应该是安全而稳定的,它不会因为外界的攻击而受到影响,AI应该是最可靠的。

隐私和数据管理:AI收集到的个人信息应该是非常安全的,它不会被任何人知道,更加不会被人通过网络盗走。

透明度:所有用于创建AI的的数据和算法应该都是可以访问的,AI所有做出来的决定都是可以被人类所理解,所有的AI做出来的决定都是能被技术人员解说回答为什么会做出这个决定。

多元化、非歧视和公平性:AI的服务对象是所有的人,无论人种、年龄、性别或是身体状况,AI都不应该存在差别对待,所有人都是一视同仁。

环境和社会福祉:AI应该是可持续发展的,要对生态负责,还要有促进积极的社会变革。

问责制:AI应该是可审计的,并且被纳入企业可举报范畴,以便被现有规则保护。同时,AI的负面影响也要事先得到承认和报告。

我们的隐私被AI扒光了?欧盟出台道德标准

从以上七条准则我们看的出来欧盟对于AI的道德伦理方面真的是用心了,不同于阿西莫夫的“机器人三定律”是用来阻止机器人成为杀戮工具,欧盟的七条准则是为了让AI融入人类的生活不会出现一些细节上的问题。其中我们可以用“多元化、非歧视和公平性”这一条准则作为例子,如果在未来AI发展到可以为人类患者医疗,那么我们一定不会希望AI会因为人种或是年龄而出现歧视的事情。

从现在科技发展的趋势来看,AI在以后只会和人类的融合越来越深。就只是就现在而言,因为大数据,在互联网科技方面,AI技术已经和人类不可分割。我们所使用的手机APP、电脑软件只要和互联网连接上,我们的信息就会被采集到云端作为大数据的一部分,所以说现在很多的人已经是被AI和大数据所控制,只是这一种控制是我们看不见的而已。

我们的隐私被AI扒光了?欧盟出台道德标准

但是如果细心注意一下,我们有时候只是在网络上搜索一样东西或者点击了一页新闻,在之后几天的时间里都会有那种类型的广告出现在我们的眼前,而这就是AI所带来的危害。一些公司正在通过AI技术侵犯我们的隐私,但是对此我们却是无可奈何,因为现在的AI技术都没有一个标准,一个道德和伦理的标准。

而欧盟所提出的七条AI道德准则,就是针对于这种情况而提出,AI作为人类科技发展的一个重要的工具,不应该变成控制和监控人类隐私的存在,AI应该是完全服务于人类,有着自己的道德标准和伦理认知。我们都知道现在AI其实就是按照固定的程序而运行,也就是弱人工智能阶段,在这一个阶段是人类最放肆的阶段,在这一阶段人类的隐私简直就是一个笑话,人类在网络上是不存在隐私的。

我们的隐私被AI扒光了?欧盟出台道德标准

所以说,欧盟这一次所提出的七条AI道德准则是为了未来的强人工智能出现而准备,那还不如说是为了现在的网络环境而出现。人类不能被网络控制住,AI和大数据不能成为侵犯人类隐私的工具,AI应该要有增强积极的社会变革的作用,而不是在网络上将人类的变成一个透明人,只要在AI数据库中看一眼就可以知道一个人的种族、性别、身高、爱好所有的一切。

我们的隐私被AI扒光了?欧盟出台道德标准

AI需要发展,但是更加需要道德,在弱人工智能时代里,我们不能将道德准则写入AI底层法则,让AI自动遵守。但是这一种道德应该成为每一个研究AI的研究者的准则,更应该成为每一家拥有AI技术的公司必须要坚守的底线,并且要时刻准备接受来及社会的考核,AI需要道德的约束。所以,你觉得未来的AI和互联网公司是否应该坚守这七条道德准则?