最近,位于德国的一家汽车制造厂里,一台高度自动化的机器人突然出现了错误操作,抓起旁边的一名安装工人,摔向了一块金属板,造成该工人不幸遇难。消息一出,舆论哗然:加上不久之前刚刚上映的电影《超能查派》,很多人开始担心,以后科技进步了,会不会出现特别聪明的机器人,背叛了人类的意志,最终成为《终结者》里那样主宰世界的机器霸主?另外,如果机器人真的杀人了,谁该为这样的凶杀承担责任?我们有必要去恐慌吗?
7月7日,特斯拉电动汽车公司首席执行官伊隆·马斯克(Elon Musk)可能是人工智能技术快速发展的幕后推动力量之一,但他同时也是这种技术最直言不讳的批评者。马斯克曾将研发人工智能比作“召唤恶魔”,宣称智能机器将来可能会灭绝人类。
现在,马斯克正资助37个研究项目,它们的目标就是确保人类将来能够继续控制人工智能系统。马斯克通过总部位于波士顿的非营利组织“未来生命研究所”(FLI)资助诸多项目,这个组织致力于降低人类生存风险、确保人工智能的开发对人类有益。
马斯克曾说过:“所有领先的人工智能专家都认为,人工智能的安全性非常重要。我同意他们的看法,为此我今天出资1000万美元支持那些确保人工智能能让人类受益的研究。”“未来生命研究所”从300多个申请项目中选出资助目标,包括:
1.美国加州大学伯克利分校和牛津大学的科学家计划研发一种能够了解人类喜好的机器,这可以帮助人工智能系统的行为更加像人,减少它们的机器理性;
2.杜克大学的研究团队计划利用计算机学、哲学和心理学建立机器人,它们可以在现实条件下做出道德判断和决策;
3.丹佛大学的科学家希望找到一种方式,可以确保人类不会对机器人武器失控;
4.斯坦福大学的研究团队正寻求机器人接管人类工作时的应对方案,这种假设很可能导致人类大量失业;
5.斯坦福大学另一个团队致力于解决当前人工智能程序的局限性,这些人工智能程序在现实世界中的表现与测试环境下完全不同;
6.牛津大学计划为人工智能编写道德规范,帮助决定哪类研究应该获得资助;
7.牛津大学哲学家、《超级智能:方法、危险、战略》(Superintelligence: Paths, Dangers, Strategies) 一书作者尼克·博斯特罗姆(Nick Bostrom)想要创建牛津-剑桥研究中心,制定政府、行业领袖以及其他人都要强制遵守的政策,以此降低人工智能带来的长期危险。
马克斯(图片来自:baidu)
其实很多时候科技就是这样,我们并不确定他们在给我们带来帮助的同时会不会给我们带来伤痛或,所以我们应该需要找到一些方法去避免这些事情。可能我们真的要按照科幻小说作家阿西莫夫提出的“机器人三定律”来制约人工智能,将“机器人不得伤害人类”、“不能眼见人类处于危险而袖手旁观”原则贯穿整个开发工作的始终,“从小开始”培养智能机器人对于人类的服从与善意。
推荐经销商