人工智能武器真正的威胁来自人类,而不是机器

2018-05-02  阅读次数:
\
  据美国总统唐纳特·特朗普在 Twitter 上宣称,禽兽不如的阿萨德发动了一场令人发指的毒气袭击,造成了至少 40 人死亡,这些死者嘴角都有泡沫。

  针对手无寸铁的平民发动的化学武器造成了他们所在地区所有生物的死亡。虽然这些武器被归类为大规模杀伤性武器,但我们对另一种被称为火药和核武器之后的“第三次战争革命”的武器提出了警告:人工智能武器。

  在新出的纪录片《你信任这台电脑吗?》(Do You Trust This Computer?)中,Elon Musk 警告称,人工智能的独裁统治期限将远超出人类历史上任何一个政权,从而实现对人类的无限期压迫。“你会有一个永生的独裁者,而我们将永远无法逃脱。”Musk 指出,过去那些邪恶的独裁者,比如阿道夫·希特勒,只是因为他们是凡人肉胎因而能力有限。如果一个邪恶但超级智能的电脑控制了局面,那就不是这样了。

  在这部超过一小时的纪录片中,有多位人工智能专家出镜,给我们普及了什么是人工智能以及它能够做什么,但是这部纪录片提出了一个错误的观点。

  人工智能的回顾

  人工智能可以被训练得比人类更高效。这种训练可以是监督训练或者无监督训练,但最终都归结于“模式识别”。有人脸构成的识别模式(即人脸识别模式)可以将猫和狗区分开来,并确定正确的识别路径。

  在围棋和扑克竞赛中,人工智能已经能够击败人类,而要做到这点,人工智能只需观看人类如何竞技数百万次即可。人工智能比人类放射科医师在肺癌诊断方面的准确率高出 50%,而开发人员对这方面几乎一无所知。另外,人工智能还在综艺节目《危险边缘》与人类对决,并接连打败了最高奖金得主 Brad Rutter 和连胜纪录保持者 Ken Jennings,赢得了比赛的胜利。

  然而,人工智能并不知道它在做什么。人工智能并不了解系统,它只是知道如何工作。它不理解“为什么”,只有“什么”,这就是本文讨论的核心。

  屠杀机器人

  Youtube 这段视频展示了根据他们的在线活动利用人工智能来针对目标个体的可能场景:

  无人机群能过穿过建筑物,定位目标个体的确切位置,精确地对目标个体进行斩首。但是,如果目标正戴着头盔怎么办?如果目标使用了面具呢?这不就简单地打败了无人机群的面部识别模式吗?人工智能甚至可能都无法将这些目标识别为人类,并且会错过目标,因为人工智能只能匹配它所训练的数据。

  是的,军队或许可以用训练机群来为这些场景作出解释,但是,这需要人类。

  人工智能并没有任何目的,它只是一台能够很好地完成人类交待的任务的机器而已。恶意的意图在于那些分配任务的人类。

  指导人工智能

  人工智能所解决的任务对人类来说,几乎是不可能完成的任务,如果有人想要为解决这一任务的系统进行编程——它需要几百万行代码以及耗时数年才能完成。人工智能(特别是深度学习)提供了一条捷径:受人类大脑工作方式的启发,这个系统实际上是可以自行编程的。它通过研究数以百万计的数据并调整其权重来得出最优结果。因此,没有人真正知道如何给人工智能编程,我们只是训练人工智能。这点就是人工智能的神秘部分之一,因为没有人知道人工智能到底是什么。

  人工智能可以响应自然语言的查询,但它不会理解正在说的是什么。它可以做情感分析,但不会理解情感。眼下的人工智能系统擅长完成特定的任务,但它们并不像人类大脑那样是一个整体。

  虽然这并非在某些领域产生高效结果的必要条件,但我们的结论是,人工智能没有意图——只有人类才有。

  人工智能是否能拥有意识,并绕过人类智能?

  “智能爆炸(intelligence explosion)”理论声称,如果我们创造出一台超智能机器,那么这台机器就能设计出更好的机器,而人类智能将被远远甩下。用 Irving John Good 的话说:“因此,第一个超智能机器将是人类的最后一项发明。”

  AI 前线注:数学家 Irving John Good 在 1965 年发表了一篇题为《有关第一台超智能机器的猜想》的文章中,提出了“智能爆炸”的概念, 预测计算机将从各方面都超过人类的智慧能力。

  但 Fran·ois Chollet 认为并不存在所谓的“智能爆炸”,他说:“我们大部分智能并不在我们的大脑中;它是以书籍、计算机、数学、科学和互联网等的形式作为智能假体,来体现为我们人类的文明,这些是我们如今大部分认知能力之所在。”他继续讲道,“没有一个人,也没有任何我们所知的智能体能够设计出比自己更聪明的东西。我们所做的是,逐步地、共同地构建比我们自身更大的外部解决问题的系统。”他指出:我们解决问题的能力(特别是我们设计人工智能的能力)已经不断提高,因为这些能力不是主要存在于我们的生物大脑中,而是存在于我们的外部集体工具中。因此,智能的演进只能来自于大脑、感觉运动能力、环境、文化的共同进化,而不是单纯调整某些大脑的齿轮。单一的人类大脑本身并不能设计比自己更强大的智能。

  人工智能终究只是一个工具而已。我们要看是谁在使用人工智能。

  必然性

  为防止人工智能的研究成果在军事领域遭到滥用,人工智能专家也在为防止出现人道主义灾难做出努力,这很值得尊重,但实际上,没有人能够真正阻挡住人工智能踏上这条不归路。当学生只需 500 美元就能够设计出一种能够打败战术专家的人工智能时,那独裁政权或恐怖分子同样也能做到。而其中一条理由就足以让他们亮出武器:每一方都以“防御”为借口来发展人工智能。

  结果到头来,是人类彼此在厮杀。而人工智能让这场厮杀更为高效。如果有什么需要我们解决的,那就是我们:真正可以思考的人,能够真正理解什么是对的,什么是错的。

  人工智能被指责让人们因此失业,并最终导致了暴力事件的发生。我们目睹过工业革命开始时的类似担忧。这件事真真切切发生了,就发生在我们当前的社会。但是,暴力的罪魁不应归咎于技术的进步;当人们被新技术抛弃,又没有明确的未来和谋生方式——这就是导致暴力事件发生的原因。如果人们能够得以被照顾,甚至在新环境中接受训练,那么事情可能会有所不同。但是,当权者眼里只有他们的利益,而不是整个社会的利益。

  如果有什么需要我们去改变,而我们可以成功地改变,就是这种观点。

  失败的战斗

  将希特勒视为一个改变了历史进程的人,这一观点是错误的:人们还必须考虑到当时德国社会和世界政治的环境,为希特勒的“国家社会主义”(即“纳粹”)提供了可以滋生的土壤。在古代,个人能够扮演重要的角色,但现在不能了,时代变了。在现代社会中,我们大多面临的是能够取代人们走上同一条道路的系统。个体固然很重要,但系统为所有人发挥其特殊作用奠定了基础。

  而现在,我们有了可以让独裁者逍遥法外的制度。不像我们未来可以预见的人工智能武器,这些暴行现在正在发生。如果说有一个系统需要我们去纠正,那就是这个:能够将任何技术转化为邪恶武器的土壤。

  许多电影 (如《终结者》或《黑客帝国》) 描绘了人类与机器作战的未来。我们不能阻止未来:人工智能会扩散。与机器的较量已经失败,但我们可以赢得这场为人类而战的战争。