当前位置: 主页 > 百金网 > 科技 >

如果出现超级智能,人类会面临“缸中之脑”吗?

来源:互联网 2020-03-12 10:28:16  阅读:-
导读: 
如果出现超级智能,人类会面临“缸中之脑”吗?

图源:Unsplash


以人工智能、自动化等为代表的技术能让你的生活更加智能与神奇。国内首个人工智能公园(百度联合)——海淀公园。你在里面跑路,人工智能帮你测量像速度,体重,身高等数据,无人驾驶汽车带你畅游公园,不需要你开车多爽。


此外,它们还能代替你解决很多决策问题。不能否认,人工智能和自动化等技术正在逐步影响传统由人类完成的许多工作。


谈及人工智能时,我们所担忧的其实并不是机器人对人类的取代。机器人已经与人类共存有一段时间了,虽然自动化经常取代人类,但人类往往会改换新工作。


但不是每一个被机器人取代的人都会在一夜之间得到一份更好的新工作。我们会看到未来所有或(大多数)人类工作都由机器人、硬件或软件完成。


不断增加的痛苦可能摧毁经济并杀死人类,但自动化本身不太可能造成这样的影响。

如果出现超级智能,人类会面临“缸中之脑”吗?

自动化会强制替换,不止代替那么简单


如果出现超级智能,人类会面临“缸中之脑”吗?

图源:Unsplash


昨晚我看了一个令人愉悦的电视节目,名为玛丽贝莉的秘密庄园。该节目以烹饪的方式探索英国礼仪历史,突出了我对于自动化的观点。其中很多豪华的厨房曾由二十多人的团队负责做饭,而如今仅有一到两名厨师。人员需求的变化是由取代了人类的新工具导致的。搅拌这项工作曾需拥有大力水手般前臂的专人完成。我认为大部分人不会因电动搅拌机取代了人类的工作而感到不安。


对于重复性任务,无论是软件还是硬件,机器似乎最适合取代人类。就目前而言,这是事实,即使是在人工智能技术前沿,其中的算法可能很快就超过人类同行。尽管人工智能可能在从医学图象中推断数据方面胜过人类,但这是对上百万重复性任务进行处理的结果,其信息处理量远超人类处理极限。


使用机器学习分析带有患者结果的图像中的模式,神经网络可以逐渐熟练地识别诊断。使用过聊天机器人的人都应知道“识别”与理解之间的区别。使用自然语言处理很常见,但是自动化的聊天机器人基本上是从一系列分支条件语句开始运行的。机器人可能不如真实的人那么有帮助,但它们不会感到疲劳或沮丧。


如果出现超级智能,人类会面临“缸中之脑”吗?

机器人可持续工作,不带感情


在我看来,聊天机器人提供了人类无法保持的一致性。反复问同一个问题时,大多数人都会感到沮丧;而机器人没有任何感觉,每次都会以同样的方式回答。即使是最顽强的销售和客户支持人员也会感到被冒犯,或想称某人为“浪费时间的白痴”。


我们的生物生命形式无法在对话之间按下重置键。我进行冥想是为避免结束充满压力的一天后无故斥责无辜的人。我愿意承认,因为我百分百肯定,每个人在某个时候因某个人陷入艰难的一天,而这个人并不是造成这一天困难的原因。


从概念上讲,从使用条件表达式的聊天机器人到超级智能,人工智能的运行方式都一样冷冰冰。即使人工智能决定杀了你,它这么做也绝非针对你。作为杀戮机器的人工智能是微电影《杀戮机器人》的情节。


如果出现超级智能,人类会面临“缸中之脑”吗?

偏差编程可能意味着偏执的人工智能


有了机器人,一切就按照程序不带任何感情地运行。与银行出纳员不同,自动柜员机将平等对待所有客户,除非程序另有规定。然而,编写这些系统时,人们并不善于避免偏见。因为人工智能训练数据中存在偏差的风险,所以我强烈反对预测性警务。


人类的缺陷已经明显反映在我们的数字化的后代身上。有缺陷的数据集输入到机器学习中将有可能产生人工智能怪兽,这并不是我们在看到人工智能愈为普遍的情况下对厨房设备的赌博。即使没有变得更先进,这些问题也会以更多可能看不到的方式放大和显现。


随着人工智能的发展,我们冒险使用超级智能,美国南部一名为三个字母的组织对其存在潜在偏见。而现在,无论是食品搅拌机还是人工智能聊天系统,都存在着同样的低风险,即从墙上拔下插头,并称自己是上帝,这可能会发生改变。在复杂性上,人工智能似乎注定要从狭义人工智能发展到泛人工智能,甚至可能超越人类能力。


如果出现超级智能,人类会面临“缸中之脑”吗?

图源:kkaoyanziliao.tuxi.


如果出现超级智能,人类会面临“缸中之脑”吗?

我们已经大致看到了聪明的人工智能


像强化学习这样的人工智能训练技术已经创造出至少略为通用的人工智能。强化学习包括告诉人工智能一个目标,让机器学习潜在重试数百万次,以找到最佳改进方法。


2015年,谷歌DeepMind使用强化学习训练人工智能玩49款Atari电子游戏;该机器在大多数游戏中都击败了人类玩家。几年后,在2019年,OpenAI发布了一项教人工智能捉迷藏的强化学习项目。两种人工智能就像生物有机体一样,都是通过实践进行学习。请观看OpenAI随项目一起发布的视频,以更好了解其工作原理。


这些例子很难达到人类智力水平,但它们也不是计算器。这些人工智能可以正常运行,并且只需很少的编程即可学习。有了自学软件,就有可能创造出拥有超凡智力的人工智能,并教会其一些未知的偏见。


如果出现超级智能,人类会面临“缸中之脑”吗?

人工智能会变成神一般的偏执狂吗?


如果出现超级智能,人类会面临“缸中之脑”吗?

图源:k.sina


在一个臭名昭著的TED演讲中,神经科学家Sam Harris(山姆·哈里斯)认为,只要有足够时间,一个普遍的智能、自我学习以及拥有自我意识的人工智能也许不可避免。他认为,即使没有摩尔定律的延续或爆炸性的进展,这也是事实。在物理系统智能中,哈里斯的理由是信息处理与时间的问题。他在足够长的时间线内争论,除非被打断,否则人工超级智能几乎可以保证。


你也许可以驳回哈里斯的此类主张。可是你很难忽视Stuart Russell(斯图尔特·拉塞尔)的观点,他是加州大学伯克利分校人类兼容人工智能中心的负责人,他认为人工智能对人类构成了真正的风险。


拉塞尔有多担心?如果你一直看到电影《杀戮机器人》的结尾,你会看到斯图尔特·拉塞尔的一条信息,解释道这部电影不仅仅是猜测。他说这部电影描绘了已经存在的技术整合与小型化的结果。他的担忧得到70%人工智能专家的信任。


虽然拉塞尔的确表达了对神一般的人工智能的恐惧,但他似乎也对我们现在拥有的非智能狭义人工智能系统持谨慎态度。拉塞尔希望人工智能研究的重点从追求纯粹的智能,转向符合人类价值观的智能。显然,由于相对同质的价值观,人类可以对一个简单的任务表达*讽刺警觉*。


如果出现超级智能,人类会面临“缸中之脑”吗?

即使是“弱”人工智能也已经强大得令人不安


相对简单的人工智能,比如YouTube的系统对视频加以停止传播和删除的标记,这就显示出了一种偏见,而且很可能是在没有人类知识的情况下引入和实施的。如果一个人给机器人一份关键词列表用于标记,就有可能看到YouTube是否存在偏见。但是,如果把决定权交给人工智能,算法就必须进行反向运行,甚至进行指责。这才是人工智能的真正威胁。


无声人工智能已经被用于批准贷款、住房和筛选求职者。人工智能甚至被用来计算某人可能需要支付的保释金。在日常生活中,许多人接收的新闻是由算法决定的。甚至我们的研究方式在某种程度上也是由自学的人工智能决定的。如果在谷歌工作的人能充分解释搜索引擎实际如何对页面进行排名,我会感到震惊。


如果出现超级智能,人类会面临“缸中之脑”吗?

狭义人工智能已经是神了吗?


如果出现超级智能,人类会面临“缸中之脑”吗?

图源:dianjintoutiao


科幻小说中的“人工超级智能”的概念确实令人毛骨悚然,而且可能会实现。但是,如果人类来自一个神一般的偏执狂,终结者或者一群虎鲸,这有关系吗?结果是一样的。

“魔鬼实施的最大诡计是让世界相信他不存在。”——《非常嫌疑犯》


人工智能已经存在,虽然它似乎还没有达到泛智能(更不用说超级)的水平,但人工智能已经是众多问题的一个根源,并且可能会导致更多的问题。Facebook、YouTube、Google和许多其他大多数人每天使用的工具,部分是由狭义人工智能运行的,它们决定人类看到的内容。


当然,YouTube人工智能不应该被指责为“激进主义”的人。尽管任何关于2016年美国总统选举期间在Facebook上传播的假新闻有多大影响力的讨论都会迅速变得两极分化,但Facebook的人工智能可能并没有改变结果。然而,大多数人同意这些平台会产生回声室效应,人们不知道他们看到的是如何决定的。


这项技术是我们日常生活中不可或缺的一部分,我们还没有很好地理解它,甚至可能构建这些工具的团队也没有完全理解。人类正在失去对人工智能的控制,或者说人工智能正在获得对人类的控制?


C.S. Lewis《地狱来鸿》一书可概括为:一个魔鬼建议他的侄子分三步引诱人类:


1. 分散人类注意力。


2. 让人类互相争斗。


3. 让人类认为你不存在。


如果一个具有神圣智慧的人工智能控制着世界,想要实现人类的末日;它的行为会不会与我们现在拥有的弱人工智能和简单的自动化有什么不同?


这是一个值得大家去深刻思考的问题……


如果出现超级智能,人类会面临“缸中之脑”吗?

如果出现超级智能,人类会面临“缸中之脑”吗?


推荐阅读:苹果手表维修

 

(正文已结束)

(编辑:喜羊羊)

免责声明及提醒:此文内容为本网所转载企业宣传资讯,该相关信息仅为宣传及传递更多信息之目的,不代表本网站观点,文章真实性请浏览者慎重核实!任何投资加盟均有风险,提醒广大民众投资需谨慎!