人工智能的发展日新月异,在人们觉得还是10年后的事情之时,2016年1月已有媒体报道电脑战胜了围棋职业棋手。人工智能正以常人无法想象的速度飞速发展,对此,科学网站Alphr总结了诸如“人工智能回答了为何人类不会遇到外星人的问题”“人工智能有可能会灭绝人类”等10点我们不可不知的关于人工智能的那些事儿。
◆01:人工智能的发展速度要比人们想象中的更快,而且还在不断加速
科学家Ray Kurzweil提出了“加速回报定律”,即“科学技术不是以直线形,而是指数关系发展进步”的观点。事实上,人工智能在2000年到2014年之间取得的进展已经超过了整个20世纪。
◆02:其实你每天都在使用
一说起人工智能或许立刻就会想到Siri、Google Now、Cortana等名词,然而实际上从吸尘器、电视游戏、到好莱坞动画特效,人工智能早已深入了生活的各个方面。
◆03:机器人会带来失业
莱斯大学的Moshe Vardi教授称,预计未来30年内人们的工作会被机器取代,届时失业率将超过50%。听上去似乎最黑暗的未来即将降临,然而也有很多研究者认为届时人们将是因为爱好而不是为了生活工作,同时设想届时国家将提供最低保障金的研究也正在进行。
◆04:AI业界的多半数人认为,2040年时人工智能将比人类更加聪明
2013年进行的一项以数百名研究者为对象,题目为“你认为比人类更聪明的人工智能出现的概率超过50%的年份是哪一年?” 的调查,其中间值是2040年,距今只剩24年。
◆05:多数学者认为人工智能发展到人类的水平是很危险的事情
大多数人认为当人工智能达到人类的水平时,其智能还将继续进步。以斯蒂芬·威廉·霍金博士为首的多数学者和研究者都对此表示担忧,特斯拉和Space X的创始者伊隆·马斯克面对采访时说道:“如果人类有灭绝的危险,那一定是因为这个原因。我们决不能掉以轻心”,“无论是从国家的角度,还是从国际的角度,都有必要加以一定的限制。因为我们不能做出蠢事来。”
◆06:一旦人工智能发展的比人类还要聪明,就会脱离人类可理解的范畴
记者Tim Urban在Wait But Why上一篇关于人工智能的文章中写道:“黑猩猩也许能明白什么是人类和大厦,但是理解不了人类建造大厦这件事。”同样的,超智能AI(能力远超人类的人工智能)即使向你解释它在做什么,我们大概也无法理解其内容。
◆07:人工智能不会有“邪恶的”观念
即使电影里时常出现邪恶的人工智能,然而“邪恶”是只存在于人类社会的概念,人工智能不可能变得邪恶的。因为人工智能的行为都是由程序所决定。
◆08:超智能AI分为三种类型
人工智能专家、哲学家尼克·博斯特罗姆在其著作《Superintelligence: Paths, Dangers, Strategies》中将超智能AI分为“oracle”、“genie”、“sovereign”三种类型。Oracle会极为准确地回答问题,genie将会执行命令然后等待下一个命令,sovereign则会自行判断为了达成目标的最优选择,也就是所谓的全权委托型。
◆09:人工智能或许可以回答“我们为什么不会遭遇外星人”的问题
有一种“大过滤器理论”称,可以对原始生命和行星殖民的文明之中都存在一堵难以逾越的墙,人类没有遇到其他生命体,或许是因为人类已经跃过了大过滤器,或许是因为无法穿越。马斯克将人工智能称之为“人类灭绝危机的来源之一”,或许正是认为人工智能正是这个大过滤器,导致宇宙中存在过的智慧生命在发展到可以进行星际航行之前就灭亡于了人工智能。
◆10:到本世纪末时,我们是将会灭亡还是获得永生
现在关于人工智能分为乐观和悲观两种观点。乐观者认为“由于人工智可以解决人类的问题,我们的未来会充满希望”,悲观者认为“一个小小的疏忽就能转眼间令人类灭绝”。后者的举例说明其观点,例如命令电脑解决温室化问题,结果电脑认为温室化最根本的原因是人类于是将人类灭绝。如电影《黑客帝国》中描述的,电脑将人类作为能源的那一天也许过不了太久真的会到来。
人工智能的发展日新月异,在人们觉得还是10年后的事情之时,2016年1月已有媒体报道电脑战胜了围棋职业棋手。人工智能正以常人无法想象的速度飞速发展,对此,科学网站Alphr总结了诸如“人工智能回答了为何人类不会遇到外星人的问题”“人工智能有可能会灭绝人类”等10点我们不可不知的关于人工智能的那些事儿。
◆01:人工智能的发展速度要比人们想象中的更快,而且还在不断加速
科学家Ray Kurzweil提出了“加速回报定律”,即“科学技术不是以直线形,而是指数关系发展进步”的观点。事实上,人工智能在2000年到2014年之间取得的进展已经超过了整个20世纪。
◆02:其实你每天都在使用
一说起人工智能或许立刻就会想到Siri、Google Now、Cortana等名词,然而实际上从吸尘器、电视游戏、到好莱坞动画特效,人工智能早已深入了生活的各个方面。
◆03:机器人会带来失业
莱斯大学的Moshe Vardi教授称,预计未来30年内人们的工作会被机器取代,届时失业率将超过50%。听上去似乎最黑暗的未来即将降临,然而也有很多研究者认为届时人们将是因为爱好而不是为了生活工作,同时设想届时国家将提供最低保障金的研究也正在进行。
◆04:AI业界的多半数人认为,2040年时人工智能将比人类更加聪明
2013年进行的一项以数百名研究者为对象,题目为“你认为比人类更聪明的人工智能出现的概率超过50%的年份是哪一年?” 的调查,其中间值是2040年,距今只剩24年。
◆05:多数学者认为人工智能发展到人类的水平是很危险的事情
大多数人认为当人工智能达到人类的水平时,其智能还将继续进步。以斯蒂芬·威廉·霍金博士为首的多数学者和研究者都对此表示担忧,特斯拉和Space X的创始者伊隆·马斯克面对采访时说道:“如果人类有灭绝的危险,那一定是因为这个原因。我们决不能掉以轻心”,“无论是从国家的角度,还是从国际的角度,都有必要加以一定的限制。因为我们不能做出蠢事来。”
◆06:一旦人工智能发展的比人类还要聪明,就会脱离人类可理解的范畴
记者Tim Urban在Wait But Why上一篇关于人工智能的文章中写道:“黑猩猩也许能明白什么是人类和大厦,但是理解不了人类建造大厦这件事。”同样的,超智能AI(能力远超人类的人工智能)即使向你解释它在做什么,我们大概也无法理解其内容。
◆07:人工智能不会有“邪恶的”观念
即使电影里时常出现邪恶的人工智能,然而“邪恶”是只存在于人类社会的概念,人工智能不可能变得邪恶的。因为人工智能的行为都是由程序所决定。
◆08:超智能AI分为三种类型
人工智能专家、哲学家尼克·博斯特罗姆在其著作《Superintelligence: Paths, Dangers, Strategies》中将超智能AI分为“oracle”、“genie”、“sovereign”三种类型。Oracle会极为准确地回答问题,genie将会执行命令然后等待下一个命令,sovereign则会自行判断为了达成目标的最优选择,也就是所谓的全权委托型。
◆09:人工智能或许可以回答“我们为什么不会遭遇外星人”的问题
有一种“大过滤器理论”称,可以对原始生命和行星殖民的文明之中都存在一堵难以逾越的墙,人类没有遇到其他生命体,或许是因为人类已经跃过了大过滤器,或许是因为无法穿越。马斯克将人工智能称之为“人类灭绝危机的来源之一”,或许正是认为人工智能正是这个大过滤器,导致宇宙中存在过的智慧生命在发展到可以进行星际航行之前就灭亡于了人工智能。
◆10:到本世纪末时,我们是将会灭亡还是获得永生
现在关于人工智能分为乐观和悲观两种观点。乐观者认为“由于人工智可以解决人类的问题,我们的未来会充满希望”,悲观者认为“一个小小的疏忽就能转眼间令人类灭绝”。后者的举例说明其观点,例如命令电脑解决温室化问题,结果电脑认为温室化最根本的原因是人类于是将人类灭绝。如电影《黑客帝国》中描述的,电脑将人类作为能源的那一天也许过不了太久真的会到来。