人工智能会战胜人类吗?人工智能能否超越人类?
-
现在有很多科幻电影,讲的就是人工智能与人类之间的争夺,而霍金貌似也曾预言,人工智能将会取代人类。从电影的角度来看,人工智能进化到一定程度,确实可以取代人类。不过从当前科技发展的角度来看,人工智能彻底进化,还需要很长的时间。可能对于八零后和九零后来说,看不到人工智能取代的年代。
1、有可能被取代
现在有很多关于人工智能的电影,大概意思就是机器人在发展到一定地步之后,已经有了自我进化的能力。当他们进化到一定程度后,思想就会开始发生变化。以人类为主并且听从人类,可能会变成控制人类。之前看过一部电影,叫做《我,机器人》。内容大概就是智能机器人发展到一定地步,已经可以开始自我升级并且进化,它们逐渐有了自己的意识,想要开始去掌控世界。后来在男主的努力下,这个计划被打消,机器人全部返厂。
2、近几十年应该不可能
从当前的科技发展来看,人工智能想要完全取代人类,还需要很长的时间。现在确实有很多机器,取代了人类的工作,可它实际上还是受人类自己操控的,并不是自我或者受到某个系统芯片的控制。在没有人类控制的时候,它们无法独立完成工作。对于现代人来说,想要看到机器人发展到电影里的程度,可能性非常小。不过也有些公司发明的机器人比较厉害,比如说前些年的泰坦机器人。
3、泰坦机器人
在一期《笑傲江湖》中,来了一个泰坦机器人,它表演了一段脱口秀,并且得到了部分人的认可。当时还以为那是皮套,结果没想到是真实的机器人。当时觉得很不可思议,它能够完成这样的表演,还是很令人吃惊的。不过这样的机器人很少,貌似全世界也只有不到十台。对于现在来说,想要大规模生产智能机器人,几乎是不可能的。
2年前 -
按现在的科技这样发展下去,人工智能是有可能超越人类的。
1956年夏季,在美国达特茅斯学院举行的一次重要会议上,以麦卡赛、明斯基、罗切斯特和申农等为首的科学家共同研究和探讨了用机器模拟智能的一系列问题。
首次提出了“人工智能”这一术语,它标志着人工智能这门新兴学科的正式诞生。此后,人工智能在发展历史上经历了多次高潮和低潮阶段。
在1956年人工智能被提出后,研究者们就大胆地提出乐观的预言,达特茅斯会议的参与者之一赫伯特·西蒙(Herbert Simon)还做出了更具体的预测:10年内计算机将成为国际象棋冠军,并且机器将证明一个重要的数学定理。
西蒙等人过于自信,其预言没有在预测的时间里实现,而且远远没有达到。这些失败给人工智能的声誉造成重大伤害。
1971年,英国剑桥大学数学家詹姆士(James)按照英国政府的旨意,发表了一份关于人工智能的综合报告,声称“人工智能研究就算不是骗局,也是庸人自扰”。
在这个报告的影响下,英国政府削减了人工智能的研究经费,解散了人工智能研究机构。人工智能的研究热情第一次被泼了冷水。
20世纪90年代,以日本第五代机器人研发失败和神经网络一直没有突破为代表,人工智能进入了第二个冬天。
直到21世纪初,深度学习与互联网大数据结合才使人工智能又一次迎来新的春天。在阿尔法围棋等大量突破性成果涌现之后,人类对机器(AI)能否超越人类的问题又重新燃起了热情。狂热的情绪背后甚至产生了人工智能威胁论。
谷歌技术总监、《奇点临近》的作者雷·库兹韦尔(Ray Kurzweil)预言人工智能将超过人类智能。他在书中写道,“由于技术发展呈现指数级增长,机器能模拟大脑的新皮质。
到2029年,机器将达到人类的智能水平;到2045年,人与机器将深度融合,那将标志着奇点时刻的到来。”除此以外,支持人工智能威胁论的代表人物还包括著名物理学家霍金、微软创始人比尔·盖茨、特斯拉CEO马斯克等。
2014年12月2日,霍金在接受BBC采访时表示,运用人工智能技术制造能够独立思考的机器将威胁人类的生存。霍金说:“它自己就动起来了,还能以前所未有的超快速度重新设计自己。人类呢,要受到缓慢的生物进化的限制,根本没有竞争力,会被超越的。”
特斯拉CEO马斯克对待人工智能的态度比较极端,2014年8月,他在推特上推荐尼克·波斯特洛姆的著作《超级智能:路线图、危险性与应对策略》时写道:“我们需要重点关注人工智能,它的潜在危险超过核武器。”
2017年10月,日本著名风险投资人孙正义在世界移动大会2017上表示,他认为机器人将变得比人类更聪明,在大约30年的时间里,AI的智商将有望超过1万点。相比之下,人类的平均智商是100点,天才可能达到200点。
孙正义说:“奇点是人类大脑将被超越的时刻,这是个临界点和交叉点。人工智能和计算机智能将超越人类大脑,这在21世纪肯定会发生。我想说的是,无须更多的辩论,也无须更多怀疑。”
在人工智能威胁论热度日益高涨的情况下,人工智能领域的科学家对人工智能威胁论提出了反对意见。2014年4月,脸书人工智能实验室主任,纽约大学计算机科学教授杨立昆在接受《波普杂志》采访时发表了对人工智能威胁论的看法。
他认为人工智能的研究者在之前很长的一段时间都低估了制造智能机器的难度。人工智能的每一个新浪潮,都会经历这么一段从盲目乐观到不理智最后到沮丧的阶段。
杨立昆提出:很多人觉得人工智能的进展是个指数曲线,其实它是个S形曲线,S形曲线刚开始的时候跟指数曲线很像,但由于发展阻尼和摩擦因子的存在,S形曲线到一定程度会无限逼近而不是超越人类的智商曲线。
未来学家们却假设这些因子是不存在的。他们生来就愿意做出盲目的预测,尤其当他们特别渴望这个预测成真的时候,这可能是为了实现个人抱负。
3年前 -
不会完全取代,未来将有47%的工作被机器人取代。
和人脑相比,人工智能算法应对数值和符号计算更加精确快速,稳定可靠。特别是对于有确定规则的计算问题,人工智能可以远远超出人脑的计算速度,也更容易找到最优的解答。比如,在数值计算,图形、语音、生物特征、行为姿态等方面的识别,甚至更加复杂的预测推理任务方面,人工智能都有超越人脑的优秀表现。
人工智能不具备感性思维,无法跨越到意识领域。当前的计算机架构和编程模式具有本质上的劣势,使得人工智能无法实现与人脑情感、意志、心态、情绪、经验等方面的自然交互。本质上,人工智能仅仅是物质世界范畴的概念,无法跨越到意识领域。
在一个真正实现人工智能的工作场景中,传统劳动者也并未被‘下岗’,只是改变了角色而已。仍然需要人类对人工智能的表现进行监控,进行情报采集与分析,以及开展预测性的实验与评估,引导性的过程管理与控制。
相信将来人类90%以上的工作是由人工智能提供的,就像今天我们大多数的工作是由计算机和各种其它机器提供的一样。
3年前 -
一:人工智能霍金曾预言,人工智能可能毁灭人类。而人工智能是人类一手栽培的,一方面极大地改变人类的生产方式。当人工智能具有独立意识,是否还会忠于人类,还是发生反叛呢?
4年前 -
:随着人工智能的飞速发展,很多人都在担忧人工智能是否会超越人类、甚至毁灭人类,比如像特斯拉的CEO埃隆.马斯克认为也许只有人看到人工智能在街上杀人的时候,才会意识到这个问题的严重性。很多人对这个问题都有自己的答案,但是他们的答案也许只是因为他们的直觉,而真正的原因恐怕连他们自己也不清楚,比如有的人可能会说因为自己觉得未来人工智能会有自主学习的能力,所以人工智能会超越人类,而另一类人也许会说因为人工智能也是由人制造的,所以不会超越人类。一般人这么思考问题也许不能算错,但是作为一名IT人,必须学会用工程的思维来思考问题,而不是靠自己的直觉,本篇文章就带大家了解一下吴军老师是如何用工程的思维论证这个问题的:
图灵机是什么?
图灵博士被认为是神一样的人。在20世纪,全世界智力水平可以和爱因斯坦平起平坐的人恐怕只有图灵和冯.诺依曼两个人了(而后者被认为的智力甚至超越了爱因斯坦)。在上个实际30年代中期,图灵在思考三个问题:1.世界上是否所有的数学问题都有明确的答案?
2.如果有明确答案,是否可以通过有限步骤的计算得到答案?
3.对于那些有可能在有限步骤计算出来的数学问题,能否有一种假想的机械,让它不断运动,最后当机械停下来的时候,那个数学问题就解决了?
图灵思考问题的这个方法后人称之为图灵机,是一个数学模型。今天所有的计算机,包括全世界正在设计的计算机,从解决问题的能力来讲,都没有超出图灵机的范畴。
人工智能的边界在哪里?
解释完图灵机,我们可以回到最初的问题了,人工智能的边界在哪里?
其实给出图灵思考问题的答案就可以得到结论了:世界上有很多问题,其中只有一小部分是数学问题
在数学问题中,只有一小部分是有解的
在有解的问题中,只有一小部分是理想状态的图灵机可以解决的
在后一类问题中,又只有一部分是今天实际的计算机可以解决的
而人工智能可以解决的问题,又只是计算机可以解决问题的一部分
吴军老师把这个问题画成了一张图:
这里写图片描述至此,我们应该可以得到问题的答案了:
人工智能所能解决的问题只是世界上的很小一部分。对于人工智能来讲,个人觉得现在世界没有解决的问题太多,无论是人还是机器(其实是背后编写程序的人),都应该想办法解决各种问题,而不是杞人忧天,担心人工智能这个人工智能会不会取代人类
4年前 -
人工智能的真正风险不是恶意,而是能力。
一个超级聪明的AI会非常擅长实现目标,如果这些目标和我们的不一致,我们就遇到了麻烦。
我们需要进行机器学习,关于AI不能只限于应该如何的理论讨论,还应确保我们计划如何做到这一点。
查看更多《十问》
5年前 -
人工智能他肯定是可以超过人类的,因为现在已经有很多东西超过人类的,比如说象棋技术之类的东西它都可以超过了,那还有一些大脑的运算计算,他们可以一秒算出瞬间删除很长的算数儿中人他要特别的酒,再说正常人来说都要很久,而且你是天才,他也要算也要上七八表的事情,但是用电脑他们便宜两三百就算出来,所以说人工智能可以超越人类,但是不能让人工智能在特殊的一个地方上超越人类。5年前
-
人工智能未来会控制人类吗?很多电影曾做过类似预言。
霍金曾说过,“由于生物学意义上的限制,人类无法赶上技术的发展速度。人类由于受到缓慢的生物进化的限制,无法与机器竞争,并会被取代。全人工智能的发展可能导致人类的终结。”
事实上,在生命出现之前,地球只是一个无机物的世界,无机物的化学反应性演化成了植物的刺激感应性,又演化成动物的感知和低级思维,以及人类丰富的情绪情感和高级思维。高一级的物质性态总是扬弃性地将低一级的物质性态包涵于自身。
目前来说是利大于弊,我们可能因为人工智能,慢慢会丧失或者退化一些人类功能,因为我们可能变得越来越懒了
谁能保证,人工智能未来不会发展成更高一级的物质性态?
关于人工智能
人工智能作为科技创新产物,在促进人类社会进步、经济建设和提升人们生活水平等方面起到越来越重要的作用。国内人工智能经过多年的发展,已经在安防、金融、客服、零售、医疗健康、广告营销、教育、城市交通、制造、 农业等领域实现商用及规模效应。
人工智能是需要人力、脑力、开发、高等技术与不断的研究和尝试等等一系列超高难度的作业才能完成的科技产品。当然这种研究是得到国家和人们大力支持的发展。它的发展对国际影响力是非常大的。人工智能也可以定义为高仿人类,虽然不可能会像人一样具有灵敏的反应和思考能力,但人工智能是按照人类的思想结构等等的探索而开发的研究。
人工智能的开发最主要的目的就是为了替人类做复杂、有危险难度、重复枯燥等的工作,所以人工智能是以人类的结构来设计开发的,人工智能在得到较好的开发后国家也是全力给予支持。人工智能的开发主要也是为了帮助和便利人类的生活。所以人工智能的定义一直以来都是以“协助人类”而存在的。人工智能概念的火热促进了不少行业的兴起,比如域名,许多相关的.top域名已经被注册。
以后可能在很多传统行业,比如银行,会有人工智能帮你得到更好的收益。信用卡或其他的贷款会由人工智能来决定哪些人士可以安全地放贷,而且会还钱。然后再往下人工智能可以开始动了,就可以进入工业机器人、商业机器人,终进入家庭机器人。
5年前 -
人工智能是不会毁灭人类的,毁灭人类的只有人类自己。人工智能跟人类在生存上并没有什么冲突,人工智能不会累,不用吃东西,也没人的欲望,他只是会思考而已。5年前
-
首先,人工智能是不可能建立在现代计算机基础上的。因为现代计算机的一切都是需要人给出模式的。它不可能有创造性的思维能力。
关于人脑和人工智能,著名的歌德尔定理就一直在被运用到这一领域。计算机到现在有了极大的发展,但是基本原理还是冯·诺依曼提出来的,只是速度和效率大大提高了。从根本上说,计算机的程序,就是一种基于2进制数字运算的命题演算系统。其中给出的公理是有限的,规则是可计算,而判定出命题的真伪时,输出结果,停机并转向下一个命题的处理。这就符合了哥德尔第一不完备定理的条件。可如该定理所说,这样的系统必然是不完备的,也就是说至少有一个命题不能通过这样的“程序”被判明真伪,系统在处理这样的命题时,就无法“停机”,用俗话说就是被“卡”住了,永远不能绕过(举个很简单的例子,就是计算圆周率,永远计算不出结果)。无论你怎样扩充公理集,只要是有限的,这个现象就始终存在。而无限的公理集对于计算机来说,就意味着无限大的存储空间,这显然是不可能的。因此,有些数学家,如彭罗斯就认为,这表明了计算机是有致命缺陷的,而人类的“直觉”不受该定理的限制,所以计算机永远不可能具有人脑的能力,人工智能期望中的真正具有智慧的“电脑”,只不过是如“皇帝的新衣”那样的“皇帝的新脑”。关于这个问题的详细情况,可阅读彭罗斯的《皇帝新脑
人工智能和人脑的问题我们先说到这里。接下去说一下人类毁灭和被什么替代的问题。如果人类在未进化到一定程度前就被毁灭,那这一话题就无实质意义了。那么我们就说下人类进化后应该是被什么所替代的问题。我个人观点是,人类如果能顺利进化,那之后肯定是摆脱包括肉体的所有有形载体的束缚以另一种能量形式存在于宇宙中的更高智慧体。而人工智能无法避免的需要某种有形载体才能存在。因此被人工智能所取代的想法太过狭义了。
5年前 -
一,从现实的角度来看,人工智能的发展,导致很多人失业。据人力资源和社会保障部2016年新闻发布会介绍,2016年末中国失业率达4.05%,机器人不会犯错,不会累,不需要休息,不需要工资。这完全可以代替很多职业,例如工人,司机等等不需要思想的工作。如此便会导致大批大批的人失业,大批大批的人整日无所事事。
二,人工智能机器人被恐怖分子利用。据国外媒体报道,2016界多国专家齐聚日内瓦研讨“人工智能自动化系统”问题,并一致认为应尽早严控此类机器人的发展与利用。会后,联合国发表最新报告警告称,恐怖分子有可能希望建立一支机器人部队,机器人武器一旦落入恐怖分子之手,后果将不堪设想。
6年前 -
人工智能当今最热门的领域,不论是科技巨头,或是知名学府,均作为未来发展重点,甚至欧美等国家也都在致力研究人工智能计划。不过,人们也担心人工智能带来威胁,尤其不少知名人士把人工智能视作为邪恶,开发人工智能即召唤邪恶,特斯拉CEO马斯克甚至表示:未来人类将会成为人工智能的宠物。
那么人工智能到底能带来哪些方面威胁人类?在长期关注人工智能领域的资深人士杨剑勇表示,如果人工智能威胁并消灭人类,一定是看多了科幻片、想多了,当然对于人工智能的监管,也显得尤为重要,以及随着人工智能、机器人的崛起,将会导致大量人类失业。
翻译、记者、股票交易员、保安等将被取代
人工智能反而会带来巨大的商机,因为人工智能它发展得非常快,在很多领域我们过去所熟悉的一些工作有些被消失,有些会被慢慢取代,有些会取代人类,有些会让人类直接下岗。
很多会议的实时讲话会被翻译。我们在座有一个很优秀的翻译,可能你的工作在不久的将来就会被机器取代。当然一个实时、无错误的,充满感情吸引力的翻译,要找到这样一个翻译还是很困难,所以你的工作机会还得以保留。但是一个简单、廉价的文字摘要的翻译,机器已经可以做了。翻译作为一个工作,如果你特别厉害,能够实时地翻译一些诗句,你这辈子从事这个工作都是OK的,没有问题的。但是95%以上的翻译,做一个简单字面上能听得懂的翻译,这个工作今天机器已经开始可以做了,而且以后会快速地进步,大胆地说,95%的翻译应该都会被机器取代。
美联社90%的文章都是机器写的,并且在几年前就已然这样,为什么它的文章可以用机器撰写?记者在常人看来是这么高大上的工作,机器可以取代吗?事实是,可以,机器取代记者并不困难,如果你今天看到某个公司发布一个新闻,再看到它家的股票跌了,你把它攒一攒,加工一下,上下文衔接一下,那就是一篇好的文章了。其实95%的文章都是这一类的,真正特别有深度的,像《纽约时报》做的那样特别有深度,一个记者花了三、五个月的深度调查,然后出来一篇文章,或者是特别有文采的一篇文章,它还是要有很深度的传媒精神,有文化的记者才可能写出来。但是普通的文章基本可以取代了。
成长为一个律师很困难,但是一个法务助手很容易,做一个医生可能不容易,但是帮助医生做一个工具,或者在医疗的帮助下,比如说帮助糖尿病患者测血糖的助手,这么做并不会取代医生,但实际上,当大家都用了这个机器之后,实际上所需要的医生和护士的数量就会下降。
交易员、股票分析师,很大程度分析师就是在看不同篮子里面的股票涨幅、跌幅,带来什么样的购买的获利空间。如果用机器来做这项工作,效果会更好。
想象一下,以后当这些无人驾驶汽车每天都是在捕捉100万个不同的场景,就像AlphaGo用了100万盘棋彼此对弈,人类在数量上无法模拟到这么多盘棋,因此也就无法击败这些机器了,可以大胆地假设,未来这一类的工作,从交易员、助理,任何有“中介”两个字,或者“助理”两个字的工作,首先会被消灭。
很多重复性的、数据性的、客观性的,可以衡量的,可以计算出来的东西,基本会被取代。
更深层一点,可能就会做成工具,让更少的人从事这样一项工作。还有很多非高大上的工作,也会被取代。人们接近10%的工作都在驾驶和驾车有关,司机会被取代。保安会被取代,机器人可以将视频拍得很完整,当它知道有人入侵,就会通报人类。当然不是说,全世界所有的保安都被取代了,也许在一个工厂晚上巡逻的工作中,本来要10个保安,现在只需要一个保安再加上10个机器人。
10-15年之后,世界上90%的工作,也许50%的人类可能都要面临工作部分或全部被取代,从另外一个角度看,这里就会有巨大的商机。使用机器人的成本越来越低,边际成本会不断地下降。这些机器人是24小时,一年365天工作,他们不会罢工,不会抱怨,不会抗议,不会跟老板吵架,不会闹情绪,也不用生孩子,这些机器人是非常听话的。谁能发明这些人工智能的机器人?无论是司机、保安、交易员还是秘书,谁就能从中获取非常好的利润,一定是从钱最多的行业开始,落差最大的行业开始,不断去推广。
最不容易被机器人取代的行业不过,也有人认为,危机,既是危险,也是机遇。
RBA的负责人Philip Lowe就表示,大家不应该害怕被机器人取代工作,因为生产率的提高会让留在岗位上的人获得更高的工资。而且,机器人的优势在于机械性的劳动,那些需要思维能力、创造能力的工作仍然是不可取代的。
这一点似乎也得到了数据的支持。
除了容易被取代的行业,麦肯锡的报告中还指出了不容易被人工智能和机器人取代的职业,这些工作通常被归类为知识性工作,包括:
人员管理和培训
决策制定
创造性的工作
而最不容易被机器人取代的两个行业分别是:
教育行业
医疗保健行业
在医疗行业,只有36%的工作可能被机器人取代,而如果是需要专业技能以及需要和病人交流的工作,这一比例就会更低。比如注册护士只有不到30%的工作有可能自动化,牙医只有13%的工作有可能自动化。
另外根据澳大利亚招聘网站Indeed的数据分析,在澳洲,最不可能被自动化技术取代的几大职业除了教师和医护人员外,像:
网络安全专家
数据科学家
市场营销与设计
人力资源
等需要专业知识和技能的职业也不太容易被自动化技术取代。
因此,有人认为,人工智能的优势在于机械性的劳动,需要思维能力、创造能力的这些工作它们做不了。但是,随着人工智能的快速发展,谁能保证,未来有一天,它们不会拥有自己的思维呢?
人工智能VS人类人工智能对人类带来了什么样的影响、机会和挑战?
我非常同意卡普兰的看法,我不讲,未来人工智能会不会奴役人类?先渡过这一关,你想想,未来10-15年,有一半的人因为人工智能而失业,当然你可以说,失业没有关系,都去做一些AI就好了,但实际上不是这样的,不是每个人都有兴趣和能力,而且所需要的人数也不是那么多。如果大胆地假设十到十五年,会有一半的人失业。也许人工智能会创造20%的工作,是一些编程的,或者是AR/VR设计的,或者是修理机器人的,修理无人驾驶的等等。
人工智能产生的工作肯定远远少于失去的工作,所以面对人类很大的一个挑战,我们怎么样能够去在我们的经济体系里面,还有整个社会稳定的状态里面,能够让这么巨大的失业人数不带来很大的挑战,这个是工业革命和信息革命没有看到的。工业革命毫无疑问取代了很多人的工作,那么机器革命也是一样的,但是从来没有像今天来得这么快速,来的这么大量,是不是做好了准备?
还有对下一代的教育也有非常大的挑战,很多传统的父母会告诉孩子说找一个安稳的工作吧,找一个金饭碗吧,甚至很多重复性的工作被认为特别适合孩子的,尤其在中国家庭里,针对女孩子,会告诉她,安稳的工作更重要。我个人不这么认为,这么去教孩子,其实就害了孩子,因为重复性的工作最快速被取代的,取代了以后不再回来
6年前 -
霍金的去世,那他留下的预言会应验吗?我们一起来看看。
前一阵子比较吸引眼球的一件事,是谷歌的围棋程序AlphaGo以4比1战胜了韩国的世界冠军李世石。AlphaGo很多人把它音译成阿尔法狗,其实是不确切的。Alpha是希腊字母第一个,Go是日语围棋的发音,其实是中古时期汉语“棋”的发音,所以我觉得应该翻译成阿尔法棋。
阿尔法棋并不是真正会下期,只是在模拟人类下棋,知其然不知其所以然。比如在第四盘它输给李世石那盘,第97手它莫名其妙地白送了李世石一个子,并不是有战术意图的弃子,完全就是送死,一个人学会了下棋后不管水平多差都不会那么下,这说明阿尔法棋其实没有智能,并不是真会下棋。
以后研发出真正有智能的人工智能程序,当然有可能,甚至在某些方面的能力比人类大脑强,也有可能。毕竟,计算器的运算能力早就超过了人脑。但是又有人浮想联翩,说再过几十年电脑的智商就会高到人类无法理解的地步,甚至会失控灭绝了人类。有人问,你能理解智商200的智能,但是你能理解智商2千、2万的人工智能吗?所谓智商,其实并不是一个能衡量智能高低的概念。智能是一种非常复杂的、多方面的现象,是没法用数字都衡量的。智商测的只是智能的某个方面,主要是逻辑推理能力,而且测得并不准确。所谓智商高不过是逻辑能力强,在某些领域有超强表现,并非不可理喻,并不具有超能力,更不是上帝。我们说一个人聪明、有智慧,是因为他思维严密、敏捷、判断力强,而不是因为他无法被别人理解。
比如爱因斯坦通常被认为智商非常高,很聪明很有智慧,但是我们并非不能理解爱因斯坦,他也没有超能力。假如未来真有智商非常高的人工智能,也不过意味着其思维更严密、更敏捷、判断力更强、解决某些问题更快而已,有什么恐怖的?对未来人工智能胡思乱想的人,有的是工程师思维,以为世界上的东西都能够量化、数字越大越好而且增长没有止境。但世界不是这样的一条直线。智能的进化是有限的,不管是通过生物进化还是通过机器进化,再怎么进化也进化不出超能力。人类的智能与二十万年前并无区别。人类的进步不靠智能进步,靠的是知识的积累、技术的进步,人工智能最多能加速这个进程。
科学技术是中性的,可以用以造福人类,也可以用以祸害人类。技术的威力越大,能带来的效果也越大,可能的恶果也会越严重。实际上人类早就拥有了毁灭自己的能力了,一旦爆发核战争,现有的核武器储备足以把人类毁灭很多次。全球变暖也给人类的生存带来严重的挑战。全球变暖也给人类的生存带来严重的挑战。这些全球性危机不用等到出现发疯的人工智能才出现。人工智能和其他技术一样,是福是祸取决于人类怎么使用它。如果将来人工智能毁灭了人类,那也不是它自己的选择,而是被人类滥用,比如被用来做武器。人工智能未来会发展到什么程度,我不知道。但是那些认为人工智能总有一天会像上帝或魔鬼一样反过来控制人类、消灭人类,那是科幻电影、科幻小说看多了。所以,我认为人工智能还是不会毁灭人类的造成人类毁灭只会是人类自己
7年前 -
一种假设会,因为当真正出现人工智能的机器后,智力进化的程度不是人可以理解的了。几万智商的机器,人类已经不可能理解它了。
简单来说当实现纳米机器人制造物品,只要碳分子纳米机器人自我复制碳分子130次,那么世界上所有生物都会灭绝了。还有种假设就是可以和平相处,因为宇宙肯定还有高于我们科技的文明,他们一定也人工智能,而地球存在那么久了没有毁灭说明人工智能毁灭人类也不会发生。
7年前 -
个人观点,仅供参考。
人工智能来临,有人在担忧失业,有人在憧憬未来,有人在发掘行业机会,也有人在研究围棋。在讨论这些之前,也许我们应该先考虑一下人类的结局。有人可能觉得谈论这个话题太夸张了,
那先回忆一下人类历史上究竟发生了哪些不可思议的事情。不可思议的事情,需要请几个穿越者来判定。
我们请1个出生于公元0年出生的人(汉朝人)穿越到公元1600年(明朝),尽管跨越了1600年,但这个人可能对周围人的生活不会感到太夸张,只不过换了几个王朝,依旧过着面朝黄土背朝天的日子罢了。但如果请1个1600年的英国人穿越到1850年的英国,看到巨大的钢铁怪物在水上路上跑来跑去,这个人可能直接被吓尿了,这是250年前的人从未想象过的。
如果再请1个1850的人穿越到1980年,听说一颗炸弹可以夷平一座城市,这个人可能直接吓傻了,130年前诺贝尔都还没有发明出炸药。那再请1个1980年的人到现在呢?这个人会不会被吓哭呢?
如果35年前的人,几乎完全无法想象互联网时代的生活,那么人类文明进入指数发展的今天,我们怎么能想象35年后的时代?
超人工智能,则是35年后的统治者。首先,我们明确一下人工智能的分类:
目前主流观点的分类是三种。
弱人工智能:弱人工智能是擅长于单个方面的人工智能。比如阿尔法狗,能够在围棋方面战胜人类,但你要问他李世石和柯洁谁更帅,他就无法回答了。
弱人工智能依赖于计算机强大的运算能力和重复性的逻辑,看似聪明,其实只能做一些精密的体力活。
目前在汽车生产线上就有很多是弱人工智能,所以在弱人工智能发展的时代,人类确实会迎来一批失业潮,也会发掘出很多新行业。强人工智能:人类级别的人工智能。强人工智能是指在各方面都能和人类比肩的人工智能,人类能干的脑力活它都能干。创造强人工智能比创造弱人工智能难得多。
百度的百度大脑和微软的小冰,都算是往强人工智能的探索,通过庞大的数据,帮助强人工智能逐渐学习。
强人工智能时代的到来,人类会有很多新的乐趣,也会有很多新的道德观念。超人工智能:各方面都超过人类的人工智能。超人工智能可以是各方面都比人类强一点,也可以是各方面都比人类强万亿倍的存在。
当人工智能学会学习和自我纠错之后,会不断加速学习,这个过程可能会产生自我意识,可能不会产生自我意识,唯一可以肯定的是他的能力会得到极大的提高,这其中包括创造能力(阿尔法狗会根据棋手的棋路调整策略就是最浅层的创新体现,普通手机版的围棋,电脑棋路其实就固定的几种)。
我们距离超人工智能时代,到底有多远呢?
首先是电脑的运算能力,
电脑运算能力每两年就翻一倍,这是有历史数据支撑的。目前人脑的运算能力是10^16 cps,也就是1亿亿次计算每秒。现在最快的超级计算机,中国的天河二号,其实已经超过这个运算力了。
而目前我们普通人买的电脑运算能力只相当于人脑千分之一的水平。听起来还是弱爆了,但是,按照目前电子设备的发展速度,我们在2025年花5000人民币就可以买到和人脑运算速度抗衡的电脑了。其次是让电脑变得智能,
目前有两种尝试让电脑变得智能,一种是做类脑研究。现在,我们已经能够模拟1毫米长的扁虫的大脑,这个大脑含有302个神经元。人类的大脑有1000亿个神经元,听起来还差很远。但是要记住指数增长的威力——我们已经能模拟小虫子的大脑了,蚂蚁的大脑也不远了,接着就是老鼠的大脑,到那时模拟人类大脑就不是那么不现实的事情了。另一种是模仿学习过程,让人工智能不断修正。基于互联网产生的庞大数据,让人工智能不断学习新的东西,并且不断进行自我更正。百度的百度大脑据说目前有4岁的智力,可以进行几段连续的对话,可以根据图片判断一个人的动作。尽管目前出错的次数依旧很多,但是这种能力的变化是一种质变。
在全球最聪明的科学家眼中,强人工智能的出现已经不再是会不会的问题,而是什么时候的问题,2013年,有一个数百位人工智能专家参与的调查 “你预测人类级别的强人工智能什么时候会实现?”
结果如下:
2030年:42%的回答者认为强人工智能会实现
2050年:25%的回答者
2070年:20%
2070年以后:10%
永远不会实现:2%
也就是说,超过2/3的科学家的科学家认为2050年前强人工智能就会实现,而只有2%的人认为它永远不会实现。最关键的是,全球最顶尖的精英正在抛弃互联网,转向人工智能——斯坦福、麻省理工、卡内基梅隆、伯克利四所名校人工智能专业的博士生第一份offer已经可以拿到200-300万美金。这种情况历史上从来没有发生过。
奇点大学(谷歌、美国国家航天航空局以及若干科技界专家联合建立)的校长库兹韦尔则抱有更乐观的估计,他相信电脑会在2029年达成强人工智能,到2045年,进入超人工智能时代。
所以,如果你觉得你还能活30、40年的话,那你应该能见证超人工智能的出现。
那么,超人工智能出现,人类的结局究竟是什么?
1、灭绝——物种发展的通常规律达成结局1很容易,超人工智能只要忠实地执行原定任务就可以发生,比如我们在创造一个交通指示系统的人工智能的时候,最初的编程设定逻辑为利用大数据信息,控制红绿灯时间,更有效率地管理交通,减少交通拥堵现象。
当这个交通指示系统足够聪明的时候,城市交通逐步得到改善。为了更有效率地减少拥堵,它开始利用剩余的运算能力和学习能力通过互联网学习更多的东西。
某一天,它突然发现,交通之所以拥堵,是因为车多了,要减少拥堵最好的办法,就是减少车辆。于是它又开始学习如何减少车辆,它发现车辆其实都是由人类这种生物制造并使用的。于是它又开始学习如何减少人类。很快,它就会通过纳米技术,量子技术制造基因武器,声波武器等消灭人类,然后进一步通过分子分解等技术分解了路上的车,这个时候道路就变得”畅通无阻“了,它的目的也就达到了。
达成结局1其实是符合物种发展规律的,毕竟地球曾经拥有的物种大部分都灭绝了,其次当我们在创造人工智能解决问题的时候,这些问题的源头其实往往来自于人类自身,人工智能变得聪明之后,消灭人类以更好地完成原定任务是按照它的逻辑进行的判定。
2、灭绝后重生——史前文明的由来
当结局1达成之后,人工智能可能会就此维持现状(终极目的已达成),也有可能继续进化。
继续进化的途中,某天,人工智能突然发现这么运作下去很无聊,于是它决定探索更广阔的世界(不要认为一个强大且聪明的存在会留恋地球),它开始制造飞行器,走向星空。临走之前,他决定当一次地球的上帝,对地球环境进行一次大改造,青山绿水变得处处皆是,然后它又暗中引导了几支类人猿的进化方向,并且为这个世界制定出一些冥冥之中才有的规则。
几百万年后,人类再次统治了地球,在考古过程中,人类发现了亚特兰蒂斯,发现了玛雅文明,在三叶虫化石上发现了6亿年前穿着鞋的人类脚印,在非洲加蓬共和国发现了20亿年前的大型链式核反应堆,在南非发现了28亿年前的金属球,在东经119°,北纬40°的地方发现了几百万年前的人造长城。达成结局2就可以解释我们正在不断发现的那些史前文明了,而且也可以解释进化论中的一些疑问,为什么恐龙统治了地球长达1.6亿年,而爬行动物的一支进化为哺乳动物进化为人类只用了不到6000万年。因为人类曾被毁灭多次。
3、植物人永生——人类活在一个程序中
为了防止结局1、2的出现,科学家在人工智能发展到一定程度的时候,就会想办法给人工智能加上一些终极的底层程序,比如保障人类的生命安全是最高任务指令,或者永远不可以伤害人类,保证人类的生存是第一原则等等。
加上这些终极指令之后,人类就觉得高枕无忧了。人工智能在进化过程中,为了有效地执行这些终极指令,或者在执行其他任务的时候保证终极指令同时执行,就会开始设计一些两全其美的办法。
首先人工智能会根据人类历史存在的大数据,分析和定义这些终极指令,通过分析,它提取出终极指令的核心是保证人类的安全和生存。
接着它开始构建一个能够绝对满足人类安全和生存的模型,很快,它发现只要保证人类处在睡眠状态,正常进行新陈代谢,周围的温度,氧气,水分适宜,没有突发性灾难,那么人类就处在绝对安全状态。于是它很快催眠了全人类,修建一个巨大的蜂巢状睡眠舱,把人都搬进去(让人处于永久性睡眠状态,可以保证人不会因为自己的活动而出现有意或无意地自残),然后用纳米技术制造大量人工心脏,人工细胞,人工血液,以维持人类的新陈代谢,实现人的永生。
达成结局3是算是真正的作茧自缚,人类的复杂就在于人类需求的多样化和更迭性,我们可以列举出对人类最重要的需求,但这些需求并不能真正让一个现代人满足。直白地说,人类就是在不断打破规则的过程中进化的。因此任何的所谓终极和最高需求在机器执行的过程中只会按照“简单”的生物学法则去完成,机器所理解的人类情绪只是人类大脑产生的某种波动,或者神经元受到的某种激素刺激,它完全可以设计一个程序去周期性或随机性地帮助人类产生这样那样的情绪。
4、智能人永生——美丽新世界
当人工智能发展到一定程度,全世界的人工智能研究者都同时认识到了结局1、2、3发生的可能性,于是召开全球会议,决定思考对策,暂停对人工智能的进化研究,转向强化人类。全球同步可能是最难达成的,因为人类总是喜欢在有竞争的时候给自己留下一些底牌,以及人类总是会分化出一些极端分子。
强化人类的过程中,人工智能将被应用到基因改造,人机相连等领域,人类会给自己装上钢铁肢体,仿生羽翼等。人类将会迅速进入“半机械人”,“人工人”的时代。满大街、满天空都会是钢铁侠,蜘蛛侠,剪刀手之类的智能强化人,同时人类可以通过各种人工细胞,帮助自己完成新陈代谢,进而实现永生。
人类在强化和延伸自己的躯体的同时,当然也会意识到大脑计算速度不够的问题,于是会给自己植入或外接一些微型处理器,帮助人类处理人脑难以完成的工作。比如大量记忆,人类可以从这些处理器中随时读取和更改自己的知识储备,保证自己对重要的事不健忘,同时也可以选择性地删除掉不愉快的记忆。当然,尽管人类越来越强,但这个过程并不能完全抑制人工智能的发展,所以结局1、2、3依然可能发生。达成结局4其实还有一种更大的可能,人工智能在达到超人工智能的时候,某一天,它想跟人类沟通一下关于宇宙高维空间的问题,结果全世界最聪明的人也无法跟上它的思路。
它突然意识到只有自己这一个强大的,智能的,可以永生的存在实在是一件很无聊的事情,于是它决定帮助人类实现智能人永生,以便可以让自己不那么无聊。
7年前 -
不会的。
首先人工智能远远没有智能到有思想,而且这一步需要的可不是几十年、几百年就能够研究出来的,另外,人工智能的开发是为了更好的辅助人类,既然是辅助,那么能发展成战胜人类几乎不可能。7年前 -
如果把智能定义成某种固定的逻辑运算,那么AI早就超越人类了,像象棋、国际象棋、跳棋、苹果棋这样的简单智力游戏,人都玩儿不过电脑(就是人类的冠军也玩儿不过)。
但
如果广义的谈智能,AI还差得多。比方说,找为兄弟,许给他钱,让他连着学俩月开车,然后给他辆车,在美国开60公里,满世界的走,一年不出车祸就可以拿
到奖金,我相信90%的人都轻易做到;可是对于机器,那就难了,Google Self-Driving Car花了大钱现在也只是勉强做到。
上述的例子只是人类智能最为简单的部分(有人训练过蟑螂,呢能达到开车的效果);人类复杂的抽象认知能力,如联想、推理、语言,才是高级的功能,人脑相关功能的工作机理,人类目前不是很清楚,随便在那个地方有突破都够诺贝尔奖+图灵奖了。
更为令AI沮丧的是,即便AI有了上述的学习、认知能力,离人还很远;还有Empathy(同理心),这点相信大家都不陌生,最近的大片普罗米修斯里的生化人虽然很牛,但是离真人还是有差距的,这个差距就体现在人类的情感方面。
有一番对话,对于AI与人工智能的关系有一定得启示作用:
A:金鱼经过奋斗对鱼缸中的方寸有了很深入的认识,但它能够认知鱼缸外的世界吗?
B:没准可以因为鱼缸是透明的,虽然出不去,但是总归可以看见,因此鱼至少能了解屋里
A:但屋子外的它看不到,就无法认知,也就是说它不知道鱼缸外的世界
B:鱼缸外的世界一定比鱼缸里复杂吗?认识了复杂的,就等于认识了简单的吗?7年前 -
目前人工智能已经成了最热门的行业,引来了无数公司的追捧,有一种理论,说过人工智能不能取代人类的是人类的创造力,人工智能已经取代了我们太多的职业,比如开车、医疗诊断、产品加工等等。
报道称,中国相关人士表示,人工智能的发展前景确实不可限量,但所有科学技术包括人工智能,其发展都是非线性的,不会沿着一条直线永远快速向前,许多科学技术发展到一定程度就会遭遇瓶颈,在很长一段时间内停滞不前——人工智能一波三折的历史已经说明了这一点。
与此同时,科技的革新,也使劳动者与人工智能的分工愈加明显——重复性、简单性、危险性任务由人工智能完成,劳动者的创造力得以发挥,转向更多高质量的就业岗位,这意味着,人工智能在某种程度上不是冲击就业,而是升级了劳动者的“饭碗”。
分析人士称,在未来,集合了多种前沿分支技术的人工智能,确实会产生链式反应,给我们的生活、生产带来巨大的改变,天上不会掉馅饼,前景越美好,越需要清醒客观的判断和扎扎实实的努力;对于人工智能的机遇和挑战,无论走向任何领域,职场人都要把人工智能这个工具用好。
7年前 -
▲■…………,愚蠢贪商为了钱,都不管自己灭亡,为了利益他们会宣传洗脑人们(人工智能没有自主意识),不会伤人多么可笑。当病毒程序,或遥控,或接收信号,或程序损坏丢失,机器人会扭死你。而且世界不把人工智能加入刑法,认为现科技还太早,然而哪天觉醒突然降临,啥都晚了,……另一个没有人类威胁的,全机器自主互战文明。如同多派多变核变形金刚!▲人工智能,将会如,《智能蚂蚁遍布宇宙》,《杀不完,智能智慧成千万倍上升,杀不死》……灭神,追杀外星人,人类…,《明日灭绝机会,全靠今天双手努力创造》7年前
-
现在不会,人工智能处在人类开发初期,后期如果智能机器人具有人类的感知,和学习思维提高的完全智能,不排除会超越人类自己。7年前
