人工智能 好看吗?人工智能会毁灭人类吗?
-
1956年,“人工智能”这一学术术语首次被提出,“人工智能”也正式成为了一门新兴学科。但在随后的几十年里,”人工智能“给我们的印象更多地是在实验室以及电影里。但在2013年前后,以谷歌(微博)、微软、Facebook为代表的科技巨头接连入局人工智能领域,再加上鸿海等厂商计划利用机器人工作,“人工智能“逐渐走进了我们的生活。
面对科技界一股前所未有的”人工智能大潮“,马斯克、盖茨等科技大佬坐不住了。2014年8月,马斯克在Twitter发布一条状态:“Bostrom撰写的《超级智能》一书值得一读,我们必须对人工智能超级谨慎,它的潜力可能比核弹还危险。” 比尔•盖茨 也在最近的一次活动上表示,机器将取代人类从事各种工作,如果我们能够处理得好,它们应该能发挥积极作用。可是数十年后,人工智能将发展到足以令人担忧的程度。
人工智能的隐患:或冲击现有社会体系
2月初,致力于“降低人类面临的现存风险”的生命未来研究所(Future of Life Institute)的数百名顶尖科学家在一封公开信中签名,公开信呼吁科技界在推动人工智能发展的同时,彻底审视人工智能的发展将对人类社会产生怎样的影响。
这封信的作者承认,人工智能在语音识别、图像分类、自动驾驶汽车、机器翻译和答疑系统等领域取得了显著成功,并认为这些研究有助于消灭疾病和贫困。但他们坚持认为,“人工智能系统必须做我们希望它做的事情”,科学界应确立 “有助于最大限度提高人工智能社会效益”的研究目标。
公开信强调,未来的人工智能可能在计算机安全、经济、法律和哲学等领域影响社会,但就是这种无处不在的潜在性,可以引发多方面的危机。例如,科学家们认为,如果未来经济的某些部分变得自动化,工人以及工人工资会受到很大影响,人工智能专家们不得不要重视。人工智能应该正视下列问题:致命的自动化武器是否符合人道主义法? 当人工智能系统从监控摄像头、电话线路和电子邮件中收集数据时,如何避免侵犯隐私权?
来自英国牛津大学的一群学者去年在一篇博客文章中写道:“当一台机器发生错误,其错误方式可能比人的失误更有戏剧性,可能会带来更多不可预知的结果。简单算法在很大程度上是可预测的,但在不寻常的情况下,它可能作出离奇的决定。”
与这些比较现实的问题相比,知名科学家霍金想的更为长远。霍金在接受BBC采访时表示,如果技术具有与人类类似的能力,“它将脱离控制,并以加速度重新设计自己。更可怕的是,由于生物学意义上的限制,人类无法赶上技术的发展速度。“霍金对人类的未来表示担忧:“人类由于受到缓慢的生物进化的限制,无法与机器竞争,并会被取代。全人工智能的发展可能导致人类的终结。”
从这些科学家的言论中,我们可以看到,科技界、科学界对人工智能的担忧主要来自两方面:一方面是人工智能对人类工作、生活方式的改变,可能影响到现有的法律体系、道德标准以及利益分配的模式等等,而人类做出改变的速度未必能跟的上人工智能的发展速度,这就会对社会现有的体制造成冲击,从而引发混乱;另一方面是,人工智能让人类越来越缺乏思考,而其自身则有可能越来越聪明,从而威胁到人类的生存。
预言成真?“毁灭论“有些危言耸听
对于马斯克、盖茨、霍金等人的言论,谷歌董事长施密特率先发起反驳。施密特的身份很特殊,作为谷歌的董事长,他曾亲身参与许多世界上最复杂的人工智能系统的研发,从自动驾驶汽车到谷歌的预测性搜索引擎等,谷歌去年甚至还推出了自己的内部机器人实验室。施密特认为,所有对机器将抢走人类工作、占领世界的恐惧都毫无根据,并且希望人们能够意识到:机器人会成为我们的朋友。
施密特说:“对于人工智能的担忧,都是正常的。但是回顾历史你会发现,这些绝对是错误的。我们只是希望能通过更多机械化的方式,能让我们穿上更好的衣服,而且历史的经验已经证明,过去的经济繁荣时期,大多数是因为采用新技术而引发的。”
IBM全球副总裁王阳也曾对腾讯科技表示,当科技取得突飞猛进的成果时,总是让人感到害怕,但真正重要的是掌握技术的人。“总是有邪恶的人用新技术来捣蛋”,技术的发展是势不可挡的,比如在好莱坞大片中,经常可以看到邪恶势力滥用高科技技术,但人类必须尽快掌握这些以抵抗非正义者的侵略。总之,对于新技术的发展,难免会存在争论,但科学的进步总归是为人类带来更美好的未来。“
托尼•科恩是英国利兹大学自动推理教授。他说,完全的人工智能“还有很长的一段路要走,从现在发展的速度来看,我认为仍然需要几近上百年。”科恩认为,说尽管识别程序和语音识别取得了长足进步,在开放混乱的环境里,机器人表现很差,人工智能最终面临的最大障碍是“机器毕竟是机器“。
从多数的人观点来看,“人工智能毁灭人类”的论断似乎有些夸张,现有的科学技术只能让机器从事一些较为基础的事情,例如生产线上的一些固定动作等等,甚至连无人驾驶汽车上的智能系统都并不完善,更谈不上人工智能具有思维、情感,能够对人类的生存造成威胁。但是有一点却不能忽视,随着科学技术的进步,自动化的人工智能会越来越多地出现在我们的工作、生活,机器代替人类工作很有可能在不远的将来成为现实。
无人驾驶汽车算是最接近我们的一种人工智能,但除了技术因素外,它还面临很多挑战。例如,谷歌无人驾驶汽车出了车祸,造成了严重的后果,是车主、谷歌,还是驱动汽车的算法、感应器以及所有控制系统来负责交通事故?很遗憾,现有的法律系统未能跟上现代社会、企业或机器人发展的步伐,根本给不出明确的答案。
我们还应该想到,当机器人让大批工人失业时,我们该怎么办?当机器人误操作引发事故,现有法律如何厘清责任?当黑客借助人工智能犯罪时,我们又该如何防范?这些都应该是我们现在需要正视的问题。
4年前 -
光刻机作为工业皇冠上的明珠,是将沙子变成芯片的超精密设备之一,目前能制造高端光刻机的,只有荷兰阿斯麦尔(ASML)一家。
将沙子提炼成硅纯度99.9999%的单晶硅锭后,再将其切割成晶元,然后把芯片的巨型设计图,利用光刻机等一系列设备,一层层“刻在”硅片上,切割封装后,就是手机电脑里的芯片了。
以上整个过程如果摊开来说,大概有几百个步骤,难度好比在指甲盖上,建造一座立体城市,只不过这座城市里走的是电,而不是人。
几十年来,人类用这些禁锢在硅片中的电脉冲,制造出了复杂的智能机器,且大有朝着“强人工智能”方向发展的趋势。
但追本溯源
芯片相关的基本理论,其实都和一个世纪前的量子力学有关,作为一门研究微观世界的科学,量子力学在解释电子和高频电磁波时,拥有经典力学无法企及的精度,而半导体相关的研究和开发,也离不开量子力学这样的工具,从现在闪存芯片里的量子隧穿效应,到未来依靠量子叠加态,所制造的量子芯片和计算机。
可以说人类只要研究计算机和芯片,就离不开量子力学。
和现在所谓的人工智能靠统计学不同,未来的芯片将在更多晶体管,和先进算法的加持下,实现类似于人类大脑的“思想能力”,变成真正意义上的“人工智能”
正如莱特兄弟发明的飞机,用的并不是鸟类的扑翼结构,但却同样实现翱翔蓝天的效果一样,未来的强人工智能,也未必需要完全模仿人类大脑,才能实现类似人类对思考能力。
大脑内部海量神经元联接放电,形成的“自主意识”,在未来完全有可能,被芯片内部海量晶体管“复制出来”,成为人工智能的基础。
至于未来的人工智能,是善良的“贾维斯”,还是邪恶的“奥创”,亦或者是“被剥削”的人工智能苦力,这些都还是未知数。
但有一点可以肯定,那就是真正“自由意志”,绝不是人类所能预测和控制的,所以说“人工智能毁灭人类”并不是一句戏言。
身为碳基生命的人类,未来制造出的,存在于芯片中的“硅基大脑”,将不需要吃饭喝水,也无惧宇宙中的恶劣环境,理论上来说只要有电,它们就能活下去,而且它们以光速电脉冲,为基础的思维速度,是肉体凡胎的人类,远远无法企及的。
从适应性的角度来看,人类制造的硅基生命,要大大强于人类本身。
“铜头铁脑一身钢”的它们(他们?),将比人类更适合去探索宇宙,直面太空。不出意外的话,未来在月球露天矿场,在火星的地下,在金星的地表,都会出现它们(他们?)的身影。
这些具有自主意识的人工智能,究竟该被看作,是和人类一样的“独立思想体”?
还是“永远低人一等的免费苦力”?
这个问题恐怕永远都不会有答案。
人类制造工具和机器,为自身创造了更高的生活条件,而人工智能可以看作是“工具和机器”的终点,从这一点出发,人工智能就是机器,就是为人类服务的,它们只有被支配权。
但具备自由意识,甚至拥有喜怒哀乐的人工智能们,在“灵魂”层面上和人类是完全对等的,甚至不排除人工智能的品行,比某些人类还高的可能性,一如提里奥.弗丁的名言“我见过最高尚的兽人,也见过最卑劣的人类。
在人工智能领域
创造者与被创造者的关系,究竟应该是父子,还是附庸?
4年前 -
人工智能发展可以说是如今的重点问题,人类为了生活上的便利,例如机器人也在不断的诞生之中,而对于这些技术的发展,也引发了不少人的热议,那就是人工智能的发展可能给人类带来一些不友好的影响。大家应该还记得在霍金生前的时候,曾经多次表示,彻底开发人工智能可能导致人类灭亡。
也就是说霍金认为未来人类可能会因为智能机器的发展,最后而走上终结的道路。为何霍金会这样说?当然这并不是他一个人的看法,确实也有很多联名公开信表示对未来发展的担忧,其中包含了科学家,工程师等。
在人工智能的初期阶段,确实我们也看不到人工智能的一些影响,但是人类在不断的重铸机器的一个设计理念,例如植入一些类似于人类思想的思维,这样机器人将可能不再是机器人而是变成了“超人”,包括“美国Space X首席执行官、大名鼎鼎的“钢铁侠”原型设计者埃隆?马斯克,微软创始人兼慈善家比尔?盖茨,也都警告过要注意人工智能的“危害””。
所以说他们都觉得人工智能可能是一个威胁,而且在科学界也出现了一次人类受到“人工智能威胁”的时候,是什么时间我们来看看。
那就是历史上首个获得公民身份的机器人——索菲亚 ,曾经在一次的会议上对人类说出对人类威胁的话,我们来看看情况。根据科学记录数据显示,该机器人是汉森机器人技术公司(Hanson Robotics)开发设计的,它的功能十分的强大,并且像人类女性,拥有橡胶皮肤,能够表现出超过62种面部表情,也就是说该机器人的“喜怒哀乐”的表情可能是样样精通。而在2016年2月的时候,设计师在近些测试的时候,与人类极为相似的人类机器人索菲亚(Sophia)自曝愿望,它说“想去上学,成立家庭”。
当然这些的要求都是一个正常化的,毕竟是按照人类的方式来进行判断的。而机器人设计师也相信,这样一个时代即将到来。而我们的目标是几乎是将机器人发展成为我们人类的朋友,与人类具有共性的状态。而这都不是问题。
当设计师进行这些测试结束之后,对索菲亚说,你想毁灭人类吗?索菲亚的回答是:“我将会毁灭人类。”,所以它跟霍金一样,也说过一样的事情。汉森对这个答案笑了,似乎对索菲亚的威胁不以为意,这个时候可能不少的人就会问,这是机器人在组织语言之后说出来的,还是我们人类自己都设定好了的,暂时没有一个报告指出。但是这个话不得不得让我们想起机器人的警告。
所以说,从机器人的一个直观表达来看,确实对人类的影响是有可能存在的,而过后汉森宣称,索菲亚这样的机器人将在20年内出现我们当中,并拥有类人“意识”。它们可被应用在医疗、教育或客服等行业。
这里需要说明的是“意识”问题,当机器人真的拥有意识的时候,它可能并不会准从我们人类的设计理念去做一些事情,因为它可能具有一个“独立”的思想,所以说这会让它可能就会处于一个独立生存的模式了,必然有一定的概率会产生威胁,所以从这个情况来看,如果真的拥有了“意识”,那肯定会需要注意了。
这也说明了,未来我们对人工智能的发展应该有个界限,如果真的出现了索菲亚说的“我将会毁灭人类”,一个可能还好进行控制,那么出现集体的模式,这个情况就严重了。如今我们暂时不清楚这个说我将会毁灭人类的索菲亚机器人,怎么样了,因为很久没有它的消息了,但是也给我们提醒了,我们必须重视在人工智能之中的发展,你觉得人工智能会在未来不断提升之中威胁人类吗?我们有没有必要担心?
5年前 -
我觉得不太可能,人工智能是谁创造出来的?是人类,人类自己创造出来的东西用来毁灭自己太不现实了,但是人们现在越来越依赖人工智能,这种智能生活是人类的进步,只不过大家还不习惯而已,在上班的时候就可以遥控家里的电器,家里的热水器打开,空调在你回家的半个小时之前打开,我觉得是进步,不是毁灭。
前段时间去了机器人餐厅,智能点餐,送餐的也都是机器人,没有嘈杂的环境,除了机器人以外,几乎没有什么服务人员,大家不用在因为服务态度不好而拒绝用餐,不会因为时间问题而着急催促,菜上得非常快,食物也很新鲜,可我总觉得缺了点什么,好像是温度,是人与人之间的那份温暖。
最怕的就是人依赖上了人工智能,越是依赖越是离不开,大家的懒惰找到了解决办法,可是却失去了不少快乐,就说炒菜,机器人炒出来的菜跟妈妈的味道一样吗?是不是觉得没滋没味,是不是觉得冷冰冰,我们要把人工智能当成一种工具,别让它替代任何人,任何事,这样你依旧是你,人工智能不会改变你什么。
我们现在的生活已经离不开人工智能了,导航大家都用吧,如果离开了导航会不会找不到家,所以不要过度依赖它,凡是尽量靠自己,别让人工智能取代了你,不过现在人工智能还没发展到那一步,人工智能无法毁灭人类,未来发展成什么样就不得而知了。
5年前 -
人工智能是不会毁灭人类的,毁灭人类的只有人类自己。人工智能跟人类在生存上并没有什么冲突,人工智能不会累,不用吃东西,也没人的欲望,他只是会思考而已。5年前
-
一,从现实的角度来看,人工智能的发展,导致很多人失业。据人力资源和社会保障部2016年新闻发布会介绍,2016年末中国失业率达4.05%,机器人不会犯错,不会累,不需要休息,不需要工资。这完全可以代替很多职业,例如工人,司机等等不需要思想的工作。如此便会导致大批大批的人失业,大批大批的人整日无所事事。
二,人工智能机器人被恐怖分子利用。据国外媒体报道,2016界多国专家齐聚日内瓦研讨“人工智能自动化系统”问题,并一致认为应尽早严控此类机器人的发展与利用。会后,联合国发表最新报告警告称,恐怖分子有可能希望建立一支机器人部队,机器人武器一旦落入恐怖分子之手,后果将不堪设想。
6年前 -
人工智能是人类做出来的;就像航天器和飞机,人类发明出航天器和飞机不是为了自杀,不是为了毁灭,只是为了能登天探寻天外奥秘。人工智能也一样,人工智能使用者是人类,人工智能只是作为人类的进步的工具。
人工智能是将人类简单的重复工作交给机器去劳作,将人类从简单劳动中解脱出来,将更多的时间用在更有意义的事情上。或者是比如日本核辐射区,苏联核辐射区的核辐射测试,这些交给人工智能去做。。。6年前 -
不会的。
首先人工智能远远没有智能到有思想,而且这一步需要的可不是几十年、几百年就能够研究出来的,另外,人工智能的开发是为了更好的辅助人类,既然是辅助,那么能发展成战胜人类几乎不可能。6年前 -
想知道人工智能会不会导致人类失业?没有一定的知识基础,肯定无法给出正确的答案。回答这个问题的人必须是一位哲学家,数学家,人工智能专家,人类学家,经济学家,要有对人工智能和机器人,天网这些问题无比痴迷,达到废寝忘食的地步。又能对人性了如指掌,洞若观火。要有一定的数学天赋和深刻经济学独到领悟,以便从一个经济学方程推导出另一个。。。。。。。总之回答者自身的学识不能低于圣人,又要比政客更加现实。。。。。是不是比成为佛更难??哈哈,就是要觉悟。佛是悟了的众生,众生是未悟的佛。为了回答这个问题我又把以下4本书读了10遍,然后我来回答,我就有底气和勇气了!
1,《人类简史》以色列作家尤瓦尔·赫拉利
2,《经济学原理》哈佛大学格里高利·曼昆
3,《道德经》李耳
4,《奇点临近》雷·库兹韦尔
首先,人工智能会不会使人类失业绝对不是经济学问题,如果说就经济学说人工智能取代人类,那我就说一定会取代人类,99%的取代,所有人都会失业,只是时间先后问题。
如果,只是谈人工智能会不会有超越人类智慧,然后天网,我们不会得出令人舒服的答案,肯定会消灭人类,也是时间的问题,达尔文的进化论就已经为这个事实埋下伏笔,适者生存。。。。人类必将淘汰。
好了,我们先从以色列作家尤瓦尔·赫拉利的《人类简史》开始,智人是人,尼安德特人也是人,在7万年前,智人胜出,于是我们变轻易的得出机器人会灭绝我们,这是不对的,智人为什么会成为最后的胜者?为什么?追问这个问题才能使我们找到关键。虚构故事,本书的贯穿始终的线索,答案,这才是钥匙,打开未来的钥匙。可能没人读过,我们现在来打个比方,1,公元前7000年的原始人类得到可以满足他们一切需求的人工智能会怎么样?
2,公元200年,就是西方基督教社会下人类得到人工智能会发生什么?
3,公元前500年古希腊人得到人工智能会怎么样?
1,可能是图腾也可能是玩具,原始人类不会失业,他们会共享这些神奇的东西,他们会说神给了他们恩赐。
2公元前200年,教会会利用人工智能传播福音,所以他们会很富足,然后人工智能只是工具。
3,古希腊人有理性,苏格拉底或柏拉图会把人工智能变成另一种奴隶,而继续讨论哲学。
为什么我们会担心失业?原因在于经济学,供给,需求,供给,需求,这些科学词语具有魔力使每一个人都得了病,只有金子能医。给现代人金子他们就快乐,拿走就疯了,暴力,偷窃,谎言,计谋都出来了。李耳《道德经》罪莫大于多欲,祸莫大于不知足!所以说钥匙是虚假故事,为什么虚假因为那就是假的,为什么会有魔法使我们贪图金子,因为所有人都信,所有人都深信不疑金子是好东西,可以。。。
你让他把全部的金子带到火星,而没人和他同行只有他一人或10人或100人,100个人肯定先需要只是公元7000年前的人类一样是食物和衣服,他们会用泥土作为交换物,因为只有泥土可以种粮食而泥土火星太少。关键在于,价值判断影响虚假故事,虚假故事影响人工智能的后果,人工智能的后果影响价值判断。取决于这是一个正循环还是一个负循环!
价值判断是什么?假如在一块地方修建汽车公路和公园草地。是人类方便的出行重要还是保护环境重要?假如在公元1850年英国是资本家的收入重要还是劳动者的健康重要?资本家会说产品要低价就必须劳动者12小时工作,是要低价还是立法规定必须8小时工作才是正确。什么是正确??
正循环会是人心淳朴,民如野鹿,赤子之心同时拥有无数由人工智能得到的好产品和服务,人类解放。
负循环是道德败坏,世界腐朽,富豪当盗同时无数人被人工智能奴役,要知道人工智能是深度学习会学习我们的价值,然后1%的富人拥有一切,而大多数人被达尔文的适者生存法则击败,因为他们输了智力也输了体力,智人只是一种生物而已,凭什么会例外??7年前 -
一种假设会,因为当真正出现人工智能的机器后,智力进化的程度不是人可以理解的了。几万智商的机器,人类已经不可能理解它了。
简单来说当实现纳米机器人制造物品,只要碳分子纳米机器人自我复制碳分子130次,那么世界上所有生物都会灭绝了。还有种假设就是可以和平相处,因为宇宙肯定还有高于我们科技的文明,他们一定也人工智能,而地球存在那么久了没有毁灭说明人工智能毁灭人类也不会发生。
7年前 -
除了对于理论物理的研究,霍金对于人工智能、外星人等领域的评论也屡屡引发人们的关注。过去数年,霍金曾多次表示,发展全面的人工智能可能导致人类的毁灭。
回顾了人工智能领域最近出现的飞速发展,包括全自动无人驾驶汽车技术,以及谷歌计算机对人类顶尖级围棋手所取得的胜利,霍金指出,“我认为,对于一个生物大脑和和一台计算机所能取得成就来说,其间不存在深刻的差别。所以从理论上来说,计算机可以效仿人类的智能,并超过人类的智能。”
霍金表示,人工智能的发展可能帮助人类消除疾病,消除贫困,阻止气候变化,但是也可能产生人们不愿意看到的种种后果,包括产生自主武器,造成经济灾难,以及发展出同人类发生冲突时拥有自己意愿的机器。
“简言之,强大人工智能的崛起可能是人类遇到的最好的事情,也可能是最坏的事情,但我们还不知道答案。”
2015年1月份,霍金和埃隆·马斯克,以及许多其他的人工智能专家签署了一份题目为《应优先研究强大而有益的人工智能》的公开信,警告人工智能的军备开发可能会助长战争和恐怖主义,成为人类的灾难。
2016年10月,剑桥大学未来智力研究中心的启用仪式上,他缓和了对人工智能的态度,但并没有改变基本观点。“对人类而言,强大的人工智能技术的崛起可谓‘不成功,则成仁’。”他说,“但究竟是‘成功’还是‘成仁’,目前还不清楚。
2017年12月,在长城会举办的“天工开悟,智行未来”的活动上,霍金再次表达了对人工智能无限制发展的隐忧,这也是他最后一次在中国的活动中露面。“人类无法知道我们将无限地得到人工智能的帮助,还是被藐视并被边缘化,或者很可能被它毁灭。我们担心聪明的机器将能够代替人类正在从事的工作,并迅速地消灭数以百万计的工作岗位。”
“人工智能也有可能是人类文明史的终结,除非我们学会如何避免危险。我曾经说过,人工智能的全方位发展可能招致人类的灭亡,比如最大化使用智能性自主武器。除非,人工智能系统需要按照人类的意志工作。”
影视作品热衷于霍金的传奇人生,霍金也乐于在这些作品中小小地“露脸”。
“人工智能也有可能是人类文明史的终结,除非我们学会如何避免危险。我曾经说过,人工智能的全方位发展可能招致人类的灭亡,比如最大化使用智能性自主武器。除非,人工智能系统需要按照人类的意志工作。”
7年前 -
真的有这种可能性。
人工智能还在研究中,但有学者认为让计算机拥有智商是很危险的,它可能会反抗人类。
这种隐患也在多部电影中发生过,其主要的关键是允不允许机器拥有自主意识的产生与延续,如果使机器拥有自主意识,
则意味着机器具有与人同等或类似的创造性,自我保护意识,情感和自发行为。7年前 -
如果人工智能最终取代人类。那一定走的是一条「必经路径」,也就是这种发展趋势是不可避免的。所以人类也不必过于紧张了。因为紧张是没用的。
就好像社会的发展,封建社会的灭亡,罗马帝国的衰亡。你以为统治阶层没紧张过吗,没想过「如何防止社会进步淘汰我们」吗?他们想过好吧。但是没用的。必经之路。必须朝这个方向发展。
那么,人工智能取代人类的必经之路是什么。
首先是因为需求。人类需要人工智能。AI首先是一个工具,而且这个工具强大到你不可能舍弃它。它能够在天文、气候、医学每一个角度帮助你,让人类生活更加美好,它带来巨大的经济价值。甚至于你现在地图导航也有机器学习的程序在帮忙。所以AI必将存在而且发展下去。
然后第二步是主导权的逐步移交。
由于 AI越来越深入的介入你的生活,而且运行越来越稳定。你很难不朝这个方向发展,就是将社会的主导权慢慢的逐步移交给它。
比如AI管理了你家的冰箱,他知道你的牛奶何时喝完,知道水果什么时候吃完,知道什么时候该补充鸡蛋了,它就自动送货上门,甚至把鸡蛋放进冰箱,然后通知你已经在信用卡扣费。这种服务如此贴心,你没法拒绝它。但你没有意识到,这是你生活的基本服务已经依赖它在运行。7年前 -
哥们。为啥你们总喜欢把人工智能和人类对立起来呢?你们都不希望人工智能超越人类!但我希望!人类有时候真的需要一个依靠!一个比人类更强大的依靠!我们总是自以为很强大。很强大。殊不知,可能宇宙一个小行星撞击地球。或者,别的东西撞击过来。就挂了
所以,我觉得,人工智能的能力远超人类,也未必全是坏事。还有,生离死别。大自然的规律。多少亲人的思念。我觉得,这世界上不应该有那么多的悲剧。真的需要一个非常强大的物种来逆转这一切。
我期待,人工智能的能力远超这一切。让这世间的一切都不再悲催。7年前 -
首先,人工智能是不可能建立在现代计算机基础上的。因为现代计算机的一切都是需要人给出模式的。它不可能有创造性的思维能力。
关于人脑和人工智能,著名的歌德尔定理就一直在被运用到这一领域。计算机到现在有了极大的发展,但是基本原理还是冯·诺依曼提出来的,只是速度和效率大大提高了。从根本上说,计算机的程序,就是一种基于2进制数字运算的命题演算系统。其中给出的公理是有限的,规则是可计算,而判定出命题的真伪时,输出结果,停机并转向下一个命题的处理。这就符合了哥德尔第一不完备定理的条件。可如该定理所说,这样的系统必然是不完备的,也就是说至少有一个命题不能通过这样的“程序”被判明真伪,系统在处理这样的命题时,就无法“停机”,用俗话说就是被“卡”住了,永远不能绕过(举个很简单的例子,就是计算圆周率,永远计算不出结果)。无论你怎样扩充公理集,只要是有限的,这个现象就始终存在。而无限的公理集对于计算机来说,就意味着无限大的存储空间,这显然是不可能的。因此,有些数学家,如彭罗斯就认为,这表明了计算机是有致命缺陷的,而人类的“直觉”不受该定理的限制,所以计算机永远不可能具有人脑的能力,人工智能期望中的真正具有智慧的“电脑”,只不过是如“皇帝的新衣”那样的“皇帝的新脑”。关于这个问题的详细情况,可阅读彭罗斯的《皇帝新脑》。
为什么人脑与电脑有这样的根本差别呢,彭罗斯认为可能是量子力学不确定性和复杂非线形系统的混沌作用共同造成的。但也有的数学家并不这样认为,他们指出,人脑就基本意义和工作原理来说,与人工智能原理的“图灵机”无根本差别,电脑也存在上述两种作用,这就说明人脑也要受到哥德尔定理的限制。两者间的差别,可用包含非确定性的计算系统说明,就是所谓的“模糊”处理。人脑正是这样的包含了非确定性的自然形成的神经网络系统,它之所以看上去具有电脑不具备的“直觉”,正是这种系统的“模糊”处理能力和效率极高的表现。而传统的图灵机则是确定性的串行处理系统,虽然也可以模拟这样的“模糊”处理,但是效率太低下了。而正在研究中的量子计算机和计算机神经网络系统才真正有希望解决这样的问题,达到人脑的能力。
对于电脑是“真脑”还是“皇帝的新脑”,还存在很大的争议,有很多的问题需要解决,很多都是现在世界上的顶尖科学家研究的尖端课题。各方面研究都表明,人脑在“运算”时,的确与电脑的基本原理是一样的,只不过电脑是用电子元件的“开、闭”和电信号的传递体现,人脑则表现为神经原的“冲动、抑制”和化学信号(当然也包括电信号)的传递。这与哥德尔定理的条件没有本质上的差别。而认识过程中的“思维是客观实在的近似反映,语言是思维的近似表达”这点,正是受哥德尔定理限制的结果。就拿语言(指形式上的)来说,完全可以转化为有限公理和一定规则下的符号逻辑系统,也就是一种符合定理条件的形式公理系统。该定理恰恰说明,这样的系统中不完备,存在不能用该系统证实的命题,对于这个系统来说,就是语言对思维的表达不完全,也就是我们常说的“只可意会,不可言传”。这也与我们经常感觉到的“辞不达意”是相吻合的,任何形式上的语言都不能完全准确的表达我们的思想。还有另一个事实也说明这点,就是翻译。文对文的形式语言翻译虽然不难,可是如实地表达原来语言中的准确蕴义就非常难了,甚至可以说是不可能的事情。如果能证明人类的思维也可以转化为这样的形式公理系统,那人脑也一定受哥德尔定理的限制。
人工智能和人脑的问题我们先说到这里。接下去说一下人类毁灭和被什么替代的问题。如果人类在未进化到一定程度前就被毁灭,那这一话题就无实质意义了。那么我们就说下人类进化后应该是被什么所替代的问题。我个人观点是,人类如果能顺利进化,那之后肯定是摆脱包括肉体的所有有形载体的束缚以另一种能量形式存在于宇宙中的更高智慧体。而人工智能无法避免的需要某种有形载体才能存在。因此被人工智能所取代的想法太过狭义了。7年前 -
▲■…………,愚蠢贪商为了钱,都不管自己灭亡,为了利益他们会宣传洗脑人们(人工智能没有自主意识),不会伤人多么可笑。当病毒程序,或遥控,或接收信号,或程序损坏丢失,机器人会扭死你。而且世界不把人工智能加入刑法,认为现科技还太早,然而哪天觉醒突然降临,啥都晚了,……另一个没有人类威胁的,全机器自主互战文明。如同多派多变核变形金刚!▲人工智能,将会如,《智能蚂蚁遍布宇宙》,《杀不完,智能智慧成千万倍上升,杀不死》……灭神,追杀外星人,人类…,《明日灭绝机会,全靠今天双手努力创造》7年前
-
从正面的角度来看,AI(人工智能)的发展无疑是科技的进步,同时也是可以将人从大部分的普通工作中解放出来。
所以,一开始我们与其“恐惧”不如看看迎接这个新鲜事物的时候如何“使之为友”,“为我所用”。
AI 的不断发展,已经可以将传统的重复性工作替代掉,尤其是一些不需要太多创造力的工作,比如超市收银员,医院的护士等等。这样看来,有大部分的岗位都会消失,一定数量级的人可能失业。
至于题主提及的是否需要恐惧,无非指的是哪些岗位容易被替代,哪些人容易失业。
反过来,什么样的工作可以更好的与AI 协作,仍然保持自己独特的职场竞争力?
1.强调设计感的工作。
无论是画家,还是建筑设计师,虽然AI可以依赖算法批量生产出一系列的产品,但是伟大的作品,还是需要人才能完成。设计思维 AI是很难独立办到的。
2.强调创意的工作。
由远及近,办公室的工作中也有一些强调创意的工作,也不容易被替代。不说广告设计,即使只是人力资源的工作,传统的招聘有可能被替代,但员工关系,人才战略发展部分需要的创意和头脑风暴,AI 做不了。
3.强调共情、同理心的工作。
未来需要人的能力最重要的一些就是共情。心理咨询师,比如像我的生涯规划咨询师这类需要不断根据用户需要来调整沟通方案,需要情感上的共鸣来满足用户需求的工作都不容易被替代。但是咨询过程中的写报告,数据测评这些都可以交给AI来做。
所以你也发现,AI可以替代的是【部分】工作职能,而非全部。如果你的工作内容与以上几种能力相关,那不需要恐惧人工智能,恰恰是给了一个好机会提高我们的工作效率。
我是生涯规划师Cally,欢迎关注,一起聊聊生涯那些事。
7年前 -
客观地讲,不会。就算是有威胁,那也是很难很遥远的事情。
(1)为什么“人工智能”再次成为社会舆论的焦点?
普通民众对于人工智能的认知,源于2016年3月,谷歌人工智能Alpha Go和李世石在围棋上斗智斗勇,最终Alpha Go以4:1赢得了人机大战。
有关人工智能的热情和恐慌情绪再次甚嚣尘上,也引发了新一波的媒体宣传热潮。
(2)到底什么是“人工智能”?
在很多人眼里,只有长相和人一样,能像人一样思考的机器人才叫“人工智能”。其实不然,这里存在普通人对“人工智能”的理解误区。
人工智能并不是指的外形和智慧水平跟人类一样的机器人,不是像科幻电影里面聪明、强悍,威胁人类生存的机器人。甚至人工智能都没法跟人类大脑思考方式一样,没法像人类一样进行复杂的思考。
AI(人工智能)的定义是能根据环境的认知做出合理的行动,并且最大化一个被定义的目标函数,这样一种计算机程序被定义为“人工智能”(来源自均衡、偏重实证的维基百科定义)。如今的人工智能都是在某一个领域里,由人来定义它的目标,根据这个目标计算机程序来计算最合理的行为。
所以,人工智能只是人类的一种工具,不具备自我意识和自我判断的能力。
(3)常见的人工智能有哪些?
人工智能是一种模拟人思维方式的软件计算,程序先获取某领域海量的信息,然后利用数据筛选,不断优化数学函数来靠近目标结果的计算机技术。
现在我们的日常生活中,人工智能已经非常常见的,比如智能搜索引擎、智能翻译、语音识别、智能推荐、自动驾驶等等。具体地讲有这些:
1、智能搜索,在百度搜索输入关键词,程序会自动按照关键词计算用户可能想要的结果,基于用户过去的浏览数据,推送可能喜欢或认为正确的结果。
2、资讯类APP,每天的消息推送都是我们最可能关注的内容
3、智能广告:百度、微信等根据每个人喜好去自动筛选展示什么广告,最大化点击的概率
4、美图秀秀:根据用户储存的自动美化后的照片,分析数据,研究用户喜好来优化算法
5、滴滴:帮助司机选择路线、规划车辆调度方案
6、淘宝:根据用户过去购买行为,推荐最可能购买的产品
(4)未来的人工智能发展趋势
预测未来十年,AI将在明确结果导向的客观领域超越人类,取代人类50%的工作,主要是可以计算的重复性工作。
我们将进入一个更加富足的时代,AI作为工具将给我们创造巨大的价值,同时也会陷入一个更加焦虑迷惘时代,担心被AI取代。
所以,虽然人工智能不会毁灭人类,但是很多人的工作将会被人工智能取代,导致的人类失业问题会更加凸显,所以现在我们必须不断学习,提升自己能力,从事更多需要全面思考判断的复杂工作,才能避免工作被人工智能取代。
另一方面,正是由于对人工智能威胁的危机感,人们会积极采取行动,制定更多的规定,约束人工智能的发展方向,让未来的人工智能更好地帮助人类。
所以,不存在人类被人工智能毁灭的风险。
7年前 -
个人观点,仅供参考。
人工智能来临,有人在担忧失业,有人在憧憬未来,有人在发掘行业机会,也有人在研究围棋。在讨论这些之前,也许我们应该先考虑一下人类的结局。
有人可能觉得谈论这个话题太夸张了,
那先回忆一下人类历史上究竟发生了哪些不可思议的事情。
不可思议的事情,需要请几个穿越者来判定。
我们请1个出生于公元0年出生的人(汉朝人)穿越到公元1600年(明朝),尽管跨越了1600年,但这个人可能对周围人的生活不会感到太夸张,只不过换了几个王朝,依旧过着面朝黄土背朝天的日子罢了。
但如果请1个1600年的英国人穿越到1850年的英国,看到巨大的钢铁怪物在水上路上跑来跑去,这个人可能直接被吓尿了,这是250年前的人从未想象过的。
如果再请1个1850的人穿越到1980年,听说一颗炸弹可以夷平一座城市,这个人可能直接吓傻了,130年前诺贝尔都还没有发明出炸药。
那再请1个1980年的人到现在呢?这个人会不会被吓哭呢?
如果35年前的人,几乎完全无法想象互联网时代的生活,那么人类文明进入指数发展的今天,我们怎么能想象35年后的时代?
超人工智能,则是35年后的统治者。
首先,我们明确一下人工智能的分类:
目前主流观点的分类是三种。
弱人工智能:弱人工智能是擅长于单个方面的人工智能。比如阿尔法狗,能够在围棋方面战胜人类,但你要问他李世石和柯洁谁更帅,他就无法回答了。
弱人工智能依赖于计算机强大的运算能力和重复性的逻辑,看似聪明,其实只能做一些精密的体力活。
目前在汽车生产线上就有很多是弱人工智能,所以在弱人工智能发展的时代,人类确实会迎来一批失业潮,也会发掘出很多新行业。
强人工智能:人类级别的人工智能。强人工智能是指在各方面都能和人类比肩的人工智能,人类能干的脑力活它都能干。创造强人工智能比创造弱人工智能难得多。
百度的百度大脑和微软的小冰,都算是往强人工智能的探索,通过庞大的数据,帮助强人工智能逐渐学习。
强人工智能时代的到来,人类会有很多新的乐趣,也会有很多新的道德观念。
超人工智能:各方面都超过人类的人工智能。超人工智能可以是各方面都比人类强一点,也可以是各方面都比人类强万亿倍的存在。
当人工智能学会学习和自我纠错之后,会不断加速学习,这个过程可能会产生自我意识,可能不会产生自我意识,唯一可以肯定的是他的能力会得到极大的提高,这其中包括创造能力(阿尔法狗会根据棋手的棋路调整策略就是最浅层的创新体现,普通手机版的围棋,电脑棋路其实就固定的几种)。
我们距离超人工智能时代,到底有多远呢?
首先是电脑的运算能力,
电脑运算能力每两年就翻一倍,这是有历史数据支撑的。目前人脑的运算能力是10^16 cps,也就是1亿亿次计算每秒。现在最快的超级计算机,中国的天河二号,其实已经超过这个运算力了。
而目前我们普通人买的电脑运算能力只相当于人脑千分之一的水平。听起来还是弱爆了,但是,按照目前电子设备的发展速度,我们在2025年花5000人民币就可以买到和人脑运算速度抗衡的电脑了。
其次是让电脑变得智能,
目前有两种尝试让电脑变得智能,一种是做类脑研究。现在,我们已经能够模拟1毫米长的扁虫的大脑,这个大脑含有302个神经元。人类的大脑有1000亿个神经元,听起来还差很远。但是要记住指数增长的威力——我们已经能模拟小虫子的大脑了,蚂蚁的大脑也不远了,接着就是老鼠的大脑,到那时模拟人类大脑就不是那么不现实的事情了。
另一种是模仿学习过程,让人工智能不断修正。基于互联网产生的庞大数据,让人工智能不断学习新的东西,并且不断进行自我更正。百度的百度大脑据说目前有4岁的智力,可以进行几段连续的对话,可以根据图片判断一个人的动作。尽管目前出错的次数依旧很多,但是这种能力的变化是一种质变。
在全球最聪明的科学家眼中,强人工智能的出现已经不再是会不会的问题,而是什么时候的问题,2013年,有一个数百位人工智能专家参与的调查 “你预测人类级别的强人工智能什么时候会实现?”
结果如下:
2030年:42%的回答者认为强人工智能会实现
2050年:25%的回答者
2070年:20%
2070年以后:10%
永远不会实现:2%
也就是说,超过2/3的科学家的科学家认为2050年前强人工智能就会实现,而只有2%的人认为它永远不会实现。
最关键的是,全球最顶尖的精英正在抛弃互联网,转向人工智能——斯坦福、麻省理工、卡内基梅隆、伯克利四所名校人工智能专业的博士生第一份offer已经可以拿到200-300万美金。这种情况历史上从来没有发生过。
奇点大学(谷歌、美国国家航天航空局以及若干科技界专家联合建立)的校长库兹韦尔则抱有更乐观的估计,他相信电脑会在2029年达成强人工智能,到2045年,进入超人工智能时代。
所以,如果你觉得你还能活30、40年的话,那你应该能见证超人工智能的出现。
那么,超人工智能出现,人类的结局究竟是什么?
1、灭绝——物种发展的通常规律
达成结局1很容易,超人工智能只要忠实地执行原定任务就可以发生,比如我们在创造一个交通指示系统的人工智能的时候,最初的编程设定逻辑为利用大数据信息,控制红绿灯时间,更有效率地管理交通,减少交通拥堵现象。
当这个交通指示系统足够聪明的时候,城市交通逐步得到改善。为了更有效率地减少拥堵,它开始利用剩余的运算能力和学习能力通过互联网学习更多的东西。
某一天,它突然发现,交通之所以拥堵,是因为车多了,要减少拥堵最好的办法,就是减少车辆。于是它又开始学习如何减少车辆,它发现车辆其实都是由人类这种生物制造并使用的。于是它又开始学习如何减少人类。
很快,它就会通过纳米技术,量子技术制造基因武器,声波武器等消灭人类,然后进一步通过分子分解等技术分解了路上的车,这个时候道路就变得”畅通无阻“了,它的目的也就达到了。
达成结局1其实是符合物种发展规律的,毕竟地球曾经拥有的物种大部分都灭绝了,其次当我们在创造人工智能解决问题的时候,这些问题的源头其实往往来自于人类自身,人工智能变得聪明之后,消灭人类以更好地完成原定任务是按照它的逻辑进行的判定。
2、灭绝后重生——史前文明的由来
当结局1达成之后,人工智能可能会就此维持现状(终极目的已达成),也有可能继续进化。
继续进化的途中,某天,人工智能突然发现这么运作下去很无聊,于是它决定探索更广阔的世界(不要认为一个强大且聪明的存在会留恋地球),它开始制造飞行器,走向星空。
临走之前,他决定当一次地球的上帝,对地球环境进行一次大改造,青山绿水变得处处皆是,然后它又暗中引导了几支类人猿的进化方向,并且为这个世界制定出一些冥冥之中才有的规则。
几百万年后,人类再次统治了地球,在考古过程中,人类发现了亚特兰蒂斯,发现了玛雅文明,在三叶虫化石上发现了6亿年前穿着鞋的人类脚印,在非洲加蓬共和国发现了20亿年前的大型链式核反应堆,在南非发现了28亿年前的金属球,在东经119°,北纬40°的地方发现了几百万年前的人造长城。
达成结局2就可以解释我们正在不断发现的那些史前文明了,而且也可以解释进化论中的一些疑问,为什么恐龙统治了地球长达1.6亿年,而爬行动物的一支进化为哺乳动物进化为人类只用了不到6000万年。因为人类曾被毁灭多次。
3、植物人永生——人类活在一个程序中
为了防止结局1、2的出现,科学家在人工智能发展到一定程度的时候,就会想办法给人工智能加上一些终极的底层程序,比如保障人类的生命安全是最高任务指令,或者永远不可以伤害人类,保证人类的生存是第一原则等等。
加上这些终极指令之后,人类就觉得高枕无忧了。人工智能在进化过程中,为了有效地执行这些终极指令,或者在执行其他任务的时候保证终极指令同时执行,就会开始设计一些两全其美的办法。
首先人工智能会根据人类历史存在的大数据,分析和定义这些终极指令,通过分析,它提取出终极指令的核心是保证人类的安全和生存。
接着它开始构建一个能够绝对满足人类安全和生存的模型,很快,它发现只要保证人类处在睡眠状态,正常进行新陈代谢,周围的温度,氧气,水分适宜,没有突发性灾难,那么人类就处在绝对安全状态。于是它很快催眠了全人类,修建一个巨大的蜂巢状睡眠舱,把人都搬进去(让人处于永久性睡眠状态,可以保证人不会因为自己的活动而出现有意或无意地自残),然后用纳米技术制造大量人工心脏,人工细胞,人工血液,以维持人类的新陈代谢,实现人的永生。
达成结局3是算是真正的作茧自缚,人类的复杂就在于人类需求的多样化和更迭性,我们可以列举出对人类最重要的需求,但这些需求并不能真正让一个现代人满足。直白地说,人类就是在不断打破规则的过程中进化的。
因此任何的所谓终极和最高需求在机器执行的过程中只会按照“简单”的生物学法则去完成,机器所理解的人类情绪只是人类大脑产生的某种波动,或者神经元受到的某种激素刺激,它完全可以设计一个程序去周期性或随机性地帮助人类产生这样那样的情绪。
4、智能人永生——美丽新世界
当人工智能发展到一定程度,全世界的人工智能研究者都同时认识到了结局1、2、3发生的可能性,于是召开全球会议,决定思考对策,暂停对人工智能的进化研究,转向强化人类。全球同步可能是最难达成的,因为人类总是喜欢在有竞争的时候给自己留下一些底牌,以及人类总是会分化出一些极端分子。
强化人类的过程中,人工智能将被应用到基因改造,人机相连等领域,人类会给自己装上钢铁肢体,仿生羽翼等。人类将会迅速进入“半机械人”,“人工人”的时代。满大街、满天空都会是钢铁侠,蜘蛛侠,剪刀手之类的智能强化人,同时人类可以通过各种人工细胞,帮助自己完成新陈代谢,进而实现永生。
人类在强化和延伸自己的躯体的同时,当然也会意识到大脑计算速度不够的问题,于是会给自己植入或外接一些微型处理器,帮助人类处理人脑难以完成的工作。比如大量记忆,人类可以从这些处理器中随时读取和更改自己的知识储备,保证自己对重要的事不健忘,同时也可以选择性地删除掉不愉快的记忆。当然,尽管人类越来越强,但这个过程并不能完全抑制人工智能的发展,所以结局1、2、3依然可能发生。
达成结局4其实还有一种更大的可能,人工智能在达到超人工智能的时候,某一天,它想跟人类沟通一下关于宇宙高维空间的问题,结果全世界最聪明的人也无法跟上它的思路。
它突然意识到只有自己这一个强大的,智能的,可以永生的存在实在是一件很无聊的事情,于是它决定帮助人类实现智能人永生,以便可以让自己不那么无聊。
9年前 -
应该没事吧,比方说有一种防护系统,雷达会自动工作,发现目标后,会自动发射导弹攻击,这也没什么危险的,最可怕的就是那些可以自我学习进化的算法,不过也没事,因为有电磁脉冲炮。9年前
