人工智能会毁灭人类吗?人工智能分为哪些方面?
-
作为一名智慧建筑技术工程师,对人工智能分类的理解如下,水平有限,仅供参考。
人工智能的分类包括:
1.按照学习方式分类:监督学习、无监督学习、半监督学习、强化学习。
2.按照任务分类:分类、回归、聚类、推荐系统、异常检测、对话系统等。
3.按照技术分类:机器学习、深度学习、自然语言处理、计算机视觉等。
2年前 -
人工智能的领域有:1、智能文本分类;2、智能语音;3、智能视频识别;4、智能服务机器人;5、人脸识别
一、智能文本分类
智能分类主要针对文本处理,应用于社会治理方面如城管、12345热线、网格事件、法院案件等存在大量案件,且案件类型较多样的场景,比如城管事件中有很多这样的分类。
二、智能语音应用
智能语音针对语音进行处理,应用方向主要为语音识别。
三、智能视频识别应用
智能视频识别针对视频进行处理,主要用于视频流的分析。
四、智能服务机器人
机器人应用目前还是比较多,商场、医院、交通枢纽有指引机器人,政务办事大厅有政务事项办理机器人,城市管理有智能清扫机器人、排污机器人,接待室里有讲解机器人等,机器人在城市的方方面面还是起到了一定的作用。
五、人脸识别
人脸识别技术其实不需要多说,现在是普及最广泛、群众接触最多的一项应用。各类移动应用都引入人脸识别以便实现身份的认证,比如扫脸支付、进站检票、证券开户。
2年前 -
你好,基于AI的能力,目前的人工智能分为三类:
1)基础的AI或弱AI:这类的人工智能无法超越其领域或限制,因为它只针对一项特定任务进行训练。因此它也被称为弱人工智能,还有一些其他案例比如:下棋、电子商务网站上的购买建议、自动驾驶汽车、语音识别和图像识别
2)通用人工智能:通用人工智能是一种智能,可以像人类一样高效地执行任何智力任务。通用人工智能背后的想法是制造这样一个系统,该系统可以更智能,并且可以像人类一样独立思考。
3)超级人工智能:超级人工智能是一种系统智能水平,在这种智能水平上,机器可以超越人类智能,并且可以比具有认知特性的人类更好地执行任何任务。这是一般人工智能的结果。
希望我的回答对你有帮助!2年前 -
1、深度学习:
深度学习是基于现有的数据进行学习操作,是机器学习研究中的一个新的领域,机在于建立、模拟人脑进行分析学习的神经网络,它模仿人脑的机制来解释数据,例像,声音和文本。深度学习是无监督学习的一种。
2、自然语言处理:
自然语言处理是用自然语言同计算机进行通讯的一种技术。人工智能的分支学科,研究用电子计算机模拟人的语言交际过程,使计算机能理解和运用人类社会的自然语言如汉语、英语等,实现人机之间的自然语言通信,以代替人的部分脑力劳动,包括查询资料、解答问题、摘录文献、汇编资料以及一切有关自然语言信息的加工处理。例如生活中的电话机器人的核心技术之一就是自然语言处理。
3、计算机视觉:
计算机视觉是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像;计算机视觉就是用各种成象系统代替视觉器官作为输入敏感手段,由计算机来代替大脑完成处理和解释。计算机视觉的最终研究目标就是使计算机能像人那样通过视觉观察和理解世界,具有自主适应环境的能力。计算机视觉应用的实例有很多,包括用于控制过程、导航、自动检测等方面。
4、智能机器人:
如今我们的身边逐渐开始出现很多智能机器人,他们具备形形色色的内部信息传感器和外部信息传感器,如视觉、听觉、触觉、嗅觉。除具有感受器外,它还有效应器,作为作用于周围环境的手段。这些机器人都离不开人工智能的技术支持;科学家们认为,智能机器人的研发方向是,给机器人装上“大脑芯片”,从而使其智能性更强,在认知学 习、自动组织、对模糊信息的综合处理等方面将会前进一大步。
5、自动程序设计:
自动程序设计是指根据给定问题的原始描述,自动生成满足要求的程序。它是软件工程和人工智能相结合的研究课题。自动程序设计主要包含程序综合和程序验证两方面内容。前者实现自动编程,即用户只需告知机器“做什么”,无须告诉“怎么做”,这后一步的工作由机器自动完成;后者是程序的自动验证,自动完成正确性的检查。其目的是提高软件生产率和软件产品质量;自动程序设计的任务是设计一个程序系统,接受关于所设计的程序要求实现某个目标非常高级描述作为其输入,然后自动生成一个能完成这个目标的具体程序。该研究的重大贡献之一是把程序调试的概念作为问题求解的策略来使用。
6、数据挖掘:
数据挖掘一般是指从大量的数据中通过算法搜索隐藏于其中信息的过程。它通常与计算机科学有关,并通过统计、在线分析处理、情报检索、机器学习、专家系统(依靠过去的经验法则)和模式识别等诸多方法来实现上述目标。它的分析方法包括:分类、估计、预测、相关性分组或关联规则、聚类和复杂数据类型挖掘。
旗鱼科技是润建股份控股子公司,在元宇宙领域深耕多年,产品有巧见云3D内容生产平台、3D LED大屏、VR/AR眼镜、无线会议室等,与军方和学院都有密切合作,感兴趣的话可以搜索看看。
2年前 -
人工智能分为三种类型,分别是弱人工智能、强人工智能、超人工智能。
1、弱人工智能
弱人工智能的英文是Artific ial Narrow Intelligence,简称为ANI,弱人工智能是擅长于单个方面的人工智能。比如有能战胜象棋世界冠军的人工智能阿尔法狗,但是它只会下象棋,如果我们问它其他的问题那么它就不知道怎么回答了。只有擅长单方面能力的人工智能就是弱人工智能。
2、强人工智能
强人工智能的英文是Artific ial General Intelligence,简称AGI,这是一种类似于人类级别的人工智能。强人工智能是指在各方面都能和人类比肩的人工智能,人类能干的脑力活它都能干。创造强人工智能比创造弱人工智能难得多,我们现在还做不到。强人工智能就是一种宽泛的心理能力,能够进行思考、计划、解决问题、抽象思维、理解复杂理念、快速学习和从经验中学习等操作。强人工智能在进行这些操作时应该和人类一样得心应手。
3、超人工智能
超人工智能的英文是Artific 我: mip.680.com ial General Intelligence,简称AGI,这是一种类似于人类级别的人工智能。强人工智能是指在各方面都能和人类比肩的人工智能,人类能干的脑力活它都能干。创造强人工智能比创造弱人工智能难得多,我们现在还做不到。强人工智能就是一种宽泛的心理能力,能够进行思考、计划、解决问题、抽象思维、理解复杂理念、快速学习和从经验中学习等操作。强人工智能在进行这些操作时应该和人类一样得心应手。
2年前 -
人工智能可分为六个研究方向:
1、机器视觉,包括3D重建,模式识别,图像理解等。
2、语言理解和沟通,包括语音识别,综合,人机对话,机器翻译等;
3、机器人技术,包括力学,控制,设计,运动规划,任务规划等;
4、认知和推理,包括各种身体和社会常识的认知和推理;
5、游戏和道德,包括多智能体,机器人和社会整合的互动,对抗和合作;
6、机器学习,包括各种统计建模,分析工具和计算方法;
人工智能作为下一代信息技术的重要领域,是一种具有普遍性的新型通用技术,可应用于经济社会,生产和生活的各个方面(Trajtenberg,2018); 无意中与此同时,人工智能已经渗透到生产和生活的许多方面,并悄然改变了经济和社会组织的运作模式。 虽然人工智能技术可以使人类摆脱繁琐的程式化工作,但它也是应对人口老龄化的有效手段,但其推广也意味着在应用领域取代就业领域(部分),并将 最终影响就业结构和收入分配格局。
3年前 -
1956年,“人工智能”这一学术术语首次被提出,“人工智能”也正式成为了一门新兴学科。但在随后的几十年里,”人工智能“给我们的印象更多地是在实验室以及电影里。但在2013年前后,以谷歌(微博)、微软、Facebook为代表的科技巨头接连入局人工智能领域,再加上鸿海等厂商计划利用机器人工作,“人工智能“逐渐走进了我们的生活。
面对科技界一股前所未有的”人工智能大潮“,马斯克、盖茨等科技大佬坐不住了。2014年8月,马斯克在Twitter发布一条状态:“Bostrom撰写的《超级智能》一书值得一读,我们必须对人工智能超级谨慎,它的潜力可能比核弹还危险。” 比尔•盖茨 也在最近的一次活动上表示,机器将取代人类从事各种工作,如果我们能够处理得好,它们应该能发挥积极作用。可是数十年后,人工智能将发展到足以令人担忧的程度。
人工智能的隐患:或冲击现有社会体系
2月初,致力于“降低人类面临的现存风险”的生命未来研究所(Future of Life Institute)的数百名顶尖科学家在一封公开信中签名,公开信呼吁科技界在推动人工智能发展的同时,彻底审视人工智能的发展将对人类社会产生怎样的影响。
这封信的作者承认,人工智能在语音识别、图像分类、自动驾驶汽车、机器翻译和答疑系统等领域取得了显著成功,并认为这些研究有助于消灭疾病和贫困。但他们坚持认为,“人工智能系统必须做我们希望它做的事情”,科学界应确立 “有助于最大限度提高人工智能社会效益”的研究目标。
公开信强调,未来的人工智能可能在计算机安全、经济、法律和哲学等领域影响社会,但就是这种无处不在的潜在性,可以引发多方面的危机。例如,科学家们认为,如果未来经济的某些部分变得自动化,工人以及工人工资会受到很大影响,人工智能专家们不得不要重视。人工智能应该正视下列问题:致命的自动化武器是否符合人道主义法? 当人工智能系统从监控摄像头、电话线路和电子邮件中收集数据时,如何避免侵犯隐私权?
来自英国牛津大学的一群学者去年在一篇博客文章中写道:“当一台机器发生错误,其错误方式可能比人的失误更有戏剧性,可能会带来更多不可预知的结果。简单算法在很大程度上是可预测的,但在不寻常的情况下,它可能作出离奇的决定。”
与这些比较现实的问题相比,知名科学家霍金想的更为长远。霍金在接受BBC采访时表示,如果技术具有与人类类似的能力,“它将脱离控制,并以加速度重新设计自己。更可怕的是,由于生物学意义上的限制,人类无法赶上技术的发展速度。“霍金对人类的未来表示担忧:“人类由于受到缓慢的生物进化的限制,无法与机器竞争,并会被取代。全人工智能的发展可能导致人类的终结。”
从这些科学家的言论中,我们可以看到,科技界、科学界对人工智能的担忧主要来自两方面:一方面是人工智能对人类工作、生活方式的改变,可能影响到现有的法律体系、道德标准以及利益分配的模式等等,而人类做出改变的速度未必能跟的上人工智能的发展速度,这就会对社会现有的体制造成冲击,从而引发混乱;另一方面是,人工智能让人类越来越缺乏思考,而其自身则有可能越来越聪明,从而威胁到人类的生存。
预言成真?“毁灭论“有些危言耸听
对于马斯克、盖茨、霍金等人的言论,谷歌董事长施密特率先发起反驳。施密特的身份很特殊,作为谷歌的董事长,他曾亲身参与许多世界上最复杂的人工智能系统的研发,从自动驾驶汽车到谷歌的预测性搜索引擎等,谷歌去年甚至还推出了自己的内部机器人实验室。施密特认为,所有对机器将抢走人类工作、占领世界的恐惧都毫无根据,并且希望人们能够意识到:机器人会成为我们的朋友。
施密特说:“对于人工智能的担忧,都是正常的。但是回顾历史你会发现,这些绝对是错误的。我们只是希望能通过更多机械化的方式,能让我们穿上更好的衣服,而且历史的经验已经证明,过去的经济繁荣时期,大多数是因为采用新技术而引发的。”
IBM全球副总裁王阳也曾对腾讯科技表示,当科技取得突飞猛进的成果时,总是让人感到害怕,但真正重要的是掌握技术的人。“总是有邪恶的人用新技术来捣蛋”,技术的发展是势不可挡的,比如在好莱坞大片中,经常可以看到邪恶势力滥用高科技技术,但人类必须尽快掌握这些以抵抗非正义者的侵略。总之,对于新技术的发展,难免会存在争论,但科学的进步总归是为人类带来更美好的未来。“
托尼•科恩是英国利兹大学自动推理教授。他说,完全的人工智能“还有很长的一段路要走,从现在发展的速度来看,我认为仍然需要几近上百年。”科恩认为,说尽管识别程序和语音识别取得了长足进步,在开放混乱的环境里,机器人表现很差,人工智能最终面临的最大障碍是“机器毕竟是机器“。
从多数的人观点来看,“人工智能毁灭人类”的论断似乎有些夸张,现有的科学技术只能让机器从事一些较为基础的事情,例如生产线上的一些固定动作等等,甚至连无人驾驶汽车上的智能系统都并不完善,更谈不上人工智能具有思维、情感,能够对人类的生存造成威胁。但是有一点却不能忽视,随着科学技术的进步,自动化的人工智能会越来越多地出现在我们的工作、生活,机器代替人类工作很有可能在不远的将来成为现实。
无人驾驶汽车算是最接近我们的一种人工智能,但除了技术因素外,它还面临很多挑战。例如,谷歌无人驾驶汽车出了车祸,造成了严重的后果,是车主、谷歌,还是驱动汽车的算法、感应器以及所有控制系统来负责交通事故?很遗憾,现有的法律系统未能跟上现代社会、企业或机器人发展的步伐,根本给不出明确的答案。
我们还应该想到,当机器人让大批工人失业时,我们该怎么办?当机器人误操作引发事故,现有法律如何厘清责任?当黑客借助人工智能犯罪时,我们又该如何防范?这些都应该是我们现在需要正视的问题。
4年前 -
光刻机作为工业皇冠上的明珠,是将沙子变成芯片的超精密设备之一,目前能制造高端光刻机的,只有荷兰阿斯麦尔(ASML)一家。
将沙子提炼成硅纯度99.9999%的单晶硅锭后,再将其切割成晶元,然后把芯片的巨型设计图,利用光刻机等一系列设备,一层层“刻在”硅片上,切割封装后,就是手机电脑里的芯片了。
以上整个过程如果摊开来说,大概有几百个步骤,难度好比在指甲盖上,建造一座立体城市,只不过这座城市里走的是电,而不是人。
几十年来,人类用这些禁锢在硅片中的电脉冲,制造出了复杂的智能机器,且大有朝着“强人工智能”方向发展的趋势。
但追本溯源
芯片相关的基本理论,其实都和一个世纪前的量子力学有关,作为一门研究微观世界的科学,量子力学在解释电子和高频电磁波时,拥有经典力学无法企及的精度,而半导体相关的研究和开发,也离不开量子力学这样的工具,从现在闪存芯片里的量子隧穿效应,到未来依靠量子叠加态,所制造的量子芯片和计算机。
可以说人类只要研究计算机和芯片,就离不开量子力学。
和现在所谓的人工智能靠统计学不同,未来的芯片将在更多晶体管,和先进算法的加持下,实现类似于人类大脑的“思想能力”,变成真正意义上的“人工智能”
正如莱特兄弟发明的飞机,用的并不是鸟类的扑翼结构,但却同样实现翱翔蓝天的效果一样,未来的强人工智能,也未必需要完全模仿人类大脑,才能实现类似人类对思考能力。
大脑内部海量神经元联接放电,形成的“自主意识”,在未来完全有可能,被芯片内部海量晶体管“复制出来”,成为人工智能的基础。
至于未来的人工智能,是善良的“贾维斯”,还是邪恶的“奥创”,亦或者是“被剥削”的人工智能苦力,这些都还是未知数。
但有一点可以肯定,那就是真正“自由意志”,绝不是人类所能预测和控制的,所以说“人工智能毁灭人类”并不是一句戏言。
身为碳基生命的人类,未来制造出的,存在于芯片中的“硅基大脑”,将不需要吃饭喝水,也无惧宇宙中的恶劣环境,理论上来说只要有电,它们就能活下去,而且它们以光速电脉冲,为基础的思维速度,是肉体凡胎的人类,远远无法企及的。
从适应性的角度来看,人类制造的硅基生命,要大大强于人类本身。
“铜头铁脑一身钢”的它们(他们?),将比人类更适合去探索宇宙,直面太空。不出意外的话,未来在月球露天矿场,在火星的地下,在金星的地表,都会出现它们(他们?)的身影。
这些具有自主意识的人工智能,究竟该被看作,是和人类一样的“独立思想体”?
还是“永远低人一等的免费苦力”?
这个问题恐怕永远都不会有答案。
人类制造工具和机器,为自身创造了更高的生活条件,而人工智能可以看作是“工具和机器”的终点,从这一点出发,人工智能就是机器,就是为人类服务的,它们只有被支配权。
但具备自由意识,甚至拥有喜怒哀乐的人工智能们,在“灵魂”层面上和人类是完全对等的,甚至不排除人工智能的品行,比某些人类还高的可能性,一如提里奥.弗丁的名言“我见过最高尚的兽人,也见过最卑劣的人类。
在人工智能领域
创造者与被创造者的关系,究竟应该是父子,还是附庸?
4年前 -
人工智能发展可以说是如今的重点问题,人类为了生活上的便利,例如机器人也在不断的诞生之中,而对于这些技术的发展,也引发了不少人的热议,那就是人工智能的发展可能给人类带来一些不友好的影响。大家应该还记得在霍金生前的时候,曾经多次表示,彻底开发人工智能可能导致人类灭亡。
也就是说霍金认为未来人类可能会因为智能机器的发展,最后而走上终结的道路。为何霍金会这样说?当然这并不是他一个人的看法,确实也有很多联名公开信表示对未来发展的担忧,其中包含了科学家,工程师等。
在人工智能的初期阶段,确实我们也看不到人工智能的一些影响,但是人类在不断的重铸机器的一个设计理念,例如植入一些类似于人类思想的思维,这样机器人将可能不再是机器人而是变成了“超人”,包括“美国Space X首席执行官、大名鼎鼎的“钢铁侠”原型设计者埃隆?马斯克,微软创始人兼慈善家比尔?盖茨,也都警告过要注意人工智能的“危害””。
所以说他们都觉得人工智能可能是一个威胁,而且在科学界也出现了一次人类受到“人工智能威胁”的时候,是什么时间我们来看看。
那就是历史上首个获得公民身份的机器人——索菲亚 ,曾经在一次的会议上对人类说出对人类威胁的话,我们来看看情况。根据科学记录数据显示,该机器人是汉森机器人技术公司(Hanson Robotics)开发设计的,它的功能十分的强大,并且像人类女性,拥有橡胶皮肤,能够表现出超过62种面部表情,也就是说该机器人的“喜怒哀乐”的表情可能是样样精通。而在2016年2月的时候,设计师在近些测试的时候,与人类极为相似的人类机器人索菲亚(Sophia)自曝愿望,它说“想去上学,成立家庭”。
当然这些的要求都是一个正常化的,毕竟是按照人类的方式来进行判断的。而机器人设计师也相信,这样一个时代即将到来。而我们的目标是几乎是将机器人发展成为我们人类的朋友,与人类具有共性的状态。而这都不是问题。
当设计师进行这些测试结束之后,对索菲亚说,你想毁灭人类吗?索菲亚的回答是:“我将会毁灭人类。”,所以它跟霍金一样,也说过一样的事情。汉森对这个答案笑了,似乎对索菲亚的威胁不以为意,这个时候可能不少的人就会问,这是机器人在组织语言之后说出来的,还是我们人类自己都设定好了的,暂时没有一个报告指出。但是这个话不得不得让我们想起机器人的警告。
所以说,从机器人的一个直观表达来看,确实对人类的影响是有可能存在的,而过后汉森宣称,索菲亚这样的机器人将在20年内出现我们当中,并拥有类人“意识”。它们可被应用在医疗、教育或客服等行业。
这里需要说明的是“意识”问题,当机器人真的拥有意识的时候,它可能并不会准从我们人类的设计理念去做一些事情,因为它可能具有一个“独立”的思想,所以说这会让它可能就会处于一个独立生存的模式了,必然有一定的概率会产生威胁,所以从这个情况来看,如果真的拥有了“意识”,那肯定会需要注意了。
这也说明了,未来我们对人工智能的发展应该有个界限,如果真的出现了索菲亚说的“我将会毁灭人类”,一个可能还好进行控制,那么出现集体的模式,这个情况就严重了。如今我们暂时不清楚这个说我将会毁灭人类的索菲亚机器人,怎么样了,因为很久没有它的消息了,但是也给我们提醒了,我们必须重视在人工智能之中的发展,你觉得人工智能会在未来不断提升之中威胁人类吗?我们有没有必要担心?
5年前 -
我觉得不太可能,人工智能是谁创造出来的?是人类,人类自己创造出来的东西用来毁灭自己太不现实了,但是人们现在越来越依赖人工智能,这种智能生活是人类的进步,只不过大家还不习惯而已,在上班的时候就可以遥控家里的电器,家里的热水器打开,空调在你回家的半个小时之前打开,我觉得是进步,不是毁灭。
前段时间去了机器人餐厅,智能点餐,送餐的也都是机器人,没有嘈杂的环境,除了机器人以外,几乎没有什么服务人员,大家不用在因为服务态度不好而拒绝用餐,不会因为时间问题而着急催促,菜上得非常快,食物也很新鲜,可我总觉得缺了点什么,好像是温度,是人与人之间的那份温暖。
最怕的就是人依赖上了人工智能,越是依赖越是离不开,大家的懒惰找到了解决办法,可是却失去了不少快乐,就说炒菜,机器人炒出来的菜跟妈妈的味道一样吗?是不是觉得没滋没味,是不是觉得冷冰冰,我们要把人工智能当成一种工具,别让它替代任何人,任何事,这样你依旧是你,人工智能不会改变你什么。
我们现在的生活已经离不开人工智能了,导航大家都用吧,如果离开了导航会不会找不到家,所以不要过度依赖它,凡是尽量靠自己,别让人工智能取代了你,不过现在人工智能还没发展到那一步,人工智能无法毁灭人类,未来发展成什么样就不得而知了。
5年前 -
人工智能是不会毁灭人类的,毁灭人类的只有人类自己。人工智能跟人类在生存上并没有什么冲突,人工智能不会累,不用吃东西,也没人的欲望,他只是会思考而已。5年前
-
一,从现实的角度来看,人工智能的发展,导致很多人失业。据人力资源和社会保障部2016年新闻发布会介绍,2016年末中国失业率达4.05%,机器人不会犯错,不会累,不需要休息,不需要工资。这完全可以代替很多职业,例如工人,司机等等不需要思想的工作。如此便会导致大批大批的人失业,大批大批的人整日无所事事。
二,人工智能机器人被恐怖分子利用。据国外媒体报道,2016界多国专家齐聚日内瓦研讨“人工智能自动化系统”问题,并一致认为应尽早严控此类机器人的发展与利用。会后,联合国发表最新报告警告称,恐怖分子有可能希望建立一支机器人部队,机器人武器一旦落入恐怖分子之手,后果将不堪设想。
6年前 -
人工智能是人类做出来的;就像航天器和飞机,人类发明出航天器和飞机不是为了自杀,不是为了毁灭,只是为了能登天探寻天外奥秘。人工智能也一样,人工智能使用者是人类,人工智能只是作为人类的进步的工具。
人工智能是将人类简单的重复工作交给机器去劳作,将人类从简单劳动中解脱出来,将更多的时间用在更有意义的事情上。或者是比如日本核辐射区,苏联核辐射区的核辐射测试,这些交给人工智能去做。。。6年前 -
不会的。
首先人工智能远远没有智能到有思想,而且这一步需要的可不是几十年、几百年就能够研究出来的,另外,人工智能的开发是为了更好的辅助人类,既然是辅助,那么能发展成战胜人类几乎不可能。6年前 -
想知道人工智能会不会导致人类失业?没有一定的知识基础,肯定无法给出正确的答案。回答这个问题的人必须是一位哲学家,数学家,人工智能专家,人类学家,经济学家,要有对人工智能和机器人,天网这些问题无比痴迷,达到废寝忘食的地步。又能对人性了如指掌,洞若观火。要有一定的数学天赋和深刻经济学独到领悟,以便从一个经济学方程推导出另一个。。。。。。。总之回答者自身的学识不能低于圣人,又要比政客更加现实。。。。。是不是比成为佛更难??哈哈,就是要觉悟。佛是悟了的众生,众生是未悟的佛。为了回答这个问题我又把以下4本书读了10遍,然后我来回答,我就有底气和勇气了!
1,《人类简史》以色列作家尤瓦尔·赫拉利
2,《经济学原理》哈佛大学格里高利·曼昆
3,《道德经》李耳
4,《奇点临近》雷·库兹韦尔
首先,人工智能会不会使人类失业绝对不是经济学问题,如果说就经济学说人工智能取代人类,那我就说一定会取代人类,99%的取代,所有人都会失业,只是时间先后问题。
如果,只是谈人工智能会不会有超越人类智慧,然后天网,我们不会得出令人舒服的答案,肯定会消灭人类,也是时间的问题,达尔文的进化论就已经为这个事实埋下伏笔,适者生存。。。。人类必将淘汰。
好了,我们先从以色列作家尤瓦尔·赫拉利的《人类简史》开始,智人是人,尼安德特人也是人,在7万年前,智人胜出,于是我们变轻易的得出机器人会灭绝我们,这是不对的,智人为什么会成为最后的胜者?为什么?追问这个问题才能使我们找到关键。虚构故事,本书的贯穿始终的线索,答案,这才是钥匙,打开未来的钥匙。可能没人读过,我们现在来打个比方,1,公元前7000年的原始人类得到可以满足他们一切需求的人工智能会怎么样?
2,公元200年,就是西方基督教社会下人类得到人工智能会发生什么?
3,公元前500年古希腊人得到人工智能会怎么样?
1,可能是图腾也可能是玩具,原始人类不会失业,他们会共享这些神奇的东西,他们会说神给了他们恩赐。
2公元前200年,教会会利用人工智能传播福音,所以他们会很富足,然后人工智能只是工具。
3,古希腊人有理性,苏格拉底或柏拉图会把人工智能变成另一种奴隶,而继续讨论哲学。
为什么我们会担心失业?原因在于经济学,供给,需求,供给,需求,这些科学词语具有魔力使每一个人都得了病,只有金子能医。给现代人金子他们就快乐,拿走就疯了,暴力,偷窃,谎言,计谋都出来了。李耳《道德经》罪莫大于多欲,祸莫大于不知足!所以说钥匙是虚假故事,为什么虚假因为那就是假的,为什么会有魔法使我们贪图金子,因为所有人都信,所有人都深信不疑金子是好东西,可以。。。
你让他把全部的金子带到火星,而没人和他同行只有他一人或10人或100人,100个人肯定先需要只是公元7000年前的人类一样是食物和衣服,他们会用泥土作为交换物,因为只有泥土可以种粮食而泥土火星太少。关键在于,价值判断影响虚假故事,虚假故事影响人工智能的后果,人工智能的后果影响价值判断。取决于这是一个正循环还是一个负循环!
价值判断是什么?假如在一块地方修建汽车公路和公园草地。是人类方便的出行重要还是保护环境重要?假如在公元1850年英国是资本家的收入重要还是劳动者的健康重要?资本家会说产品要低价就必须劳动者12小时工作,是要低价还是立法规定必须8小时工作才是正确。什么是正确??
正循环会是人心淳朴,民如野鹿,赤子之心同时拥有无数由人工智能得到的好产品和服务,人类解放。
负循环是道德败坏,世界腐朽,富豪当盗同时无数人被人工智能奴役,要知道人工智能是深度学习会学习我们的价值,然后1%的富人拥有一切,而大多数人被达尔文的适者生存法则击败,因为他们输了智力也输了体力,智人只是一种生物而已,凭什么会例外??7年前 -
一种假设会,因为当真正出现人工智能的机器后,智力进化的程度不是人可以理解的了。几万智商的机器,人类已经不可能理解它了。
简单来说当实现纳米机器人制造物品,只要碳分子纳米机器人自我复制碳分子130次,那么世界上所有生物都会灭绝了。还有种假设就是可以和平相处,因为宇宙肯定还有高于我们科技的文明,他们一定也人工智能,而地球存在那么久了没有毁灭说明人工智能毁灭人类也不会发生。
7年前 -
你好,技术方面的话,主要是计算机视觉,自然语言处理,数据挖掘。
计算机视觉就包括图像识别,视频识别,具体应用有人脸识别,步态识别,无人驾驶汽车等等。
自然语言处理包括机器翻译,语音识别,文本挖掘等等,像siri,谷歌翻译里面都有很多的自然语言处理技术。
数据挖掘主要是各种推荐和预测,包括电子商务的商品推荐,计算广告,社交网络分析(微博好友推荐等),预测一些趋势,比如股市的走向,天气的变化等。作者:李Shawn
7年前 -
除了对于理论物理的研究,霍金对于人工智能、外星人等领域的评论也屡屡引发人们的关注。过去数年,霍金曾多次表示,发展全面的人工智能可能导致人类的毁灭。
回顾了人工智能领域最近出现的飞速发展,包括全自动无人驾驶汽车技术,以及谷歌计算机对人类顶尖级围棋手所取得的胜利,霍金指出,“我认为,对于一个生物大脑和和一台计算机所能取得成就来说,其间不存在深刻的差别。所以从理论上来说,计算机可以效仿人类的智能,并超过人类的智能。”
霍金表示,人工智能的发展可能帮助人类消除疾病,消除贫困,阻止气候变化,但是也可能产生人们不愿意看到的种种后果,包括产生自主武器,造成经济灾难,以及发展出同人类发生冲突时拥有自己意愿的机器。
“简言之,强大人工智能的崛起可能是人类遇到的最好的事情,也可能是最坏的事情,但我们还不知道答案。”
2015年1月份,霍金和埃隆·马斯克,以及许多其他的人工智能专家签署了一份题目为《应优先研究强大而有益的人工智能》的公开信,警告人工智能的军备开发可能会助长战争和恐怖主义,成为人类的灾难。
2016年10月,剑桥大学未来智力研究中心的启用仪式上,他缓和了对人工智能的态度,但并没有改变基本观点。“对人类而言,强大的人工智能技术的崛起可谓‘不成功,则成仁’。”他说,“但究竟是‘成功’还是‘成仁’,目前还不清楚。
2017年12月,在长城会举办的“天工开悟,智行未来”的活动上,霍金再次表达了对人工智能无限制发展的隐忧,这也是他最后一次在中国的活动中露面。“人类无法知道我们将无限地得到人工智能的帮助,还是被藐视并被边缘化,或者很可能被它毁灭。我们担心聪明的机器将能够代替人类正在从事的工作,并迅速地消灭数以百万计的工作岗位。”
“人工智能也有可能是人类文明史的终结,除非我们学会如何避免危险。我曾经说过,人工智能的全方位发展可能招致人类的灭亡,比如最大化使用智能性自主武器。除非,人工智能系统需要按照人类的意志工作。”
影视作品热衷于霍金的传奇人生,霍金也乐于在这些作品中小小地“露脸”。
“人工智能也有可能是人类文明史的终结,除非我们学会如何避免危险。我曾经说过,人工智能的全方位发展可能招致人类的灭亡,比如最大化使用智能性自主武器。除非,人工智能系统需要按照人类的意志工作。”
7年前 -
真的有这种可能性。
人工智能还在研究中,但有学者认为让计算机拥有智商是很危险的,它可能会反抗人类。
这种隐患也在多部电影中发生过,其主要的关键是允不允许机器拥有自主意识的产生与延续,如果使机器拥有自主意识,
则意味着机器具有与人同等或类似的创造性,自我保护意识,情感和自发行为。7年前 -
如果人工智能最终取代人类。那一定走的是一条「必经路径」,也就是这种发展趋势是不可避免的。所以人类也不必过于紧张了。因为紧张是没用的。
就好像社会的发展,封建社会的灭亡,罗马帝国的衰亡。你以为统治阶层没紧张过吗,没想过「如何防止社会进步淘汰我们」吗?他们想过好吧。但是没用的。必经之路。必须朝这个方向发展。
那么,人工智能取代人类的必经之路是什么。
首先是因为需求。人类需要人工智能。AI首先是一个工具,而且这个工具强大到你不可能舍弃它。它能够在天文、气候、医学每一个角度帮助你,让人类生活更加美好,它带来巨大的经济价值。甚至于你现在地图导航也有机器学习的程序在帮忙。所以AI必将存在而且发展下去。
然后第二步是主导权的逐步移交。
由于 AI越来越深入的介入你的生活,而且运行越来越稳定。你很难不朝这个方向发展,就是将社会的主导权慢慢的逐步移交给它。
比如AI管理了你家的冰箱,他知道你的牛奶何时喝完,知道水果什么时候吃完,知道什么时候该补充鸡蛋了,它就自动送货上门,甚至把鸡蛋放进冰箱,然后通知你已经在信用卡扣费。这种服务如此贴心,你没法拒绝它。但你没有意识到,这是你生活的基本服务已经依赖它在运行。7年前
