人工智能能否支配人类?人工智能会取代人脑吗?
-
人工智能的发展与人类意识的关系:
1、人类同机器的关系永远是制造与被制造、支配与被支配、使用与被使用的关系,而不是相反。认为机器思维能够完全取代人脑,人工智能能够战胜人类智能,机器人将会统治世界的观点是没有根据的。
2、人工智能虽不能完全代替人类智能,但它在延长人的大脑,扩大人的智能,放大和部分代替人类脑力劳动方面的作用是不可估量的。
3、人工智能可以代替甚至超过人脑的部分思维能力。但是,人工智能绝不会取代、超越人的意识。
发展方向
《重大领域交叉前沿方向2021》(2021年9月13日由浙江大学中国科教战略研究院发布)认为当前以大数据、深度学习和算力为基础的人工智能在语音识别、人脸识别等以模式识别为特点的技术应用上已较为成熟,但对于需要专家知识、逻辑推理或领域迁移的复杂性任务,人工智能系统的能力还远远不足。
基于统计的深度学习注重关联关系,缺少因果分析,使得人工智能系统的可解释性差,处理动态性和不确定性能力弱,难以与人类自然交互,在一些敏感应用中容易带来安全和伦理风险。类脑智能、认知智能、混合增强智能是重要发展方向。
2年前 -
人工智能是永远也取代不了人类,理由如下:1、人是高级生物,拥有智慧和思想。而机器是不具备这个能力的,电脑只能执行人类预设的指令。2、之所以说电脑具有“智力”,例如下棋比人都厉害,是因为人类已经提前通过互联网上海量大数据收集,不断训练,“教”会了电脑具备各种棋局的最佳判断,因此这不是电脑的智力,是电脑的海量存储和处理能力的优势决定的,因此人工智能是不可能取代人类的。3、人工智能只能在固定领域处理某一类特定的问题,实质还是按照人类的预置的固定算法通过比对由人工提前标记好的数据来工作的。2年前
-
不会完全取代,未来将有47%的工作被机器人取代。
和人脑相比,人工智能算法应对数值和符号计算更加精确快速,稳定可靠。特别是对于有确定规则的计算问题,人工智能可以远远超出人脑的计算速度,也更容易找到最优的解答。比如,在数值计算,图形、语音、生物特征、行为姿态等方面的识别,甚至更加复杂的预测推理任务方面,人工智能都有超越人脑的优秀表现。
人工智能不具备感性思维,无法跨越到意识领域。当前的计算机架构和编程模式具有本质上的劣势,使得人工智能无法实现与人脑情感、意志、心态、情绪、经验等方面的自然交互。本质上,人工智能仅仅是物质世界范畴的概念,无法跨越到意识领域。
在一个真正实现人工智能的工作场景中,传统劳动者也并未被‘下岗’,只是改变了角色而已。仍然需要人类对人工智能的表现进行监控,进行情报采集与分析,以及开展预测性的实验与评估,引导性的过程管理与控制。
相信将来人类90%以上的工作是由人工智能提供的,就像今天我们大多数的工作是由计算机和各种其它机器提供的一样。
3年前 -
相比专业人工智能只擅长做特定的事情,人类的大脑有着更大的通用性,人类可以应对各种各样的环境,这种能力是与生俱来,无需学习。目前来看,具备类似人脑这种能力的通用人工智能依然任重而道远。
和人脑相比,人工智能算法应对数值和符号计算更加精确快速,稳定可靠。特别是对于有确定规则的计算问题,人工智能可以远远超出人脑的计算速度,也更容易找到最优的解答。比如,在数值计算,图形、语音、生物特征、行为姿态等方面的识别,甚至更加复杂的预测推理任务方面,人工智能都有超越人脑的优秀表现。
人工智能影响:
1、人工智能对自然科学的影响。在需要使用数学计算机工具解决问题的学科,AI带来的帮助不言而喻。更重要的是,AI反过来有助于人类最终认识自身智能的形成。
2、人工智能对经济的影响。专家系统更深入各行各业,带来巨大的宏观效益。AI也促进了计算机工业网络工业的发展。但同时,也带来了劳务就业问题。由于AI在科技和工程中的应用,能够代替人类进行各种技术工作和脑力劳动,会造成社会结构的剧烈变化。
3、人工智能对社会的影响。AI也为人类文化生活提供了新的模式。现有的游戏将逐步发展为更高智能的交互式文化娱乐手段,今天,游戏中的人工智能应用已经深入到各大游戏制造商的开发中。
以上内容参考 百度百科—人工智能、人民网—人工智能时代来了 专家:不可能完全替代人类
3年前 -
作者:刘明河
近期,警惕人工智能的文章和报道越来越多,甚至有人宣称“随着计算机运算能力增强,强人工智能将在我们的有生之年出现,给人类文明带来前所未有的冲击”,这些看似有理有据的观点深入人心,很多人甚至心生恐惧,担忧起了自己的未来。
人工智能真的会对人类产生如此大的威胁吗?
【困难重重】
对于人工智能这个过于庞大的概念,我们将它区分成弱人工智能(weak AI,或Narrow AI)和强人工智能(Strong AI或General AI)。
弱人工智能是处理特定问题的人工智能,AlphaGo就是一个专门下围棋的弱人工智能,iPhone里的Siri是一个专门语音识别的人工智能,Google的搜索框里也藏着一个专门提供搜索建议的人工智能——多亏了如今盛极一时的“人工神经网络”,我们已经愉快地发现,弱人工智能表现得非常出色,在某些时候真的比人类还要高效。
与之对应的,强人工智能模拟了完整的人类心智,我们通常会用能否通过“图灵测试”看作强人工智能的判断标准,但这样的人工智能直到今天仍未实现。另外,我们还进一步遐想了“超人工智能”这个概念,顾名思义,就是比人还睿智的人工智能,也就是科幻艺术和大众媒体中最担心的那种情形——但在人工智能的实践上,我们恐怕要说这更接近盲目乐观,追求的强人工智能的征途绝不像一些未来展望者那样,近在咫尺,迫在眉睫,数不清的艰难问题还等着我们攻克。
我们遭遇的第一个问题就是计算机的运算能力。
细胞虽小,却异常复杂,神经元尤其如此。在最微小的尺度上,一个神经元有成千上万个突触与其它细胞连接,释放或接受神经递质,识别数百种独立的活动,随后发出高速传导的神经兴奋,在整个大脑内激起复杂而不确定的反馈,有些突触还可以直接向脑脊液中释放递质和激素,在全身范围内引发更大尺度的反应——时至今日,人类发现细胞已近400年,即便动用最强大的超级计算机,也只是静态地构建出了一个突触的微观结构,真要模拟它完整的活动还无能为力——而人脑大约有860亿个神经元。
当然,神经科学与计算机科学的交叉处也的确有了些令人瞩目的成果,比如为人称道的,我们标记了隐杆秀丽线虫(Caenorhabditis elegans)302个神经元的连接方式,大约在2014构建了一个“开放蠕虫”的项目,试图用计算机模拟出一个等效于实体的虚拟线虫——但这个项目才刚刚起步,尚未收获成果,而且这个研究对象也是出奇的简单:它雌雄同体,全身固定有959个细胞,每个细胞的行为都专一且固定,神经活动非常单调,我们因此得以详细地观察它,用现在的手段模拟它们。
但是如果因为这一点星光就以为破晓来临,以为秀丽线虫的神经节与人类的大脑只是神经元的数目有所差异,只要计算速度够快就能实现质的飞跃——那就未免太天真了。
我们还会遇到动力学参数的壁垒。
如我们提醒过的,以现在的技术,我们还不能模拟神经元的完整活动,让它们在虚拟世界里自主地运动起来。只是在这个项目中,我们既然已经知道了线虫神经的连接方式,就能人为地给这些连接赋予动力学的参数,让这些虚拟神经元活动起来,逼真地模拟一条线虫。就像做题虽然不会,但是拿着答案倒推,也能猜个八九不离十——所以我们称这种做法是自底向上。
然而在目前阶段,不但我们还是个相当差的学生,离开了答案就寸步难行;而且我们遇到的问题也是空前的难题,根本没有现成的答案。
线虫的神经与人类的大脑,就像口中呼气和超级台风,它们之间绝不只是数量的差异。当基本单元通过种种联系形成复杂的系统,就会在更大的尺度上展现出新的结构。我们很早就对小尺度上的流体运动有了清晰的认识,但这并不代表我们可以从中推导出台风的运动规律。
首先的,线虫的个体差异极小,不同个体的细胞排列方式完全一样,所以作为一种全身透明的实验动物,我们很早就弄清楚了它们神经连接的方式。但人脑完全不是这样,我们拥有数量巨大的神经元,个体差异很大,而且可塑性极强,这令每个人大脑内的神经元连接方式都不一样——换句话说,一个具体的神经元怎样连接不重要,重要的是数量巨大的神经元如何组织成一个复杂的机体。
然而1个神经元、10个神经元、100个神经元、1000个神经元……每增加一个数量级,神经元的活动都会涌现出新的运动规律,从最小层面上神经元处理兴奋的方式,到不同递质的通路的组合方式,到处理不同信息的细胞构成功能模块,到大脑中不同功能区域的协作方式,都是我们必须面对的难题,虽然这些动力学的研究也正在热火朝天的研究中,但这样的研究不可能达到“指数上升”的速度,我们重建人脑的进程也就不能达到指数上升的速度。
所以先不论计算机科学能否一马平川地进步下去,即便计算机运算速度真的能指数上升,也无法在可以预见迅速地模拟出一个人脑:在神经科学和脑科学臻于高度成熟之前,大脑永远是一个黑盒子,我们要想知道大脑在具体的智力活动中在不同层面各自发生了怎样的事情,还困难重重。而且更加现实的情况是,随着我们对人脑的认识逐渐扩大,我们会发现越来越多的新问题。
我们知道的越多,就越发现自己无知,然而糟糕的是,真正的难题还在前方虎视眈眈——我们需要新的计算机原理。
必须意识到,在能否实现“智力”这个巨大的问题上,计算机的运算速度并不是决定性的。以当今的动物界而论,非洲象、长肢领航鲸,它们的大脑都比人的更重,神经元的数量也更多,为何偏偏缺乏智力?在相同的解剖基础上尚且如此,原理完全不同的电路元件,又该如何?
电路元件以金属和半导体为元件,获得了接近光速的信号传递速度,这比起神经元的冲动的确快多了,但也单调多了。电路元件的任何一次反应都只能得到固定的结果,只能在和、或、且的基础上展开一阶逻辑演算,今天,以及未来可以预见的一切计算机程序,都是不同复杂程度的一阶逻辑演算。
“一阶逻辑”已经非常强大,给今天的人类带来了整个21世纪的信息时代,但它只能从几个初始数据开始,根据预存的指令步步推导,绝不越雷池一步。这给计算机带来了那种可贵的可靠性,但也令它失去了更可贵的抽象、推理、创造——我们必须能够定义谓词的二阶和高阶逻辑。
举个例子,面对“a+b”这样的命令,计算机只会按照加法的规则,把a和b加起来,但是对于具有二阶逻辑的人,我们还会思考加法的意义,询问“加法是怎样一种运算?”,接着,我们还会能在三阶逻辑中思考“运算”的意义,询问“怎样规定一类运算?”,进一步的,我们又会在四阶逻辑中思考“规定”的意义,询问“数学上什么样的行为称得上规定?”。
这样的追问可以无穷地回溯下去,理论上,人类的思维可以实现“无穷高阶逻辑”,我们已经在整个哲学史上持续不断地展现了这种能力。对于普通人,我们也可以尝试一个计算机无论如何做不到的思维游戏:随便思考一件事,然后思考“我正在思考这件事”,然后思考“我正在思考‘我正在思考这件事’”,然后思考‘我正在思考“我正在思考‘我正在思考这件事’”’……虽然很费脑子,但我们在理论上也可以无穷地递归下去。
是的,如今所有的计算机都是一阶逻辑,或许在某些实验室里还有二阶逻辑的尝试,但无论怎样,高阶逻辑问题不能规约成低阶逻辑——我们绝不能用加法本身说明什么是加法,这就好像在电视机上做电视机的广告。
也就是说,我们即便动用了空前的计算能力,以不可思议的工作量找到了大脑中的每一个参数,但只要计算机原理不变,就是在用低阶逻辑模拟高阶逻辑——这在数学上不可能,程序员们会发现某些关键的参数无法定义,那个辛苦模拟出来的大脑仍然是个弱人工智能。
这是一个尖锐的问题,即便在另外一些规划中的道路上,用进化算法也好,用其它方式建模也好,它都会横亘在我们的前途中。我们需要一种革命性的计算机,能够实现高阶逻辑的演算,但是在所有已知的事物中,就只有大脑能做到这件事,这就带来一种新的困境:要模拟大脑需要新的计算机,要研究新的计算机就要深入了解大脑。这当然不是无法解决的问题,就好像制造新的机器需要新的材料,合成新的材料需要新的机器,我们在科技进步史上已经邂逅了无数次,没有理由认为我们会败给这一次,但也要做好思想准备,因为这将是一条漫长的路。
这样或者那样的问题会接踵而至,人工智能作为这时代最复杂的应用科学,没有理由认为我们能以逸待劳地只凭计算机科学的进步就让一切问题迎刃而解,更何况退一万步,我们还有一个更加现实的问题要面对。
【伦理障碍】
对与任何革命性的新技术,伦理都是最现实的问题,我们此前目睹了避孕措施对伦理的冲击,就以为伦理在技术面前不堪一击,这就未免太低估了伦理的力量,像“知情权”这样毫无意义的概念被煽动家利用起来蛊惑人心,都可以在食品安全领域掀起巨大的波澜,那么从今天开始数十年乃至上百年对人工智能的担忧积累起来,无论合理还是不合理,都会形成强大的伦理氛围,阻遏强人工智能的研究。
先不论“人工智能灭绝人类”这样惊悚的事情,就以最现实的问题来说,公众一定会关心强人工智能是否具有情感,是不是有了心脏的铁皮人,然而这却是强人工智能的定义中不曾提及的问题。
与其它意识活动不同,人类丰富而细腻的感情是人类作为一种社会动物,协调群体关系时的进化产物,并非智力的必需品。一个强人工智能未必真的具备这些特质,但他一定可以理解这种行为:想象成一个人先天性地没有任何感情,但以细致的观察和精湛的模仿成为了一个无可挑剔的表演家,在舞台上无论是哭是笑,心中都绝无一丝涟漪,犹如用肢体和表情肌完成了最复杂的体操——这大约就是电影《机械姬》中的情形。
长期以来,感情被认为是自由意志最关键的特质,所以我们不得不想象在那样的未来,分辨强人工智能是真的拥有感情还是在逢场作戏,抑或这两种情况并没有区别,都将会成为人工智能领域最重大的课题,也是人类面对自己时最深刻的拷问——无论哪一种结局成真,都意味着一个旧伦理的世界不复存在:我们要不要承认它是一个人?进一步的,“他”是否适用实体法,可以拥有最基本的人权?我们还能不能把“他”囚禁在实验室里?
我们接着就会设想,强人工智能如何利用自己的感情获取人类的信任,争取平等的对待,争取公民权的运动。强人工智能的感情或许只是一层伪装,但人类心底那种与生俱来的同情和善良却是毫无争议的事实,在这样的未来图景之下,强人工智能的研究几乎必然招致严格的限制,就像我们如今对待克隆技术时的做法:我们在上个世纪就掌握了克隆哺乳动物的技巧,但是在可以预见的未来里,这个世界上都不会有克隆人降世。
或者更武断地说,无论技术是否成熟,我们都不会允许一个拥有完全心智的强人工智能轻易问世,我们可能会在全球最重要的实验室里有限额地研发几个被严重削弱的强人工智能,成为认知科学和计算机科学的珍惜样本,如果要想象强人工智能诞生在民用领域,就像《机械公敌》或者《西部世界》那样,就未免不切实际了。
最后,我们要再次反省一下预测未来这件事:一个平静的社会大概激不起人们什么兴趣,所以我们总是在变革的浪潮中“高瞻远瞩”,但是我们忘了,科学革命或许加快了人类探索和改变世界的速度,但人类的认知过程从来都不是一帆风顺。旁观者赞美收获时的成就,却很少理会耕耘时的艰辛,盲目乐观是他们永远无法摆脱的缺陷。
4年前 -
两年前,一场人机围棋大战,谷歌公司的人工智能程序(AlphaGo)阿尔法狗名扬全球,全世界的目光都汇聚到了科学技术的前沿——人工智能。
人工智能是计算机学科的一个分支,主要研究如何使计算机模拟人的某些思维过程和行为,被誉为“二十一世纪三大尖端技术” 之一。科学家开展人工智能的研究已有几十年的历程,最近几年,随着云计算、大数据、深度学习等新技术的提出和应用,使得人工智能飞速发展,在一些领域达到了可以与人类大脑“叫板”的高度。
人工智能的热点研究方向是,机器的深度学习,AlphaGo的取胜也主要是通过“深度学习”而致胜。深度学习,它源于神经网络理论,目标是让计算机像人一样具有自学能力,可从大量的数据中自行总结出某种事物的特征。在准备此次人机大战过程中,AlphaGo背后的一群人工智能领域的专家把围棋高手的比赛记录输入给它,然后AlphaGo根据深度学习程序进行3000万步的自学习训练。在经过自学习训练后,AlphaGo便能轻松地判断棋手下一步的走法。
当前的人工智能发展,其具有计算能力强、记忆能力强,学习能力强的特点。而围棋又是一个在特定时间内给出相对最优解法的游戏,在这方面人工智能与人类大脑相比,优势明显。同时,人类在心理抗压能力、精力持久性上与AlphaGo相比无疑也处于下风。因而,在人机围棋大战中,AlphaGo战胜韩国棋手李世石也是在情理之中。
人工智能具有计算能力强、记忆能力强、学习能力强的特点,但是它缺乏人类的思考能力、应变能力以及创新能力。我们回顾一下那次的人机大战,在第四局中,李世石巧妙地营造出了一种欺骗性模式,扳回一局。这来之不易的胜利说明,AlphaGo人工智能的应变性明显不足,无法很好地处理完全未知的情景。就目前人工智能的发展水平而言,它能够自己去“学习”,还不能自己去“思考”。而在现实世界中,未知的情况、态势的变化,没有“思考”是不行的。而且人工智能的本质其实也是一种计算机程序,计算机程序就意味着有被破解和植入病毒的危险,所以人工智能只能作为人类大脑的一个延伸工具,而不是取代人类大脑。
5年前 -
人工智能是不能够取代人类的,因为人工智能是由人类所创造的,他不能够取代人类。6年前
-
如果人工智能最终取代人类。那一定走的是一条「必经路径」,也就是这种发展趋势是不可避免的。所以人类也不必过于紧张了。因为紧张是没用的。
就好像社会的发展,封建社会的灭亡,罗马帝国的衰亡。你以为统治阶层没紧张过吗,没想过「如何防止社会进步淘汰我们」吗?他们想过好吧。但是没用的。必经之路。必须朝这个方向发展。
那么,人工智能取代人类的必经之路是什么。
首先是因为需求。人类需要人工智能。AI首先是一个工具,而且这个工具强大到你不可能舍弃它。它能够在天文、气候、医学每一个角度帮助你,让人类生活更加美好,它带来巨大的经济价值。甚至于你现在地图导航也有机器学习的程序在帮忙。所以AI必将存在而且发展下去。
然后第二步是主导权的逐步移交。
由于 AI越来越深入的介入你的生活,而且运行越来越稳定。你很难不朝这个方向发展,就是将社会的主导权慢慢的逐步移交给它。
比如AI管理了你家的冰箱,他知道你的牛奶何时喝完,知道水果什么时候吃完,知道什么时候该补充鸡蛋了,它就自动送货上门,甚至把鸡蛋放进冰箱,然后通知你已经在信用卡扣费。这种服务如此贴心,你没法拒绝它。但你没有意识到,这是你生活的基本服务已经依赖它在运行。7年前 -
(1)人工智能是指用电子计算机来模拟和代替人脑的某些功能和智能。电脑的出现,使得人工智能有了突破性的进展。电脑不仅能代替人脑的某些功能,而且在速度和准确性上大大超过人脑,它不仅能模拟人脑部分分析和综合的功能,而且越来越显示某种意识的特性。真正成了人脑的延伸和增强。
(2)电脑的发展和广泛使用,迅速有力地推动了人工智能的发展,产生了巨大而深远的意义。
第一,巨大的哲学意义。对于唯物主义哲学来说,有一个问题非常值得研究,这就是:那种看来完全没有感觉的物质,跟那种由同样原子(或电子)构成的却具有明显感觉能力的物质是如何发生联系的?电脑的出现对于这个问题的解决向前迈进了一大步。因为电脑主要是一种机械的电子的运动,组成电脑的物质本身是无感觉能力的,而电脑所显示出来的功能不仅超过感觉,甚至达到了一定程度的思维。这个进步不仅对于解决无感觉的物质如何进到有感觉的物质非常重要,而且有力地证明了意识根源于物质这一唯物主义观点……
我理解的人类智能的那种学习过程是一种进化的过程,即由简单而复杂的自我成长过程。同时,我觉得人的这种智能系统的自组织过程完全依赖于其规模极其庞大的神经组织,在人的大脑中是不存在所谓软件的,即人脑的功能可以说是完全由”硬件”实现的,只不过那是能够自组织的生物”硬件”。尽管人的大脑中没有所谓软件的概念,但是大脑与神经系统的自组织自学习的这种”硬件”工作的过程能不能抽象成一个算法呢?即人脑的这种”硬件”结构所具有的功能能不能以我们所理解的软件实现呢?这样我便不得不再次提到计算理论的问题。我们现在的算法概念是基于图灵计算模型定义的,于是问题的关键便在于图灵计算模型的能力与人的大脑的能力相比是否等价(或超过)?只有保证了这种等价性,我们才有可能(还不是一定)基于图灵计算模型设计出与人类智能产生过程效能上等价的算法。也就是说图灵机与人脑的等价性是功能上等价于人脑的算法存在的必要条件。所以说物质基础是前提,这绝非是哲学上的空谈。
那么图灵计算模型与人脑是否等价呢?我们已经知道,那种将人脑看成离散的自动机的看法实际上早已过时。但我们也许又会问,尽管大脑不是离散性的,但是它到底能不能够与某种也许很复杂但终究是离散的自动机等价呢?好了我们已经知道,任何离散的形式化的自动机其能力都不会超过图灵机,这样问题又回到了本段开头:图灵计算模型在能力上到底与人脑等价与否?现在,我只能说这个问题确实是一个大问题。要严格地证明两者等价与否首先得能够将人脑形式化地描述出来,而这在现阶段显然是不可能的(以后也难说),因为这需要对人脑的完全透彻的理解(而且即使有了透彻理解,到底能不能形式化地将这种理解表述出来又是一个问题)。对于这个等价性的问题,现在的我们唯一可以肯定仅仅是人的大脑的确是极其复杂的。而我对这个证明的态度是悲观的,但是同时在这个问题上,我对超越图灵机的计算理论的能力并不悲观。
7年前 -
人工智能在某种程度上是大于百分九十以上的人类大脑,人工智能数据库的装载远远超越常人的知识量。但相对于控制人工智能的人来说,人工智能不能比!
上述的比较可以看出,人工智能的优势和对比。取代人脑也只是由控制人工智能的人来取代并非人工智能取代!8年前 -
就目前的处理器,还不可以,但是不排除以后可以像人一样思考。
以前阿法狗的那场围棋,据说仅仅交电费就得3000美元,cpu的数字不知道,但是肯定不少。
所以说,人工智能,像人一样思考并不是不可能,只不过,我们的cpu还是太垃圾8年前 -
目前来说,超越人脑还不可能实现。现在的人工智能虽然发展速度惊人,但只是计算和分析方面。要想超越人脑,必须让计算机拥有情商,也就是感情色彩。现在还没有哪家计算机公司在这方面有所突破。8年前
-
不可能的。
人工智能(Artificial Intelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。 人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能从诞生以来,理论和技术日益成熟,应用领域也不断扩大,可以设想,未来人工智能带来的科技产品,将会是人类智慧的“容器”。人工智能是对人的意识、思维的信息过程的模拟。人工智能不是人的智能,但能像人那样思考、也可能超过人的智能。
人工智能是一门极富挑战性的科学,从事这项工作的人必须懂得计算机知识,心理学和哲学。人工智能是包括十分广泛的科学,它由不同的领域组成,如机器学习,计算机视觉等等,总的说来,人工智能研究的一个主要目标是使机器能够胜任一些通常需要人类智能才能完成的复杂工作。但不同的时代、不同的人对这种“复杂工作”的理解是不同的。
9年前
