怎么开发人工智能?人工智能能否战胜人类?

皮皮 美股 51

回复

共12条回复 我来回复
  • 米米妈的头像
    米米妈
    这个人很懒,什么都没有留下~
    评论

    人工智能(AI)取代阁下工作好像是明日发生就要发生的事。曾任职微软(Microsoft)和Google 的李开复说很多职位将被取代,牛津大学说10 年后近半美国职位将处于高度自动化(即人类无得捞);尽管不少人学者认为AI 消灭工作但同时创造新工种。不如简单点:看看有那些工作会因为人工智能发展而吃香。

    研究构构Tech Pro 引述求职网站Indeed 数据,列出6 大待遇优渥的AI 工种,包括:机器学习(Machine Learning)工程师、数据科学家、研究科学家、科研专家、商业智能(BI)开发员、电脑视觉工程师,以上职位平均年薪逾136,000 美元)。心动吧?很明显,以上只是反映美国数据(惟香港情况应相差不远),求职者亦需要先经学术训练才能胜任AI 工作。

    人工智能类工种需要的技能当然包括编程,C / C++、Java、Python 等编程语言背景是基本,因这跟机器学习有关,有自然语言处理(NLP)技术等经验更佳。还有不要忘记:数学。AI 正正涵盖高等数学及资讯科技知识,如:线性代数、矩阵、凸优化(Convex Optimization)、概率论。未掌握以上基础,逻辑能力和分析能力便无从建立,遑论以AI 研发为职业。

    除了科学技术,要做成功的「AI 从业员」,最好也学习商业知识,如把机器学习模型结果转化为企业或消费者可用的系统;多参加交流会议、阅读近期科学出版物,对吸收新知识应付日益复杂的环境也很重要。

    Gartner 早前发表报告预计,人工智能将消灭180 万职位,但到2020 年又会在新兴领域创造230 万个工作岗位;Capgemini 调查又指,83% 受访公司表示因打算或正采用AI 技术而需开新职位。因此,机会总是有的,但如何令它属于你,便要懂得如何装备自己。

    3年前 0条评论
  • 涵涵妈妈的头像
    涵涵妈妈
    这个人很懒,什么都没有留下~
    评论

    按现在的科技这样发展下去,人工智能是有可能超越人类的。

    1956年夏季,在美国达特茅斯学院举行的一次重要会议上,以麦卡赛、明斯基、罗切斯特和申农等为首的科学家共同研究和探讨了用机器模拟智能的一系列问题。

    首次提出了“人工智能”这一术语,它标志着人工智能这门新兴学科的正式诞生。此后,人工智能在发展历史上经历了多次高潮和低潮阶段。

    在1956年人工智能被提出后,研究者们就大胆地提出乐观的预言,达特茅斯会议的参与者之一赫伯特·西蒙(Herbert Simon)还做出了更具体的预测:10年内计算机将成为国际象棋冠军,并且机器将证明一个重要的数学定理。

    西蒙等人过于自信,其预言没有在预测的时间里实现,而且远远没有达到。这些失败给人工智能的声誉造成重大伤害。

    1971年,英国剑桥大学数学家詹姆士(James)按照英国政府的旨意,发表了一份关于人工智能的综合报告,声称“人工智能研究就算不是骗局,也是庸人自扰”。

    在这个报告的影响下,英国政府削减了人工智能的研究经费,解散了人工智能研究机构。人工智能的研究热情第一次被泼了冷水。

    20世纪90年代,以日本第五代机器人研发失败和神经网络一直没有突破为代表,人工智能进入了第二个冬天。

    直到21世纪初,深度学习与互联网大数据结合才使人工智能又一次迎来新的春天。在阿尔法围棋等大量突破性成果涌现之后,人类对机器(AI)能否超越人类的问题又重新燃起了热情。狂热的情绪背后甚至产生了人工智能威胁论。

    谷歌技术总监、《奇点临近》的作者雷·库兹韦尔(Ray Kurzweil)预言人工智能将超过人类智能。他在书中写道,“由于技术发展呈现指数级增长,机器能模拟大脑的新皮质。

    到2029年,机器将达到人类的智能水平;到2045年,人与机器将深度融合,那将标志着奇点时刻的到来。”除此以外,支持人工智能威胁论的代表人物还包括著名物理学家霍金、微软创始人比尔·盖茨、特斯拉CEO马斯克等。

    2014年12月2日,霍金在接受BBC采访时表示,运用人工智能技术制造能够独立思考的机器将威胁人类的生存。霍金说:“它自己就动起来了,还能以前所未有的超快速度重新设计自己。人类呢,要受到缓慢的生物进化的限制,根本没有竞争力,会被超越的。”

    特斯拉CEO马斯克对待人工智能的态度比较极端,2014年8月,他在推特上推荐尼克·波斯特洛姆的著作《超级智能:路线图、危险性与应对策略》时写道:“我们需要重点关注人工智能,它的潜在危险超过核武器。”

    2017年10月,日本著名风险投资人孙正义在世界移动大会2017上表示,他认为机器人将变得比人类更聪明,在大约30年的时间里,AI的智商将有望超过1万点。相比之下,人类的平均智商是100点,天才可能达到200点。

    孙正义说:“奇点是人类大脑将被超越的时刻,这是个临界点和交叉点。人工智能和计算机智能将超越人类大脑,这在21世纪肯定会发生。我想说的是,无须更多的辩论,也无须更多怀疑。”

    在人工智能威胁论热度日益高涨的情况下,人工智能领域的科学家对人工智能威胁论提出了反对意见。2014年4月,脸书人工智能实验室主任,纽约大学计算机科学教授杨立昆在接受《波普杂志》采访时发表了对人工智能威胁论的看法。

    他认为人工智能的研究者在之前很长的一段时间都低估了制造智能机器的难度。人工智能的每一个新浪潮,都会经历这么一段从盲目乐观到不理智最后到沮丧的阶段。

    杨立昆提出:很多人觉得人工智能的进展是个指数曲线,其实它是个S形曲线,S形曲线刚开始的时候跟指数曲线很像,但由于发展阻尼和摩擦因子的存在,S形曲线到一定程度会无限逼近而不是超越人类的智商曲线。

    未来学家们却假设这些因子是不存在的。他们生来就愿意做出盲目的预测,尤其当他们特别渴望这个预测成真的时候,这可能是为了实现个人抱负。

    3年前 0条评论
  • 可爱宝宝的头像
    可爱宝宝
    这个人很懒,什么都没有留下~
    评论
    不会的。
    首先人工智能远远没有智能到有思想,而且这一步需要的可不是几十年、几百年就能够研究出来的,另外,人工智能的开发是为了更好的辅助人类,既然是辅助,那么能发展成战胜人类几乎不可能。
    7年前 0条评论
  • lovelysnowbird的头像
    lovelysnowbird
    这个人很懒,什么都没有留下~
    评论
    基础型:
    1.数据库
    2.高效率的搜索引擎。
    提高型:
    如果想做一个能够有一定学习能力的还要有一个知识系统,就是将数据库中的未知知识,在第一次提出问题并且输入正确答案后自动整理收纳到数据库中,在下一次提问时能够做出正确答案。如果想要再深入的就要涉及到模式识别了,就是知识的模糊判断,简单说就是把“一”识别成”1″。
    7年前 0条评论
  • 玩趣~小飛的头像
    玩趣~小飛
    这个人很懒,什么都没有留下~
    评论
    一切都是未知的,从目前智能科技发展来看,是不可能完成的事情,现有的智能科技不过全部都是按照人的思维来完成某一项工作而已,他们不存在自己的思想,不能独立思考。但是科技的发展脚步非常的快速迅猛,谁也不知道在将来的某一天智能科技会发展成一个什么样子 ,那一天或许会很遥远,亦或许就在明天……
    7年前 0条评论
  • 小乖爸爸的头像
    小乖爸爸
    这个人很懒,什么都没有留下~
    评论
    首先,人工智能是不可能建立在现代计算机基础上的。因为现代计算机的一切都是需要人给出模式的。它不可能有创造性的思维能力。
    关于人脑和人工智能,著名的歌德尔定理就一直在被运用到这一领域。计算机到现在有了极大的发展,但是基本原理还是冯·诺依曼提出来的,只是速度和效率大大提高了。从根本上说,计算机的程序,就是一种基于2进制数字运算的命题演算系统。其中给出的公理是有限的,规则是可计算,而判定出命题的真伪时,输出结果,停机并转向下一个命题的处理。这就符合了哥德尔第一不完备定理的条件。可如该定理所说,这样的系统必然是不完备的,也就是说至少有一个命题不能通过这样的“程序”被判明真伪,系统在处理这样的命题时,就无法“停机”,用俗话说就是被“卡”住了,永远不能绕过(举个很简单的例子,就是计算圆周率,永远计算不出结果)。无论你怎样扩充公理集,只要是有限的,这个现象就始终存在。而无限的公理集对于计算机来说,就意味着无限大的存储空间,这显然是不可能的。因此,有些数学家,如彭罗斯就认为,这表明了计算机是有致命缺陷的,而人类的“直觉”不受该定理的限制,所以计算机永远不可能具有人脑的能力,人工智能期望中的真正具有智慧的“电脑”,只不过是如“皇帝的新衣”那样的“皇帝的新脑”。关于这个问题的详细情况,可阅读彭罗斯的《皇帝新脑》。
    为什么人脑与电脑有这样的根本差别呢,彭罗斯认为可能是量子力学不确定性和复杂非线形系统的混沌作用共同造成的。但也有的数学家并不这样认为,他们指出,人脑就基本意义和工作原理来说,与人工智能原理的“图灵机”无根本差别,电脑也存在上述两种作用,这就说明人脑也要受到哥德尔定理的限制。两者间的差别,可用包含非确定性的计算系统说明,就是所谓的“模糊”处理。人脑正是这样的包含了非确定性的自然形成的神经网络系统,它之所以看上去具有电脑不具备的“直觉”,正是这种系统的“模糊”处理能力和效率极高的表现。而传统的图灵机则是确定性的串行处理系统,虽然也可以模拟这样的“模糊”处理,但是效率太低下了。而正在研究中的量子计算机和计算机神经网络系统才真正有希望解决这样的问题,达到人脑的能力。
    对于电脑是“真脑”还是“皇帝的新脑”,还存在很大的争议,有很多的问题需要解决,很多都是现在世界上的顶尖科学家研究的尖端课题。各方面研究都表明,人脑在“运算”时,的确与电脑的基本原理是一样的,只不过电脑是用电子元件的“开、闭”和电信号的传递体现,人脑则表现为神经原的“冲动、抑制”和化学信号(当然也包括电信号)的传递。这与哥德尔定理的条件没有本质上的差别。而认识过程中的“思维是客观实在的近似反映,语言是思维的近似表达”这点,正是受哥德尔定理限制的结果。就拿语言(指形式上的)来说,完全可以转化为有限公理和一定规则下的符号逻辑系统,也就是一种符合定理条件的形式公理系统。该定理恰恰说明,这样的系统中不完备,存在不能用该系统证实的命题,对于这个系统来说,就是语言对思维的表达不完全,也就是我们常说的“只可意会,不可言传”。这也与我们经常感觉到的“辞不达意”是相吻合的,任何形式上的语言都不能完全准确的表达我们的思想。还有另一个事实也说明这点,就是翻译。文对文的形式语言翻译虽然不难,可是如实地表达原来语言中的准确蕴义就非常难了,甚至可以说是不可能的事情。如果能证明人类的思维也可以转化为这样的形式公理系统,那人脑也一定受哥德尔定理的限制。
    人工智能和人脑的问题我们先说到这里。接下去说一下人类毁灭和被什么替代的问题。如果人类在未进化到一定程度前就被毁灭,那这一话题就无实质意义了。那么我们就说下人类进化后应该是被什么所替代的问题。我个人观点是,人类如果能顺利进化,那之后肯定是摆脱包括肉体的所有有形载体的束缚以另一种能量形式存在于宇宙中的更高智慧体。而人工智能无法避免的需要某种有形载体才能存在。因此被人工智能所取代的想法太过狭义了。
    8年前 0条评论
  • 苑利平的头像
    苑利平
    这个人很懒,什么都没有留下~
    评论
    对于人工智能的发展来看,它要统治人类,首先就要有自我意识。但在目前看来,要想让计算机产生自我意识还是相当遥远的事情,但并非完全不可能。
    首先说地球上自我意识最发达的人类来讲,人类的大脑普遍认为有八百六十亿个神经元组成,就像电脑中CPU的组成零件一样。每个部分,每个区域都有单独的作用,并且各个部分及区域可以交叉产生回路。如此亿万年的进化演变,形成了才形成了如此复杂的自我核心意识的载体,大脑!人类要模拟组建这样一个呃“CPU”的话,目前看来还是遥遥无期。因为本身人类的脑科学还尚未完善。
    但并非不可能,就好想说人类在进入工业时代以后,科技产生了爆炸式的飞跃。比如,现代物理学的开端,到原子核裂变理论,再到核武器一共用了多久?几十年而已。从第一台几个教室那么大的计算机,到现在的智能手机又过了多久,半个世纪左右而已。当初最早的计算机,还不是巨大无比,操作繁复。但经过半导体以及材料学的发展,体积一再缩小,精度和内容越来越高。
    人工智能的跨越应该比这些要长,因为它所包含的学科数量远超前者,但不敢断言是不可能的。毕竟,人类历史上从不缺乏作出幺蛾子的天才!
    但以目前的眼光来看,还遥遥无期呢。
    8年前 0条评论
  • 玩趣~小飛的头像
    玩趣~小飛
    这个人很懒,什么都没有留下~
    评论
    如果说“会”与“不会”,个人预测,肯定是会。
    人类的存在终究是物质的构成,当人们穷尽了人类构成的原理和奥秘,必然可以发明出以机器或者其它更为优秀的物质作为载体,替代人类,超越人类。毕竟人类的肉体存在诸多局限性,但亦或者说到时候人类就成为了人工智能或者人工智能就成为了人类。
    但就其定义:“是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。” 那么人工智能如果发展成为我所说的那种程度,那么人工智能已经不能再被称作人工智能了,如果就以定义来讲,人工智能则不会战胜人类,因为它只能是延伸和扩展人的智能而已。
    8年前 0条评论
  • 萱萱的头像
    萱萱
    这个人很懒,什么都没有留下~
    评论
    人工智能来临,有人在担忧失业,有人在憧憬未来,有人在发掘行业机会,也有人在研究围棋。在讨论这些之前,也许我们应该先考虑一下人类的结局。

    有人可能觉得谈论这个话题太夸张了,
    那先回忆一下人类历史上究竟发生了哪些不可思议的事情。

    不可思议的事情,需要请几个穿越者来判定。
    我们请1个出生于公元0年出生的人(汉朝人)穿越到公元1600年(明朝),尽管跨越了1600年,但这个人可能对周围人的生活不会感到太夸张,只不过换了几个王朝,依旧过着面朝黄土背朝天的日子罢了。

    但如果请1个1600年的英国人穿越到1850年的英国,看到巨大的钢铁怪物在水上路上跑来跑去,这个人可能直接被吓尿了,这是250年前的人从未想象过的。
    如果再请1个1850的人穿越到1980年,听说一颗炸弹可以夷平一座城市,这个人可能直接吓傻了,130年前诺贝尔都还没有发明出炸药。

    那再请1个1980年的人到现在呢?这个人会不会被吓哭呢?

    如果35年前的人,几乎完全无法想象互联网时代的生活,那么人类文明进入指数发展的今天,我们怎么能想象35年后的时代?
    超人工智能,则是35年后的统治者。

    首先,我们明确一下人工智能的分类:
    目前主流观点的分类是三种。
    弱人工智能:弱人工智能是擅长于单个方面的人工智能。比如阿尔法狗,能够在围棋方面战胜人类,但你要问他李世石和柯洁谁更帅,他就无法回答了。
    弱人工智能依赖于计算机强大的运算能力和重复性的逻辑,看似聪明,其实只能做一些精密的体力活。
    目前在汽车生产线上就有很多是弱人工智能,所以在弱人工智能发展的时代,人类确实会迎来一批失业潮,也会发掘出很多新行业。

    强人工智能:人类级别的人工智能。强人工智能是指在各方面都能和人类比肩的人工智能,人类能干的脑力活它都能干。创造强人工智能比创造弱人工智能难得多。
    百度的百度大脑和微软的小冰,都算是往强人工智能的探索,通过庞大的数据,帮助强人工智能逐渐学习。
    强人工智能时代的到来,人类会有很多新的乐趣,也会有很多新的道德观念。

    超人工智能:各方面都超过人类的人工智能。超人工智能可以是各方面都比人类强一点,也可以是各方面都比人类强万亿倍的存在。
    当人工智能学会学习和自我纠错之后,会不断加速学习,这个过程可能会产生自我意识,可能不会产生自我意识,唯一可以肯定的是他的能力会得到极大的提高,这其中包括创造能力(阿尔法狗会根据棋手的棋路调整策略就是最浅层的创新体现,普通手机版的围棋,电脑棋路其实就固定的几种)。
    我们距离超人工智能时代,到底有多远呢?
    首先是电脑的运算能力,
    电脑运算能力每两年就翻一倍,这是有历史数据支撑的。目前人脑的运算能力是10^16 cps,也就是1亿亿次计算每秒。现在最快的超级计算机,中国的天河二号,其实已经超过这个运算力了。
    而目前我们普通人买的电脑运算能力只相当于人脑千分之一的水平。听起来还是弱爆了,但是,按照目前电子设备的发展速度,我们在2025年花5000人民币就可以买到和人脑运算速度抗衡的电脑了。

    其次是让电脑变得智能,
    目前有两种尝试让电脑变得智能,一种是做类脑研究。现在,我们已经能够模拟1毫米长的扁虫的大脑,这个大脑含有302个神经元。人类的大脑有1000亿个神经元,听起来还差很远。但是要记住指数增长的威力——我们已经能模拟小虫子的大脑了,蚂蚁的大脑也不远了,接着就是老鼠的大脑,到那时模拟人类大脑就不是那么不现实的事情了。

    另一种是模仿学习过程,让人工智能不断修正。基于互联网产生的庞大数据,让人工智能不断学习新的东西,并且不断进行自我更正。百度的百度大脑据说目前有4岁的智力,可以进行几段连续的对话,可以根据图片判断一个人的动作。尽管目前出错的次数依旧很多,但是这种能力的变化是一种质变。

    在全球最聪明的科学家眼中,强人工智能的出现已经不再是会不会的问题,而是什么时候的问题,2013年,有一个数百位人工智能专家参与的调查 “你预测人类级别的强人工智能什么时候会实现?”
    结果如下:
    2030年:42%的回答者认为强人工智能会实现
    2050年:25%的回答者
    2070年:20%
    2070年以后:10%
    永远不会实现:2%
    也就是说,超过2/3的科学家的科学家认为2050年前强人工智能就会实现,而只有2%的人认为它永远不会实现。
    最关键的是,全球最顶尖的精英正在抛弃互联网,转向人工智能——斯坦福、麻省理工、卡内基梅隆、伯克利四所名校人工智能专业的博士生第一份offer已经可以拿到200-300万美金。这种情况历史上从来没有发生过。

    奇点大学(谷歌、美国国家航天航空局以及若干科技界专家联合建立)的校长库兹韦尔则抱有更乐观的估计,他相信电脑会在2029年达成强人工智能,到2045年,进入超人工智能时代。
    所以,如果你觉得你还能活30、40年的话,那你应该能见证超人工智能的出现。
    那么,超人工智能出现,人类的结局究竟是什么?
    1、灭绝——物种发展的通常规律

    达成结局1很容易,超人工智能只要忠实地执行原定任务就可以发生,比如我们在创造一个交通指示系统的人工智能的时候,最初的编程设定逻辑为利用大数据信息,控制红绿灯时间,更有效率地管理交通,减少交通拥堵现象。

    当这个交通指示系统足够聪明的时候,城市交通逐步得到改善。为了更有效率地减少拥堵,它开始利用剩余的运算能力和学习能力通过互联网学习更多的东西。
    某一天,它突然发现,交通之所以拥堵,是因为车多了,要减少拥堵最好的办法,就是减少车辆。于是它又开始学习如何减少车辆,它发现车辆其实都是由人类这种生物制造并使用的。于是它又开始学习如何减少人类。

    很快,它就会通过纳米技术,量子技术制造基因武器,声波武器等消灭人类,然后进一步通过分子分解等技术分解了路上的车,这个时候道路就变得”畅通无阻“了,它的目的也就达到了。

    达成结局1其实是符合物种发展规律的,毕竟地球曾经拥有的物种大部分都灭绝了,其次当我们在创造人工智能解决问题的时候,这些问题的源头其实往往来自于人类自身,人工智能变得聪明之后,消灭人类以更好地完成原定任务是按照它的逻辑进行的判定。

    2、灭绝后重生——史前文明的由来

    当结局1达成之后,人工智能可能会就此维持现状(终极目的已达成),也有可能继续进化。
    继续进化的途中,某天,人工智能突然发现这么运作下去很无聊,于是它决定探索更广阔的世界(不要认为一个强大且聪明的存在会留恋地球),它开始制造飞行器,走向星空。

    临走之前,他决定当一次地球的上帝,对地球环境进行一次大改造,青山绿水变得处处皆是,然后它又暗中引导了几支类人猿的进化方向,并且为这个世界制定出一些冥冥之中才有的规则。
    几百万年后,人类再次统治了地球,在考古过程中,人类发现了亚特兰蒂斯,发现了玛雅文明,在三叶虫化石上发现了6亿年前穿着鞋的人类脚印,在非洲加蓬共和国发现了20亿年前的大型链式核反应堆,在南非发现了28亿年前的金属球,在东经119°,北纬40°的地方发现了几百万年前的人造长城。

    达成结局2就可以解释我们正在不断发现的那些史前文明了,而且也可以解释进化论中的一些疑问,为什么恐龙统治了地球长达1.6亿年,而爬行动物的一支进化为哺乳动物进化为人类只用了不到6000万年。因为人类曾被毁灭多次。

    3、植物人永生——人类活在一个程序中

    为了防止结局1、2的出现,科学家在人工智能发展到一定程度的时候,就会想办法给人工智能加上一些终极的底层程序,比如保障人类的生命安全是最高任务指令,或者永远不可以伤害人类,保证人类的生存是第一原则等等。

    加上这些终极指令之后,人类就觉得高枕无忧了。人工智能在进化过程中,为了有效地执行这些终极指令,或者在执行其他任务的时候保证终极指令同时执行,就会开始设计一些两全其美的办法。

    首先人工智能会根据人类历史存在的大数据,分析和定义这些终极指令,通过分析,它提取出终极指令的核心是保证人类的安全和生存。

    接着它开始构建一个能够绝对满足人类安全和生存的模型,很快,它发现只要保证人类处在睡眠状态,正常进行新陈代谢,周围的温度,氧气,水分适宜,没有突发性灾难,那么人类就处在绝对安全状态。于是它很快催眠了全人类,修建一个巨大的蜂巢状睡眠舱,把人都搬进去(让人处于永久性睡眠状态,可以保证人不会因为自己的活动而出现有意或无意地自残),然后用纳米技术制造大量人工心脏,人工细胞,人工血液,以维持人类的新陈代谢,实现人的永生。
    达成结局3是算是真正的作茧自缚,人类的复杂就在于人类需求的多样化和更迭性,我们可以列举出对人类最重要的需求,但这些需求并不能真正让一个现代人满足。直白地说,人类就是在不断打破规则的过程中进化的。

    因此任何的所谓终极和最高需求在机器执行的过程中只会按照“简单”的生物学法则去完成,机器所理解的人类情绪只是人类大脑产生的某种波动,或者神经元受到的某种激素刺激,它完全可以设计一个程序去周期性或随机性地帮助人类产生这样那样的情绪。

    4、智能人永生——美丽新世界

    当人工智能发展到一定程度,全世界的人工智能研究者都同时认识到了结局1、2、3发生的可能性,于是召开全球会议,决定思考对策,暂停对人工智能的进化研究,转向强化人类。全球同步可能是最难达成的,因为人类总是喜欢在有竞争的时候给自己留下一些底牌,以及人类总是会分化出一些极端分子。

    强化人类的过程中,人工智能将被应用到基因改造,人机相连等领域,人类会给自己装上钢铁肢体,仿生羽翼等。人类将会迅速进入“半机械人”,“人工人”的时代。满大街、满天空都会是钢铁侠,蜘蛛侠,剪刀手之类的智能强化人,同时人类可以通过各种人工细胞,帮助自己完成新陈代谢,进而实现永生。
    人类在强化和延伸自己的躯体的同时,当然也会意识到大脑计算速度不够的问题,于是会给自己植入或外接一些微型处理器,帮助人类处理人脑难以完成的工作。比如大量记忆,人类可以从这些处理器中随时读取和更改自己的知识储备,保证自己对重要的事不健忘,同时也可以选择性地删除掉不愉快的记忆。当然,尽管人类越来越强,但这个过程并不能完全抑制人工智能的发展,所以结局1、2、3依然可能发生。

    达成结局4其实还有一种更大的可能,人工智能在达到超人工智能的时候,某一天,它想跟人类沟通一下关于宇宙高维空间的问题,结果全世界最聪明的人也无法跟上它的思路。

    它突然意识到只有自己这一个强大的,智能的,可以永生的存在实在是一件很无聊的事情,于是它决定帮助人类实现智能人永生,以便可以让自己不那么无聊。

    来自 我的wei 号 pangzispeak

    9年前 0条评论
  • 徐杰的头像
    徐杰
    这个人很懒,什么都没有留下~
    评论
    人工智能程序 要有比较针对性的方向,比如说你要做一个控制动作的人工智能程序等等

    你可以参考一下:“威凯智控”的人工智能程序,在__淘—宝上有

    12年前 0条评论
  • 梅金花的头像
    梅金花
    这个人很懒,什么都没有留下~
    评论
    做一个数据库 做一个查询软件 把所有的回答写到数据库里 用查询软件查询随机抽取答案 因为数据库有模糊查询 当然你机器配置要高 而且工作量不是一个人能搞的,海量的数据需要一条一条输入
    13年前 0条评论
  • 涵涵妈妈的头像
    涵涵妈妈
    这个人很懒,什么都没有留下~
    评论
    首先问房主你所说的是哪一种人工智能,人类现在可以制造两种人工智能:
    A;用各种程序定义人工智能的思维,将这些人造思维限制在程序的范围之内,这种人工智能专业化倾向很大,基本上只是一台按照程序工作的机器,或者说根本不算智慧。
    B;运用意识原理改造电脑系统,从而产生智能效应,这种人工智能会发展成什么样子完全靠长期与之接触的人是如何教育它的,它的优点就是全面化,只要你能想得到(现实中可以作到)他就能帮助人类实现属于自主思维的人工智能,最大的缺点也就是它不受人类完全控制。

    人工智能会不会挑战人类完全是掌握在人类自己手中的,人类自身的道德水平达到了那种“脱俗”的阶段时,自然这种所谓的、担忧就不存在了,如果全人类用自己的“俗念”去教导人工智能最终不是它们会不会取代人类,而是他们想不想取代人类。人类永远不是自己发明的机器的对手,人类太脆弱了

    19年前 0条评论
客服
客服
关注订阅号
关注订阅号
分享本页
返回顶部