智能写作-人工智能发展迅速,智能写作软件备受关注!

编辑:pitaya02        日期:2020-08-27

AI是什么?

人工智能(AI)正从 SIRI发展到自动驾驶汽车。尽管科学幻想常常把人工智能描述为具有人形特征的机器人,但人工智能可以涵盖任何技术,从谷歌(Google)的搜索算法, IBM沃森(AI程序)到自动武器。

精确地说,今天的人工智能应该被称为狭义 AI (或弱 AI),因为它被设计用来执行狭隘的任务(例如,只进行脸部识别,或者只在网上搜索,或者只开车)。但是,许多研究人员的长期目标是创建普适 AI (AGI或强 AI)。AGI可以在下国际象棋、解方程等特殊任务中超越人类,而 AGI则可以在几乎所有认知任务中超越人类。

为什么要研究人工智能安全?

目前,为了保证 AI对社会的益处, AI研究可以涉及很多领域,比如经济和法律,以及在技术层面上的问题,比如验证法,有效性计算,安全和控制论。假如安全措施局限于防止你的笔记本电脑发生故障或被黑客攻击,即使是出现故障也只会给你带来一点小麻烦。如果一个 AI系统可以控制汽车、飞机、心脏起搏器、自动交易系统或电网,我们就必须确保它完全遵循我们的指示,否则后果是无法预料的。目前另一项挑战是如何防止毁灭性自动武器的军备竞赛。

长期而言,一个重要的问题是,如果我们成功制造出一种强大的 AI,它在所有认知功能方面都能超越人类,那么这个世界将会怎样?就像 JohnGood在1965年所说的那样,设计一个更聪明的 AI系统本身就是一项认知任务,它本身就是一项认知任务。这类系统具有实现递归自我完善、引发智慧爆炸、远远超越人类智慧的潜力。这些超级智慧可以通过发明革命性的新技术来帮助我们战胜战争,疾病和贫穷。所以制造强 AI也许是人类历史上最重要的事情。不过,有些专家担心,人类的历史也会随着这种超大型 AI的诞生而戛然而止,除非我们学会在 AI变得超智慧之前,让它与我们同心所向。

有人怀疑强 AI能否实现,也有人认为创造超智能 AI对人类肯定有好处。未来生命研究生院(Institute of Life Institute)承认这两种情况都有可能发生,但是我们更加认识到人工智能系统可能会有意或无意地造成巨大的危害。今天我们认为研究的目的是为了防患于未然,让未来的人们在受益于 AI的同时,避免潜在的危险。

AI怎么能制造危险?

多数研究者认为,超聪明的 AI不能产生像爱或恨这样的人类情感。此外,他们还认为,没有理由期望 AI会自觉地向好的方面发展。关于 AI是如何带来风险的问题,专家们认为最有可能发生两种情况:

人工智能旨在执行毁灭性任务:自驱动武器(autonomous weapon)是一种用于杀人的人工智能系统。如果落在坏人的手里,这些武器仅仅是简单的杀伤力而已。另外, AI的军备竞赛也会意外地引发 AI战争,造成大量人员伤亡。为避免敌方部队从中阻挠,这些武器的“关机”程序将被设计得极其复杂,因此人们可能会失去对局势的控制。尽管狭义 AI (narrow AI)中也存在这种风险,但是随着 AI智能和自我驱动水平的提高,风险也在不断增加。人工智能用于执行有益的任务,但其执行过程可能具有破坏性:当 AI的目标与我们的目标不完全对应时,就会出现这种情况。那肯定不容易。想象一下,如果你召唤一辆智能汽车以最快的速度把你送到机场,它可能会不顾一切地严格遵守你的指示,即使是在你根本不想要的情况下——你可能会因为超速而被直升飞机追赶或者呕吐不止。假如一套超智能系统的任务是一项雄心勃勃的地球工程,那么它所带来的负面影响就是破坏生态系统,并将人类试图阻止它的行为视为必须应对的威胁。

在这些例子中,我们对高级 AI的担心并不是因为它可能带有恶意,而是因为它能够实现什么。超级智能 AI将会很擅长于实现它的目标,如果它们不能与我们的目标达成一致,我们就会有麻烦。例如,你也许并不讨厌蚂蚁,也不讨厌踩死蚂蚁,但是如果你负责水电、绿色能源项目,而且该项目开发的地区有一个蚁丘会被水淹没,那么你就只能说这是一种运气。AI安全研究的一个重要目标就是避免让人类和蚂蚁处于相同的地位。

为什么近来人们对 AI安全感兴趣?

许多科技巨头,如史蒂芬·霍金,伊隆·马斯克,史蒂夫·沃兹尼亚克,比尔·盖茨,以及许多领导 AI研究的科学家,最近都在媒体和公开信中表达了对 AI风险的关注。为什麽这一主题不久后会突然出现在多个新闻标题上?

强健 AI的成功实施被认为是天方夜谭,即使能达成协议,也只是几千年后的事了。但是,由于最近的突破性研究,以及许多 AI里程碑的出现,这些已经成为现实,而仅仅在5年前,专家们认为这是几十年后的事情。因此,很多专家都在认真地思考人类一生都有可能拥有超级智能。

尽管有些专家仍在猜测类人 AI可能会在几个世纪后出现,但大多数 AI研究人员在2015年波多黎各会议上预测,类人级别 AI可能会在2060年前出现。因为 AI安全研究可能要花费十多年才能完成,所以我们应该乘着现在就着手进行这些方面的研究。

由于 AI有可能比人类更聪明,因此我们无法精确地预测它将来可能的行为模式。因为我们从未创造出任何可以在智慧上超越人类的技术,所以我们不能以过去的技术发展为参照。

实际上,我们可以作为参考的基础就是人类自身的进化历史。今天,人类能够成为地球上的所有生物中的一员,并非因为我们最强,最快,或者最大,而是因为我们最有智慧。假如有一天,我们不再是世界上最聪明的人,那么我们是否仍然可以自信地掌控世界?

FLI的立场是,只要我们在管理技术方面的智慧强于技术增长的力量,我们的文明将继续繁荣。FLI对 AI技术的立场是,我们应该通过支持 AI安全研究,在不妨碍 AI发展的前提下,加快 AI科技的管理能力。


火龙果智能写作是全球第一款中英双语语法检查校对产品,运用火龙果智能写作技术进行错别字文本校对,除错别字校对以外,还可以对语法、标点等进行校对。

火龙果智能写作官网https://www.mypitaya.com

积极拥抱变化,才能更好的应对这个时代

语法校对-懂语法还会修辞,一款智能语法校对工具