1. 首页
  2. 海思技术

人工智能的好处和风险

什么是AI?

从SIRI到自动驾驶汽车,人工智能(AI)都在迅速发展。虽然科幻小说通常将AI描绘成具有人类特征的机器人,但AI可以涵盖从Google的搜索算法到IBM的Watson到自动武器的任何东西。

人工智能的好处和风险

如今,人工智能被适当地称为窄AI(或弱AI),因为它被设计为执行窄任务(例如,仅面部识别或仅互联网搜索或仅驾驶汽车)。但是,许多研究人员的长期目标是创建 通用AI(AGI或强AI)。尽管狭窄的AI在执行特定任务(例如下棋或求解方程式)方面可能胜过人类,但AGI在几乎所有认知任务上都胜过人类。

为什么要研究AI安全性?

在短期内,保持AI对社会有益的目标的目标推动了许多领域的研究,从经济学和法律到技术主题,例如验证,有效性,安全性和控制性。如果您的笔记本电脑死机或被黑客入侵,可能仅是一个小小的麻烦,但如果AI系统控制着您的汽车,飞机,起搏器和自动交易,那么做您想要做的事情就变得更加重要。系统或您的电网。另一个短期挑战是防止致命自动武器的毁灭性军备竞赛。

从长远来看,一个重要的问题是,如果对强力AI的追求成功并且AI系统在所有认知任务上都比人类更好,那将会发生什么。正如IJ Good在1965年指出的那样,设计更智能的AI系统本身就是一项认知任务。这样的系统可能会进行递归自我改进,从而引发智能爆炸,使人类的智力远远落后。通过发明革命性的新技术,这种超级智能技术可以帮助我们 消除战争,疾病和贫困,因此,创建强大的AI可能是人类历史上最大的事件。不过,一些专家对此表示担忧,除非它是在AI变得超智能之前就学会使AI的目标与我们的目标保持一致,否则它也可能是最后一个。

有些人质疑是否会实现强大的AI,而另一些人则坚持认为创建超级智能AI必将是有益的。在FLI,我们认识到这两种可能性,但也认识到人工智能系统有意或无意造成巨大伤害的可能性。我们相信今天的研究将帮助我们更好地准备并预防将来可能发生的此类负面影响,从而在避免陷入陷阱的同时享受AI的好处。

AI怎么会是危险的?

大多数研究人员都认为,超级智能的AI不太可能表现出人类的爱或恨之类的情绪,并且没有理由期望AI会故意变得仁慈或恶意。 相反,在考虑AI可能如何成为风险时,专家认为最有可能出现以下两种情况:

  1. AI被编程为具有毁灭性: 自主武器是被编程为可以杀死的人工智能系统。这些武器在错误的人的手中很容易造成大量人员伤亡。此外,一场AI军备竞赛可能会无意中导致一场AI战争,从而导致大量人员伤亡。为了避免受到敌人的挫败,这些武器的设计非常难以简单地“关闭”,因此人类可能会合理地控制这种情况。即使在狭窄的AI中,这种风险也是存在的,但是随着AI智能和自主性水平的提高而增加。
  2. 对AI进行编程是为了做一些有益的事情,但它会开发出一种破坏性的方法来实现其目标: 每当我们未能完全使AI的目标与我们的目标保持一致时,就会发生这种情况,这是非常困难的。如果您要求一辆听话的智能汽车尽快将您送往机场,它可能会让您被直升飞机追赶并被呕吐物掩盖,不是您想要的,而是您真正想要的。如果一个超级智能系统负责一项雄心勃勃的地球工程项目,那么它可能会对我们的生态系统造成严重破坏,并将人类阻止它的尝试视为要面对的威胁。

如这些示例所示,对高级AI的关注不是恶意,而是能力。 超级智能的AI将非常擅长实现其目标,如果这些目标与我们的目标不符,我们就会遇到问题。您可能不是邪恶的憎恨者,他们会恶意地驱逐蚂蚁,但是如果您负责水电绿色能源项目,并且该地区有一个蚁丘被水淹没,对蚂蚁来说太糟糕了。AI安全研究的关键目标是永远不要将人类置于这些蚂蚁的位置。

为什么最近对AI安全感兴趣

斯蒂芬·霍金(Stephen Hawking),埃隆·马斯克(Elon Musk),史蒂夫·沃兹尼亚克(Steve Wozniak),比尔·盖茨(Bill Gates)以及许多其他科技界知名人士最近都在媒体上表达了关注并通过公开信表达了对AI带来的风险的关注许多领先的AI研究人员也加入了讨论。为什么这个话题突然成为头​​条新闻?

长期以来,人们一直认为,寻求强大的AI会成功的想法是科幻小说,距今已有数百年或更久的历史了。但是,由于最近的突破,现在已经达到了许多AI里程碑,专家们将其视为仅仅五年前的几十年,使许多专家认真考虑了我们一生中超级智能的可能性。 尽管一些专家仍然猜测人类级AI尚有数百年的历史,但2015年波多黎各会议上的大多数AI研究都猜测它将在2060年之前发生。由于可能需要数十年才能完成所需的安全性研究,因此现在开​​始审慎行事。

由于AI有潜力比任何人都变得更聪明,因此我们没有可靠的方法来预测它的行为方式。我们无法充分利用过去的技术发展,因为我们从未创造出能够有意或无意地超越我们的东西。我们可能面对的最好的例子可能就是我们自己的进化。人们现在控制着这个星球,不是因为我们是最强大,最快或最大的,而是因为我们是最聪明的。如果我们不再是最聪明的人,我们是否一定会保持控制?

FLI的立场是,只要我们赢得技术的不断增长的力量与管理技术的智慧之间的竞争,我们的文明就会蓬勃发展。就AI技术而言,FLI的立场是,赢得比赛的最好方法不是通过支持AI安全研究来阻止前者,而是加速后者。

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站不拥有所有权,不承担相关法律责任。如发现有侵权/违规的内容, 联系QQ1841324605,本站将立刻清除。

发表评论

您的电子邮箱地址不会被公开。 必填项已用*标注

联系我们

服务热线:130-0886-1890

QR code