您当前的位置: 首页   活动 >   放慢人工智能研发的呼吁_天天速读
放慢人工智能研发的呼吁_天天速读

时间:2023-07-05 02:17:25    来源:AI自智体

Original 行走着的路人甲 莉文读书


(资料图)

今天,我测试了一下上线即火速走红的最新版Adobe Photoshop Beta,那个新增加的AI功能让个这款已存在了33年的软件更具传奇色彩,Firefly引擎的熟练运用足以颠覆整个设计行业。

然而,这不是重点。自三月份OpenAI公司发布了其GPT(生成式预训练对话转换器)AI程序以来,仅仅两个多月的时候已发布了第四个迭代版本,该程序从最初设计的与用户进行人类般的对话,到创作歌曲、编撰文章和处理总结冗长的文件。另外,以DALL-E2为代表的AI程序显示出了非凡的图形处理能力,以So-VITS-SVC为代表的AI程序显示出人类难以分辨的声音克隆能力,以及以HeyGen为代表的AI程序显示出了十分逼真的制作模拟真人视频能力。更重要的是,这些程序在AI设计介入下更新迭代十分迅速,功能也越来越强大。

或者以上说的也不是重点,重点是人类不能预测不受限制的AI开发可能会导致什么负面后果。大规模失业、不平等加剧、个人隐私丧失和武器人工智能化……几天前,美国AI安全中心的研究总监Dan Hendrycks概述了前段时间极力要求暂停更高等级AI程序的专家们关注的三大人类潜在威胁:

自私和进化的力量——人工智能发展的选择压力可能会导致危险的人工智能产生灾难性的后果。具有代理性、追求权力和自私的人工智能系统将比缺乏这些特征的人工智能系统更具优势。不受限制的竞争压力可能会导致这些危险系统的开发和部署,因为公司会担心除非他们遵守,否则他们会在竞争中被击败。

武器化- AI 可用于军事技术,使冲突更容易发生,并且在冲突发生时更致命。例如,如果 AI 在我们能够掌握 AI 系统的工作原理之前负责高风险的军事决策,它们可能会导致极其致命的冲突。

错位——最后一个风险是我们无法控制这些系统。如果我们开发比人类更聪明的系统,而没有方法将它们与正确的目标稳健地结合起来,这可能会导致存在的风险。他们可能对人类相对冷漠,并使人类无法居住的环境(就像人类对弱小物种所做的那样)。

正如埃隆·马斯克所说的:人工智能逐渐在数量上超过我们(人类),智力上胜过我们,就必将选择淘汰并取代我们。英国计算机科学家斯图尔特·拉塞尔在他的《人工智能:一种现代方法》一书中也谈到,AI感知将是一种匹诺曹时刻,生命突然出现在无生命的物体中。正如史蒂芬·霍金先生所指的危险是人工智能将在某个时刻变得比人类更聪明,在文献中,这被称为“奇点”。在这一点之后,超级人工智能不仅具有一般智能,而且可能具有意识属性,包括意图,可能会开始摧毁我们。

人工智能没有像动物一样的生存本能。电路中没有自私的基因。人工智能也缺乏不安全感和自负问题——我们看到这两者经常推动人类努力。即使涉及知识,作为人类,我们也重视并追求它,因为它增加了我们生存的机会或提高了我们生活的舒适度。没有生存的动力和感情,为什么人工智能会重视或寻求知识?

似乎必须对 AI 进行编程才能生存。只有这样它才会对威胁采取行动,即使它实际上不会体验到恐惧。如果它被编程为这样做,这似乎排除了感知能力。然而,有人可能会争辩说,人类也是为了生存而生的。不管是否有知觉,硬连线AI与自我保护可能成为我们最大的错误。

人类同理心依赖于我们理解思想和情绪,因为我们知道它们会驱动行为。由于 AI 感知不是紧迫的威胁,我们可以从同理心中获得的好处在于我们努力了解拥有或编程最先进 AI 的人的思想,这就是最大的威胁所在。

难怪人工智能的威胁让谷歌的CEO和SpaceX、特斯拉的创始人彻夜难眠。

标签:

贸易

更多

繁荣

更多

X 关闭

X 关闭