AI 变得越来越聪明、越来越快。这创造了我们无法回答的棘手问题

AI 变得越来越聪明、越来越快。这创造了我们无法回答的棘手问题

AI 还没有人类水平的能力,而且他们可能永远不会拥有这些能力。但是,我们今天仍然需要讨论责任、权利和道德地位的问题。

乔最佳 | 2021 年 5 月 17 日 -- 格林威治标准时间 10:15(新加坡标准时间 18:15) | 主题:人工智能

今天,人工智能 (AI) 涵盖了一组智能但有限的软件工具。但在未来,随着人工智能变得越来越复杂和无处不在,我们可能会被迫重新思考我们如何对待人工智能——甚至他们如何对待我们的对与错。

目前,人工智能本质上是狭窄的,执行诸如图像识别、欺诈检测和客户服务等任务。但是,随着人工智能的发展,它们将变得越来越自主。在某些时候,他们可能会做错。当 AI 犯错时,谁才是真正的过错者,这是一个会给企业带来麻烦并让律师兴奋的问题,因为他们正在努力弄清楚谁可以并且应该对由此产生的任何伤害负责。

今天,在大多数由人工智能引起的问题的情况下,故障所在是显而易见的。如果你买了一个 AI 并开箱即用,但它做了一些可怕的事情,这可能是制造商的错。如果你建立一个人工智能并训练它做一些可怕的事情,它可能是你的。但它不会总是那么明确。

参见:人工智能伦理:人工智能的好处和风险

当这些系统获得记忆并发展代理时,复杂性就开始了——它们开始做制造商或用户从未计划或希望他们做的事情。

“这就是我们在责任上存在差距的地方。在接下来的 10 年内,将会有类似这样的有趣案例出现在中间地带,目前尚不清楚谁应该为世界上发生的真正伤害负责,”克里斯托弗·波茨,斯坦福大学以人为本人工智能研究所的教职员工。

防止 AI 以未经制造商批准的方式开发的一种选择是以这样一种方式构建它们,即 AI 做出的任何决定都必须可以向人类解释。这里的风险在于,通过让 AI 完全可以向人们解释,我们可能会错过大量的好处。

“我们的问题在于我们不了解这些模型将要做什么——没有人对它们进行完全的分析控制,”Potts 说。“当然,人们正在研究可解释性之类的东西,试图反省和查看模型内部,并找出它们为什么会这样行事或做出某些决定。但我预测我们进行这种自省的能力将永远被我们创造出更强大的模型、做更令人印象深刻的事情的能力所超越。因此,这种差距总是存在的。”

我们可能不得不承认,我们不会总是理解为什么 AI 会做他们所做的事情并忍受这种不确定性——毕竟,我们对其他人也是如此。

随着时间的推移,人工智能可能会变得如此复杂,以至于无论我们是否理解它们,它们都会被视为对自己的行为在法律和道德上负责。在法律上,非人类实体已经有可能通过所谓的法人人格因不当行为而被追究法律 责任:在这种情况下,企业与人们一样拥有合法的权利和责任。有朝一日,同样的情况也可能适用于人工智能。

这意味着,在未来,如果我们能够认定 AI 有罪,我们甚至可能要考虑如果他们不了解自己行为的对错,是否应该为他们的罪行受到惩罚,这往往是犯罪的门槛。人的责任。

惩罚的问题也带来了权利的问题,以及 AI 是否有任何可能会因受到惩罚的方式而受到侵犯的问题。但是对于某些人来说,即使在人权对人类仍然不普遍的时候讨论人工智能的权利的想法 - 并且人工智能的能力最多只有几十年的时间才能与人类的能力相匹配 - 可能看起来像是道德超越了技术一些距离

见:什么是神经形态计算?关于它如何改变计算的未来,您需要了解的一切

对于莱顿大学 AI 助理教授兼 Pegasystems 决策主管 Peter van der Putten 而言,像这样的问题——通常侧重于虚构场景和 AI 能力水平,这些问题更像是科幻小说而不是现实——远离现实- 人工智能的日常挑战。

“我认为道德和伦理问题很重要。但我几乎要争辩说,现在考虑赋予人工智能权利确实为时过早,因为当我们谈论正在接管世界的人工智能时,在某个时刻变得完全自主未来,或者当奇点发生时,我们有点忽视未来已经在今天发生,”他说。

范德普滕说,人工智能已经被大规模应用,它的使用应该以透明、可解释、可信、公正的方式进行,但情况并非总是如此。人们提出了关于偏见人工智能对从医疗保健到警务等方方面面的影响的问题,即使使用当今相对简单的人工智能系统,发现和解决这些偏见已经具有挑战性。

“在我们开始呼吁考虑在遥远的未来赋予人工智能权利之前,我们应该解决一个或多个问题,并抓住我们今天在人工智能方面拥有的机会,”范德普滕说。

具有人类智能水平的人工智能是一个遥远的前景,但这并不意味着我们可以在它到来之前搁置道德问题。道德状态不一定取决于智力水平。这意味着 AI 的权利可能在他们达到与我们相同的智商水平之前很久就值得更多考虑。

“更多的道德地位是可以分级的。可能人工智能要到很远的地方才能获得人格。但人工智能可能很快就会获得各种地位。因此,例如,他们可能很快就会变得有意识,或者他们可能会开始以便能够很快感受到痛苦。因此,对于每一步,我们都需要确保我们不会根据 AI 的道德状况而虐待他们,”中心主任 S. Matthew Liao 说。生命伦理学和纽约大学哲学系的附属教授。

在遥远的未来,当人工智能获得超越我们自己的能力时,他们可能拥有我们甚至没有想到的利益和权利。例如,学者 Nick Bostrom 和 Eliezer Yudkowsky提出了一个问题,即时间体验与人类不同的 AI 是否有权控制其主观时间体验(这对那些提供 AI 运行硬件的人有影响——如果超频的机器会减慢其感知超出可接受的范围,AI 可能有权使用不同的硬件)。

算法在看着我们,但谁在看着算法?

随着 AI 道德地位的提高,我们可能还需要处理另一个道德问题。如果人工智能拥有比我们更高水平的智力和感知力,那最终是否意味着他们应该获得比我们更高的道德地位——如果我们必须在拯救人工智能和拯救人类之间做出选择,我们是否必须选择人工智能?

是和否。反对这种等同的一个论点是,我们不会给予更聪明的人或道德水平更高的人更高的道德地位——我们只是假设每个成年人都具有相同的道德地位,因此应该拥有相同的权利并受到对待一样。如果发生洪水而只能救一个人,那么在选择救谁之前,您可能会考虑智力以外的其他因素。这意味着即使人工智能的智力超过我们,也不一定意味着他们的新水平会赋予他们比我们更高的道德地位 - 有一种观点认为,由于我们都清除了相同的智力障碍,我们都应该得到同样的考虑。

反驳是,随着 AI 开发出远超人类拥有的新能力,并且可能超出人类想象的极限,这些能力可能会 如此 先进,以至于值得赋予 AI 更高的道德地位。

廖说,许多哲学家实际上担心人工智能最终是否会拥有比人类更高的道德地位,甚至比人格更重要。“答案是,虽然我认为他们有可能拥有更高的道德地位,但这不是因为他们有更高的智慧、更强大的情感或更高的道德,而是因为他们将具有不同的属性。我不认为”不知道这些属性是什么……但它们可能是非常特别的东西,因此我们应该将它们视为真正值得更多保护的道德主体,”他说。

原文地址:https://www.cnblogs.com/liq07lzucn/p/14907297.html