正确认识人工智能:人工智能与社会的导论

人性以及”我们”是谁。她认为,在人工智能的开发、使用和商业化过程中,以及由谁来进行这些活动,这些技术会产生普遍化特定人性观念和进步观念的效果,往往排除了其他的人性和进步与认知方式,特别是与黑人、拉丁裔和原住民社区以及女性主义、酷儿、残障和去殖民化观点相关的方式;这进一步突显了人工智能开发者需要多元化的必要性。在其他地方,Timnit Gebru 清楚地说明了人工智能作为一种可能造福社会的技术,也可能加剧对已经边缘化群体的系统性歧视。

在另一个关于人工智能负面形式化效果的例子中,Blaise Agüera y Arcas、Margaret Mitchell 和 Alexander Todorov 研究了机器学习如何将物理特征与非物理特征相关联,这与 19 世纪和 20 世纪的相面术类似,并指出当人工智能被用作特征检测器时可能产生的有害本质主义循环逻辑。57

人工智能的进步不仅提高了其应用相关的伦理问题的风险,也有助于揭示社会中已经存在的问题。许多人已经表明,算法和自动决策不仅可以延续,还可以形式化和放大现有的社会不平等,并创造新的不平等。58 此外,消除偏见或编码公平性的挑战也可能为社会创造机会,以新的视角审视”公平”的含义。59 在这里值得回顾 Dennett 对 Putnam 批评人工智能的不以为然,即”人工智能在四分之一世纪里完全未能解决哲学在两千年里完全未能解决的问题。”60 此外,研究算法和自动决策的作用以及为算法提供信息所需的数据,可能揭示社会目标和政策的实际基础,这些问题已经开始在算法、公平性和社会福利的文献中受到关注。61 在《走向人工智能的正义理论》中,Iason Gabriel 借鉴 Rawls 的正义理论,通过考虑社会技术系统的作用来探讨人工智能与分配正义的交叉点。他研究了包括基本自由和机会平等在内的问题,提出分配正义的考虑现在可能需要应对人工智能作为技术系统的特殊性,这可能导致一些新颖的后果。

随着人工智能变得更加强大,一个迫在眉睫的问题是如何在安全和控制、目标和偏好,甚至价值观方面使人工智能与人类保持一致。人工智能和控制的问题与该领域一样古老;正如 Russell 提醒我们的,图灵本人就提出了这个问题。一些研究人员认为,鉴于人工智能的性质,对这类风险的担忧被夸大了,而其他人则认为我们距离存在性控制风险还很遥远,但研究必须开始考虑控制问题的方法,并将其纳入我们如何开发更强大的人工智能系统的考虑因素。62 Russell 提出了一种实现一致性和人类兼容性的方法,该方法利用目标和人类偏好的不确定性,并使用逆强化学习作为机器学习人类偏好的方式。在其他地方,Gabriel 讨论了我们所说的与人工智能保持一致的含义的各种可能性,每种可能性都带来其自身的复杂性。63 但在 Gabriel 和 Russell 的观点中,都涉及相当大的规范性挑战,以及由于人类偏好的可塑性而带来的复杂性。

在《人工智能、人文主义伦理》中,John Tasioulas 认为,设计与人类偏好保持一致的人工智能是一回事,但这并不能免除我们需要首先确定这些人类偏好应该是什么。他质疑人工智能开发者以及经济和政府行为者(他们经常使用财富最大化和 GDP 作为代理指标)倾向于默认偏好功利主义及其最大化,这导致市场机制主导解决方案,牺牲了非市场价值和机制,呼应了 Coyle 的一些担忧。在这里,更有能力的人工智能所提供的镜子似乎再次突显了人文主义伦理的未完成(也许永远不会完成)事业,这与人工智能可能推动我们澄清公平性并提醒我们电车问题不再仅仅是思想实验的方式类似,因为我们正在构建可能不得不做出此类选择的自主系统。

纵观人工智能的历史,我们一直在问:它现在有多好?这个问题已经被问到了每一个应用,从下棋或围棋,到知识获取、进行手术、开车、写小说、创作艺术、独立提出数学猜想或科学发现,或者仅仅是具有良好的床边态度。在提出这个问题时,也可能有用的是问:与什么相比?从对社会的影响来看,人们可能会将人工智能与在各自活动中表现最好的人类进行比较。仍然有很多活动,其中”最好的”人类表现比人工智能更好 - 在可预见的未来可能会继续如此 - 而社会从这些人类执行这些活动中受益。人们也可能与其他人类样本进行比较,例如从事或被允许从事该活动的普通人,或随机选择的人。在这里,随着人工智能变得更加有能力,社会影响变得更加复杂。例如,我们是否要提高人类执行安全关键活动的许可标准以跟上机器能力?同样,什么决定了人工智能何时足够好?第三个比较可能是关于人工智能能力范围与人类能力范围的共同延伸程度 - 正如 Simon 和 Newell 早先提到的那样,他们认为这最终会实现。人工智能系统在这方面变得多好可能预示着我们和社会将迎来一个新时代,就像之前讨论的那样。但也许最重要的比较是关于我们选择将人工智能用于什么,以及我们需要人工智能具备什么能力才能造福社会。在任何此类比较中,以及我们如何设计、开发和部署人工智能,社会影响似乎不是既定结论,而是取决于我们的选择。

这一切值得吗?如果不值得,一个合乎逻辑的反应可能是停止一切,停止进一步开发和部署人工智能,把诅咒放回潘多拉的盒子。这似乎不太现实,考虑到已经释放的巨大经济和战略利益,以及国家之间和公司之间的激烈竞争,更不用说人工智能对其用户的有用性以及对社会的诱人有益可能性,其中一些已经实现。我对这个问题的回答是有条件的肯定。

几年前,在一次人工智能会议上,我参加了一个小组讨论,主持人 Stuart Russell 提出了一个思想实验。我忘记了确切的表述,甚至忘记了我是如何回应的,但我现在这样表达:

到 2050 年,人工智能已经被证明对社会有巨大的益处,并且普遍被认可为如此。发生了什么?

这个思想实验旨在引出我们实现的最有价值的可能性,我们实现的最有益的机会,我们解决的难题,我们避免的风险,我们避免的意外后果、滥用和滥用,以及我们缓解的弊端,所有这些都是为了在不太遥远的未来实现积极的结果。换句话说,这是一种询问如果人工智能要成为社会的净收益,我们需要做对什么的方式。

本期《Dædalus》中的文章突出了我们必须做对的许多事情。根据这些讨论和其他讨论,以及不断增长的文献,64 可以编制一个长期工作清单,65 其项目可以分为以下几组:第一组与构建足够强大和有能力的人工智能以实现令人兴奋的人类有益可能性的挑战有关,但同时也要确保安全,不造成或加剧个人或群体伤害,并能够赢得公众信任,特别是在社会利益很高的地方。第二组挑战涉及将人工智能的发展和使用集中在它可以对人类做出最大贡献的领域 - 如健康和生命科学、气候变化、整体福祉,以及基础科学和科学发现 - 并为所有人带来净正面的社会经济成果。”所有”这个词非常重要,因为如果不特别注意这一点,所产生的人工智能的特征及其好处可能只会流向少数个人、组织和国家,很可能是那些在其发展和使用方面处于领先地位的国家。第三组挑战集中在人工智能的负责任开发、部署、使用和治理上。这一点特别重要,因为由此引发的公司和国家之间在人工智能领导权方面的巨大经济和地缘政治利益以及激烈竞争。不优先考虑负责任的人工智能方法可能导致有害和不安全的部署和使用,直接滥用,更多的意外后果,以及各种竞争者之间的不稳定竞赛条件。第四组挑战与我们有关:我们如何共同发展我们的社会系统和机构,以及如何在日益强大的人工智能时代协商作为人类的复杂性。

本卷的读者无疑会对如果人工智能要成为人类的净正面因素我们集体必须做对什么形成自己的观点。虽然随着我们对人工智能的使用和社会经验的增长以及人工智能本身变得更加强大,这样的清单必然会发展,但对它们的工作不能等待。

回到问题,这值得吗?我的肯定回答取决于我们是否能够面对并做对这些困难的问题。目前,似乎大多数人类智慧、努力和财务及其他资源不成比例地集中在人工智能的商业应用和经济潜力上,而不是足够关注其他对人工智能成为人类净收益也至关重要的问题,考虑到所涉及的利害关系。我们可以改变这一点。

**文章关键字:**人工智能 社会 伦理 科技

作者:东海新闻网