来源: 人工智能哲学探索
作者:雅克布·约翰森(英国圣玛丽大学) 王鑫(辽宁大学)
一、引言:AI、神经形态硬件、人工直觉
AI 在媒体上的讨论越来越多,很多广为流行的专业网站上的相关探讨涵盖了 AI 发展的最新趋势和观点。AI 被认为是正在进行的一项具有重大意义的技术开发,人类正身处其中[1-3] 。 但是,正如 Goode 指出的那样,这种讨论的特点往往被“ 神奇的思维” 左右,夸大和夸张的宣称其实与事实并非相符。[2] 正是 AI 的“情感效力”[2] 激发人们对其的普遍看法,显示出作者对这项技术的惊奇、热情和恐惧。 本研究并不把重点放在 AI 的准确性、作者的情感投入或受众对 AI 的潜在反应上,而是遵循另一目标:通过考察当代 AI 的两个特定趋势或方面( 而非 AI 整体) 时,旨在分析神经形态硬件和人 工直觉的热门文章中阐述了人类主体的哪些观点。 这种关注促使人们能够对人工智能的具体发展和讨论进行深入审视,并从根本上关注AI 与人类、化身、意识和直觉等之间的关系。 这一目标被视为关于 AI 和人类之间不断变化边界的更广泛的讨论,特别是在逻辑和直觉方面,人类大脑的功能也激发了 AI 硬件的开发。正如研究者对人工直觉和神经形态硬件的讨论所认为的那样,AI 试图模仿和采用人脑的特征,并且两者都让 AI 看起来比现在更高效、更自主、更人性化也更灵活。 本研究讨论的数据表明,AI 可以从人类的大脑、人类的情感和人类的直觉中学习,建立在这些功能之上的 AI 可以比人类的大脑更好、更先进。 虽然这些观点体现了AI 社区中许多人的意愿,他们希望人工智能可以像人类一样,比人类自身更高效地执行任务,但是这些观点并没有对 AI 的透明性、可解释性和可问责性等问题给予足够的重视。
关于 AI,有许多定义[4] 。 比如,AI 是指“对从环境接收感知并执行动作的智能体的研究”。[4] 通常是指机器,比如数字计算机。Turner 将 AI 定义为非自然实体通过评估过程做出选择的能力。[5] 对 Turner 来说,非自然指的是人造的和机器制造(例如,当 AI 系统创建其他 AI 时)。 而《大英百科全书》将 AI 定义为“数字计算机或计算机控制机器人执行与智能人相关任务的能力”。[6] 在这个意义 上,智能生命就是指人类,他们有能力“推理、发现意义、概括或从过去的经验中学习”。[6] 虽然 AI 技 术自 20 世纪 50 年代以来一直在发展中,但近年来,在模拟人类认知特征方面,AI 的复杂性有所提 高。[7] 总的来说,AI 在过去 10—15 年里成长迅速,是得益于物联网[8] 的发展,以及数据处理和基于传感器的技术在不同领域的广泛进步。AI 的普遍存在,促使人文和社会科学领域对此的学术讨论不 断增加,也得到了新闻传播学界、业界对 AI 的广泛关注。 鉴于人工智能技术试图模拟或模仿人类行 为(如解决问题、认知能力或模式识别),并提升人类的这些特征,特别是 AI 被视为具有复制和提高 人类大脑的核心能力,它理所应当地会吸引学者和记者的大量关注。 不过,“即使有一台几乎拥有无 限能力的电脑,人类仍然不知道它如何达到大脑的智力水平。”[4] 然而,在开发 AI 技术时,一方面,AI 的某些部分试图寻求建立在人类大脑的结构和能力之上,例如,人工神经网络建立了大脑活动的数 学模型;与此相反,思考大脑有助于扩展技术概念的范围。[4] 本研究基于 AI 当前发展的趋势和状态, 重点关注两个以“人”作为发展蓝图的方面,即:神经形态硬件和人工直觉。 两者都被视为当前讨论 AI 趋势的范例,并且这些趋势在一些关注技术发展的网站上被广泛热议。
人工神经网络是以人脑为模型。 这些软件,通常是由能够“通过从数据中学习解决方案来解决问题的自我设计”的算法组成[9] 。 这些系统“学习”执行任务,不需要监督,也没有特定的规则。 比如,在图像识别中,通过人工分类的图像训练,可以对图像进行分类。 与此相关的是神经形态硬件的最新发展,也是模拟大脑结构和生物神经网络,这被认为是 AI 的重大发展。[10-11]
传统的中央处理器( CPU) 处理指令基于“ 时钟时间” ———信息以固定的间隔传输,就像由节拍器管理一样。 通过将神经元的数字等高线封装起来,神经形态学就可以利用“尖峰”(需要时就可以发送的突发电流)进行并行通信(而且不像计时的时间那么死板)。 就像我们的大脑一样,芯片的神经元通过处理传入的电流来进行交流———每个神经元都能从传入的脉冲决定是否向下一个神经元发送电流。 让这成为一件大事的是,这些芯片处理 AI 算法所需的能量要小得多。[12]
与神经形态硬件和神经网络相比,人工直觉还处在起步阶段[13-15] ,尚未实现。 一些观点认为它 将“取代”AI[16] 。 虽然有对人工直觉的炒作嫌疑,但这使分析变得更加有趣,因为它既试图被创造, 也被设想如何成为现实。 人工直觉是指 AI 系统做出直观选择或对问题做出直观反应的能力[14] 。AI 在计算机科学中的探讨和研究,也引起人文学者的兴趣。 这可以被看作更广泛的跨人类/后人 类[17-19] 和“非人类转向”[20] 研究的一部分,从不同视角研究了主体和客体、人类和机器之间的关 系[7-8,21-24] 。N. Katherine Hayles 在最近的一本书中提出了这样的观点:人类和计算技术,如 AI 驱动系 统,都具有认知能力。Hayles 特别关注认知与她所声称的无意识认知之间的关系。 无意识认知是指 在神经元层面上的过程,这些过程对意识是不可接近的,但对意识却是至关重要的。 机器本身并没 有意识,尽管如此,它还是能够进行无意识认知。 无意识认知和直觉两者之间有一些相似之处[7] 。 根据这一观点,AI 的未来可能是这样一种情况,其特征在于机器能够比人类更好地思考,这是由于无 意识认知的直觉方面(另见[25] )———正如看到的那样,AI 行业和大众评论同样对这一前景有了新的预期。
事实上,只有少数学者关注和研究 AI 是如何在流行网站被构建,尤其是通过这种叙述所展示的 人类形象[1-3] 。 来自人文学者们对计算技术和 AI 的批评更为普遍,但是他们关注的只是理性,忽视了人的本质和模仿人类特征的其他复杂性[26-31] 。 目前还没有研究关注神经形态硬件和人工直觉在更广泛的科技界是如何被讨论的。
本研究选择了神经形态硬件和人工直觉这两种现象,前者是硬件的开发,后者则是基于代码的 开发,作为 AI 技术的两个重要方面,二者也是相互关联的。 笔者重点考察这个问题在面向非专业受 众的公共网站(如 Wired 或 Ars Technica)上是如何被讨论的。 贯穿和引导数据收集和分析的主要问题是:在关于神经形态硬件和人工直觉的热门文章中,对人类主体的看法是什么? 为了对数据进行 定性、详细的内容分析,本研究采取小样本的分析方法,即选择谷歌搜索前两页的文章。 这些文章是 2019年5月通过谷歌搜索关键词“神经形态硬件”和“人工直觉”获得的。 虽然大样本可能是有益的,但本研究以实证分析为主,辅以相关理论阐释,着重于详细的讨论,因此数据量有限。 本研究依据内容并按主题划分共讨论了七个网站,这些主题涵盖在接下来的分析中。
二、AI 对人脑的模拟与超越:关于大脑内外神经形态硬件的讨论
毫不奇怪,本研究参考的网站几乎都提供了神经形态硬件现象背后的功能和技术解释。 比如前面提及的在 Wired[12] 和 Ars Technica 的引文中,都是参照人类大脑来解释这一现象:
该芯片包含 100 万个“神经元”,每个神经元由一组数字晶体管表示,以及 2. 56 亿个“突 触”,也就是它们之间的有线连接。 两个特性使芯片比传统芯片更高效。 首先,像大脑一样,它 通过“尖峰”(spike)进行沟通,也就是从一个神经元向下游神经元发送一个大小的信息包。 因为它可以这样通信,所以信号很简单( 尖峰或没有尖峰) ,而且只有在神经元传输数据包时才偶 尔传输。 第二,和大脑一样,处理和记忆是同时定位的———在神经元和它们的突触中。 在传统的计算机中,处理单元不断地从不同的内存区域获取信息,对其执行操作,然后将新信息返回到内存中,这导致了大量缓慢而浪费的通信。[32]
上述引文的惊人之处在于,尽管人类大脑和神经形态芯片之间存在着一种隐含的区别,而这种区别部分是由大脑的某些神经功能所激发的,但通过将两者等同起来,这种区别就被打破了,“ 神经元的等价物”使用“尖峰”。 突触、神经元和尖峰都是人类大脑功能的基本方面,尽管它们在描述神 经形态硬件时都被用引号括起来,但这些术语仍然被使用。“神经元的数字等价物”“就像我们自己 的大脑一样”和“就像大脑一样”的表达方式表明,这种技术已经直接模仿了人类大脑。 它不仅受到神经元如何交流的启发,还有效地重现了芯片中大脑功能某些方面的技术性。 这是该技术的一个重要框架,因为它等同于人类大脑和用于AI的硬件。 在现实中,一些外部的东西(人类大脑)已经通过 技术被模拟出来,并且广泛地用于展示神经形态硬件是如何像人类大脑一样[1] 。 这一框架暗示人类 大脑的复杂性已经在硬件上被成功地再现和模拟了。 一个硬件(神经元、突触、尖峰)被映射到另一 个硬件(芯片、电子、瓦特)上。 这些公式已经揭示了科技行业内外许多人的固有信念,即计算机技术可以成功地采用和调整大脑的高效神经元动力学,以实现其自身的目的。 这是否属实,仍有待商榷。 从上面的引文中,人们会认为大脑实际上比 AI 在信息传输的效率和经济使用方面更好。 神经形态 芯片比传统芯片更高效、更节能,因为这种芯片消除了一些活跃的或者不活跃的“无用”通信。 人类大脑和 AI 硬件的这个等式在下面的引文中得到了进一步的证明:
神经形态计算的灵感来自人类大脑的功能,目前人类大脑在所有需要创造力或将知识转移 到其他问题上的表现仍然优于机器。 此外,人脑的能量效率令人难以置信,仅使用约 20 瓦[2] 。 大脑中主要的计算单元是神经元,成年人大脑中大约有 1000 亿个神经元。 这些神经元由超过 15 万公里的神经纤维和 150 万亿突触[4] 连接,使大脑结构大规模并行。 作为对比:截至 2017 年 11 月,世界上最快的超级计算机拥有 10 649 600 个处理器内核,使用 15731kW 的能量[4] 。 单个 CPU 核心可以执行的计算量不能与单个神经元执行的计算量直接比较。 然而,特别是在人工 智能的应用中,人类的大脑可以作为一个非常强大和高效的计算系统的蓝图。[33]
Sherry Turkle 早于 2005 年就指出,自从个人电脑在人类日常生活中获得如此基本的功能之后, 个体就开始用电脑和数字技术的功能来描述他们自己和他们的思想[34] 。 类似的情况发生在上述引 自 Wired,Ars Technica 和 MI Garage 的文章描述中。 大脑( 据说) 像电脑一样有效地运作,所以这些功 能可以转移到硬件上。 它的“主要计算单元”是神经元。 然而,在这一点上,大脑仍然是一台比任何 以它为模型的硬件更好的计算机,或者在技术上更先进。 当涉及像解决问题这样的复杂任务时,它的表现“优于”神经形态计算;它也是节能的,它使用瓦特就像计算硬件一样。 从上面的引文中可以 清楚地看出,大脑可作为能量和信息传输效率的蓝图。 考虑到 AI 的最终目标是在本体论和认识论, 或者说硬件和软件方面复制人类智能,这或许并不令人意外。 但这样的方程式是否能同时反映人脑 的复杂性,以及更广泛意义上作为研究对象———人的复杂性,仍然是个问题。 稍后我们将更详细地讨论这一点。 前面引用 Wired 同一篇文章的另一段内容讨论了在计算机上模拟的复杂大脑模型 Spaun:
Spaun 证明,计算机可以与环境进行流畅的互动,并执行类似人类的认知任务,比如识别图 像和控制机器人手臂记录它所看到的东西。 这台机器并不完美,但它是一个惊人的证明:有一 天,电脑可能会模糊人类与机器认知之间的界线。[12]
另一个评论者写道:
随着 AI 的成熟,在日益沉浸和复杂的场景中开发和训练这些系统的需求成为进展的主要 关注点。 我们知道,AI 领域的最终目标是生产出一种通用人工智能(AGI),它在人类努力的所 有领域都能超越人类,我们需要建设一个足够富裕、足够大、有足够多复杂实体的世界,以实现 这一发展的最大化。[35]
这些引述表明,AI 的未来指日可待。 在未来,计算机将对人的大脑进行充分的模拟。 计算机能“执行类似人类的认知任务”,哪怕是相当简单的任务。 然而,目标是明确的:AI 必将超越人类的认 知能力[7] ,这样的叙述以一种必然面向进步的方式构建了 AI。AGI 只是一个用足够的数据创建足够 复杂的环境来训练系统的问题,更好和更复杂技术的因果关系已然建立。( 实际上,Artificial Mind 的 研发者并不认为这是一个需要足够多数据和复杂的环境训练就能够解决的问题,而是使用不同于现 有AI的新的计算机语言才有可能实现)人类的大脑,无论多么复杂和聪明,最终都会输给AI。 然而, 我们还没有做到这一点:神经形态硬件(以及软件)目前只能完成特定的任务。 例如,曼彻斯特大学 的 SpiNNaker(Spiking Neural Network Architecture)项目被命名为能够找到“数独(sudoku)的解决方案 ......或者用四种颜色给地图上色,而相邻国家的颜色不相同......”[36]。 或如下述:
传统上,编写计算机程序需要编写循序渐进的指令。 例如,教计算机识别狗,可能需要列出 一组规则来指导它的判断:看看是不是动物;检查它是否有四条腿;检查它是否比猫大、比马小; 检查它是否吠叫等。 但良好的判断需要灵活性,如果电脑遇到一只不会叫、只有三条腿的小狗怎么办? 那么,也许需要更多的规则,但是为计算机做出的每种类型的决策必须列出无穷无尽的规则并重复该过程是低效且不切实际的。[32]
AI 需要更多的灵活性,更多的跳出框框的思考,而不是将特定的问题与规定的解决方案或属性进行比较。 有一些人提倡,值得探索的解决方案可能是人工直觉。
三、人工直觉和 AI 的人性化:直觉理论与人工直觉的技术逻辑想象
( 一) 关于直觉的理论叙述
关于“直觉”这个术语有很多角度的讨论。 本研究主要借鉴文化研究和情感理论中对直觉的定义(关于这个术语的广泛讨论,请参阅 Chudnoff,2013[37] )。 从历史上看,直觉作为一种较低或相对 没有价值的认知形式,常常被置于理性的对立面。 性别歧视的话语将直觉与女性联系在一起,女性 的逻辑思维能力会更弱,因为她们被认为比男性更情绪化[38] 。 直觉依赖于个人的主体性,因此每个人的直觉都是不同的。 直觉通常被理解为一种经验和感觉的认知形式,而不是完全有意识的认知。 它通常与“直觉”“预感”或“有某种感觉”等术语联系在一起。 直觉指的是一种身体状态或经验,在 这种状态下,个体的行为不必有( 经验的) 证据或证据;它是一种转瞬即逝的东西,被跟随或倾听,然 后可能在并不能充分理解原因的情况下付诸行动;直觉还指一种即时的经验模式,在个体完全没有意识到和认知到之前,就已经发生。 这与某些情感理论是一致的,这些理论强调的是具身体验,这些体验主要是感觉到的,而不是人类身体完全了解的。 情感指的是身体在有意识地了解或反思这些经 历之前,在感官上受到影响的能力[22,39-40] 。 然而,直觉并不反对理性,也不与理性相矛盾,它指的是 本能的感觉。Greg Seigworth 曾写道,“通过直觉能力的经验和实验......超越或溢出智力”[41] 。 对于 Pedwell 来说,直觉是在将其转化为表征性和分析性思维范畴之前的具体经验[42] 。 当然,关于直觉的 理论叙述无论是在哲学家或者文学理论家那里还有很多,根据本研究的需要,在此不再赘述。 目前, AI 仍然是基于逻辑通过算法来实现认知和理解的,但人类不仅具有逻辑认知,还具有超越逻辑和语言限制的直觉。
( 二) 关于人工直觉发展的技术想象
直觉最近引起了AI 领域计算机科学家和评论者的极大兴趣,在某种程度上,这也与神经形态硬件有关。 直觉和它被普遍理解的方式似乎是 AI 一个重要的逻辑组成部分:
我们希望机器能够凭直觉思考的一个原因是为了我们的安全。 应用人工直觉的一个很好 的例子就是自动驾驶汽车或自动驾驶设备。 搭载 AI 软件的机载传感器一直是这些系统的工作 方式,但在某些情况下,它们仍然容易发生事故。 通过人工直觉,自动驾驶汽车可以预测道路上 可能发生的不可预测的事情。[43]
考虑到最近发生的自动驾驶汽车事故,人们可能会同意上述说法,以及 AI 驱动系统需要更直观地发挥作用,而不是像目前这样死板、容易出错。 在上面的引文中,直觉被设定为具有灵活性和动态 性的特征,这是至关重要的。 但机器凭直觉思考到底意味着什么呢? 基于这些评论,直觉是如何被理解和构建的?
在游戏中,我们已经看到许多早期成功的深层强化学习算法的初步部署,比如 DeepMind 的 AlphaGo Zero 已经掌握了超越任何人类玩家能力的围棋和国际象棋棋艺,显示出人类从未考虑 过的战略洞见。 例如 AlphaGo Zero 并没有遵循通常控制人类游戏的 Reinfield 值( 国际象棋棋子 的具体值为:棋子=1,骑士=3,皇后=9等),而是优化棋盘位置,几乎完全忽略棋子值。 有趣的 是,这源于它自学而不是观察人类游戏的能力,从而避免了人类偏见的污染。 然而,在这个过程 中,AlphaGo Zero 产生的性能比任何其他国际象棋引擎都更人性化,它更依赖于启发式或直觉,以达成一个聪明的战略,而较少考虑棋局的位置。[35]
虽然对 AI 直觉系统的需求是可以理解的,即使不存在术语上的矛盾,但问题仍然存在。 虽然人类的直觉是基于经验和积累足够多的“ 数据” ,在给定的情况下凭直觉行事;但当一个人凭直觉行事 时,数据或经验是如何以及为什么被利用,远比之前描述的要模糊和复杂得多。AlphaGo Zero(主要 基于神经网络)或许能够更直观地行动,并自学新的策略,但这与人类的直觉并不相同。 事实上,正 如 Paolo Bory 所讨论的那样,最初的 AlphaGo( AlphaGo Zero 的前身) 击败世界冠军的举动被认为是创 造性的,甚至是漂亮的。 实际上,它与人类并不像。“(比赛)第二天,DeepMind 透露,AlphaGo 之所以 决定下这一步棋,是因为人类棋手下这一步棋的可能性是 1