4 0 0 - 1 0 0 - 5 6 7 8

探索世界

人工智能可能对人类构成威胁

  人工智能可能对人类构成威胁

   20世纪中期的天文日,当着名的达特茅斯着名的达特茅斯暑期学校的研究人员梦想创造第一个智能机器时,似乎遥遥无期。对人工智能(人工智能)的社会影响的担忧在上升。最近科技大师,如Elon Musk和Bill Gates的发表了一个显着的反乌托邦边缘。他们建议,人工授精的扩散和进步可能对人类构成存在的威胁。

  

   尽管有这些担心,关于政府对人工智能的监管的适当作用的辩论一般是缺乏的。对此有很多解释:在技术进步方面,法律几乎总是在追赶;有一个决定性的反政府自由主义者屈服于一些领先的思想家和开发商的人工智能;而技术本身似乎不包括传统的监管结构。

  

   幸运的是,现有文献中的差距已经开始填补。最近的一个补充是Matthew Scherer的文章 调节人工智能系统 的形状。这篇文章很好的许多事情是,它发展了这样的情况,认为人工智能是(并将是)异常困难规管,同时试图制定一个具体的建议,以某种形式的适当的监管。

  

   在这篇文章中,我想考虑Scherer的例子,认为人工智能是(并将是)异常难以规范。该案件包括三个主要论点:(i)定义论证; (ii)事后论证和(iii)事前论证。这些论点引起八个具体的监管问题(如下图所示)。让我们依次在每个地址。

  

   (注:我不会考虑人工智能的风险在这一职位上是否值得认真对待,也不会考虑监管是一件好事还是坏事的一般哲学政治问题;我将假设它有一些价值,但最低限度可能)

  

  1.定义参数

  

   Scherer的第一个论点集中在定义人工智能的困难。 Scherer认为,有效的监管体系需要对被监管的内容有一些明确的定义。问题是,术语 人工智能 承认没有容易的定义。因此,虽然Scherer不以这种方式表达它,似乎以下参数是引人注目的:

  

   (1)如果我们不能充分界定我们正在监管的是什么,那么建立有效的监管制度将是困难的。

   (2)我们不能充分定义 人工智能 。

   (3)因此,建立一个有效的人工授精系统将是困难的。

  

   Scherer花费大部分时间看着前提(2)。他认为没有广泛接受的人工智能系统的定义,并且已经提供的定义在实践中将是无益的。为了说明这一点,他呼吁罗素和诺维格关于人工智能的主要教科书中提供的定义。这些作者指出,人工智能的定义往往符合四个主要类别之一:(i)像人类一样思考,即人工智能系统是对人类采用类似思维过程的人; (ii)像人类一样行事,即人工智能系统是行为上等同于人类的系统; (iii)理性思考,即人工智能系统是具有实现这些目标的目标和理由的系统; (iv)理性行事,即人工智能系统是以可被描述为目标导向和目标实现的方式行事的系统。然后,根据人工智能系统是窄/弱(即集中在一个任务)还是宽/强(即集中在许多),进一步区分。 Scherer认为,从监管的角度来看,这些定义都不令人满意。

  

   思维和行动像一个人是一种流行的方式在早期定义人工智能。事实上,该领域的开创性论文--Alan Turing的 计算机器和智能 - 采用了一种 人类 的人工智能定义。但是,这种普及现在已经减少。这是因为几个原因,其中主要的原因是设计系统试图模仿人类认知过程,或者行为上与人类无法区分,在构建实际系统时不是非常有效。这个典型的例子是下象棋电脑的发展。这些系统不以象人的方式下棋,或想象棋;但他们现在在国际象棋比任何人都更好。如果我们为了监管目的采用一种思维/行为像一个人类定义,我们会错过许多这些人工智能系统。由于这些系统是可能构成最大公共风险的系统,这将不是非常有用。

  

   思维和理性行为是当今更为流行的人工智能定义方法。这些定义集中于系统是否可以在窄域或广域中实现目标(即,能够优化价值函数的系统)。但他们也有他们的问题。 Scherer认为,理性地定义是有问题的,因为以目标为导向的方式的思维往往假定,口语化,做思维的系统具有精神状态,如欲望和意图。很难说人工智能系统是否有这样的精神状态。至少,这似乎是一个哲学问题,法律监管者不能解决(不是哲学家装备得更好)。采取合理的定义似乎更有前途,但他们往往是低于和过度包容。他们往往是过度包容的,因为几乎任何机器都可以说是以目标导向的方式行动(Scherer给出了简单的冲压机的例子)。它们往往是欠包容性的,因为行为不合理的制度可能对公众构成更大的风险,因此需要更加密切的监管审查。

  

   我认为Scherer是正确的突出这些定义问题,但我不知道他们是多么严重。监管架构可以通过法律来实现,法律以语言的模糊和不精确的语言表达,但是模糊和不精确的问题在法律上是无处不在的,并且不会成为监管的不可逾越的障碍。我们调节 能量 和 医学 和 运输 ,尽管所有这些东西在或多或少程度上模糊。

  

   这使我们回到前提(1)。一切都取决于我们认为是一个 充分 的定义。如果我们寻找一个定义,给我们类别成员的必要和充分的条件,那么我们可能在寻找错误的事情。如果我们正在寻找涵盖大多数感兴趣的现象的东西,并且可以用来解决与技术相关的公共风险,那么可能有理由更乐观。我倾向于认为我们应该在建立监管制度的立法中提供模糊和过度包容的定义,然后将其交给监管机构,以确定他们应该受到什么监管。

  

   为了公平起见,Scherer承认这个论证不是一个完全禁止的规则,并且提供自己的,承认的循环的人工智能定义作为任何系统执行任务,如果它是由一个人类,将被称为需要智力。我认为这可能是欠包容,但它是一个开始。

  

  2.事后论据:责任差距和控制问题

  

   术语 事后 和 事前 经常用于法律学术。对于学习拉丁语或熟悉 p.m. 和 a.m. 含义的任何人来说,他们的意义都是显而易见的。它们分别大致和分别地表示 事后 和 事实之前 。在这种情况下, 事实 涉及到人工智能系统的构建和实施。 Scherer认为,在人工智能的研究和开发(事前阶段)和一旦人工智能被 释放 到世界(事后阶段)中,就会出现监管问题。这似乎是平淡的,但值得将监管挑战分成这些不同的阶段,以便更清楚地了解可能存在的问题。

  

   我们可以从看到一旦人工智能被 释放 到世界时出现的问题开始。当然,很难预测这些问题在事实之前会是什么,但是有两个一般性问题,即监管机构需要注意的问题。

  

   第一个是我们可以称为 可预见性问题 。它突出了大赦国际可能对法律责任的传统标准提出的问题。这些传统标准认为,如果对另一人造成某些损害,则其他人可能对该损害承担责任,只要所述损害是可合理预见的(法律标准比这更多,但这是我们现在需要知道的)。对于大多数工业产品,此法律标准是足够的:制造商可以对可以合理预见使用该产品的所有伤害负责。与人工智能的东西可能更棘手。 人工智能系统通常被设计为自主的,并且以创造性的方式(即,原始设计者和工程师不总是可以合理预见的方式)行动。

  

   Scherer给出了C-Path,一种癌症病理机器学习算法的例子。 C-Path发现癌细胞周围的基质(支持性组织)的某些特征是比实际癌细胞更好的疾病进展的预后指标。这使许多癌症研究者感到惊讶。如果这种自主创造力变得普遍,那么人工智能所做的可能是不可合理预见的,如果人工智能程序造成某些伤害或伤害,人们可能无法获得法律赔偿。

  

   虽然值得考虑这个问题,我怀疑这不是特别严重。这样做的主要原因是 合理的可预见性 责任标准不是城里唯一的游戏。法律已经规定了严格的责任标准(即没有过失的责任)和代理责任(即由另一代理人执行的行动的责任)。这些形式的责任可以扩大,以涵盖自主和创造性的人工智能可能产生的 责任差距 。

  

   第二个事后问题是 控制问题 。这是一个担心的人,如伊隆 马斯克,比尔 盖茨和尼克 博斯特罗姆。当人工智能程序以不再能够被其人类制造者控制的方式行动时,出现这种情况。这可能由于多种原因而发生。最极端的原因是人工智能比人类更聪明,更快;不太极端的原因可能包括有缺陷的编程和设计。当人工智能和程序员的兴趣不再彼此一致时,失去控制可能特别成问题。 Scherer认为有两个不同的控制问题:

  

   本地控制问题:当一个特定的人工智能系统不能再被已被赋予控制该系统的法律责任的人控制时产生。

  

   全局控制问题:当人工智能不再能被任何人控制时产生。

  

   这两个控制问题都会带来监管方面的困难,但后者显然比前者更令人担忧(假设人工智能能够造成严重损害)。

  

   我没有太多地谈论这一点,因为我同意这是一个问题。我也喜欢这个控制问题的特定框架,因为它不会把太重视一个人工智能的智能。目前关于人工超级智能的狂热是哲学上有趣的,但它可以掩盖这样一个事实,即具有低得多的能力水平的人工智能系统如果在人类的控制之外(无论是在本地还是全球),可能造成严重的问题。

  

  3.反义词:Discreetness,Diffuseness,Discreteness and Opacity

  

   对于在创建和实施人工智能系统后出现的监管问题,这么多。在研究和开发阶段出现的问题怎么办? Scherer认为,存在四个这样的问题,每个问题与人工智能研究和开发可以利用在信息技术时代创建的基础设施的方式相关联。在这个意义上,人工智能提出的监管问题与其他软件开发系统产生的监管问题没有内在的不同,但是风险可能会高得多。

  

  这四个问题是:

  

   谨慎问题:人工智能的研究和开发可以使用监管机构不容易看到的基础设施。这里的想法是,人工智能程序可以在线组装,使用容易为大多数人使用的设备,并使用位于不同地区的程序员和开发人员的小团队。许多监管机构旨在处理大型工业制造商和能源生产商。这些实体需要巨大的资本投资,并且往往高度可见;创建机构比处理不太明显的运营商可能会证明棘手。

  

   扩散问题:这与上述问题有关。这是当使用研究人员团队开发人工智能系统时出现的问题,这些研究人员是在组织,地理上,或许更重要的是在司法管辖区分开。因此,例如,我可以使用位于美国,欧洲,亚洲和非洲的研究人员编制人工智能程序。我们不需要形成任何连贯的,法律上可识别的组织,我们可以利用我们的管辖扩散来逃避监管。

  

   离散问题:人工智能项目可以利用许多离散的,预先存在的硬件和软件组件,其中一些将是专有的(所谓的 现成 组件)。将所有这些组件结合在一起的效果可能不完全了解,直到事后。 (不要与谨慎问题混淆)。

  

   不透明度问题:人工智能系统的工作方式可能比以前的技术更加不透明。这可能有几个原因。这可能是因为系统是从自身受到专有保护的不同组件编译的。或者它可能是因为系统本身是创造性的和自主的,因此使它们更难以逆向工程。同样,这给监管机构带来了问题,因为对于这些系统可能提出的问题缺乏清晰性,以及如何解决这些问题。

  

   每个这些问题看起来是严重的,任何监管系统都需要处理它们。在我看来,扩散性和不透明度问题可能是最严重的。扩散问题表明,需要在人工智能监管方面进行全球协调,但过去在全球协调方面的努力不会激发信心(例如气候变化;核扩散)。不透明度问题也是严重的,并且可能由于在监管决策中越来越多地使用人工智能(和需要)而变得更加复杂。我以前写过这个。

  

   Scherer,他认为,这些问题中的一些可能不会像他们第一次出现一样严重。 例如,他建议尽管谨慎是一种可能性,但是人工智能研究和开发仍然可能由大型公司或政府机构承担,这些机构对潜在监管机构来说更加明显。 因此,从监管的角度来看,我们应该感谢像Google,苹果和Facebook这样的大公司购买了更小规模的人工智能开发者。 鉴于现有的监管体制结构,这些较大的公司更易于监管,但这必须与这些组织的相当大的游说力相平衡。 1/2 12下一页尾页

  

  

   除特别注明外,本站所有文章均为 人工智能学习网 原创,转载请注明出处来自人工智能可能对人类构成威胁

今日热点