十年技术深耕细作

为您提供各行业互联网私人定制开发解决方案

免费咨询热线15890197308
新闻资讯
把握先机赢得挑战与世界同步
首页 新闻中心 科技前沿

微软CEO纳德拉新书谈AI:人工智能必须是透明的

来源:新浪创事记 发布时间:2018-01-11浏览:2463次

微软CEO纳德拉新书谈AI:人工智能必须是透明的  编者按:从某种意义上讲,微软现任CEO纳德拉是印度族裔在硅谷的“统治力”的一个最佳例证。  从只身赴美的印度青年,到一家市值超6000亿美元、在世界范围内享有盛誉的跨国公司的CEO,纳德拉完成了从一个优秀技术人员到一个杰出管理者的蜕变。自2014年上任以来,纳德拉带领微软积极转型,三年时间使微软市值翻番,增加3000亿美元,达到17年以来的高点。  《刷新:重新发现商业与未来》是微软CEO萨提亚·纳德拉首部作品,全景地回顾了他上任三年来的变革路径,并系统地总结了他...

微软CEO纳德拉新书谈AI:人工智能必须是透明的

  编者按:从某种意义上讲,微软现任CEO纳德拉是印度族裔在硅谷的“统治力”的一个最佳例证。

  从只身赴美的印度青年,到一家市值超6000亿美元、在世界范围内享有盛誉的跨国公司的CEO,纳德拉完成了从一个优秀技术人员到一个杰出管理者的蜕变。自2014年上任以来,纳德拉带领微软积极转型,三年时间使微软市值翻番,增加3000亿美元,达到17年以来的高点。

  《刷新:重新发现商业与未来》是微软CEO萨提亚·纳德拉首部作品,全景地回顾了他上任三年来的变革路径,并系统地总结了他的核心管理思想。

  以下为节选:

  文/纳德拉

  未来,人工智能将成为一种更常见、更重要的陪伴者,它们可以在照顾老弱病残孕、诊断疾病、教学和咨询方面提供帮助。据市场研究公司Tractica估计,到2021年,这些虚拟数字助理的市场规模将升至近160亿美元,其中大部分增长都来自消费者。如果不用情商来搭配智商使用,人工智能就会走向失败。

  几乎可以这么说:我们是在创造一个新的物种,一个在智力上可能没有上限的物种。一些未来主义者预测,所谓的奇点,即计算机智能超越人类智能的时刻,可能会在2100年之前到来(而另一些人声称这将仍然只是科幻作品中的畅想)。这种可能性听起来令人振奋,但也让人觉得有点可怕—也许两者都有一些。人工智能的发展最终会对人类有助还是有害呢?我坚信是有助的。为了确保这种情况的发生,我们需要跳出“机器对比人类”这个框架来思考。

  科幻作家常常陷入数字对人类的游戏中,甚至技术创新者本身也是如此,就好像是双方在开展一场争霸战一样。1996年,IBM的“深蓝”(Deep Blue)展示了计算机可以在高级别的棋牌游戏中战胜人类,这件事登上了新闻头条。第二年,“深蓝”又向前迈进了一大步,在六局一场的比赛中击败了俄罗斯国际象棋传奇人物加里·卡斯帕罗夫(Garry Kasparov)。在一个历来被视为人类智慧巅峰的领域中,看到人类被计算机战胜,这着实令人震惊。而到了2011年,IBM的“沃森”(Watson)已经在美国智力问答竞赛节目《危险边缘》(Jeopardy)中击败了两位大师级选手。2016年,谷歌DeepMind的阿尔法围棋(AlphaGo)战胜了韩国围棋高手李世石。围棋是一种历史悠久的、复杂的策略游戏,使用的是19×19棋盘。

  毫无疑问,这些都是科学和工程上的巨大成就。但是,除了计算机在游戏中击败人类之外,未来还有更光明的前景。最终,人类和机器将进行合作,而不是相互对抗。想象一下,当人类和机器共同努力解决最大的社会挑战—疾病、愚昧和贫困的时候,可能会发生什么事吧。

  然而,将人工智能推向这个水平将需要更加雄心勃勃的努力。微软剑桥研究实验室负责人克里斯多夫·毕晓普(Christopher Bishop)曾经写过一则备忘录,说这更需要的是类似于整个太空项目的那种努力—多个并行的、独特的但相互关联的登月计划。挑战在于如何为人工智能界定其具有使命性的、宏伟的、鼓舞人心的社会目标。这个领域的风险投资和交易都在明显增加,但这种投资的更宏大目标仍不清楚。1969年,当约翰·F.肯尼迪(JohnF.Kennedy)总统承诺美国将在那一年登上月球时,这个目标之所以被选中,在很大程度上是因为它提出了巨大的技术挑战,需要进行全球性的合作。我认为,我们就需要像这样为人工智能设定一个非常大胆的、雄心勃勃的目标,而不仅仅是那种对当前技术进行增量改进就可以实现的任务。现在是时候在人工智能领域进行更大规模的协调和协作了。

  大家已经朝着这个方向采取了一些行动。2016年,微软、亚马逊、谷歌、脸谱网和IBM宣布了人工智能合作伙伴关系,希望用它惠及人类和社会。此举的目的是增进公众对人工智能的认知,制定与该领域挑战和机遇有关的最佳实践。这个合作伙伴关系将在汽车和医疗、人机人工智能协作、经济冲击,以及人工智能如何用于社会公益等诸多领域,推动安全人工智能系统的开发和测试。

  太多关于人工智能未来的辩论都忽视了机器和人类合作的潜在之美。我们对人工智能的看法似乎被困在电影《2001太空漫游》(2001:ASpace Odyssey)中那个流氓计算机HAL的恶意回声和今天的个人数字助理小娜、Siri和Alexa(一家专门发布网站世界排名的网站)的友好声音之间。有些人会梦想,当机器为我们开车,处理我们日常琐事,并帮助我们做出更好的决定时,我们将如何利用突然多出来的空闲时间。有些人则在担心机器人会引起大规模的经济冲击。我们似乎无法超越这种乌托邦和反乌托邦的非黑即白观念。

  我认为,人工智能方面最有成效的辩论并不是善与恶的对抗,而是要看一看创造这种技术的人和机构被灌输了怎样的价值观。约翰·马尔科夫(John Markoff)在《与机器人共舞》(Machines of Loving Grace)一书中写道:“在充满智能机器的世界中,控制方式是一个问题,解决它的最好方法就是了解实际构建这些系统的人具有怎样的价值观。”这是一个有趣的观点,也是我们这个行业必须致力于解决的事情。

  在开发者大会上,我以三个核心原则为基础解释了微软的人工智能策略。

  第一,我们要建立一种增强人类能力和体验的人工智能,而不是从人对比机器的角度来开发的人工智能。我们要把重点集中在人类的天性上,比如创造力、同理心、情感、身体的物理性,以及可以与强大的人工智能计算结合起来的洞察力—可以更快速地对大量数据进行推理并进行模式识别的能力—以此来推动社会进步。

  第二,我们也要把信任直接构建在技术之中。我们必须把隐私保护、透明度和安全性注入技术中。人工智能设备必须在设计上具有检测出新的威胁,并找出适当的保护方法的能力。

  第三,我们构建的所有技术都必须包容和尊重每个人,为人类服务,不分文化、种族、民族、经济地位、年龄、性别和身心能力。

  这是一个好的开始,但我们可以做得更好。

  科幻作家艾萨克·阿西莫夫(Isaac Asimov)几十年前就在思考这个挑战。在20世纪40年代,他提出了“机器人三定律”(Three Laws of Robotics),将其作为他的小说中机器人的伦理规范。阿西莫夫定律是有优先级的,第一条优先于第二条,第二条优先于第三条。第一,机器人不应该做出伤害人类的事情,也不应该通过不作为来伤害人类。第二,它们必须服从人类的命令。第三,它们要保护自己。对于思考人机交互来说,阿西莫夫定律是一个易用的、很有启发性的工具,而且对于构思一个这种交互陷入道德和技术困境的故事来说也是一个有效的工具。然而,它们并没有充分体现研究人员和科技公司在构建计算机、机器人或软件工具时首先应该阐明的价值观或设计原则。它们也没有讨论人类必须在下一个时代拥有怎样的能力,在那个时代,人工智能和机器学习将是一股更广泛的经济推动力。

  对风险进行思考的并不只有阿西莫夫一个人。发明家和创业家埃隆·马斯克甚至说,如果不给人类的大脑增加一个数字智能层—你的皮质和计算机人工智能之间的高带宽,那么我们都会变得和家猫差不多。计算机先驱艾伦·凯(Alan Kay)则表示:“预测未来的最好方法就是创造未来。”从人工智能的角度来说,他的意思基本上是,不要预测未来会是什么样子了,而要以一种有原则的方式创造未来。我同意这个观点。和任何软件设计上的挑战一样,一个平台在建立之初就应该采取这种有原则的做法。从软件开发的角度来说,人工智能正在成为第三运行时—也就是下一个系统,程序员在这个系统之上构建和执行应用程序。个人计算机是微软开发应用程序的第一运行时,这些应用程序包括Office工具套件—Word、Excel和PowerPoint等。今天,Web是第二运行时。而在人工智能和机器人的世界中,生产力和沟通工具是为一个全新的平台构建的,这个平台所做的事情不仅仅是管理信息,还包括从信息中学习,与物理世界交互。

  如今,人们正在决定第三运行时的面貌。比尔·盖茨在1995年春季发布的备忘录《互联网浪潮》(Internet Tidal Wave)中,预见了互联网对连接、硬件、软件开发和商业的影响。20多年后的今天,我们正在展望一波新的浪潮—人工智能浪潮。那么当我们为即将到来的海啸做准备时,应当用什么样的通用设计原则和价值观来指导我们思考、设计和开发呢?

  有几个人牵头提出了这个问题。麻省理工学院媒体实验室的辛西娅·布雷扎尔(Cynthia Breazeal)致力于探索人工智能和机器人技术的人性化方法。她认为,技术人员经常忽略设计中的社交和行为元素。辛西娅在最近的一次访谈中说,虽然人类是所有物种中最具社交性和情感的,但我们基本上没有花费什么时间来思考技术设计中的同理心问题。她说:“毕竟,我们总是通过沟通和协作来体验这个世界。如果我们对与我们合作的机器感兴趣,那么我们就不能忽视人性化的方法。”

  在我们推动人工智能发展的过程中,最重要的步骤就是对人工智能设计达成一个伦理和同理心的框架—这是开发那种不仅规定了技术要求,还规定了伦理和同理心的系统的一种方法。为此,我已经考虑了人工智能设计的原则和目标,我们应该作为一个行业、一个社会来对此进行讨论和辩论。

  人工智能的设计初衷必须是为人类提供帮助。即使我们研发的是更加自主的机器,我们也需要尊重人类的自主权。协同机器人(co-bots)应该承担一些危险的工作,比如采矿,从而为人类工人提供安全网和保障。

  人工智能必须是透明的。不仅仅是技术专家,我们所有人都应该明白技术是如何运作的,其规则是怎样的。我们想要的机器不仅是智能的,而且是可以让人理解的;不仅仅是人工智能,而是共生智能。这种技术对人类很了解,但人类也必须了解技术是如何看待和分析世界的。如果你的信用评分出了错,你却无法纠正它怎么办?当社交媒体收集有关你的信息,却得出了错误的结论,这时就会需要透明度。伦理和设计是息息相关的。人工智能必须最大限度地提高效率,同时又不会损害人的尊严。它应该保护文化,赋能于多样性。为了确保达成这样的结果,这些系统在设计时需要人们进行更广泛、更深入和更加多样化的参与。未来的价值观和美德不应该由技术行业来决定,也不应该仅仅由北美、西欧和东亚这些富强之地的居住者来控制。每个文化背景的人都应该有机会参与塑造人工智能设计中固有的价值观和宗旨。人工智能必须警惕社会和文化偏见,确保研究具有适用性和代表性,让那些有缺陷的思维方法不会在故意或无意中导致歧视长存。

  人工智能在设计上必须注重智能隐私,能够为个人和群体信息提供精密的保护,程度要足以赢得人们的信任。

  人工智能必须具备算法问责制,这样人类就可以撤销那些引发意外伤害的做法。我们必须为预料之中的和预料之外的情况设计这些技术。

  这些伦理方面的考虑有很多都是结合在一起的,比如在我们的数字体验中就是如此。越来越多的算法会根据你以前的行为和偏好来影响你的体验—我们阅读什么内容,我们遇到什么人,我们可能会“点赞”什么东西。我们每天都会收到数百次这样的建议。我觉得这就提出了一个问题:在这样一个世界里,自由意志意味着什么,它又是如何影响到在观念上差异悬殊的用户和社区的?在设计内容和信息平台时,社会的多样性和包容性有什么作用?在理想情况下,我们很清楚自己的数据是如何运用于个性化内容和服务的,我们应该可以控制这些数据。但随着我们越来越多地进入一个复杂的人工智能世界,事情就并不总是那么容易了。我们如何保护自己和社会免受信息平台的不利影响—这些平台越来越多地建立在人工智能之上—是优先考虑互动度和广告收入,还是优先考虑事实、意见和情境的社会多样性可以带给我们的宝贵教益?这是一个重大问题,需要进行更多的思考。

  但对人类来说,也有一些“务必”做到的事情,特别是需要清楚地考虑到未来世代必须优先考虑和培养的技能。为了不和时代脱节,我们的后代将需要:

  同理心——同理心在机器中难以复制,在人类与人工智能的世界中,它将是无价的。对合作和建立关系来说,感知别人的想法和感受是一种至关重要的能力。

  如果我们希望利用技术来满足人类的需要,我们人类就必须培养更深入地理解和尊重彼此的价值观、文化、情感和驱动力的能力,来发挥引导作用。

  教育——有些人认为,由于人类寿命的延长,出生率下降,在教育上的支出也会减少。但我认为,创造和管理我们今天还不能理解的创新,需要我们增加对教育的投入,以获得更高层次的思维方式和更公平的教育成果。大规模实施新技术需要知识和技能,而培养这些知识和技能是一个艰难的社会问题,需要很长时间才能解决。动力织布机是在1810年发明的,但由于缺乏训练有素的技术人员,这个发明花了35年的时间才转变了服装行业的面貌。

  创造力——人类最出类拔萃的技能之一就是创造力,这一点不会改变。机器将丰富和增强我们的创造力,但人类创造事物的动力将一直处于中心位置。小说家裘帕·拉希里(JhumpaLahiri)在一次采访中被问及,为什么她拥有如此特别的英语文采,新作品却要使用她的第三语言意大利语来写,她回答说:“继续寻找,这不就是创造力的要义吗?”

  判断和问责——我们可能愿意接受计算机生成人与机器的未来的诊断或法律决定,但我们仍然希望对结果负责的是人类。