为人工智能指明正确的方向,文章根据 AI 的发展所带来的四个问题逐一进行讲解,指明正确的 AI 在人类生活中应该担当的角色,以及未来的发展方向。同时也在阐述人工智能到来毋庸置疑也无法阻挡,我们应该顺应时代,在自己的行业或生活中一同打造人工智能的未来。

下面是我的翻译:

翻译

在过去的一年里,我与数百名客户会面,讨论人工智能如何改变他们对可能性的看法。我们讨论了利用算法减少医生和护士工作量的方式,智能地分类患者,通过准确的语言翻译将记者与全球受众联系起来,以及通过自动响应常见请求来减少客户服务等待时间等这几个方面的内容。我很惊讶于,我们如何应用人工智能来帮助我们的客户解决如此多的业务问题,但这些客户也表达了对AI的不确定性和关注程度。

这项技术所带来了很多惊人的事情,同时它也带来了些意想不到的后果。这让我们的许多客户都在问:我们如何在避免挑战的同时从 AI 中获益?

NCSA Mosaic web browser, launched in 1993

(图片出处:Steering the right course for AI,侵删)

为了进行这种讨论,我经常首先提出上面的图像。它是1993年出现的Mosaic网页浏览器,我认为这是AI在2018年所处位置的一个恰当的比喻。就像90年代中期的网络一样,今天的 AI 正在迅速从学术领域转变为主流技术。互联网革命带来了利益,同时也伴随着风险,我们有义务在这面前考虑各种可能性。毕竟,虽然我们可以很浅显的看到电子邮件和短信等技术可以帮助我们保持联系,但很难想象他们在恶意软件或网络暴力的传播中扮演怎样的角色。

在接下来的十年间可能会带来比早期网络更加复杂的挑战,但我很高兴客户已表现出积极主动地解决这些挑战。事实上,同样的问题往往会一次又一次地出现:

  • 不公平的偏见:我们怎样才能确保我们的机器学习模型公平公正地对待每个用户?
  • 可解释性:我们如何才能使AI更加透明,以便我们更好地理解其建议?
  • 不断变化的劳动力:我们如何负责任地利用自动化的力量,同时确保今天的员工为明天做好准备?
  • 做得好:最后,我们怎样才能确定我们正在使用AI?

不公平的偏见

试想一下,如果算法是绝对可靠并且客观的话那是十分吸引人的,但事实是机器学习模型的可靠程度取决于他们训练的数据。而且由于人类是负责查找,组织和标记数据的,因此即使是最轻微的偏差也很容易在结果中产生可测量的差异。更糟糕的是,由于算法以超人的速度和全球范围运行,不公平的偏见不仅会被复制,而且会被放大。

虽然不公平的偏见可能是故意偏见的产物,但我们的盲点扮演着更为普遍的角色。例如,我们有一种自然的倾向,即倾向于那些肯定我们信仰的人以及想法,同时避免那些挑战他们的人。这是一种被称为确认偏差的现象,即使是那些公平公正的开发者也会被这种现象扭曲看法。

并且,正因为我们周围的世界已经有了这不公平的偏见,即使那些看似公平的数据也能反映出来。例如,历史数据文本(通常作为训练机器学习的模型用来处理自然语言或翻译),如果不加以纠正,就可能会使得那些有害的墨守成规的文化永存。Bolukbasi等人的研究工作,清晰的量化了这一现象,他们证明了统计语言模型能够轻易 “学习” 过时的性别假设,例如 “医生” 是 “男性” ,“护士” 是 “女性” 等,这类似的问题,被称为嵌入式偏见,并且这已经在种族方面表现出来了。

我们正在多方面处理这些问题,而觉悟是最重要的。为了更广泛地理解机器学习等技术对公平性的需求,我们创建了相关的教育资源,例如我们的关于公平性的推荐实践和我们最近在ML教育速成课程中宣布的公平性模块

我们还看到了一种令人鼓舞的趋势,即将文档作为一种手段来更好地理解机器学习解决方案中的内容。今年早些时候,研究人员提出了一种记录数据集的正式方法,特别是当它们包含以人为中心或人口统计敏感的信息时。基于这一想法,谷歌的研究人员提出了 “模型卡” ,这是一种标准化的格式,用于描述机器学习模型的目标,假设,性能指标,甚至伦理考虑因素。很明显,“模型卡” 旨在帮助开发人员(不管是否有 ML 专业知识),都可以以负责任的方式在给定的组件上做出明智决策。

当然,我们一直致力于为开发人员提供他们可以依赖的工具,当然也有偏见带来的挑战。从嵌入式文档开始,例如我们的ML指南,整合到了AutoML中,并扩展到TensorFlow模型分析(TFMA)What-if工具等,为开发人员提供他们需要的分析见解,以确保他们的模型将公平的对待所有用户。TFMA拥有在一系列环境,特征和用户群子集群中轻松可视化的性能,并且 What-if 等工具可以使得开发人员可以轻松地运行反事实信息,揭示关键特征被逆转时可能发生的情况,例如作为给定用户的人口统计属性。这两种工具都提供了沉浸式,交互式的方式来详细探索机器学习行为,帮助识别在公平性和表现性上的一些失误。

最后,我们通过自己的数据科学平台 Kaggle 获取了社区的力量。我们最近宣布的 “包容性图像挑战” 解决了图像训练集中的地理多样性偏差问题,这导致分类器经常与来自代表性不足地区的人的描述发生冲突。参赛者面临的挑战是建立能够更好地概括地理位置的模型,而无需整合新数据,从而产生更具包容性,更强大的工具,使之更好地服务于全球用户群。我们乐观地认为,这项任务的进展将在其他地方也能得到应用,并且我们很高兴能在2018年的神经信息处理系统会议上公布结果。

我为我们走的这一步感到自豪,并且我相信我们正在开发的知识和工具将大大有助于使得 AI 变得更加公平。但没有一家公司能够单独解决这样一个复杂的问题。反对不公平偏见的斗争将是一项集体努力,由一系列利益相关者的意见形成,我们也仅仅是一个倾听者。随着我们的世界不断变化,我们将不断学习。

可解释性

然而,正如对不公正偏见的挑战所表明的那样,这是一个更基本的问题:人工智能如何真正赢得我们的信任?由于机器学习在曾是人类专属领域的决策中发挥越来越大的作用,答案将越来越多地取决于一个关键因素:责任。

自成立以来,许多深度学习算法都被看成黑盒子,因为即使他们的创作者也很难准确地表达输入和输出之间发生的事情。如果我们继续将 AI 视为一个黑盒子,我们就不能指望获得人们的信任,因为信任来自理解。虽然传统软件的逻辑可以通过对源代码的逐行检查来揭示原理,但是神经网络是通过暴露于数千甚至数百万个训练示例而形成的密集网络连接。其结果是一种权衡,即以直观的解释为代价获得灵活性。

随着最佳实践的建立、一套不断增长的工具以及旨在从开发周期开始获得可解释结果的集体努力,正在取得进展。事实上,今年早些时候,我们发表了自己的构建负责任的人工智能系统的原则时,可解释性是其中四个最基本的支柱。

我们已经看到了,通过我们的努力,能为现实问题带来一些解释,这着实令人兴奋。例如,在图像分类的情况下,Google AI最近的工作演示了一种表示人性化概念的方法,例如条纹毛发或卷发,然后量化这些概念在给定图像中的权重。其结果是一个分类器,它根据对人类用户最有意义的特征来表达其推理。例如,图像可能被归类为“斑马”,部分原因在于高水平的“条纹”特征和相对低水平的“波尔卡圆点”。事实上,研究人员正在尝试将此技术应用于糖尿病视网膜病变诊断上,使其输出更加透明,甚至允许专家在不同意其推理时调整模型。

不断变化的劳动力

不可否认,我们与工作的关系正在发生变化,我们的许多客户都想知道,他们应该如何平衡自动化的潜力和员工的价值。

然而,我不认为自动化的未来是一个零和游戏。普华永道(PwC)最近的一份报告显示,67%的高管表示,人工智能将有助于人类和机器在使用 AI 和人类智慧的这两者的情况下协同工作,从而变得更强。

同样重要的是要记住,工作很少是单一的。大多数工作都包含无数不同的任务,从高级创意到重复性任务,每一个任务都将受到自动化的独特影响。例如,在放射学中,算法起着辅助作用;通过自动评估简单的、众所周知的症状,人类专家可以专注于更具挑战性的任务,同时更快、更协同地工作。

但是,有些工作类别面临的变化比其他类别更为明显,需要做很多事情来缓解过渡。为此,Google.org 投入了5000万美元的资金,用于支持非营利组织为三大工作做好未来工作的准备:

  • 提供终身培训和教育,以满足工人的需求
  • 将潜在员工与基于技能和经验的理想工作机会联系起来
  • 支持低工资就业的工人

当然,这只是第一步,我们期待在未来几年支持越来越多的类似举措。

做得好

最后,还有一个超越一切的问题:“我怎么能确定我在用人工智能来改变人们的生活呢?“

这是一个很难回答的问题,因为我们倾向于关注人工智能在极端情况下的行为,这使问题变得更加困难。例如,很少有人会否认使用 AutoML 以经济实惠的方式监控濒临灭绝的物种,正如伦敦动物学会所做的那样,这毫无疑问是好的。我们还看到谷歌的开源机器学习框架 TensorFlow,是如何打击雨林非法砍伐,帮助农民识别病株,以及预测森林中野火的可能性。此外,我们的人工智能社会公益项目最近宣布了一项2500万美元的拨款,以帮助资助人工智能研究,解决人道主义和环境挑战。我们的变革数据解决方案计划将继续帮助非营利组织和非政府组织使用目的驱动的分析来对抗失业检测阿尔茨海默氏症创建更可持续的食物系统,并优化社区规划

但是也有一个巨大的灰色地带,特别是一些有争议的领域,比如武器上的人工智能,它代表了我们决定不按照人工智能原则(翻译见:文章翻译 | 谷歌 AI 原则 | AI at Google: our principles)追求的这项技术的一个应用。我们的客户发现他们在各种各样的地方都有可能遇到有争议的用例,并希望我们帮助他们思考 AI 对他们的业务意味着什么。

我们正与客户和产品团队合作,共同开发这些领域。为了给这个问题带来有远见的第三方视角,我们征求了技术伦理学家 Shannon Vallor 的帮助,他为 Cloud AI 提供咨询,来帮助我们了解这个不断变化的灰色区域,以及我们的工作如何与之相适应。从关于人工智能伦理最佳实践的内部教育计划,到我们人工智能原则的现实实施咨询,她为云 AI 提供了关于如何通过道德设计,分析和决策来指导这项技术的专家视角。例如,道德设计原则可用于帮助我们构建更公平的机器学习模型。仔细的伦理分析可以帮助我们了解视觉技术的哪些潜在应用是不恰当的、有害的或具有侵入性的。并且道德决策实践可以帮助我们更好地理解面临挑战的困境和复杂的价值权衡,比如在 AI 应用程序中,是否优先考虑透明度或隐私,因为其中提供更多的可能意味着另一个更少。

共同打造人工智能的未来

对于未来的所有不确定因素,但有一点是明确的:人工智能的未来不仅仅建立在技术之上。这将是一项集体努力,同样依赖于工具,信息以及对世界产生积极影响的共同愿望。

这就是为什么这不是宣言,而是对话。虽然我们渴望分享我们多年来在这项技术的最前沿所学到的知识,但没有人比你更了解客户的需求,这两种观点都将在建立公平,负责和值得信赖的人工智能方面,并且发挥至关重要的作用。 毕竟,每个行业都面临着自己的人工智能革命,这就是为什么每个行业都应该在指导它的过程中发挥作用。我们期待与你就如何实现这一承诺进行持续的对话。

生词

perspectiven. 远景, 景;前途; 希望;透视;透视图;观点, 想法

metaphorn. 隐喻

nichen. 壁龛;合适的职业;vt. 放入壁龛(academic niche:学术界)

maliciousadj. 恶意的, 恶毒的

cyberbullying:网络暴力

amplifyvt. 放大, 扩大;增强;vt. & vi. 详述

deliberateadj. 故意的, 蓄意的;慎重的, 深思熟虑的;不慌不忙的, 从容不迫的;vt. & vi. 仔细考虑;研讨, 商讨

gravitatevi. ①受重力作用;被吸引;被吸引到;受吸引而转向

perpetuatevt. 使永存;使人记住不忘

stereotypen. 老套, 模式化的见解, 有老一套固定想法的人;vt. 把…模式化, 使成陈规

seminaladj. 种子的,精液的;对以后发展有巨大影响的

demographically:人口统计学

ethicaladj. 道德的;伦理的;凭处方出售的;n. 处方药

counterfactuals:反设事实;反事实;反事实思维

lapsen. 失误, 过失; 小毛病;行为失检; 偏离正道; 背弃信仰;时间的流逝[推移, 间隔];vi. 退步; 陷入; 倒退, 衰退;丧失, 失效(商务协议、官员、法律权利等, 尤指因未予运用、死亡或放弃)

robustadj. 强健的;健康的;粗野的;粗鲁的

inceptionn. 开始, 开端, 初期

prevalencen. 流行,盛行;普遍,广泛;(疾病等的)流行程度

monolithicadj. 独块巨石的;整体的;庞大的

dilemman. 左右为难

注:文章翻译过程中没有直接翻译文章原本的意思,而是用了更加口语化的方式尝试进行翻译,这可以在阅读的时候比较轻松,同时也有可能在翻译过程中误解原作者意思,欢迎指阅。

分类: 生活

0 条评论

发表回复

您的电子邮箱地址不会被公开。