定义对错,伦理学家能为ai注入灵魂吗?-和记娱乐手机版

发新帖

定义对错,伦理学家能为ai注入灵魂吗? 行业新闻

威尔德编辑 6月前 90866

【猎云网(微信号:)】2月11日报道(编译:何弃疗)

编者注:本文的作者linda kinstler是protocol的特约编辑。她的特写出现在《连线》、《商业周刊》、《卫报》、《1843年》等杂志上。她曾是《政治欧洲》的特约编辑和《新共和》的执行主编。

企业在他们的工作流程中加入了伦理思考,但是伦理的结局是可选的。

在salesforce tower的52层楼下,我在一间镶玻璃的会议室里见到了paula goldman。会议室挂着一个拼布彩旗横幅,上面清楚地写着“平等办公(equality office)”。

goldman在普林斯顿大学获得了硕士学位,在哈佛大学获得了博士学位,在博士期间她研究的问题是关于那些有争议的想法是如何成为主流的。一年多前,她来到了salesforce公司,出任该公司有史以来第一位首席伦理及人性化使用官(chief ethical and humane use officer),这是一个前所未有的、定义含糊不清的职位,主要的工作是:确保salesforce能让世界变得更好,而不是更糟。

goldman表示:“我认为我们正处在这个行业的转折点上,我觉得科技行业在80年代也有过类似的经历,当时的网络安全系统突然出现了病毒,人们需要一种全新的思考问题及处理问题的方法。在那之后,行业发展不断地壮大。而现在,这只是标准协议。如果不确保主要产品拥有正确的安全保护措施,你就无法交付产品。”

她表示:“我认为,我们在伦理方面也处于类似的时刻。它不仅需要一套工具来完成工作,还需要一套规范,这一点很重要。那么,你是如何衡量这些标准呢?”

我问她这些规范最初是如何决定的。

“从某种意义上说,这是一个价值数十亿美元的问题,”她说,“所有这些问题都是极其复杂的,只有极少数问题的答案是绝对清楚的。对吗?很多东西都可以归结为,在你的微积分中,你认为哪些值是最高的?”

在剑桥分析丑闻、员工罢工以及其他政治和隐私事件之后,科技公司面临着一系列的监管。他们不断地雇佣来自数据与社会研究所(data&society research institute)被称为“伦理所有者(ethics owners)”的研究人员,这些人负责以实用且可被证明的方式展开与伦理相关的辩论。

在salesforce员工抗议该公司参与特朗普政府的移民工作之后,salesforce从omidyar network那把goldman挖到自己麾下,这也是该公司长达七个月的危机管理工作的一个高潮。其他的科技公司为了应对各自的危机和担忧,也纷纷聘请了一小批类似的专业人士——哲学家、政策专家、语言学家和艺术家——所有这些都是为了确保让他们不作恶的承诺有与之相匹配的行动。

那后来发生了什么?

尽管一些科技公司已经采取了具体措施,将伦理思考融入他们的流程,但伦理咨询公司doteveryone的临时首席执行官catherine miller表示,围绕这一主题也出现了很多“摇摆不定”的情况。

批评人士认为这是一种“伦理洗礼(ethics-washing)”,即为了避开政府监管和媒体批评而向伦理价值观低头的行为。这个词是越来越多的科技伦理词汇集合中的一个,简称“tethics”,最初是电视节目silicon valley中的讽刺用语,但后来偶尔也被媒体认真地使用。

圣塔克拉拉大学(santa clara university)马库拉应用伦理学中心(markkula center for applied ethics)的技术哲学家shannon vallor说:“如果你不把这些东西应用到实际的操作中,或者应用到你的激励机制中,如果你没有审查流程,那么,它就变成了伦理的蒸气。这是你承诺过并打算兑现的东西,但它从未真正实现。”

声名狼藉的谷歌成立了一个人工智能委员会,然后在员工抗议加入反lgbtq倡导会之后,于去年4月解散了这个委员会。如今,谷歌对伦理的态度包括使用旨在解释其人工智能的“模型卡(model cards)”。

“那不是什么有实质性用处的东西,”enigma的数据伦理学家、丹佛大学的哲学教授michael brent说。“这就像是一张非常漂亮的卡片。”

科技公司们已经做出了更实质性的努力:vallor刚刚在谷歌出了一次差,在那里她向工程师讲授了伦理问题,并帮助该公司实施产品开发的治理结构。vallor告诉我:“当我在组织环境中谈论伦理时,我经常采用的方式是,帮助人们和组织履行对他人的责任,教会他们一些伦理知识和伦理技能。”

超过100名谷歌员工参加了在markkula中心开展的伦理培训。该公司还开发了一个公平模块,作为其机器学习速成课程的一部分,并在每季度更新其“最佳人工智能实践”清单。vallor说:“这些公司的绝大多数员工都希望生产出对人们有益的产品。他们真的不想破坏民主,也不想对人类福祉造成威胁,更不想减少人们对社会现实的了解和认识。他们想做出让自己引以为傲的东西。所以我要尽我所能来帮助他们实现这个目标。”

vallor工作的markkula中心是以“默默无闻”的苹果联合创始人mike markkula jr.的名字命名的。1986年,mike markkula jr.给了该中心一笔启动资金,就像他当初向年轻的steve jobs提供了一笔启动资金一样。他从不希望自己的名字出现在大楼上,他希望这笔钱就像是一个惊喜,一种对母校的感恩。

markkula已经从woodside一处豪华宅邸里搬了出来,过着平静的生活。如今,他和他创办的公司也已经没有太多联系,“只有当我的电脑出了问题时,我才会叫人来帮忙,”他告诉我。但是,早在80年代中期,当他和女儿一起来到圣克拉拉大学校园参加新生培训时,他是苹果公司的董事长,他对硅谷的现状感到担忧。他说:“我和linda(他的妻子)都很清楚,有相当多处于决策岗位的人根本就没有伦理意识。这并不是说他们不道德,他们只是没有任何与伦理相关的工具可以使用。”

在苹果,他花了一年时间起草公司的“苹果价值观”,并撰写了该公司著名的营销理念(“移情、专注、灌输”)。他说,在创业之初,有很多时候,他不得不做出艰难的伦理抉择,但“幸运的是,我是管理公司的人,所以我可以做任何我想做的事情。”

他说:“如果在今天,我还要管理苹果、管理谷歌,我想我会需要耗费大量的时间。我在很多事情的处理上会和之前完全不同,其中一些与哲学、伦理有关,有些则与20年后我们对世界的看法有关。”

markkula应用伦理中心是技术伦理觉醒浪潮中最重要的声音之一。在其网站上,它提供了一份关于技术伦理的汇编,包括一个工具包,一个“最佳伦理实践”列表以及一个应用程序。

这些工具中的每一个都试图以一种工程师们能够快速理解和实施的方式,来将伦理哲学的基本原则付诸实践。但markkula中心的执行主任don heider很快就承认,“这是一场艰难的斗争。”他说:“我得说,普通员工对它的态度比高管更开放。”

即使在salesforce,像yoav schlesinger(该公司负责人工智能伦理实践的领导人)这样的实践者也担心这会对他们的团队征收“伦理税”——这一伦理要求可能需要“繁重的工作”,并会减缓他们的发展进程。

在goldman的指导下,该公司推出了一套工具和流程,以帮助salesforce员工和客户“有效地拓展他们的伦理想象力”。正如schlesinger所说,该公司提供了一个教育模块,培训开发人员如何构建“可信的人工智能”,并组织员工关注伦理问题。他说:“我们的基本任务不是教授伦理学,也不是教授道义论与康德主义或功利主义的伦理学方法——这可能不是我们的工程师所需要的。人们需要的是伦理风险识别方面的培训,如何识别风险,以及当你从过程角度(而非伦理角度)看待风险时,你该如何应对。”

goldman也认为:“这并非不从伦理角度出发,我们关注的更多的是实践,‘你该怎么做’,而不是理论。”

该公司还创建了可解释性功能、机密热线和受保护字段,这些字段警告salesforce客户端,邮政编码等数据与种族高度相关。他们已经完善了可接受的使用政策,以防止他们的电子商务平台被用来销售各种各样的枪支,防止他们的人工智能被用来在法律决策中做出最后的决定。伦理和人性化使用团队在办公时间里,员工可以顺便来问问题。他们还让自己的团队参与由doteveryone的研究人员开发的一项名为“结果扫描(consequence scanning)”的活动。

团队被要求回答三个问题:“这个产品或功能的预期和非预期后果是什么?我们想要关注的积极后果是什么?我们希望削弱哪些后果?”整个过程被设计成适应敏捷的软件开发,尽可能减少干扰。就像目前正在使用的大多数伦理干预措施一样,它并不是真的要让事情慢下来,或者改变企业的运作方式。只是在帮助企业小心“伦理税”。

前软件工程师、现任markkula中心媒体伦理主任的subbu vincent说:“没人会碰运行代码,工程师们总是希望在这个处理数十亿用户的软件系统上投入新的努力如果他们不这样做,就可能会结束他们的职业生涯。”

这就是问题所在。这些方法虽然出发点是好的,也有潜在的影响力,但它们往往表明,道德是可以量化的东西。想要生活在一个更道德的生活中,仅仅需要坐下来接受适当数量的培训和锻炼。

data & society的研究人员jacob metcalf表示:“值得注意的是,正在出现的和记娱乐手机版的解决方案使用的语言是,‘我们会适应你已经熟悉的东西。’他们不会说,‘也许不要对用户数据如此贪婪,也许你不需要使用这些剥削性的方法来扩大规模。’他们并没有强迫房间里的人改变多样性。”

metcalf最近与同事danah boyd和emmanuel moss一起,对17名来自不同公司的“伦理所有者”进行了调查。一位工程师告诉他们,科技界的人“还没有被伦理打动”。一位高管告诉他们,市场压力阻碍了他们,“如果我们遵守这些甚至不存在的规则,那么我们就会处于劣势。”与他们交谈的“伦理所有者”都在尝试用不同的方法解决问题,但他们往往试图推动从其他领域学来的简单、实用的和记娱乐手机版的解决方案,比如清单和教育模块。

研究人员写道:“通过将伦理界定为一个困难但容易处理的技术问题,并使之适用于熟悉的方法,伦理所有者能够招募他们认为需要的技术和管理专家,作为‘做伦理’项目的正式参与者。然而,在用于构建问题的相同模型中构建和记娱乐手机版的解决方案本身就是一种失败。”

如果伦理真的“降临”到一家公司,它通常会悄无声息地降临,最理想的情况则是无形的。doteveryone的代理首席执行官miller说:“成功是不好的事情没有发生,这是一个非常难以衡量的事情。”在最近对英国科技工作者的一项调查中,miller和她的团队发现,28%的人曾看到过他们认为会对人类或社会产生负面影响的科技决策。其中,五分之一的人因此离开了自己的公司。

enigma是一家位于纽约市的小型商业数据和情报初创公司,该公司的所有新员工都必须与身为该公司首位数据伦理官的哲学教授brent进行一系列会谈。

在这些会谈上,brent打开幻灯片说:“好了,各位。现在我们将用一个小时的时间来介绍过去2400年提出的,基于欧洲的,极具影响力的道德理论。”

这个会议的想法是,从头开始是找出前进道路、提出新答案的唯一途径。他说:“我们正在研究的理论显然还没有直接应用到这些新问题上。所以这取决于我们,对吧?我们是必须解决问题的人。”

与他共事的工程师们——“25岁,刚毕业,年轻,才华横溢”——不可避免地会问他,所有这些关于道德和伦理的讨论,在旁观者看来,是否只是主观的。他们来到他的办公室,请他解释。他说:“到最后,他们会意识到,这不仅仅是主观主义,也没有客观的答案,要适应那个灰色地带。”

brent在哥伦比亚大学攻读博士学位时,在哲学课上遇到了enigma的创始人marc dacosta和hicham oudghiri。他们很快成为了朋友,后来受邀加入了他们的公司。不久后,enigma的一位数据科学家叫他过来看一份个人名单和个人资料。“我当时想,哇,然后我问:你打算怎么处理这些数据?它是从哪里来的?我们如何保证它的安全?显然,这位工程师还没有意识到他有权获取这些身份信息。我想,好吧,让我们谈谈如何正确使用它。”

事实上,brent和其他许多像他一样的人,都在这个房间里问这些问题,这是一个有意义的转变。受过训练的哲学家们正在与企业进行咨询,并共同撰写报告,阐述在一个充满未知的世界里构建不可预测的技术时,在伦理上采取行动意味着什么。

另一位在一家大型科技公司工作的人文博士告诉我,他最终在团队中采取的干预措施,往往包括让同事们少做一些他们正在做的事情,并以更清晰、更准确的方式表达想法。他说:“这很难,因为要真正制造这些产品,完成我们的工作,所有的机器学习都是围绕着数据建立的。你现在真的无法避免,有很多地方要停……现在基本上很难做好我们的工作。”

但对于每一个进入这一领域的专业人士来说,都有同样多的——也许更多的——被reid blackman(一位出任伦理咨询专家的哲学教授)称为“热情的业余人士”的同事。“你周遭的工程师们会关心伦理问题,但不知何故,他们把关心和专业知识混淆了。然后他们把自己包装成,比如说,人工智能伦理学家,但他们肯定不是伦理学家。我看到他们写的东西,听到他们说的东西,这些都是我在伦理学导论课上的新生们会说的话,我必须纠正他们。”

其结果是,涉入这个领域就会遇到一个真正的巴别塔。最近对来自世界各地的84项人工智能伦理准则的研究发现,“在所有文件中,似乎没有一项伦理原则达成了共识,尽管围绕以下原则出现了趋同趋势:透明度、公正与公平、非恶意、责任和隐私。”

在某种程度上,这也是一个地缘政治问题:每个国家都希望自己的人工智能道德规范成为赢家。miller说:“所有这些人工智能伦理原则的提出,都是为了支持特定的世界观,以及‘好’是什么的特定理念。”

“现在还为时过早,”goldman说,所以人们会用不同的词汇来谈论道德伦理,这并不奇怪。“领域就是这样创建的,我相信安全也会是这样产生的。”

我问她和schlesinger,如果salesforce的客户决定无视他们在系统中处理的所有道德警告,使用可能导致有偏见的结果的数据,会发生什么。goldman停顿了一下。问题是,伦理在这一点上仍然是你可以选择的。schlesinger解释说,salesforce的系统现在的设计目的是让客户“有机会决定他们是否想要使用这些代码,我们真的相信,客户应该被授权使用所有的信息来做出他们的决定,但是他们的用例只能服务他们的目标。”

同样,在enigma,该公司的联合创始人和领导团队可以选择不听取brent的建议。他说:“我会说,好吧,我认为开发这类产品存在道德风险。但你们是赚钱的人,所以你们可以决定自己愿意承担多大的风险,这是一种商业主张。”

注:本文转载自猎云网(微信号:ilieyun),转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如有侵权行为,请联系和记娱乐手机版,我们会及时删除。

成都威尔德公司承接各种互联网业务-帮助中小企业转型互联网加- 和记娱乐ag旗舰版本下载的版权声明 1、本主题所有言论和图片纯属会员个人意见,与和记娱乐手机版-和记娱乐ag旗舰版本下载立场无关。
2、本站所有主题由该帖子作者发表,该帖子作者威尔德编辑和记娱乐手机版-和记娱乐ag旗舰版本下载享有帖子相关和记娱乐ag旗舰版本下载的版权。
3、和记娱乐手机版-和记娱乐ag旗舰版本下载管理员和版主有权不事先通知发贴者而删除本文。
4、其他单位或个人使用、转载或引用本文时必须同时征得该帖子作者威尔德编辑和记娱乐手机版-和记娱乐ag旗舰版本下载的同意。

这家伙太懒了,什么也没留下。
最新回复 (0)
只看楼主
全部楼主
免责声明:本站部分资源来源于网络,如有侵权请发邮件(673011635@qq.com)告知我们,我们将会在24小时内处理。
网站地图