人工智能开发者需要了解的人工智能伦理

开发人员和IT团队承受着将AI功能构建到公司的接触点和决策系统中的巨大压力。与此同时,越来越多的人抱怨所交付的AI充满了偏见和对隐私权的内在侵犯。换句话说,这是肥沃的诉讼领地。

ReidBlackman说,可能有一些非常引人注目的工具和平台承诺公平和平衡的AI,但工具和平台本身并不能提供符合道德的AI解决方案,他在即将出版的新书EthicalMachines中提供了克服棘手的AI道德问题的途径:完全公正、透明和尊重AI的简明指南(哈佛商业评论出版社)。他为使用AI的开发人员提供道德建议,因为用他自己的话说,“当用户具备必要的知识、概念和培训时,工具才能有效地使用。”为此,布莱克曼提供了开发和IT团队交付符合道德标准的AI所需的一些见解。

不用担心清理你的哲学101课堂笔记

布莱克曼说,考虑流行的伦理和道德理论并将其应用于人工智能工作“是构建符合伦理道德的人工智能的糟糕方式”。相反,与团队合作,采用实用的方法。“对于手头的案例来说,重要的是[你的团队成员]认为需要降低的道德风险,然后你们就可以开始协作识别和执行降低风险的策略。”

不要执着于“伤害”

担心人工智能可能无意间给客户或员工带来的伤害是有道理的,但伦理思考必须更广泛。布莱克曼认为,适当的背景是从避免人们“受到伤害”的角度来思考。这包括“什么在道德上是允许的,什么权利可能被侵犯,以及什么义务可能有错。”

引入伦理学家

他们“能够比设计师、工程师和数据科学家更快地发现道德问题——就像后者可以发现糟糕的设计、错误的工程和有缺陷的数学分析一样。”

考虑拟创建或采购的五个道德问题

这些包括1)你创造了什么,2)你如何创造它,3)人们用它做什么,4)它有什么影响,以及5)如何应对这些影响。

布莱克曼说,人工智能产品“有点像马戏团的老虎”。“你像对待自己的孩子一样抚养他们,仔细训练他们,他们在一场又一场的演出中表现出色,然后有一天他们会咬掉你的头。”驯服人工智能的能力取决于“我们如何训练它,它在野外的行为如何,我们如何继续用更多数据训练它,以及它如何与它所嵌入的各种环境相互作用。”但是不断变化的变量——例如流行病或政治环境——“会使人工智能在道德上的风险比你部署它的那一天更高。”

免责声明:本文由用户上传,与本网站立场无关。财经信息仅供读者参考,并不构成投资建议。投资者据此操作,风险自担。 如有侵权请联系删除!