人工智能(AI)研究人员应学习和遵循道德规范

人工智能(AI)研究人员应学习和遵循道德规范

组装人工智能和自主技术的科学家希望对他们的工作可能产生的影响具有扎实的道德理解。

最近有100多位技术先驱向联合国发布了一封公开信,内容涉及致命的自主武器或“杀手机器人”。

这些人,例如企业家埃隆·马斯克(Elon Musk)以及许多机器人公司的创建者,都是始于2015年的努力的一部分。这封信呼吁结束军备竞赛,它声称这可能是“第三次革命”。火药和原子武器之后的战争”。

联合国有一部分要执行,但是对这些系统在不久的将来的责任也需要从实验室开始。训练我们的AI研究人员的教育系统需要对他们进行道德和编码方面的教育。

人工智能的自主性

自治系统可以自己做出决策,而只需很少甚至没有人的输入。这大大提高了机器人和类似设备的效率。

例如,自动运输无人机只需要运输地址,然后就可以自己确定最佳路线-克服其在途中可能遇到的任何障碍,例如恶劣的天气或一群好奇的海鸥。

自治系统方面的研究非常多,如今诸如亚马逊之类的公司正在开发运输无人机。显然,可以很容易地利用相同的技术进行比书籍或食物更差的交付。

无人驾驶飞机也越来越小,更便宜,更坚固,这意味着将很快可以生产和部署成千上万架无人驾驶飞机。

部署这种武器计划的能力主要与个人管理脱节,促使这封信敦促联合国“找到一种使我们所有人免受这些危险影响的方法”。

道德与理由

无论您对这些武器系统的看法如何,该问题都突出了在AI研究中考虑道德问题的要求。

与大多数数学领域一样,要获得对地球知识做出贡献的基本深度,则需要专注于特定主题。研究人员通常是相对狭窄领域的专家,可能没有任何有关道德或道德推理的正式指导。

正是这种类型的推理越来越需要。例如,在美国接受测试的无人驾驶汽车将必须能够对可能有害的情况做出判断。

例如,如果一只猫意外横穿马路,它将如何响应?越过猫咪,甚至急转弯以防止它冒着伤害车内乘员的风险,是否更明智?

希望这些情况很少见,但汽车必须在您的脑海中配备一些特定的原则以指导其决策。正如弗吉尼亚·迪格纳姆(Virginia Dignum)在最近在墨尔本举行的国际人工智能联合大会(IJCAI)上发送论文“负责任的自治”时所说的那样:

无人驾驶汽车将具有道德规范;问题是,谁的道德规范?

Naveen Sundar Govindarajulu和Selmer Bringsjord在“自动化双重效应学说”一文中探讨了类似的主题。

双重影响学说是一种对道德问题进行推理的手段,例如在某些情况下最好的自卫,并被认为是13世纪天主教学者托马斯·阿奎那(Thomas Aquinas)的作品。

“双重影响”的名称来自于产生巨大的影响(例如挽救他人的生命)和负面影响(在此过程中伤害他人)。这可能是证明活动合理性的一种方法,例如在行人撞倒的汽车上射击无人机。

这对教育意味着什么?

伦理学已成为AI研究中讨论的主题,这表明我们还应考虑如何为学生准备一个在日益普遍的自治系统中生活的世界。

对“ T形”个人的需求最近已经开始。公司目前正在寻找不仅具有技术厚度的特定区域(T的垂直笔划)而且具有专业能力和个人属性(平笔划)的学者。结合起来,他们可以从各种角度看问题,并在多学科团队中有效地发挥作用。

大多数计算机科学和类似领域的本科课程都包括有关职业道德和实践的课程。这些通常集中在知识产权,版权,专利和隐私问题上,这些问题当然很重要。

然而,从IJCAI的讨论中可以明显看出,对于更广泛的道德问题,正在出现需要更多材料的新兴需求。

主题可能包括确定两种罪恶中较小者的策略,诸如刑事无视之类的法律理论以及技术对地球的历史影响。

关键是要让学生从一开始就将道德和社会观点纳入他们的工作中。另外,似乎要求研究提案来证明如何将道德问题纳入其中似乎是适当的。

由于AI越来越广泛地和深入地嵌入到日常生活中,因此非常重要的是,技术人员了解他们所生活的社会以及他们的创作可能对其产生的影响。