在自动驾驶汽车上路之前,必须解决几个挑战,这不仅仅是技术性的挑战。自动汽车的发展也引发了一些伦理问题。Christoph Lütge是慕尼黑工业大学商业伦理主席,在这次采访中他谈到了AI和自动驾驶的固有机会和风险,并介绍了如何教学生在实际应用中实现道德行为。

在这个问题上,伦理学家们面临着人们大量的疑问。很多时候,他们对日常问题的回答却出奇地务实。在疫情期间,作为巴伐利亚伦理委员会 (Bayerischer Ethikrat) 成员,您对强制封锁提出了批评,并解释说其附带损害太大。这乍一听有点令人匪夷所思。为了给道德行为的制定打下基础,机遇和风险的权衡具有怎样的难度呢?
也许我们应该首先明确伦理的实际含义,即多方面的风险管理。而且,伦理并不是所谓的“原则高于一切”。它尤其适用于应用伦理领域,包括人工智能、自动驾驶和商业伦理等主题。作为伦理学家,我们的工作是权衡各种风险,并着眼大局。只看某一个方面是不够的,新冠疫情期间也证明了这一点。疫情期间,所有医疗方面的事情都摆在优先位置。然而,除了医学人员之外,还有许多其它的科学人员,如社会科学家、经济学家和伦理学家。他们都在研究应对措施、适度性以及附带伤害等。理论上,这听起来可能有点脱离现实,但随着我们了解越来越深入,理解起来也就更加直观。
您是人工智能伦理研究所(IEAI)的负责人。在那里,医学、科学和工程领域的研究人员与社会学家和伦理学家进行跨学科协作。那么IEAI的研究领域具体有哪些?
我们开展的项目分成不同的方向。其中一个是人工智能、驾驶和安全性,包括自动驾驶。另一个领域则是研究基于人工智能的决策工具在临床环境中的伦理问题。在其中一个研究领域中,我们探讨了一系列与人工智能和可持续发展相关的主题:例如农业、水资源管理和生物多样性。目前,我们正在确立一个重点研究方向,即研究如何在保证责任担当的同时进行人工智能开发,并获得大众的认可。
那么,与人工智能相关的风险有哪些?
在大家的多次讨论中,有很多风险一再被强调。我们从多个方面考虑风险:第一,我们着眼于与安全、数据保护和算法鲁棒性相关的纯技术风险。第二,这关系到算法的公平性及其可追溯性和透明性,因为许多人将人工智能看做一个黑盒,因此他们会因为不能明确理解决策是如何做的而感到焦虑。还有些人则担心他们会失去自主权。但尽管存在风险,我们绝不能忽视人工智能带来的伦理优势和经济机遇。
我们可以更深入地了解一下自动驾驶。从伦理角度来看,无人驾驶汽车是否可行?
大约五年前,我们在首个国际网联自动驾驶伦理委员会的会议中强调了一个观点:伦理问题主要包括预防事故和挽救人类生命。即便不是完全自动驾驶而是使用高度自动化驾驶系统,这也是一个明显的伦理优势。
在 IEAI,自动驾驶伦理项目正在研究什么?
在这个项目中,我们直接与 Automotive Technology的高层合作,并致力于具体的任务,如轨迹规划系统。在这种情况下,我们经常面临具体问题的决策,例如,卡车应该与其它车辆或骑车者保持多远的距离。为了计算精确的距离,我们进行了一些研究,这些研究可以用于提高决策的可靠性。
2017 年,德国自动互联驾驶伦理委员会制定了一些规则。这与其它国家有什么显著的差异吗?
过去几年,世界各地已针对人工智能制定了多种伦理原则。本质上没有太大的差异,我估计 80% 到 85% 是相同的。然而,具体细则上可能有所不同。让我们来看看车辆间距问题:前段时间,我去印度的首都德里参观访问。在那里,车辆之间的距离比德国小得多。这就会影响决策的规划。当我们着眼于不同的地区进行讨论时,事情就变得很有意思:可能某种情况在日本永远不会发生,在中国很少发生,但在欧洲却经常发生。基于这一点,我确信我们需要统一的标准。对此,我们已经等待了多年,但还是收获颇少。
除了研究之外,您还有教学工作。您如何帮助学生理解伦理行为?或者说,您如何教导学生开发合乎伦理的算法?
说来话长,作为商业伦理主席,早在八年前,我就将商业伦理课加入了工商管理专业的核心课程。在我看来,这不是宣扬道德和向人说教,这是道德法则,我们应该知道如何应用这些标准。我总是强调大家必须意识到人们在践行道德标准时,会面临各式各样的阻碍。例如,在企业管理中,可能是一些限制因素或成本压力。我们还没有开设关于如何处理数字化和人工智能问题的必修课。然而,慕尼黑工业大学校长提出了以人为本的工程设计理念,这为在技术学科中引入伦理学奠定了基础。以人为本的工程概念将部分人文科学和社会科学纳入技术学科,一个主要的目标就是通过提高对伦理问题的认识来提高学生的能力。工程师和计算机科学家应该意识到他们的行为存在伦理层面的问题。
我们什么时候能使完全自动驾驶车辆上路,它们在多大程度上能够做出良好的、符合伦理道德的驾驶决策?
如果我们根据当前的 L4(高度驾驶自动化)或 L5(完全驾驶自动化)水平来讨论自动驾驶汽车,那么这可能需要一些时间。但是,今天我们已经有了非常多的应用,它们在特定应用中非常有效。对于如何将这类系统大力推广,并实现上路,我认为这更多的是一个伦理和法律问题而不是技术问题,因为从技术角度来看,很多事情已经准备就绪。在过去的一两年里,美国相关的立法取得了一些进展。举例来说,第一批无人驾驶货车现在已经可以投入使用了。我们决不能低估这些进步。遗憾的是,这些进步往往发生在德国以外的地方。我认为德国汽车制造商推迟对自动驾驶的研究不是明智之举。我认为在未来 10 年内,我们会在道路上看到越来越多的自动驾驶汽车。在德国,我们倾向于设定很高的标准,除非已经做好万全准备,否则我们不可能允许自动驾驶。我们需要摒弃这种思维定势。
Governance Lab (The GovLab)、纽约大学坦顿工程学院、全球人工智能伦理联盟 (GAIEC)、纽约大学人工智能中心 (R/AI) 以及慕尼黑工业大学 (TUM) 人工智能伦理研究所 (IEAI) 合作推出了一门免费在线课程:全球视角下的人工智能伦理这门课程是面向全球的,其针对人工智能伦理这一话题进行了跨学科辩论,既有广度又有深度,并致力于汇集人工智能伦理领域的不同观点,以提高受众的认识,并帮助机构在使用人工智能时担当起责任。全球视角下的人工智能伦理( https://aiethicscourse.org/ )
关于专访对象:

Christoph Lütge教授
Christoph Lütge教授主要在经济和商业伦理领域开展研究。他倡导秩序伦理方法,在全球基础经济和社会条件的背景下研究伦理行为。他的研究侧重于竞争的作用和法令激励的作用,并评估伦理类别的合理性。自 2010 年以来,他一直担任慕尼黑工业大学 Peter Löscher 商业伦理主席。