专家视角 | 如何培养负责的人工智能?

关于人工智能(AI)的道德行为准则的讨论,早在AI诞生之前就已经开始。一九五〇年代的科幻小说家艾萨克·阿西莫夫(Isaac Asimov)便在他的机器人相关的小说作品中设定了著名的机器人三定律(Three Laws of Robotics),这一虚构的机器人行为准则曾一度在相当长的时间里成为人工智能科研单位的重要参考。

定律一:如果人-机工作环境不能满足最高的法律和职业安全性要求以及道德要求,那么人类不应该在该环境中部署机器人工作;

定律二:机器人必须对人类做出符合它们角色的最合适的反应;

定律三:机器人必须被赋予足够的自由度来保护自己的存在,同时这种保护机制可以快速地切换以防止违反第一和第二定律。

虽然文学与影视作品中对机器人三定律有过不同的演绎,但基本都是以上三条的变体。

embedded world德国嵌入式世界展特邀电子工程师暨自由撰稿人Stuart Cording就一系列人工智能相关的伦理道德及行为准则的问题进行了探讨,其中包括:如果允许人工智能做出决定,那么人类在定义其使用的参数方面应该扮演什么角色?他们是否应该对人工智能做出的决定提出异议?那么,应该如何解决这些问题,我们能否从其他学科中学习,是否已经存在任何道德行为准则?

人工智能和嵌入式系统

使用人工智能时出现的伦理问题

工程师们很少处理伦理问题,毕竟,伦理是哲学的一个分支,而工程师们处理的大部分事情都是黑白分明的,运作或不运作,几乎没有灰色地带的空间。可以说,工程师一直以来都秉着“做正确的事”的本愿在开展工作,因此,从道德上讲,工程师都在做正向的事情,以期改善世界。

例如,汽车制动系统的开发者本来就专注于提供一个在所有条件下都能正常运行的安全系统。此外,还有一些标准和检查,以确保所生产的产品的安全。这同样适用于开发在接近人类的环境中运行的机器人系统的工业工程师。

人工智能不是简单的新工具

那么,为什么人工智能不能像之前的其它技术一样简单地被纳入工程工具箱?应该说,人工智能及其其他分支,如机器学习(ML-machine learning)深度学习(DL-deep learning),实现了以前只能由人类实现的能力。仅在过去十年中,DL工具的图像识别准确率已从70%上升到98%左右。相比之下,人类的平均准确率为95%。这种能力通常可以作为任何人都可以使用的即用型开源模型,而且所需的硬件也相对便宜,易于采购。

因此,进入的门槛非常低。突然间,一项原本需要人类审查图像的任务可以由机器来完成。就其本身而言,这并不是什么直接的威胁,可以与制造一个可以取代人类装配操作员的机器人相媲美。真正的问题在于可扩展性的便利性。突然间,每秒可以审查成千上万的图像,只有财政投资和硬件可用性是限制因素。虽然这可以通过提高工厂的质量使光学检测系统受益,但它也可能被部署在专制国家的邪恶用途中。

双重用途的困境

这种困境已经存在了几个世纪。简陋的黄油刀也可以成为凶器,一个滴答作响的闹钟也可以触发炸弹。总会有两类用户:一种是按预期使用技术的人,另一种是将技术用于或转用于恶意目的的人。

科学家们在开发病毒和危险化学品的时候,经常为这个问题而苦恼。在他们的论文《生物科学中双用途困境的伦理和哲学考虑》[1]中,米勒和塞尔吉利德详细讨论了这些问题。例如,是否应该开发可能导致大规模破坏的化学品,以便开发解毒剂?如果进行了这样的工作,是否应该与研究界完全共享结果,还是应该共享结果,但共享的方式要限制读者复制实验的能力?

他们的论文提供了一些规范两用实验和分享结果信息的选择。一个极端是将决定权交给进行实验的人,而另一个极端则是由政府来进行立法。研究机构和政府或独立机构被建议作为中间地带的仲裁者。作者建议这些中间方式是最好的方法,在支持学术自由的道德价值和凌驾于它之上之间提供一个平衡。

在考虑与嵌入式系统相关的人工智能时,他们的论文也提供了一些应对伦理问题挑战的想法:工程师们也必须意识到他们用人工智能驱动的技术所触及的领域越来越多。例如,ML算法可以提高无人机的安全性,使它们能够避免与物体或人发生碰撞。但同样的硬件和软件框架也可以通过一点努力被重新编程,用于邪恶或军事目的。增加人脸识别技术可以让设备自主地攻击和伤害人类目标。基于这种潜在用途的伦理问题可能是,我们是否有义务实施一种阻碍非授权代码执行的安全形式?

深度学习算法的弱点

另一个问题是进入生产代码的DL算法的潜在弱点问题。Song Wu以及一群科研人员在他们的论文《制作隐形斗篷:现实世界中对物体检测器的对抗性攻击》[2],创造了印有图像的T恤衫,当穿上它时,人工智能相机不会视其为人类。其他研究表明,自动驾驶车辆可以通过在道路和路标上贴上带有图案的贴纸而被愚弄,其结果会危及所有类型的道路使用者。考虑到这些能力背后的算法的这些盲角无法推断,在发现这些盲角后,正确的做法是什么?是否应该让所有受影响的车辆离开道路,直到问题得到解决?

当涉及到神经网络时,微控制器的性能有限,特别是与运行人工智能的服务器的能力相比,如ChatGPT或DALL-E。然而,半导体行业正在大力投资以支持嵌入式边缘人工智能,许多新设备都提供一些神经网络或人工智能加速。随着在这些设备上运行的算法能力的增长,对精确实施的理解也在减少。而这正是未被发现的问题的风险潜伏和道德问题发酵的地方。

为道德的人工智能部署寻找工程资源

正如布莱克曼在他的文章 《构建道德人工智能的实用指南》[3]中指出的那样,许多组织已经制定了人工智能的道德原则。然而,这些声明中有许多是高层次的,使用了诸如 "公平 "这样的术语,这对工程师来说是难以操作的。他还提出,虽然工程师们敏锐地意识到与商业相关的风险,但他们缺乏为学术界提供的回答伦理问题的培训和机构支持。

那么,我们应该到哪里去寻找我们的人工智能道德准则?联合国教科文组织提供了一份 《关于人工智能伦理的建议》[4]。 它主要鼓励成员国和政府制定政策框架和监督机制,涵盖人工智能的所有表现形式。但是,对于嵌入式开发人员来说,提取可以在工程组织中使用的具体准则是具有挑战性的。欧盟委员会也有 《值得信赖的人工智能的道德准则》[5]。这里提供了一个明确的重点,指出值得信赖的人工智能应该是合法的、道德的和强大的。第二章对道德原则和它们之间可能出现的紧张关系进行了深入解释。因此,这一资源可能更适合于试图围绕人工智能技术处理道德问题的工程团队。

然后是《人工智能的恶意使用》报告[6]。该报告提供了四个高级建议。首先,建议政策制定者与研究人员密切合作,以减轻人工智能的潜在恶意使用。第二,鼓励研究人员和工程师认真对待他们工作的双重用途性质。收集最佳实践是第三条,而第四条则试图扩大参与讨论这些挑战的利益相关者和领域专家的范围。

IBM对其在人工智能伦理方面的做法进行了明确的解释“AI Ethics”[7]。它认为人工智能是对人类智能的增强,并宣布这种技术应该是透明的和可解释的。它还宣称,数据(使训练人工智能成为可能的元素)及其见解应属于其创造者。

但是,也许最直接的文件是《简而言之。博世人工智能的道德准则》[8]。 由于组织内部已经有了强有力的原则,人工智能的使用和作用被分解成三种方法。人在命令中(HIC)的方法看到人们使用人工智能的结果来做决定,人工智能被用作一种辅助手段。人在环中(HITL)允许人类影响或改变人工智能的决定。最后,人类在环路(HOTL)看到人工智能做出决定,但人类定义用于决定的参数。他们也有机会对决定进行上诉审查。

人工智能的使用,是有道德底线的

负责任地使用人工智能需要对复杂的伦理问题做出回答。如果没有处理伦理问题的经验,嵌入式系统工程师很容易在试图提供答案时被打成结。自动驾驶汽车已经在挑战人工智能的极限,并对一些道路伤亡事件负有责任。这一点,再加上深度造假的图片、视频和新闻报道,使人工智能作为一项技术处于不利的地位,导致一般公众对这一新进展的接受度很低。

然而,每一项新技术的引入都有它的磨合问题。铁路在成立之初是出了名的危险,需要时间来认识挑战并作出适当的回应。正如所强调的,围绕双重用途的伦理挑战和担忧长期存在于科学界。但是,正如这里所显示的,在我们努力应对人工智能部署所带来的伦理挑战时,我们的工程界内部也有答案和一些有用的资源。


 

参考文献:

[1]“Ethical and Philosophical Consideration of the Dual-use Dilemma in the Biological Sciences” Miller and Selgelid 

https://www.ncbi.nlm.nih.gov/pmc/articles/PMC7089176/

[2]“Making an Invisibility Cloak: Real World Adversarial Attacks on Object Detectors” Song Wu et al.

https://arxiv.org/abs/1910.14667

[3]“A Practical Guide to Building Ethical AI.” Reid Blackman

https://hbr.org/2020/10/a-practical-guide-to-building-ethical-ai

[4]“Recommendation on the Ethics of Artificial Intelligence.”UNESCO 

https://unesdoc.unesco.org/ark:/48223/pf0000381137

[5]“Ethics Guidelines for Trustworthy AI.” European Commission

https://ec.europa.eu/futurium/en/ai-alliance-consultation.1.html

[6]“The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation” by Brundage et al.

https://img1.wsimg.com/blobby/go/3d82daa4-97fe-4096-9c6b-376b92c619de/downloads/MaliciousUseofAI.pdf?ver=1553030594217

[7]"AI ethics" by IBM

https://www.ibm.com/artificial-intelligence/ethics

[8]“In brief: Bosch code of ethics for AI.”Bosch

https://assets.bosch.com/media/en/global/stories/ai_codex/bosch-code-of-ethics-for-ai.pdf


主办单位