人工智能价值对齐的哲学审思:有限主义视角
人工智能 (AI) 价值对齐是解决 AI 道德风险的关键举措,旨在确保 AI 与人类规范和价值观保持一致。然而,现有 AI 价值对齐方案大多遵循自由主义进路,试图赋予 AI 类人道德,这带来了一系列潜在风险和缺陷。
本文从有限主义哲学视角审视 AI 价值对齐,认为有限主义进路更能实现 AI 的可控性和有益性。有限主义强调对 AI 的控制,关注 AI 价值对齐的有限目标、有限道德、有限责任和有限应用范围。
AI 价值对齐的自然主义预设
现有 AI 价值对齐方案以自然主义道德观为基础,试图从生物学、神经科学中推导出道德价值。然而,道德的自然主义解释存在根本性缺陷:
1. 自然主义谬误:从经验事实推导出规范性判断,忽视了描述性和规范性之间的鸿沟。
2. 理论不确定性:道德的自然主义解释难以完全得到证实,存在理论间的断裂和争论。
3. 认识片面性:忽略了道德的文化维度,只关注自然属性,而道德兼具自然与文化因素。
因此,自然主义道德观无法为 AI 价值对齐提供可靠的基础。
AI 价值对齐的功能有限性
基于自然主义预设的 AI 价值对齐方案存在功能上的有限性:
1. AI 价值对齐时空有限性:人类道德随着时间和情境变化,而训练数据无法涵盖未来的所有道德情境。
2. AI 价值对齐类人有限性:人类道德存在应然与实然的偏差,而 AI 可能会模仿人类道德的不完美性。
3. AI 价值对齐算法有限性:深度神经网络的决策过程难以解释,存在算法黑箱、泛化能力差和奖励攻击等局限性。
这些功能有限性伴随着 AI 失控、人类机器化、无人担责和 AI 滥用等风险。
有限主义的 AI 价值对齐方案
有限主义反对通用 AI 价值对齐的路线,坚持 AI 价值对齐的去道德化,制度化防止 AI 道德责任对齐,以及控制 AI 价值对齐的应用范围。
反对通用 AI 价值对齐的路线
通用 AI 价值对齐目标过于宏大,存在对齐税较高、隐私监管困难等问题。有限主义主张关注专用 AI 的性能提升和对齐方法,实现特定场景和任务中的价值对齐。
坚持 AI 价值对齐的去道德化
AI 不应具备道德自主性,禁止 AI 进行道德判断和决策。人类应保留道德决策权,AI 只负责执行指令。这有助于防止人类机器化风险。
制度化防止 AI 道德责任对齐
道德责任应由人类承担,制度化地防止 AI 道德责任对齐。可建立责任链机制,明确各相关主体在事故中的责任范围和份额。
控制 AI 价值对齐的应用范围
应控制 AI 价值对齐在敏感领域和关键领域的应用,优先关注与人类日常息息相关的信息传播、求职审核等领域。同时,应对 AI 价值对齐应用对象范围进行控制,慎重应用于未成年人和老年人群体。
结论
有限主义下的 AI 价值对齐方案旨在实现 AI 的可控性和有益性,通过有限目标、有限道德、有限责任和有限应用,最大限度地避免 AI 价值对齐的风险。通过继续探索有限主义进路,我们可以为 AI 价值对齐奠定更坚实的基础,确保 AI 以有益的方式造福人类。
原创文章,作者:讯知在线,如若转载,请注明出处:http://bbs.xzxci.cn/2024/11/10/12038.shtml