军事人工智能原则 [征求意见稿]

发布者: 国防人工智能与军备控制网络
发布于 2022-11-07 国防人工智能与军备控制网络 打印 English

军事人工智能已经给世界带来了巨大风险与挑战,同时我们应当警惕由于军事人工智能的发展导致战争门槛降低,从而引发本可避免的灾难。“国防人工智能与军控网络”倡导军事人工智能的设计、研发、使用、部署全生命周期应当合乎以下原则:

  1. 军事人工智能应用于国防,反对应用于侵略
  2. 本着最小、必要的原则发展国防人工智能
  3. 最大限度避免不必要的伤害
  4. 不使用致命性自主武器
  5. 对所有人工智能赋能的武器系统确保有意义的人类控制,防止人与人工智能交互过程中的认知过载
  6. 确保人工智能系统的内外部安全
  7. 确保人工智能系统决策对人类透明可解释
  8. 确保来自军事人工智能的辅助可信,可靠
  9. 军事人工智能系统应采取措施减轻/避免人工智能算法、数据中和人为的潜在偏见,避免针对特定人群,确保公正性
  10. 人工智能军事应用应该以改善“人道主义”为原则,而非破坏或挑战这个原则。在不伤害其他生命的前提下,倡导人工智能在军事行动中用于“人道主义救援”
  11. 应本着负责任的原则对军事人工智能系统进行严格的技术与伦理评估,建立有效的审查和责任追溯机制
  12. 防止人工智能武器扩散
  13. 军事人工智能系统应全面合乎国际法和人道主义法
  14. 人工智能赋能的军事系统与领域(如化学武器、核武器等)仍应全面遵循各自领域的规范
  15. 使用军事人工智能系统的相关人员应确保足够的培训,正确掌握系统的使用方式,准确理解系统的使用后果。采取措施帮助公众建立对军事人工智能系统使用及其风险的充分认知

上述原则随“国防人工智能与军控网络”专家网络的共识将进行不断更新。意见与建议请联系 contact@defense-ai-and-arms-control.network