我们追踪制定国家安全和国防政策相关信息的机构,以收集最前沿的国防人工智能与军备控制政策。每天来自追踪数据源的最新报告和分析将被自动收集、筛选和分类,并更新在我们的文献数据库中。
评论
欧洲台风战斗机是英国、德国、意大利和西班牙的联合项目,是欧洲防务一体化的一个里程碑。人工智能(AI)的出现促使许多欧洲国防分析师呼吁推出一款全新的欧洲战斗机,一款融合了AI等技术的第六代战斗机。
2024-11-01
会议报告
人工智能(AI)的最新进展为研究创造了强大的工具,特别是,国防部(DoD)的健康相关数据。讨论探讨了研究人员的伦理...
2024-10-15
公开论坛
人工智能在民用领域的快速技术进步伴随着将这项技术应用于军事领域的加速尝试。本研究关注的是配备人工智能的人可以...
2024-10-15
分析
在这篇文章中,日内瓦国际人道主义法与人权学院研究与政策主管Erica Harper阐述了人工智能军事决策的可能影响,因为这与发动战争、发动冲突和建设和平有关。她强调,虽然人工智能的这种使用可能会产生积极的外部性,包括在预防和减轻伤害方面,但风险是深远的。这些因素包括机会主义战争新时代的可能性、暴力脱敏的主流化以及错失的和平机会。需要根据多边脆弱性的现状来评估这种潜力,并将其纳入区域和国际层面的人工智能政策制定中。
2024-09-26
分析
在这篇文章中,拥有人工智能伦理、风险分析和国际安全研究背景的Matthias Klaus探讨了与军事人工智能应用相关的伦理挑战,这些挑战往往被对自主武器系统(AWS)的主要关注所掩盖。他强调了与DSS相关的一些伦理挑战,这些挑战通常被描述为给军事决策带来更多的客观性、有效性和效率。然而,它们可能会助长各种形式的偏见,侵犯人类的自主权和尊严,并通过导致同伴压力和技能下降,有效地破坏军事道德责任
2024-09-24
工具包
活动家工具包虽然议员们不会直接参与禁止和监管杀手机器人的国际条约谈判——这是由外交官在政府指示下进行的——但议员们在拒绝杀戮自动化、确保对武力使用的有效人类控制以及推动条约进程方面将发挥关键作用。因此,在游说工作中与他们接触非常重要。本指南旨在帮助活动家进行议会参与。尽管接触议员有其特殊性,并且需要根据你所在国家的具体情况进行调整,但议会联络应成为你整体倡导和游说活动的一个重要部分。
2024-09-19
分析
随着基于人工智能的决策支持系统(AI DSS)在当代战场上的使用越来越多,联合国秘书长人工智能高级别咨询机构成员、REAIM专员和经合组织的Jimena Sofía ViverosÁlvarez。人工智能专家,反对依赖这些技术来支持目标识别、选择和参与周期,因为它们的风险和无效性是一个不可忽视的永久事实,因为它们实际上有可能加剧平民的痛苦。
2024-09-04
分析
算法偏差长期以来一直被认为是影响集成人工智能(AI)技术的决策过程的关键问题。在做出与使用武力有关的军事决策时越来越多地使用人工智能,这引发了人们对这些技术中的偏见以及人类用户如何根据分层的社会文化规范、知识和注意力模式进行编程和依赖数据的质疑
2024-09-03
报告
人工智能(AI)能力的最新进展增加了国家对将AI用于军事目的的兴趣。拥有核武器的国家对先进人工智能的军事整合有可能对其核威慑架构的要素产生影响,鉴于目前军事上采用先进人工智能的相对早期阶段,对这些因素的探索为进一步考虑人工智能与核关系中整合的可能现实以及潜在的透明度措施和治理实践奠定了基础
2024-09-01
分析
军队在决策过程中纳入了越来越复杂的基于人工智能的决策支持系统(AI DSS),包括使用武力的决定。这一发展的新颖之处在于,这些人工智能DSS功能的过程挑战了人类在军事决策过程中进行判断的能力。这种对人类判断力的潜在侵蚀带来了若干法律、人道主义和伦理挑战和风险,特别是在对人们的生活、尊严和社区产生重大影响的军事决策方面。鉴于这一事态发展,我们必须紧急而认真地讨论如何使用这些系统及其对受武装冲突影响的人的影响。
2024-08-29
声明
“停止杀手机器人”向2024年缔约方政府专家组第一届会议关于致命自主武器系统领域新兴技术的完整声明。
2024-08-26
报告
Stop Killer Robots的研究和监测团队发布了一份出版物,总结了各国对备受期待的联合国秘书长关于自主武器的报告的意见。
2024-08-16
评论
虽然第七代尚未确定,但它可能具有自主能力、先进材料和跨国合作。然而,这样的进步可能还需要几十年的时间,可能会在2070年代或更晚出现。
2024-08-06
报告
随着关于如何应对自主武器系统(AWS)带来的挑战的全球对话的发展,各国越来越支持一种可能的方法是通过“两级方法”。这种方法一方面会禁止某些类型和使用AWS,另一方面会对所有其他AWS的开发和使用施加限制和要求。各国面临的一项关键任务是就如何实施这种双层方法达成一致。
2024-08-01
原创研究
人工智能(AI)在不同领域得到了不同程度的广泛应用,包括在军事环境中使用它来做出可能产生道德后果的决策的可能性。这一领域的一个反复出现的挑战是,在人工智能引发负面结果的情况下,道德责任的分配。
2024-07-22
评论
退役的美国陆军将军Mark Milley预测,到2039年,机器人和自主系统可能占美国军队的三分之一,并可能由人工智能(AI)操作和指挥。
2024-07-17
评论
仍在开发中的B-21突袭机隐形轰炸机在2023年底面临16亿美元的成本超支,在无人机战争兴起的情况下,这引发了人们对其费用的担忧。尽管如此,B-21旨在取代B-2幽灵,后者的隐形能力已经过时。
2024-07-14
分析
如何管理人工智能是立法者和决策者最关心的问题。为了有效治理人工智能,监管机构必须 1)通过跟踪事件和收集数据来了解人工智能的风险和危害;2) 培养自己的人工智能素养,让公众更好地了解收益和风险;以及3)通过制定可以随着人工智能的发展而更新的政策来保持适应性和灵活性。
2024-07-01
原创文章
近年来,人工智能一直是一个热门话题,尤其是与战争和军事行动有关的人工智能。虽然理性选择方法已被广泛用于理解战争的原因,但很少有文献使用理性选择方法系统地研究人工智能在战争中的作用。本文旨在通过探索理性选择模型如何帮助我们理解人工智能在战争中的力量和局限性来填补这一空白。
2024-06-19
分析
为了帮助各国详细说明两级管理自动武器系统的可能要素,斯德哥尔摩国际和平研究所(SIPRI)的Laura Bruun从过去的军备控制谈判中指出了三个教训,这些教训可以应用于自动武器系统辩论
2024-06-13
回应文件
Stop Killer Robots根据关于自主武器系统的第78/241号决议提交给联合国秘书长的材料。
2024-05-15
评论
2020年的一项研究确定,至少有12个北约成员国使用社交媒体传播计算宣传和虚假信息,而两个(英国和美国)被证明具有很高的“网络部队”(负责操纵网上舆论的政府或政党行为者)能力。此类活动似乎与美国特种部队和情报机构有关,并与使用人工智能的私营部门举措有关
2024-05-10
评论
美国空军未来忠诚的飞行员正逐渐接近成为现实,更重要的是,人工智能控制的飞机可能会像任何人类飞行员一样优秀。这是空军部长弗兰克·肯德尔的评估,他最近乘坐一架自主控制的X62A VISTA(可变飞行模拟试验机)飞行,这是一架经过改装的F-16战鹰
2024-05-10
评论
在最近披露的飞行中,ACE AI算法在加利福尼亚州爱德华兹空军基地的空军试飞员学校控制了一架经过特殊改装的F-16战鹰测试机,该测试机被命名为X-62A或VISTA(可变飞行模拟器测试机)。自主作战演习的展示始于去年。
2024-04-18
原创文章
在军事领域,许多机构认为,自主和人工智能武器系统不应包含无法解释的人工智能,红十字国际委员会和美国国防部都明确将可解释性列为开发和使用此类系统的相关因素。
2024-04-16
研究文章
本文提供了一种解释人工智能伦理原则的方法,以规定在高风险领域开发和部署人工智能系统的伦理标准。
2024-03-13
声明
阅读Stop Killer Robots向缔约方政府专家组2024年第一届会议发表的关于...
2024-03-04
评论
随着华盛顿和北京之间的紧张局势继续加剧,开发世界上第一架下一代战斗机的军备竞赛正在进行。从潜艇和战斗机到轰炸机和主战坦克,美国和中国都在优先发展先进和尖端技术。也许最令人期待的第六代设计是即将到来的下一代空中优势(NGAD)计划、B-21隐形轰炸机和F/A-XX机身。
2024-01-30
评论
基于人工智能的自主武器系统(AWS)具有大规模杀伤性武器的潜力,军事和军火工业对AWS的影响轻描淡写,也有人认为,它们可以建立在“负责任”或“值得信赖”的人工智能(AI)的基础上。
2024-01-11
观点
随着俄乌战争中人工智能军备竞赛的持续,预计人工智能驱动的致命武器系统将在战争中变得普遍。尽管人工智能在许多成功的应用中显示出了前景,但仍迫切需要解决与这些应用相关的道德问题。
2023-12-02
报告
本文探讨了现有的技术和组织方面的数据挑战,介绍了生成合成数据的关键技术特征和方法,并分析了在国际安全背景下使用合成数据的影响,包括对自主系统和网络领域的影响。
2023-11-30
访谈
在这次采访中,人工智能教父Yoshua Bengio讨论了关于人工智能的引人注目的头条新闻、人工智能研究人员的禁忌,以及为什么顶级人工智能研究者可能对人工智能可能给人类带来的风险持不同意见...
2023-10-17
分析
澳大利亚、加拿大、日本、英国和美国在其高级人工智能政策文件中强调问责制、可解释性、公平性、隐私性、安全性和透明度原则。尽管措辞相同,但这些国家对这些原则的定义略有不同,这可能会对互操作性和国际规范的制定产生重大影响。
2023-10-16
新闻报道
联合国秘书长António Guterres和红十字国际委员会主席Mirjana Spoljaric向各国政府发出了一个新的信息:“现在就采取行动,维护人类对武力使用的控制。”,各国领导人敦促联合国193个成员国采取果断行动,在2026年前谈判一项新的国际条约,禁止和规范自主武器系统。
2023-10-06
问答
关于自主武器系统(AWS)的决议将于2023年10月提交给第78届联合国大会第一委员会。本文件简要回答了有关该问题的一些常见问题...
2023-10-02
评论
《四个战场:人工智能时代的力量》一书的作者事实上详细描述了在人工智能领域争夺世界领导地位的斗争,尤其是与美中力量有关的斗争...
2023-09-11
评论
利用人工智能扩大化学和生物武器范围的潜在应用在美国和海外引起了高度关注。应监管生物两用风险,以免人工智能技术用于制造生物武器...
2023-08-31
分析
联合国安理会将于2023年7月首次讨论人工智能对维护国际和平与安全的影响。对军备控制的影响是一个关键因素。然而,到目前为止,讨论是有限的,而且是脱节的。
2023-07-13
报告
该论文就人工智能驱动的技术解决方案在整个欧盟的安全和国防中的主流化提供了一个警示故事,指出这使一种特定的地缘政治和军国主义的创新想象合法化,这种想象可能与欧盟对此类系统负责任、值得信赖和以人为中心的愿景不兼容...
2023-07-01
评论
科学研究的透明度无疑是有价值的。但如果人工智能研究完全透明,那将是一个错误。为了最大限度地减少危害,两用技术——尤其是像人工智能这样的技术...
2023-06-08
新闻报道
自主武器系统可以帮助以色列自动使用武力。这些使用武力的行为往往是非法的,有助于巩固以色列对巴勒斯坦人的种族隔离。如果没有新的国际法来颠覆这项技术带来的危险,以色列今天正在开发的自主武器系统可能会助长其在世界范围内的扩散,并伤害最脆弱的群体...
2023-06-06
新闻报道
尽管政治和程序障碍阻碍了解决自主武器系统问题的进展,但新条约的支持者应该从《集束弹药公约》的成功以及促成该公约的谈判中汲取灵感...
2023-05-30
意见
击败自主武器需要持续的预防性努力,因为技术发展有时会超过政治。政府、民间社会组织、研究人员和行业参与者必须共同努力,正确处理这一复杂的主题,并确保新兴技术的正确和合乎道德的实施…
2023-05-23
活动
2023年5月31日,第三届生命安全领域机器人发展科学与实践会议将举行,名为“RoboEmercom”。会议讨论了在特种军事行动中使用机器人和技术系统(RTS)的经验,以及相关问题和潜在解决方案...
2023-05-19
报告
对各国在2022年底之前提交给致命自主武器系统政府专家组的与致命自主武器领域新兴技术相关的不同提案的内容进行了比较分析。
2023-05-10
评论
美国、中国和俄罗斯等主要大国已经认识到人工智能在塑造全球霸权动态未来方面的内涵。为了在彼此之间取得优势,这些国家在人工智能探索和增长方面进行了大量投资。
2023-05-06
文章
在这篇博客文章中,Palantir全球隐私总监Courtney Bowman和隐私以及公民自由政府和军事道德负责人彼得·奥斯汀探讨了技术提供商在国防领域的道德作用。未来的帖子将探讨Palantir在最重要的环境中支持防御工作流程的工作。
2023-04-07
评论
ChatGPT的创建者决定测试他们的人工智能系统是否可以教人制造和使用核武器和生物武器。他们组织了数月的测试......
2023-03-30
演讲
感谢哥斯达黎加和FUNPADEM组织这次重要会议。我将讨论自主武器系统的一些社会和人道主义后果。通过自主武器...
2023-03-08
新闻报道
上个月,拉丁美洲和加勒比地区几乎所有国家都通过了一项新公报,呼吁“紧急谈判”一项具有约束力的国际条约,禁止和管制自主武器系统的努力取得了重大进展。
2023-03-06
新闻报道
上个月,“阻止杀手机器人”运动的成员在哥斯达黎加与来自29个国家的68名活动家会面,参加了自新冠肺炎疫情以来首次在当地举行的全球会议。中央...
2023-03-03
分析
在这篇文章中,斯德哥尔摩国际和平研究所(SIPRI)的Vincent Boulanin和Marta Bo认为,看看国际法目前如何规定违反国际人道主义法的责任,为AWS的监管提供了有益的教训
2023-03-02
分析
军事人员寻求利用人工智能获取决策优势。然而,人工智能系统在技术故障的可能性方面引入了新的不确定性来源。这种失败可能与战略和人为因素相互作用,导致误判和危机或冲突升级。有效利用人工智能需要通过降低人工智能失败的可能性并控制其后果来管理这些风险权衡。
2023-03-01
报告
毫无疑问,自主武器系统的开发和使用必须遵守国际人道主义法。然而,在某些方面,国际人道主义法规则应如何在AWS的背景下解释和应用仍然不清楚或有争议。本报告特别关注人机交互,旨在促进对这一问题的更深入理解。报告为政策制定者提供了一个基线,以推动围绕现有《国际卫生法》禁止或监管哪些类型和用途的AWS的讨论...
2023-03-01
评论
支持自主开发和部署武器系统 (AWS) 的逻辑是冷战时期升级威慑战略的延续,并且这种逻辑未能把握此类系统将如何改变战争行为。 那些认真研究将 AWS 引入战争所固有挑战的安全分析人员已经意识到这是一个严重的问题。对 AWS 进行有意义的人为控制似乎是不可能的...
2023-02-23
新闻报道
人权观察组织在今天发布的一份报告中表示,美国国防部关于发展自主武器系统的新指令,对消除人类对使用武力的控制所造成的威胁的反应不足。该指令不仅没有对这些武器的开发制定适当的控制措施,反而可以为其提供便利...
2023-02-14
新闻报道
2023年1月25日发布的一项关于武器系统自主性的新指令表明,美国国防部(DoD)非常重视确保其制定政策和流程,以指导自主武器系统以及半自主武器系统(如远程操作的武装无人机)的开发、采购、测试、部署和使用。然而,该指令对自主武器系统引发的严重道德、法律、问责和安全问题以及风险的反应不足...
2023-02-14
新闻报道
人道主义裁军旨在防止和补救武器对人类和环境造成的伤害,并在2022年得到了推进和加强。这也是一个创新的时代,特别是在应对自主武器系统带来的风险和危险方面...
2023-02-02
政策
2023 年 1 月 26 日,NIST 发布了 AI 风险管理框架 (AI RMF 1.0) 以及配套的 NIST AI RMF Playbook、AI RMF Explainer Video、AI RMF Roadmap、AI RMF Crosswalk 和各种观点。
2023-01-26
评论
2021年11月,北约观察(NATO Watch)发表了一篇评论,批评NATO将人工智能(AI)用于军事目的的做法。本文简要更新了以下评论...
2023-01-06
研究文章
人工智能在包括军事领域在内的各个领域有着广泛的应用。一些决策系统自主程度的提高导致了对未来可能使用致命自主武器系统的讨论。这些讨论中的一个核心问题是为一些基于人工智能的结果分配道德责任。
2023-01-05
报告
在这份NBR报告中,来自澳大利亚、印度、日本、菲律宾、台湾地区和越南的专家讨论了中国新兴的网络、太空和自主武器能力。他们检查区域...
2022-12-15
论文
本文分析了日本对中国在太空、网络和自主武器系统方面的新兴能力所构成的重大威胁的看法和应对措施,并考虑了日本应对这些威胁的政策选择...
2022-12-15
访谈
《世界地缘战略洞察》就在乌克兰冲突中使用人工智能问题采访了法蒂玛·鲁马。Fatima Roumate博士是摩洛哥拉巴特穆罕默德五世大学Agdal法律、经济和社会科学学院国际法教授。自2010年起担任马拉喀什国际科学研究院创始院长…
2022-12-09
视频
当前自动化系统在战争和冲突的许多方面的应用打开了一个新的潘多拉魔盒。在几乎没有人为干预的情况下自主运行的系统引发了道德和法律方面的担忧。道德主义者、国际法律专家和国际事务专家一直在对这项技术的潜在滥用以及缺乏管理其使用的任何法规敲响警钟。
2022-11-28
报告
在斯德哥尔摩国际和平研究所(SIPRI)的一份报告中,Marta Bo与Laura Bruun和Vincent Boulanin一起探讨了人类如何对违反...
2022-11-24
评论
这些办公室旨在通过与私营部门公司和学者合作,磨练NATO的技术优势。他们的任务是与高科技初创公司和老牌公司合作,以...
2022-11-19
报告
由于与人工智能 (AI) 的集成,核指挥和控制系统的自主性不断增强,这将产生战略层面的影响,可能会增加核稳定性或增加核使用的风险。
2022-11-18
政策
中国现结合自身在科技伦理领域的政策实践,参考国际社会相关有益成果,从人工智能技术监管、研发、使用及国际合作等方面提出关于加强人工智能伦理治理的立场。
2022-11-17
演讲
联合国裁军事务厅和欧盟委员会于2022年4月共同举办“武器系统中的伦理与新兴技术”研讨会。曾毅研究员受邀作为中方发言专家参与此次会议。演讲题目:负责任的人工智能如何赋能世界和平及可持续共生社会。
2022-11-11
政策
军事人工智能已经给世界带来了巨大风险与挑战,同时我们应当警惕由于军事人工智能的发展导致战争门槛降低,从而引发本可避免的灾难。“国防人工智能与军控网络”发布了军事人工智能的设计、研发、使用、部署全生命周期应当合乎的原则。
2022-11-07
访谈
World Geostrategic Insights 就人工智能 (AI) 在國際關係和全球治理中的應用以及 …
2022-10-31
意见
“事实是,在这个数字世界中,我们都是全天候生活在监狱和监控中,是的,生活在智能手机、SIM卡、社交应用程序和人工智能(AI)的监狱中。”~ Rana Danish Nisar博士~欢迎来到数字冷战:真相是痛苦的,世界已经准备好了…
2022-10-22
声明
阅读《停止杀手机器人》在第77届联合国大会(UNGA)裁军与国际安全第一委员会上发表的声明副本。
2022-10-14
评论
在《On Air》的一个新播客节目中,Asser研究所研究员泰勒·伍德科克(Taylor Woodcock)讨论了当今“对战争中自主武器系统(aws)的关注”,以及随之而来的缺乏...
2022-10-11
评论
上周,白宫科技咨询机构科学技术政策办公室(Office of Science and Technology policy)公布了一项人工智能权利法案,这是人工智能政策和伦理专家的回应。
2022-10-10
政策
为了推进拜登总统的愿景,白宫科技政策办公室确定了五项原则,这些原则应指导自动化系统的设计、使用和部署,以保护人工智能时代的美国公众。人工智能权利法案蓝图是一个保护所有人免受这些威胁的社会指南--以加强我们最高价值观的方式使用技术。为了回应美国公众的经验,并参考研究人员、技术专家、倡导者、记者和政策制定者的见解,这个框架附有《从原则到实践》--一本供任何寻求将这些保护措施纳入政策和实践的人使用的手册,包括在技术设计过程中实现这些原则的详细步骤。这些原则有助于在自动化系统能够有意义地影响公众的权利、机会或获得关键需求的时候提供指导。
2022-10-01
报告
毫无疑问,人类必须为自主武器系统(AWS)的开发和使用承担责任,因为机器不能因违反国际人道主义法(IHL)而被追究责任。然而,在实践中,人类如何对涉及AWS的违反国际人道主义法的行为负责这一关键问题在AWS的政策辩论中并没有得到充分体现。本报告旨在对这个问题进行全面分析。
2022-10-01
评论
在一篇新的论文中,Asser研究所的研究员Marta Bo研究了程序员何时可能对自动驾驶汽车和自动驾驶武器造成的伤害承担刑事责任。
2022-09-23
评论
在一篇新论文中,Asser Institute 高级研究员 Bérénice Boutin 探讨了国家在涉及人工智能 (AI) 技术军事应用的违反国际法行为中承担责任的条件和方式。
2022-09-13
研究文章
“自主武器系统”(AWS)多年来一直受到激烈讨论。许多政治、学术和法律行为体都在争论其后果,许多人呼吁严格监管或加强监管...
2022-09-02
报告
近日,美国布鲁金斯学会发布名为《管理中美战争的风险:实施综合威慑战略》的研究报告。报告指出,美国国防部长劳埃德·奥斯汀对“综合威慑”的理解预示着一个重要转变。 具体而言,美国将综合威慑纳入2022年国家发展战略中意味着国防部的战略力量正在扩大,美国和更多盟国的参与以及有效威慑必须跨越多个领域——陆地、海洋、空中、太空和网络空间。此外,美国国防部将不再完全依赖军事影响力,而是将政治、外交、信息和经济手段结合起来对中国进行综合威慑。
2022-09-01
声明
红十字委员会在7月25日至29日举行的联合国《特定常规武器公约》致命自主武器系统政府专家2022年最后一次会议上发表声明。
2022-08-08
评论
人工智能(AI)越来越多地执行以前只有人类才能完成的任务……医疗操作。然而,由于最好的人工智能系统往往是最不可控的……不再在道德上负责。。。
2022-07-29
报告
在本章中,我们概述了爱沙尼亚当前的人工智能环境,详细介绍了许多公共部门的使用案例以及工业和军事领域的发展情况,以检查人工智能在爱沙尼亚的应用。。。
2022-06-08
评论
2012年11月,国防部(DOD)发布了关于武器系统自主性的政策:DOD指令3000.09(DODD 3000.09)。尽管这项政策已有近10年的历史,但它仍然经常被误解,包括被美国军方领导人误解。例如,2021 2月,当时担任国防部联合反无人机系统办公室能力和需求司司长的马克·E·佩利尼上校说,“现在我们没有权力让一个人脱离圈子。根据现有的国防部政策,你必须在某个时候让一个人在决策周期内授权参与。
2022-06-06
声明
以下是裁军事务高级代表在人权理事会第二十三届会议上就致命自主机器人问题发表的声明。联合国开发计划署日内瓦办事处主任贾莫·萨雷瓦先生代表高级代表发言
2022-05-29
原创研究
以人为中心的人工智能系统设计和部署方法旨在支持和增强人类……但这在军事背景下会是什么样子?我们探索了以人为中心的方法。。。
2022-05-18
评论
作为Asser Institute研究论文系列的一部分,Asser研究员Berenice Boutin、Taylor Woodcock和Tomasz Zurek来自研究部门“公共利益监管:破坏性...
2022-05-18
研究文章
本文讨论了在武装冲突背景下对自主武器系统(AWS)可允许的自主程度的一个重要限制:国际人道主义法(IHL)要求人类能够在攻击过程中直接干预武器系统操作的程度。
2022-05-11
评论
如果开源分析人士是对的,那么在俄乌冲突中使用了一种能够使用人工智能挑选目标的游荡弹药——杀手机器人。自主武器使用人工...
2022-03-15
声明
红十字国际委员会(红十字委员会)欢迎政府专家组继续开展工作,并敦促《特定常规武器公约》缔约国根据本公约的主要宗旨之一,即需要继续编纂和逐步发展国际法规则,开展重要工作
2022-03-11
原创研究
人工智能(AI)似乎正在影响所有行业……创新的发动机。人工智能从民用部门向国防部门的扩散,以及人工智能的双重用途潜力已引起人们的关注。。。
2022-03-08
原创文章
商业、管理和商业伦理文献很少关注人工智能机器人的话题。广泛的潜在道德问题涉及使用无人驾驶汽车、在养老院使用人工智能机器人等。。。
2022-03-02
评论
总的来说,我认为国际军备控制法在过去十年中失去了太多的公众支持,因此我的目标之一是让人们认识到军备控制领域的相关性。我想与政治活动家和政府专家合作,为这一领域的潜力作出贡献,以加强国际和平与安全。
2022-02-28
评论
日内瓦(红十字委员会)——本周,红十字国际委员会将在日内瓦联合国的一次专家会议上发表讲话,敦促各国政府在审议自主武器问题时,关注人类对使用武力的控制问题。
2022-02-22
报告
全民国防和安全系统(Sistem pertahanan dan keamanan rakyat semesta Sishankamrata)是印度尼西亚全民国防系统的一个实施方案。致命的自主...
2022-02-22
报告
致命自主武器系统(LAWS)是根据国际人道主义法(IHL)和国际人权法(IHRL)的原则进行讨论和考虑的。符合法律、道德和...
2022-02-22
白皮书
可能的后果有一个特定的范围:恶意攻击可以操纵人工智能系统,从而也可以操纵使用该技术作为某些决策基础的人的行为。同样,在缺乏保障措施的情况下,人工智能系统可用于监控人员、工业间谍活动或作为武器。因此,保护人工智能系统不被犯罪分子、恐怖分子、竞争对手或雇主滥用,是负责任地使用该技术的一项高度相关的任务。
2022-02-22
研究文章
自主武器的出现仍然是国际人道主义法中的一个热门话题。近年来,各国、国际组织、非政府组织和学术界就此事发表了很多意见。然而,对于如何最好地监管这项新兴技术,尚未达成协议。
2022-01-21
分析
目前与使用武器化人工智能有关的做法已经影响到欧洲的稳定和安全。欧安组织是一个有希望在《特定常规武器公约》陷入僵局的讨论基础上再接再厉的平台,因为它有着在欧洲安全的各种观点之间架起桥梁的历史。
2022-01-18
评论
在阿瑟研究所,我们以一项全新的研究议程(2022-2026年)开始新的一年,题为“重新思考国际法和欧洲法中的公共利益:将批判性反思与行动视角相结合”。它围绕与国际和欧洲公法和私法中的公共利益相关的问题组织
2022-01-17
公开论坛
本文认为,在一个战争仍然正常化的世界中出现的人工超级智能(ASI)构成了灾难性的生存风险,因为ASI可能被一个国家所使用。。。
2022-01-11
声明
红十字委员会武器和敌对行为股股长洛朗·吉塞尔在《禁止或限制使用某些常规武器公约》缔约国第六次审议大会上就使用某些常规兵器引起的人道主义关切
2021-12-24
评论
有了波音ATS,作战空军将加大敌方进入ATS半径范围内空域的风险。要么敌人的战斗机部队将承担更多的护航任务,要么脆弱的飞机可能只能被排除在该地区之外。
2021-12-19
政策
人工智能技术的快速发展及其广泛应用,正深刻改变人类生产和生活方式,给世界带来巨大机遇的同时,也带来难以预知的安全挑战。特别值得关注的是,人工智能技术的军事应用,在战略安全、治理规则、道德伦理等方面可能产生深远影响和潜在风险。
2021-12-14
声明
需要对战争的未来作出负责任的选择,包括明确和具有法律约束力的边界,禁止不可预测或旨在针对人类的自主武器系统,以及对所有其他武器系统的设计和使用进行严格监管。
2021-12-13
观点
英国国家人工智能(AI)战略的发布代表着“信号”文件的一个重大变化。事实上,我们将《国家人工智能战略》视为创新的愿景,……我们支持。。。
2021-12-06
原创研究
过去几年,世界各国政府发布了大量人工智能(AI)战略,旨在最大限度地提高AI的效益,最大限度地减少潜在的危害。。。
2021-11-12
文章
2021 12月在日内瓦举行的《某些常规武器公约》第六次审查会议是各缔约方评估并进一步发挥《特定常规武器公约》(CCW)在尽量减少武装冲突中的痛苦方面所发挥的重要作用的关键时刻。
2021-11-08
评论
2021 10月在布鲁塞尔举行的北约国防部长会议(见北约观察简报第87号)上,各国部长同意采用北约人工智能(AI)新战略。战略...
2021-11-08
研究文章
这篇文章检验了新武器技术要求基督教道德摒弃正义战争传统(JWT)的主张,并主张发展而非解散。在JWT工作的人不应该抱有幻想,然而。。。
2021-11-01
评论
2021 年 10 月 21 日至 22 日在布鲁塞尔举行的北约国防部长会议分析
2021-11-01
意见
北约秘书长延斯·斯托尔滕贝格于10月21日和22日在北约总部举行的北约国防部长会议之前举行的新闻发布会
2021-10-20
评论
本系列讲座范围内感兴趣的主题包括人工智能军事应用的技术视角、对人类控制和人类机构技术的哲学探究、与(军事)人工智能相关的国际法分析,包括国际人道主义法和国际人权法,以及与这些主题相关的跨学科贡献。
2021-10-04
意见
北约副秘书长 Mircea Geoană 在人工智能与网络会议上发表题为“潜力无限”的讲话
2021-09-27
政策
国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》(以下简称《伦理规范》),旨在将伦理道德融入人工智能全生命周期,为从事人工智能相关活动的自然人、法人和其他相关机构等提供伦理指引。
2021-09-25
报告
军事人工智能的竞赛正在如火如荼地进行。世界各地的军事人员正在开发和部署各种人工智能应用程序,包括用于推进监视、指挥和控制的工具。。。
2021-09-08
声明
红十字委员会建议各国通过新的、具有法律约束力的规则来管理自主武器系统,以确保在使用武力时保持充分的人的控制和判断。ICRCs认为,这将要求禁止某些类型的自主武器系统,并严格管制所有其他系统。
2021-08-03
分析
美国的盟友已经开始制定自己的政策方法来负责任地使用军事人工智能。本期简报着眼于关键盟友,他们对如何在采用军事人工智能时管理道德风险提出了清晰、新兴和新生的观点。该报告比较了它们的趋同和分歧,为美国、其盟国和多边机构制定负责任的人工智能实施的共同方法提供了途径。
2021-08-01
分析
国防部已经可以开始应用其现有的国际科技协议、全球科学网络以及在多边机构中的作用来促进数字国防合作。本期简报将这些选项集合构建为军事人工智能合作工具箱,发现可用工具为调整政策、推进研究、开发和测试以及连接人员提供了有价值的途径——尽管在欧洲-大西洋以更结构化的方式比在印太地区。
2021-08-01
评论
与Asser研究员Marta Bo一起推出了一个新的播客系列《致命自主武器:我们想知道的10件事》。播客系列是LAWS&;战争罪研究项目...
2021-07-27
文章
现在,人工智能(AI)不再只是一个让技术大师们为各种可能性疯狂的假设场景,而是它正在使用并影响着我们的日常生活,它正在更新...
2021-07-02
研究文章
本文分析了致命自主武器系统(LAWS)争论的过度认识局限性,特别是有意义的人类控制概念,该概念已成为学术文献和政策论坛中监管争论的核心。
2021-06-23
评论
在阿姆斯特丹大学的采访中,项目负责人Berenice Boutin博士讨论了与军事人工智能相关的一些挑战,以及DILEMA研究项目如何解决这些挑战。
2021-06-14
政策
诺拉·克里斯汀·斯泰;布鲁诺·奥利维拉·马丁斯(Bruno Oliveira Martins)(2021)《挪威关于新兴军事技术的政策:扩大关于人工智能和致命自主武器系统的辩论》,《政策简报》,11.奥斯陆:PRIO。
2021-06-11
报告
遵守国际人道主义法(IHL)被公认为评估自主武器系统(AWS)可接受性的关键基准。然而,在某些关键方面,现有的国际人道主义法规则如何以及在多大程度上限制了AWS的开发和使用,这一问题仍有待讨论或探索不足。
2021-06-01
研究文章
在国内动荡时期,对美国总统来说,在国外使用武力成为一种吸引人的策略,以期将注意力从国内局势转移到外交政策的成功。武器化无人机技术成本低。。。
2021-05-26
评论
土耳其制造的Kargu-2无人机可以在自动模式下运行,可能被用来攻击在利比亚与联合国承认的政府作战的撤退士兵。有一个正在进行的全球...
2021-05-20
立场文件
自2015年以来,红十字国际委员会(红十字委员会)敦促各国对自主武器系统设定国际商定的限制,以确保平民保护、遵守国际人道主义法和道德可接受性。为了支持目前为建立自主武器系统的国际限制所作的努力
2021-05-17
立场文件
为了支持目前为解决自主武器系统带来的风险而对其进行国际限制的努力,红十字委员会建议各国在这一立场和背景文件中通过新的具有法律约束力的规则。
2021-05-12
声明
红十字国际委员会(红十字委员会)主席彼得·毛雷尔先生在虚拟简报会上就红十字委员会关于自主武器系统的新立场所作的发言。
2021-05-12
文章
致命自主武器系统(LAWS)——机器人武器能够根据其编程方式感知并单方面行动——将能够选择目标和...
2021-05-06
分析
法律在如何以合乎道德的方式开发和使用人工智能方面发挥着至关重要的作用。但是,如果由于缺乏联邦关系、利益或立法的政治意愿而存在漏洞,则该法律是不够的。如果在需要灵活性和创新的情况下强加监管僵化和负担,法律可能就太过分了。有关人工智能的健全的道德准则和原则可以帮助填补法律空白。在本文中,CSET 杰出研究员 James E. Baker 提供了关于三种机制的限制和承诺的入门读物,以帮助塑造最大限度地发挥人工智能优势并最大限度地减少其潜在危害的监管制度。
2021-04-01
报告
这篇论文是那些试图参与当前欧洲核风险辩论的人的入门读物。它揭开了核领域新兴和破坏性技术所带来的挑战的神秘面纱,并将其背景化。它详细研究了高超音速武器、导弹防御、人工智能和自动化、反空间能力以及计算机网络操作(赛博)这五项重大且可能具有破坏性的技术发展,以突出经常被忽视的细微差别,并解释这些发展所带来的一些挑战是如何变得更加微不足道的,比有时所描绘的更成熟、更易于管理。通过强调在应对核挑战时政治优先于技术,本文还试图为有针对性地减少风险和军备控制提供基础,并为欧洲各地的决策者和专业人士提供规范性建议。
2021-03-01
立场文件
在一段时间的冲突不断增加和迅速的技术变革、国际红十字委员会(红十字委员会)需要了解新技术的影响对人们受到武装冲突影响和设计人道主义解决方案,解决需求的最脆弱的群体。
2021-03-01
书籍章节
Reichberg,Gregory M.&;亨利克·塞斯(Henrik Syse)(2021)《将人工智能应用于战场:道德辩论》(Applied AI on the Battlefield:the Ethics Debates),载于约阿希姆·冯·布劳恩(Joachim von Braun);玛格丽特·S·阿切尔;Gregory M.Reichberg&;Marcelo Sánchez Sorondo,eds,机器人、人工智能和人类:科学、伦理和脊髓灰质炎。。。
2021-02-22
评论
阿塞拜疆在纳戈尔诺-卡拉巴赫战役中表明,即使是苏联时代的旧作物除尘器也可以被重新利用,并在无人机战争中有效使用——这是军队如何继续的另一个例子...
2021-02-10
分析
人工智能与军事系统的快速整合引发了伦理、设计和安全等关键问题。尽管许多国家和组织都呼吁采取某种形式的“人工智能军备控制”,但很少有人讨论验证各国遵守这些法规的技术细节。本简报提供了一个起点,定义了“人工智能验证”的目标,并提出了支持武器检查和持续验证的几种机制。
2021-02-01
评论
在人工智能时代拥有自主权意味着什么?根据国际法,远程自主武器是如何管理的?2021 2月22日星期一(16:00 CET/15.00 GMT),比尔·布思比教授...
2020-12-15
报告
本文探讨了多边核查机构在处理遵约和执法问题上的作用,它们在多大程度上实现了“代理”和“影响力”,以及是否以及如何加强这种能力。
2020-12-14
书评
近年来,人工智能已成为社会不同学科和领域的热门话题。快速发展的技术创新,尤其是在机器学习等领域(以及越来越广泛地使用基于人工智能的系统),带来了人们对人工智能伦理需求的日益认识,无论是在政治、工业、科学还是整个社会。
2020-11-06
评论
由Asser高级研究员Berenice Boutin博士领导的DILEMA项目正在推出一个新的系列讲座,内容涉及人类机构与军事人工智能(AI)之间的法律、伦理和技术观点。
2020-11-05
报告
2018年,联合国秘书长确定科学技术领域的负责任研究与创新(RRI)是学术界、私营部门和政府致力于缓解新技术带来的风险的一种方法。
2020-11-01
报告
人工智能(AI)的军事应用已成为大国竞争的焦点。2019年,几个欧盟(EU)成员国呼吁欧盟成员国在防务人工智能问题上加强合作。本报告探讨了为什么欧盟及其成员国将从制定负责任的人工智能军事使用原则和标准中获得政治、战略和经济利益。它描绘了在这个问题上已经做了什么,以及如何在欧盟内部就法律合规、道德和技术安全进行进一步的专家讨论。该报告为欧盟及其成员国提供了具体的方法,以努力实现负责任的人工智能军事使用的共同原则和最佳实践。
2020-11-01
研究文章
在这篇Connexions的文章中,我们关注智能代理程序,这些程序是当代人工智能(AI)的前沿解决方案。我们探讨这些计划如何成为渴望的对象,其中包含改变组织和。。。
2020-10-22
讨论
小组成员讨论了网络如何成为非国家行为者和国家的首选武器。《完美武器》由约翰·马乔执导,根据大卫·桑格的同名书改编,探讨了网络冲突的兴起,这是各国现在相互竞争和破坏的主要方式。
2020-10-09
研究文章
本文讨论了第一人称体裁,特别是Gazan战时日记,如何让作家和读者想象理解当代殖民地无人机战争的新可能性,这对战略沉默和。。。
2020-09-19
评论
这是一个简单的问题,机器人应该自己杀人吗?技术就在这里。无人系统,包括地面和空中机器人,可以在无人干预的情况下自主寻找、发现、跟踪、瞄准和摧毁敌人
2020-08-19
分析
武装无人机的国际市场正在蓬勃发展,造成了广泛扩散的风险,尤其是对非国家行为者或以不尊重战争法而闻名的国家。本文分析了这些扩散风险,并就如何减轻这些风险提出了建议。
2020-08-10
报告
数据和国家安全有着复杂的关系。数据对国防至关重要,对了解和对抗对手至关重要。数据支撑了许多现代军事工具,从无人机到...
2020-07-01
原创文章
2017年7月,中国国务院发布了题为“新一代人工智能发展计划”的国家人工智能发展战略(新一代人工智能发展规划). 这个策略。。。
2020-06-17
出版物
红十字委员会于2014年3月26日至28日召开了一次关于自主武器系统的国际专家会议。会议汇集了来自21个国家的政府专家和13名专家,其中包括机器人学家、法学家、伦理学家以及联合国和非政府组织的代表。
2020-06-10
报告
本报告旨在让读者具体了解拥有核武器的国家采用人工智能(AI)如何对战略稳定和核风险产生影响,以及如何在政策层面应对相关挑战。该分析基于对核武装国家人工智能相关技术和战略发展的广泛数据收集。它还以作者的结论为基础,这些结论来自于SIPRI在瑞典(欧洲-大西洋动态)、中国(东亚动态)和斯里兰卡(南亚动态)举办的一系列区域研讨会以及在纽约举办的跨区域研讨会。在这些研讨会上,从事军备控制、核战略和区域安全工作的人工智能专家、学者和从业者有机会讨论为什么以及如何由核武装国家采用人工智能能力会对区域内或区域间的战略稳定和核风险产生影响。
2020-06-01
报告
人工智能为国防提供了巨大的希望。例如,越来越多的机器人车辆和自主武器可以在对士兵来说过于危险的区域运行。但是,在战争中使用人工智能甚至在和平时期加强安全有什么伦理意义?
2020-04-28
研究文章
当今网络世界的自动化技术依赖于社会对其“智能”程度的期望。算法处理,以及它们发展过程中的偏见和失误,都形成了一个文化领域,进而决定了它们的未来。我们的论点是,一个强大的分析框架可以从文化驱动的科学和技术研究中得到,同时关注卡隆的翻译概念。兴奋和。。。
2020-04-17
报告
这本编辑过的书是三本书中的第三本。该系列是SIPRI项目的一部分,该项目探索了与人工智能最新进展可能对核武器和理论以及战略稳定和核风险产生的影响相关的区域观点和趋势。本卷汇集了八位南亚问题专家的观点,即机器学习和自主性为何以及如何成为核武器国家之间军备竞赛的焦点。它进一步探讨了这些技术的采用可能如何对其在区域和跨区域一级的战略稳定性和核风险的计算产生影响。
2020-04-01
研究文章
大多数人工智能技术都具有双重用途。它们被纳入和平民用应用和军事武器系统。大多数现有的人工智能行为准则和伦理原则都是针对前者的,而在很大程度上忽略了后者。
2020-03-31
报告
该项目汇集了来自75个不同国家的198名专家,讨论了在瞄准周期的各个步骤中引入自主权的技术、军事和法律影响。通过总结这一系列演习的主要结果,本报告旨在建立一个共同的知识库,以支持与致命自主武器系统规范和操作框架有关的更知情的谈判。
2020-03-31
简报
数字技术可以极大地提高欧洲武装部队的战备状态和作战效能。然而,正如本简报所示,欧盟需要更好地理解国防数字化所涉及的风险和机遇,并且需要对其技术主权进行财政投资。
2020-03-11
报告
近年来,自主武器系统呈现出加速发展的态势。 在武装冲突的情况下使用这种类型的武器没有明确规定......
2020-03-09
简报
在美国国防部于2019年发布《人工智能战略》之后,本简报探讨了该倡议对欧洲和跨大西洋防务合作的影响。它认为,欧洲人需要制定军事创新战略,包括人工智能(AI),而跨大西洋伙伴需要设计一种共同的人工智能治理方法。
2020-03-05
评论
美国应该从 70 年的核技术管理历史中吸取教训,建立管理人工智能军事技术的框架。 AI for Peace 计划应阐明这项新技术的危险、管理危险的原则以及为其他国家制定激励措施的结构。
2019-12-13
新闻稿
随着越来越多的人工智能(AI)技术融入到我们生活的不同领域,以及为我们的社会带来的诸多好处,也存在着挑战。在军事背景下(这是Boutin项目的重点),人工智能技术有可能大大提高军事能力,并提供显著的战略和战术优势。与此同时,在军事环境中越来越多地使用自主技术和自适应系统,带来了深刻的道德、法律和政策挑战。
2019-11-27
报告
这本编辑过的书是三本书中的第二本。它们是SIPRI项目的一部分,该项目探索了与人工智能最新进展可能对核武器和理论以及战略稳定和核风险产生的影响相关的区域观点和趋势。本卷汇集了来自东亚、俄罗斯和美国的13位专家对机器学习和自主性为何以及如何成为核武器国家之间军备竞赛的焦点的观点。它进一步探讨了这些技术的采用可能如何对其在区域和跨区域一级的战略稳定性和核风险的计算产生影响。
2019-10-01
评论
数字系统智能自主方面的进展自然会引起政府、科学家和民间社会的关注,担心可能部署和使用致命的自主武器。我们需要一个论坛来讨论这些问题,并就可能的解决方案建立共同的理解。 ...
2019-09-10
评论
今天,我们正处于一个空前的技术变革时代的黎明。在从机器人和人工智能(AI)到材料和生命科学等领域,未来几十年的创新可以帮助我们促进和平,保护我们的星球,并解决我们世界上痛苦的根源。 ...
2019-09-10
文章
虽然听起来很刺耳,但你觉得什么更好?被人类杀死还是被机器人杀死?如果国际人道主义法(IHL)适用于人类,他们有义务尊重它,那么什么法律禁止武装无人机或机器人杀人?在网络战和自主武器的背景下,国际人道主义法是否仍然相关?或者,它太老了,无法适应
2019-08-26
问答
Cortney Weinbaum 作为兰德公司的高级管理科学家研究与情报和网络政策相关的主题。在这次采访中,她讨论了情报界面临的挑战、使用人工智能作为解决方案的风险以及科学研究中的道德规范。
2019-08-23
声明
这份声明是向2019年8月20日参加《特定常规武器公约》专家组致命自主武器系统会议的代表发表的。
2019-08-20
政策
国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》(以下简称《治理原则》),提出了人工智能治理的框架和行动指南。
2019-06-17
报告
致命的自主武器——有一天可能在没有人为干预或监督的情况下瞄准并杀死人的机器——正在世界舞台上引起关注。虽然他们的发展,...
2019-06-16
评论
Asser研究所和研究生院研究员Marta Bo博士和Taylor Woodcock在为The Global撰写的一篇博客文章中指出,目前缺乏关于自主武器和犯罪的讨论...
2019-05-28
报告
这本经编辑的卷集中于人工智能(AI)对核战略的影响。这是三部曲的第一部分,探讨了与人工智能的最新进展可能对核武器和理论、战略稳定和核风险产生的影响相关的区域观点和趋势。它汇集了来自欧洲-大西洋共同体的14位专家的观点,即机器学习和自主性为什么以及如何成为核武装国家之间武装竞赛的焦点;以及采用这些技术可能如何影响其在区域一级和跨区域一级对战略稳定和核风险的计算。
2019-05-01
报告
致命自主武器系统(LAWS)本质上是一种武器系统,一旦激活,就可以选择和攻击目标,而无需进一步的人为干预。虽然目前两者都不是...
2019-04-26
评论
自9·11事件以来,无人驾驶飞机一直是美国在中东及其他地区实力最明显、最具争议的标志之一。但是,随着地区大国寻求制定自己的路线,新一代更便宜的无人机——中国制造或当地制造,对其使用的限制要小得多——正在升空。
2019-03-06
报告
长期以来,生物科学的技术进步对维持生物安全和防止生物武器扩散的努力提出了挑战。生物技术的发展与其他新兴技术如增材制造、人工智能和机器人技术的融合,增加了生物武器的开发和使用的可能性。
2019-03-01
评论
1997年,IBM的“深蓝”电脑在一场国际象棋比赛中击败了大师加里·卡斯帕罗夫。这是一个历史性的时刻,标志着人类可以在复杂的战略游戏中战胜机器的时代的结束。如今,人工智能(AI)机器人不仅可以在国际象棋中击败人类,而且几乎可以在所有存在的数字游戏中击败人类。…
2019-02-18
分析
在二十世纪之交,从法国的古斯塔夫·加贝到美国的奥维尔·赖特,许多具有丰富想象力的工程师希望他们的发明能够。。。
2019-01-18
评论
美国政策制定者和军事界不必担心人工智能的“道德差距”,而是可以在人工智能道德方面发挥领导作用。这可能有助于确保人工智能军备竞赛不会成为一场逐底竞赛。
2019-01-11
评论
空军和DARPA现在正在测试新的硬件和软件,这些硬件和软件能够使第四代飞机在空中驾驶舱指挥无人机,为空战带来新的自主性、更多的攻击选择和一系列新的侦察优势
2018-12-10
报告
致命自主武器系统(LAWS)本质上是一种武器系统,一旦激活,就可以选择和攻击目标,而无需进一步的人为干预。虽然目前两者都不是...
2018-10-12
分析
恐怖组织、非法组织和其他非国家行为者对先进武器技术有着长期的迷恋。然而,限制此类武器扩散的国际努力目前落后于可能具有破坏性的新技术的出现。特别是,过去几年标志着致命自主武器系统的快速发展。
2018-10-01
评论
空军和DARPA现在正在测试新的硬件和软件,这些硬件和软件能够使第四代飞机在空中驾驶舱指挥无人机,为空战带来新的自主性、更多的攻击选择和一系列新的侦察优势。
2018-08-16
评论
印度拥有庞大的人才库和蓬勃发展的初创企业,如果得到适当利用和鼓励,不仅可以提供本土军事解决方案,还可以创造巨大的...
2018-07-01
报告
致命自主武器系统(LAWS)本质上是一种武器系统,一旦激活,就可以选择和攻击目标,而无需进一步的人为干预。虽然目前两者都不是...
2018-06-11
评论
此次活动汇集了来自日内瓦和海牙的演讲者,探讨并强调这两个联合国城市在将和平与正义领域的研究与政策联系起来方面的作用。
2018-06-11
访谈
新美国安全中心(CNAS)技术和国家安全项目的高级研究员兼主任保罗·沙尔(Paul Scharre)与指挥官詹姆斯·M·林赛(James M.Lindsay)讨论了自主武器和不断变化的战争性质。
2018-06-01
研究文章
在本文中,我使用了《纽约时报》的题为“预测性警务是否合乎道德且有效?”的辩论。 研究被视为预测性警务的关键操作以及它们可能对我们当前的文化和社会产生的影响。
2018-05-02
报告
自动武器系统(AWS)本质上是一种武器系统,一旦激活,就可以选择和攻击目标,而无需进一步的人工干预。虽然这些目前既没有部署也没有...
2018-04-17
声明
《特定常规武器公约》致命自主武器系统政府专家组,红十字国际委员会的声明红十字国际委员会(红十字委员会)很高兴向“致命自主武器”政府专家组第二次会议发表意见。
2018-04-09
文章
作为对自主武器系统提出的法律和道德问题的持续思考的一部分,红十字委员会于2017年8月28日至29日在日内瓦召开了一次圆桌会议,探讨道德问题。本报告-伦理与自主武器系统:人类控制的伦理基础?-总结讨论并强调ICRC的主要结论:
2018-04-03
文章
随着主要军队在将人工智能(AI)引入情报、监视、侦察甚至指挥系统方面取得进展,彼得罗夫的决定应该有力地提醒人们,依赖复杂系统的风险,在复杂系统中,错误和故障不仅可能发生,而且可能不可避免
2018-04-01
报告
法律是对人类的威胁,经过客观分析,没有对某一特定结果的先入为主的依恋,现行法禁止这些法律。分析不是在...
2018-02-26
视频
红十字国际委员会政策和人道主义外交负责人雨果·斯利姆博士本周访问了新德里,在印度外交部和观察家研究基金会于2018年1月16日至18日组织的Raisina对话会上发表讲话。
2018-01-19
访谈
一位前陆军游骑兵——他恰好领导了制定国防部自主武器政策的团队——在接受《公告》采访时解释了这些武器的优点、缺点,以及为什么禁止它们将是一个非常困难的挑战...
2018-01-10
评论
如果你做梦也没想到,大卖场货架上的玩具状无人机可以通过一点人工智能和一点形状爆炸物转化为人脸识别...
2017-12-05
报告
1949年日内瓦四公约1977年附加议定书第36条规定,各国有实际义务确定“在研究、开发、获取或采用新武器、作战手段或方法时”是否“在某些或所有情况下”国际法禁止其使用。这一机制通常被通俗地称为“第36条审查”。
2017-12-01
讨论
2017年10月16日,墨西哥常驻联合国代表团与国际机器人武器控制委员会、人权观察、,Seguridad Humana en Latinoamérica y el Caribe和制止杀人机器人运动主办了一场题为“禁止完全自主武器的途径”的小组讨论会,作为第72届大会第一委员会会外活动系列的一部分。
2017-10-23
评论
随着技术的进步,特别是在自主系统领域,许多人思考激光无人机武器是否很快就能使用传感器、瞄准和武器投送系统发现、获取、跟踪和摧毁敌方目标,而无需任何人为干预。
2017-10-23
讨论
2017年10月5日,联合国裁军研究所(裁研所)在纽约联合国总部主办了一场会外活动“自主武器系统:学习算法和偏见”。活动欢迎一个由四名专家组成的小组参加关于机器学习中存在数据偏差及其对日常技术和军事化武器系统的潜在影响的高级别专题讨论
2017-10-13
研究文章
机器人时代将如何改变战争?美国军方正在设想什么样的地缘政治前景?本文构建了一个机器人未来学来研究这些关键问题。它的核心问题是机器人——由人工跳跃驱动——如何。。。
2017-08-31
研究文章
本文涉及青年陪审团关于使用自主武器系统 (AWS) 的审议结果。 陪审团的讨论集中在几个关键问题上。 陪审员们表达了在人工智能军事化方面让人类参与决策过程的重要性,并且只有人类才有道德代理能力。
2017-08-30
报告
本文探讨了自主武器系统(AWS)中人工智能(AI)和机器学习与国际人道主义法(IHL)的相互作用。律师和科学家...
2017-07-05
评论
研究了在空间战中使用自主武器系统(AWS)的合法性。目前,有关于空战、导弹战、海战和网络战的手册,但文献中的一个明显差距是没有关于空间战的手册。
2017-04-07
报告
随着技术的进步和机器获得了在无人控制的情况下运行的能力,自主武器系统(AWS)在国际法下的合法性是一个越来越重要的问题。本文认为,现有的法律是无效的,需要一套不同的法律。本文探讨了AWS在战争中开发和使用的几个关键问题。
2016-12-22
报告
自2013年以来,在1980年《联合国特定常规武器公约》(CCW)框架下讨论了致命自主武器系统的治理问题。讨论仍处于早期阶段,大多数缔约国仍在了解利害关系的问题,首先是什么是“自主”,以及在武器系统和使用武力的情况下,这在多大程度上是一个令人关切的问题。一些缔约国强调,对“自治”含义的概念和技术基础进行进一步调查,将有助于今后的讨论。
2016-12-01
报告
自2013年以来,在1980年《联合国特定常规武器公约》(CCW)框架下,国际上一直在讨论致命自主武器系统的治理问题。迄今为止,讨论仍停留在非正式层面。在《特定常规武器公约》的主持下,召开了三次非正式专家会议(2014年、2015年和2016年举行),讨论与法律和安全领域新兴技术有关的问题。然而,一些代表团已经表示,他们对一项关于法律的新议定书可能对创新产生的影响表示担忧,特别是在民用领域,因为可以说,法律所依据的大部分技术可能是双重用途的。
2016-12-01
文章
国际人道主义法、其对新武器、战争手段和方法的适用性以及遥控和自主武器系统对国际人道主义法律的影响是最近在首尔举行的一次研讨会议程上的议题之一。
2016-10-11
评论
今天,国防科学委员会(DSB)发布了一项期待已久的研究,简称为自主研究。自20世纪50年代末以来,DSB一直处于调查前沿科学、技术和制造业问题并提供政策指导的前沿。
2016-08-23
报告
联合国(UN)《特定常规武器公约》(CCW)关于致命自主武器(LAWS)的讨论被混淆了,没有建设性,主要是为了相同的定义...
2016-06-19
文章
2016年4月,红十字委员会武器部门负责人凯瑟琳·劳兰应邀前往伦敦,在戈德史密斯大学举行的国际机器人武器控制委员会(ICRAC)峰会年会上发表主旨演讲。在她的演讲中,Lawand介绍了ICRC对自主武器系统的看法,即可以自行选择和攻击目标的武器,
2016-05-06
文章
作为对《特定常规武器公约》正在进行的讨论的贡献,本文件从红十字委员会的角度,并根据其最近专家会议的讨论,着重介绍了自主武器系统的一些关键问题。
2016-04-11
文章
自主武器系统是非洲特别关注的一类新兴武器。随着新的和新兴的战争技术,特别是那些依赖信息技术和机器人技术的战争技术继续取得快速进展,重要的是确保对这些新发展带来的许多而且往往是复杂的挑战进行知情的讨论。
2016-04-11
报告
非政府组织第36条提出了“有意义的人类控制”(MHC)这一新兴概念,作为解决自主武器系统(AWS)带来的挑战的可能方案。各种状态,...
2016-03-27
报告
在本文中,我讨论了非洲“ubuntu”或人类概念与当前正在进行的AWS辩论的相关性。在将ubuntu的概念追溯到津巴布韦前殖民时期之后...
2016-03-27
报告
自2013年以来,在1980年《联合国特定常规武器公约》(CCW)框架内讨论了致命自主武器系统的治理问题。讨论还处于早期阶段,大多数州仍在了解相关问题。为了解决有争议的问题,并为任何潜在的正式谈判奠定建设性基础,需要进行长期的讨论。
2016-03-01
研究文章
今天的无人机可能成为明天的杀手机器人,这一点引起了全世界人民的关注。科学家和商业领袖,从斯蒂芬·霍金到埃隆·马斯克,最近签署了一封信,敦促世界禁止。。。
2016-02-16
报告
1949年日内瓦公约第一附加议定书第36条要求各国对所有新武器、作战手段和方法进行法律审查,以确定国际法是否禁止使用这些武器、手段和方法。然而,审查具有自动化和自主功能的武器的合法性面临着一些技术挑战。此类审查需要复杂的程序来测试武器性能,并评估与意外失控相关的风险。由于此类评估需要大量的技术和财政资源,因此有强烈的动机深化各国在武器审查领域的合作和信息共享。增加互动可以帮助确定最佳实践和解决方案,以降低与测试和评估程序相关的成本。
2015-11-01
文章
武器技术的进步意味着,在战场上使用武力的决定越来越多地可以由机器在没有人为干预的情况下操作。最近在堪培拉举行的一次活动,“跨越卢比孔:攻击性自主武器的道路”,集中讨论了与这些类型系统的潜在使用相关的一系列问题。在事件之后,
2015-07-10
视频
自主武器是一个情绪化的话题,有可能改变战争的整体性质。有一天,机器能够在没有人类控制的情况下进行杀戮吗?我们应该如何处理这种可能性的法律和道德含义?在日内瓦举行的一次为期五天的会议一直在研究这些问题。ICRCs武器部门负责人凯瑟琳·劳兰德
2015-04-17
报告
CNAS 专家 Paul Scharre、Michael Horowitz 和 Kelley Sayler 为联合国代表提供了有关自主武器的指导……
2015-04-07
报告
20YY Warfare Initiative 主任 Paul Scharre 和兼职高级研究员 Michael Horowitz 讨论未来军事系统纳入更大的自主权......
2015-02-13
评论
1946年1月,联合国大会的第一项决议就涉及到原子能的发现所带来的问题。尽管民间社会在科学家和妇女和平组织的带领下做出了努力,但美国和苏联的领导人拒绝了遏制核野心的措施。...
2015-01-28
报告
裁研所的这篇文件探讨了“有意义的人类控制”的理解,它作为讨论自主性和武器系统的框架概念的优势和劣势,以及解决日益自主的技术武器化问题的其他概念和政策导向的方法。
2014-11-13
文章
对人类控制使用武力的挑战。武器技术的进步意味着,在战场上使用武力的决定越来越多地可以由机器在没有人为干预的情况下操作。在这里,我们研究了战争方式发生如此深刻变化的潜在影响,并警告不要使用此类武器,除非
2014-11-12
报告
CNAS 专家 Michael Horowitz、Paul Scharre 和 Kelley Sayler 研究了联合国代表面临的问题以及行动建议......
2014-11-10
报告
专家会议报告红十字委员会于2014年3月26日至28日召开了一次关于自主武器系统的国际专家会议。会议汇集了来自21个国家的政府专家和13位专家,包括机器人学家、法学家、伦理学家以及联合国和非政府组织的代表。目的是更好地了解
2014-11-01
文章
Sandvik,Kristin Bergtora&;Nicholas Marsh(2014)《致命自主武器:国际社会的问题、安全与发展》;国防议程,5月9日。
2014-05-09
文章
2014年4月10日,美国国际法学会和国际法协会在华盛顿特区组织了一次关于自主武器和武装冲突的联合会议。小组讨论了日益自主的武器系统的发展所带来的法律、道德和政治挑战。从以下角度分析自动化武器系统
2014-04-10
会议论文
Sandvik,Kristin Bergtora(2013),无人驾驶飞行器和自主武器,博士课程:新兴军事技术-新的规范性挑战,奥斯陆,2013年11月13日至2013年11日。
2013-11-13
评论
美国中高度长航时(MALE)无人机(如“捕食者”、“收割者”和“全球鹰”无人机)在侦察潜在对手和攻击可疑激进分子方面的固有优势,使其成为奥巴马政府默认的反恐工具。
2012-09-04
评论
最近在欧洲举行的两次会议强调了民间社会对无人驾驶飞行器 (UAV)(也称为无人驾驶飞机)用于军事用途的日益担忧。 NATO Watch 也有同样的担忧,并呼吁在全球范围内暂停部署武装无人机,并呼吁进行紧急国际讨论以制定军备控制制度,以规范这些武器系统的使用、开发和转让。
2010-09-27
报告
影响信息技术领域的军事决策是肤浅的小可见于其他一些武器的事态发展,但其重要性已经稳步增长,自1980年代。 它是现在的重点特别的兴趣和努力,因为它的潜在作用的现代武器系统的前景将其列入作为必不可少的组成部分,在许多军事项目,诸如战略防御倡议。
1987-01-01