信任算法?美国军方甚至不信任自己的AI开发人员

人工智能应用1年前 (2023)发布 aixure
75 0 0
导读:上个月,一个人工智能程序在国防高级研究计划局的挑战中击败了F-16飞行员,重新引发了关于致命AI及其是否值得信赖的讨论。盟友,非政府组织甚至美国国防部都在考虑是否可以信任AI系统。但是,当美国军方甚至不信任AI开发人员时,为什么还要信任算法呢? 任何…

上个月,一个人工智能程序在国防高级研究计划局的挑战中击败了F-16飞行员,重新引发了关于致命AI及其是否值得信赖的讨论。盟友,非政府组织甚至美国国防部都在考虑是否可以信任AI系统。但是,当美国军方甚至不信任AI开发人员时,为什么还要信任算法呢?

任何组织采用AI和机器学习都需要三种技术工具:机器学习算法从中学习的可用数字数据,为学习过程提供计算能力以及工程师用来编写代码的开发环境。然而,谁创建启用AI-应用宝贵的几个穿制服的军人数据科学家,机器学习工程师和数据工程师目前还难以处理这些问题,由于无法使用这些工具。简而言之,身穿制服的军人无法获得用于为军队创建AI解决方案的数据,计算工具或计算能力。问题不在于系统或软件本来就不安全,而是用户无法获得访问或安装它们的许可。

在没有数据,计算能力和开发环境的情况下,AI工程师被迫将相关技术等效地拼凑在一起,或者跳过官僚圈以获得对行业标准软件库的访问权,而这些软件库只需要几秒钟即可在个人计算机上下载。拒绝AI工程师使用这些工具等同于拒绝步兵使用步枪和装备(防弹衣,头盔和急救箱)。如果军方可以信任小型单位的领导者,以免他们在领导士兵打仗时避免丧生或造成平民伤亡,或者可以作为反叛乱行动的一部分与部落领导者进行谈判,那么它可以信任开发人员通过以下方式下载软件库:数亿的注册下载。

美国国防部的联合AI中心已启动了一项为期多年的合同,以建立联合共同基金会,该平台旨在为军方AI开发人员提供构建机器学习解决方案所需的工具。但是,仅靠工具是不够的。联合共同基金会应该成为更广泛的转变的一部分,以使开发人员拥有工具和信任。

开发人员需要数据

数据是现代机器学习的命脉,但是美国国防部的许多数据既不可用也不可访问,从而使军事数据变得丰富而信息却很贫乏。并非只有军队无法利用数据的潜力。全球最大的数据科学社区Kaggle进行的一项调查显示,“脏数据”是数据科学工作的最大障碍。

最近发表在有关联合基金会的出版物上的文章提到了使用MQ-9 Reaper无人机视频进行目标检测的困难,因为位置数据“烧入”到图像中,使机器造成了混乱。我们对脏数据的最尝试的经验来自陆军人力资源系统,正如您可能已经猜到的那样,该系统具有士兵人事记录的图像或pdf格式的副本,而不是可搜索,可分析的数据库。陆军没有使用AI来解决人才管理问题,而是在努力进行评估并以计算机可读的方式记录下来。数据经过清理和结构化后,用户及其工具也应该可以访问这些数据。

军事数据所有者经常拒绝共享其数据,从而使其与其他数据源隔离。统一的开发人员通常花费数小时来找到请求访问数据集的正确权限。当他们这样做时,过度限制和无意义的数据共享做法是很常见的。例如,根据一位工作人员的经验,一个数据拥有组织将一台笔记本电脑运送给带有预配置程序的那个人,因为组织不信任的AI工程师要下载信息或配置自己的工具需要权限。有时,批准过程需要花费数周的时间,因为法律,G-6,G-8和网络企业技术司令部的实体轮流说:“这不是我的决定”,“我不知道”或“这看起来很可怕”。。”

尽管军种在区域网络企业中心具有信息系统所有者来管理用户和网络,但是没有这种角色或数据处理过程。联合基金会可能将国防部的某些数据放在一个技术屋檐下,但不能解决官僚孤岛和守门人的问题。如果没有用于识别和标记哪些AI工程师“需要知道”的框架以及简化的访问请求流程,这些数据仍将被有效地锁定。

…以及先进的开发环境

在极少数情况下,可以访问数据,但不允许军方AI工程师安装软件或配置他们的机器。具有数据访问权限的政府计算机可能仅具有R之类的数据科学语言,而Python和Julia则更为罕见,并且可能禁止或严重禁止安装允许数据检索,可视化或机器学习的软件库。这些库对于使任何AI研究人员都可以使用机器学习至关重要(军方很少使用)。拒绝统一的AI工程师使用这些工具,迫使他们重新发明轮子,从头开始重建算法。

简而言之,当前的选择是平淡的通用工具,但是大多数AI工程师更喜欢高级工具。为了进行比较,财务分析师可以手动或使用基本计算器进行复杂的数学运算,但是Microsoft Excel是功能更强大的工具。陆军的AI工程师面临同样的情况。

没有这些工具和库,AI工程师被迫以允许的任何编码语言来重新创建几位学者的研究成果,甚至做矩阵乘法之类的基本工作。作为军方技术人员,我们在个人计算机上建立辅助项目比在政府设备上更容易(和现代工具)。这种差距不足为奇,但是核心问题是许可,控制和速度,而不是安全或风险。

期望联合通用基金会提供安全的软件工程环境和对其他资源的访问,但是单独分配软件权限的集中式解决方案将永远无法跟上用户需求。相比之下,美国国防信息系统局自2018年以来已花费近1.5亿美元用于解决积压的700,000多名等待安全检查的人员,并取得了一些成功。AI在未来战争中的重要性意味着,数百名等待软件工具完成工作的AI开发人员的积压工作是严重的国家安全风险。漫长的过程不一定是彻底的过程,而可扩展性来自于教育,信任和授权许多用户。为了真正使军方AI员工能够完成工作,需要在允许他们在政府装备上安装和使用哪些工具和程序方面获得更大的信任。

普遍的看法是这些工具并不安全,但是推理只是严厉的,缺乏批判性思维。战斗机既昂贵又珍贵,但飞行员仍在飞行(有时会坠毁)。参加战斗巡逻或步枪射击的士兵的危险性增加,但他们巡逻和训练,因为这是他们的任务。安全是风险与有效性之间的平衡,我们需要重新评估我们的数字网络策略。TensorFlow和PyTorch的次要版本更新(分别由Google和Facebook创建和维护的关键机器学习库)突然造成威胁是不合理的。广泛使用的开源库也不大可能可能是威胁,也可能会在审查中检测到该威胁,但又被数百万其他用户以某种方式忽略了。此外,政府网络应具有足够的安全性以检测和隔离恶意行为,或者至少以零信任度进行构建(以最大程度地减少网络用户获得特权的时间),以使爆炸半径最小化。美国军方可以做得更好,仅联合联合基金会是不够的。

…再加上更多的计算能力

一旦AI工程师可以访问数据和必要的软件工具来构建机器学习算法,他们将需要计算能力或“计算”来训练机器学习数据的使用。像数据一样,计算能力目前在一些以数据为中心的组织(例如,陆军分析中心,G-8和商业转型办公室)中孤立,并且这些组织之外的AI工程师无法使用。即使为AI开发人员授予了系统帐户,也只能通过由特定IT管理员维护的政府笔记本电脑来访问计算环境。

这纯粹是官僚主义的限制手段,军队的AI劳动力是有相当数量的-谁可以做行业培训,获得一个卡内基梅隆机器学习的环境中,以便能够在军事问题上运用他们的新技能。

连接性和访问性一直是陆军数据科学挑战赛中的问题。去年,当参与者提出问题时,挑战的发起者将数据提供给军事成员,而无需访问政府计算机(并且不会发生数据泄漏)。但是,今年官僚主义的访问控制问题将阻止去年的竞赛优胜者-以及许多正在上学,接受过行业培训或者由于新型冠状病毒远程办公限制而无法进入政府计算机的AI工程师-进行竞争。

同时执行:集中和委托

像目前的平台努力科俄斯系统由陆军的AI特遣部队,并提出联合通用Foundatio 联合Ai中心正在兴建,是极为迫切的努力,把工具的AI开发商手中。我们大力支持他们。两者可能都需要数年才能达到完整的作战能力,但军方现在需要AI工具。联合基金会的联合合同具有四年的选择权,这在AI快速发展的领域中是很长的时间。五角大楼中很少有人能理解AI,并且那里没人知道四年后的AI会是什么样。四年前,联邦政府在人工智能上的支出是现在的一半;国防部甚至没有建立联合AI中心,甚至没有建立五角大楼的第一个大型AI计划,Maven项目; 五角大楼根本没有人工智能战略。在这样的时间范围内,谁能自信地预测?在开发功能全面的平台时,五角大楼可以立即采取措施。

国防部和服务部门应正式跟踪AI或软件工程师角色中的人员,为他们提供类似于医疗专业人员的技能标识符,并授予数字专家特定的权限:访问数据源,在本地使用低风险软件(包括虚拟机)的权限机器),并确保对计算资源的安全访问。该服务的IT管理员被授予更高的网络权限(标杆仅是CompTIA Security +认证),现在该为开发人员创建新的用户配置文件了。人工智能和软件工程师(其中许多人拥有计算机科学学位)要求访问权限以定制自己的设备并使用许多专用工具。成为授权用户的过程应清晰,快速,并鼓励审批机构达到速度基准。

首先,国防部需要更新其与数据共享相关的政策(2007年和2019年)。部门领导需要正式解决权限,批准流程,隐私,机密性,数据共享敏感性等问题,并认可AI工程师是与数据科学家截然不同的新用户组。而且,由于没有管理角色来管理数据,因此在官僚机构中丢失了对数据的访问。国防部还应考虑根据控制网络安全的信息安全所有者角色,创建“信息数据所有者”角色来执行此角色。数据科学家和AI专家需要访问数据才能完成工作。这不应意味着无所顾忌,但也许与承包商保持平等是一个公平的目标。

当人们认为国防部向像Palantir这样的承包商支付数十亿美元来汇总和分析敏感,未分类和分类的数据时,当前限制统一AI专家访问数据的政策尤其令人沮丧。既然军事领导层信任承包商,他们对合同之外的盟军几乎没有效忠,并且在数据访问方面拥有广泛的自由度,那么,军方是否不应该至少也将对数据的同样信任扩展给自己的人民?

其次,国防部应该设定一个目标,即尽快将尽可能多的工具交给工程师。服务中的联合AI中心和AI集线器应使用知名的经过审核的安全软件库(如Pandas,Scikit Learn,PyTorch和TensorFlow)推动现有的“虚拟软件商店”的扩展,并允许AI和软件工程师自由安装这些库打包到政府计算机上。这种管理软件许可证的能力已经存在,但是需要进行重大升级才能满足统一数字技术人员的新需求。

同时,在小规模用例中,国防部应将软件安装的批准权限从一星级将军降低到上校(O-6)。例如,如果AI团队的指挥官愿意使用开源工具,则该团队应该能够在本地或在安全的测试环境中使用它,但在获得国防系统信息局批准之前,他们不应将其投入生产。代理商批准该工具后,即可将其添加到“软件商店”中,并以上述“ AI工程师”用户角色提供给所有穿制服的人员。首席信息官/ G-6和国防部副部长应为国防信息系统局提供激励措施加快审核过程。净收益将使工程师可以在并行运行安全批准的同时完善和验证原型。

特别是,应授权指定用户将虚拟化软件(如VMWare或Docker)和虚拟专用网络服务器安装到政府计算机中。虚拟化在客户端上创建了一个逻辑上隔离的隔离专区,并为开发人员提供了对“虚拟机”上的软件包和操作系统的完全配置控制。虚拟机可以在不影响其所位于的政府硬件的情况下发生故障,从而降低了本地软件安装机构的风险。VPN技术将允许经过批准的用户无需公共设备即可连接到.mil系统,除了通用访问卡。这些产品是安全的,被广泛认为是企业安全问题的解决方案。

通过为AI开发人员提供虚拟化工具的访问权限,军方还将受益。现在,他们将成为遇到安全性或AI工作流问题的“ beta测试人员”。他们可以识别问题,并向建立联合基金会和库伊斯的团队提供反馈,或者向国防系统信息局的程序包提供反溃这将是数字现代化的真正胜利,也是建立信任飞轮的一部分。

可以减轻风险

如果军方真正希望拥有一支具有AI能力的部队,则应让其AI开发人员可以使用工具并信任他们使用这些工具。即使军方确实建立了诸如Coeus或Joint Common Foundation之类的计算平台,但如果服务仍不信任他们的AI工程师访问或配置自己的工具,则仍然存在严重不足的计算工具的问题。我们完全认识到,允许单个AI工程师安装各种工具,配置操作系统并访问大量数据会对组织造成一定程度的额外风险。从表面上看,在网络威胁和数据泄漏的世界中,这是一个令人恐惧的想法。但是,经过数百年的战斗,军方已经意识到无法消除风险,只有缓解。与问题最接近的小型分散单位应得到解决这些问题的权威的信任。

作者:吉姆珀金斯少校是第75创新司令部的陆军后备军。在现役11年后,他现在在国家安全云计算领域工作,侧重于边缘的机器学习。从2015年至2017年,他领导了国防企业家论坛,该论坛是一个501(c)(3)非营利组织,致力于推动国家安全的创新和改革。他是军事作家协会的成员,并在@ jim_perkins1发推文。这里表达的观点是作者自己的观点,并不反映国防部,陆军部或其他组织的官方政策。

END

赞助本站

© 版权声明

相关文章

暂无评论

暂无评论...