数据行业

第13859号行政令(Maintaining American Leadership in Artificial Intelligence)

2026-04-21 来源: 浏览:4

  第13859号行政令《保持美国在人工智能领域的领导地位》是美国政府在人工智能领域的重要政策文件,2019年2月发布,其主要内容包括以下方面:

  政策目标与原则

  明确美国政府的政策是维持和增强美国在人工智能(AI)方面的科学、技术和经济领导地位,确保AI技术的发展符合美国的国家安全、经济繁荣和公民福祉等核心利益。

  强调在促进AI创新的同时,需保护公民隐私、自由、人权、法治和知识产权等美国价值观。

  研发与投资支持

  要求联邦机构优先分配资源支持AI研发,包括增加对AI基础研究和应用研究的投资,推动AI技术的突破和商业化应用。

  鼓励联邦政府与学术界、私营企业、国际合作伙伴等建立协作关系,共同推进AI技术研发和成果转化。

  数据与计算资源开放

  要求联邦机构梳理和开放可共享的AI相关数据和模型,在确保安全、隐私和保密的前提下,向非联邦AI研究机构提供数据目录和模型访问,促进AI研究的广泛参与。

  优化AI云计算资源的分配,优先支持联邦赞助的AI研发项目。

  AI应用监管与治理

  指示美国管理和预算办公室(OMB)协调相关部门,制定AI应用监管指南,平衡监管与创新的关系,减少AI技术开发和应用的障碍。

  强调监管措施应基于风险评估,注重灵活性、公平性、透明度和公众参与,确保AI应用的安全、可靠、可信赖,避免过度监管抑制创新。

  人才培育与 workforce 建设

  要求联邦机构加强AI人才培养,包括支持AI相关教育项目、职业培训和技能提升计划,培养适应AI时代需求的劳动力队伍。

  鼓励联邦政府与教育机构、企业合作,建立AI人才储备和流动机制,确保美国在AI领域的人才竞争力。

  国际竞争与合作

  强调美国在AI领域的全球领导地位,要求联邦机构在国际AI合作和竞争中采取积极策略,推动建立符合美国价值观的全球AI标准和规则,同时防范战略对手对美国AI技术的窃取和滥用。

  该行政令为美国AI发展战略提供了顶层设计和政策框架,后续相关备忘录、指南和立法均在此基础上展开。

  第13960号行政令(Promoting the Use of Trustworthy Artificial Intelligence in the Federal Government)

  2020年2月,美国第13960号行政令《促进联邦政府内可信赖人工智能的使用》的具体内容主要包括以下方面:

  目的与政策

  旨在推动联邦政府机构在除国家安全和国防领域外,以可信赖、负责任的方式使用人工智能技术,提升政府运营效率、服务质量,同时保护隐私、民权和美国价值观。

  适用原则

  联邦政府机构在设计、开发、部署、购买或使用人工智能技术时,需遵循以下9项原则:

  合法原则:符合宪法、法律及国家政策,尊重隐私、民权和自由。

  合目的原则:仅在收益大于风险且风险可控的情况下使用人工智能。

  准确、可靠、有效原则:确保人工智能应用与实际使用场景一致,结果准确可靠。

  安全、稳妥、韧性原则:保障人工智能应用的安全性和抗攻击能力,应对系统漏洞和恶意操控。

  可理解原则:使人工智能的运行逻辑和结果能被专家、用户等理解。

  责任可回溯原则:明确人类角色与责任,记录人工智能应用的输入、输出及操作过程,实现可追溯。

  合规性原则:定期排查人工智能应用,对不符合要求或预期目的的及时替换、停用或下架。

  透明原则:向国会和公众披露人工智能使用信息,保护隐私和敏感信息。

  责任原则:行政机关负责实施安全保障措施,监督、审计和记录合规情况,加强人员培训。

  实施机制。

  要求管理和预算办公室(OMB)在180天内发布政策指南,指导各机构落实上述原则,包括技术限制措施、供应商信息披露要求等。

  各机构需在60天内建立人工智能使用案例清单,并公开非敏感信息。

  鼓励机构采用自愿共识标准,与行业合作推动人工智能的负责任使用。

  该行政令不适用于商业AI产品(除非政府采购)和AI研发活动,主要聚焦联邦政府内部的人工智能应用规范。

  美国《Take It Down Act》

  2025年2月,美国《Take It Down Act》(《通过阻止技术深伪图像在网络和网站上的传播来应对已知剥削的工具法案》)的具体内容主要包括以下方面:

  刑事禁令

  禁止故意披露未经同意的亲密视觉资料描绘:

  涉及成年人:任何人在州际或对外贸易中使用交互式计算机服务,故意发布非未成年人的可识别个人的亲密视觉描绘,若满足以下条件属非法行为:

  亲密视觉描绘是在该人知道或合理应该知道可识别个人有合理隐私期望的情况下获得或创建的;

  所描述的内容不是可识别个人在公共或商业环境中自愿暴露的;

  所描述的内容不是公众关注的问题;

  发布亲密的视觉描绘意图造成损害或对可识别个人造成损害(包括心理、财务或声誉上的损害)。

  涉及未成年人:除法定例外情况外,任何人在州际或对外贸易中使用交互式计算机服务故意发布未成年人的可识别个人的亲密视觉描绘,意图虐待、羞辱、骚扰或贬低未成年人,或唤起或满足任何人的性欲,均属非法行为。

  涉及数字伪造:除法定例外情况外,任何人在州际或对外贸易中使用交互式计算机服务故意发布非未成年人的可识别个人的数字伪造品,若满足上述类似条件(未经同意、非自愿暴露、非公众关注、意图或实际造成损害)属非法行为;涉及未成年人的数字伪造发布,若意图虐待、羞辱、骚扰或贬低未成年人或唤起性欲,同样属非法行为。

  处罚:

  涉及成年人的犯罪,违反者根据《美国法典》第18篇处以罚款,或判处不超过2年监禁,或两者并罚;

  涉及未成年人的犯罪,违反者根据《美国法典》第18篇处以罚款,或判处不超过3年监禁,或两者并罚。

  威胁发布行为的处罚:故意威胁实施上述犯罪行为,以恐吓、胁迫、勒索或造成精神痛苦为目的,涉及成年人的威胁行为,根据《美国法典》第18篇处以罚款,监禁不超过18个月,或两者并处;涉及未成年人的威胁行为,监禁不超过30个月,或两者并处。

  通知和删除机制

  平台义务:

  受涵盖的平台(包括网站、在线服务、在线应用程序或移动应用程序,主要为用户生成内容提供论坛或正常业务中发布非自愿亲密视觉描绘内容的平台)需在法案颁布之日起1年内建立通知和删除流程,允许可识别个人(或授权代表)通知平台其平台上发布的未经同意的亲密视觉描绘,并提交删除请求。

  平台收到有效删除请求后,应在48小时内删除相关亲密视觉描绘,并尽合理努力识别和删除此类描述的任何已知相同副本。

  责任限制:平台基于善意禁用对声称是非自愿亲密视觉描绘的材料访问或删除,即使事后确认内容合法,也不承担基于此的索赔责任。

  执法机制:若平台未能合理遵守通知和删除义务,将被视为违反《联邦贸易委员会法》第18(a)(1)(b)条定义的不公平或欺骗性行为或做法,由联邦贸易委员会(FTC)执行处罚,包括罚款、禁令救济和消费者赔偿。

  定义和适用范围

  明确“同意”“数字伪造”“可识别个人”“亲密视觉描绘”“未成年人”等关键术语的定义,界定法案的适用范围,排除宽带互联网接入服务提供商、电子邮件及主要以自制内容为主的网站等。

  该法案通过刑事与行政双轨规制,旨在打击未经同意发布真实或数字伪造的亲密视觉描绘行为,保护个人隐私和尊严,尤其加强对未成年人的保护。

  《AI Risk Management Framework》

  2023年1月由美国国家标准与技术研究院(NIST)发布,虽无法律约束力,但为人工智能系统的风险评估、管理和治理提供框架,涵盖安全、透明、公平等原则。

  美国AI Risk Management Framework的具体内容有哪些?

  美国国家标准与技术研究院(NIST)于2023年发布的《人工智能风险管理框架》(AI RMF 1.0)是指导组织识别和管理AI风险的自愿性框架,其核心内容如下:

  四大职能支柱

  治理(Govern):建立组织层面的AI风险管理文化,制定政策、流程和职责,确保AI活动与组织价值观、法律法规一致,包括风险容忍度设定、角色分配和问责机制。

  地图(Map):全面识别AI系统的上下文、应用场景、利益相关方及上下游依赖关系,分析潜在风险和影响,如数据来源、部署环境、可能的滥用场景等。

  测评(Measure):通过定量和定性方法检测AI系统的有效性、可靠性、安全性、公平性等特征,包括模型测试、数据验证、合规检查等,确保系统符合预期标准。

  管理(Manage):根据测评结果,分配资源、制定应急方案、实施风险缓解措施,持续监控和调整AI系统,确保风险处于可控范围。

  可信AI七大特征

  有效性与可靠性:确保AI系统能准确、稳定地实现预期功能,适应不同数据和环境变化。

  安全性(Safe):防止AI系统在预定条件下对人类生命、健康、财产或环境造成威胁。

  安全与韧性(Secure and Resilient):保护系统免受外部攻击,具备恢复能力,确保机密性、完整性和可用性。

  可问责与透明(Accountable and Transparent):提供系统决策过程的可见性,明确责任归属,便于监督和审计。

  可解释与可理解(Explainable and Interpretable):使AI系统的决策机制能被人类理解,便于调试、验证和用户信任。

  隐私增强(Privacy-Enhanced):保护个人身份信息,采用隐私保护技术,平衡隐私与系统性能。

  公平性(Fair):避免有害偏见,确保AI系统对不同群体公平对待,减少歧视风险。

  AI系统生命周期

  框架覆盖AI系统从规划、设计、数据采集、模型训练、验证、部署、运行到使用与影响的全生命周期,每个阶段均需结合四大支柱和七大特征进行风险评估和管理。

  该框架旨在为组织提供灵活、可操作的指南,帮助平衡AI创新与风险,促进可信AI的发展。

免责声明:本网部分文章和信息来源于互联网,转载出于传递更多信息和学习之目的。如转载稿涉及版权等问题,请立即联系我们,我们会予以更改或删除相关文章,保证您的权利。

留言咨询

北京市东城区永定门外大街64号金隅龙顺成文化创意产业园501B

电话:13911525319、010-67231399

E-mail:info@zhihuanlaw.com

Copyright 2020 北京知寰律师事务所 网站备案号:京ICP备20007375号-1 技术支持:律品科技

139-1152-5319