您的位置 首页 科技

OpenAI建言美国政府: DeepSeek是第二个华为,美国应联合他国抵制

OpenAI主要针对DeepSeek讲了几层意思: 1、美国要推进民主AI,正在和中国竞争。中国决心在2030年前成为全球领导者。这也是为什么必须高度重视DeepSeek 发布的R1模型。这不光跟R1的能力有关(尽管R1的推理能力令人印象深刻,但充其量只和几个美国模型能力差不多),还是衡量这场竞争状态的一个指标。

OpenAI主要针对DeepSeek讲了几层意思:

1、美国要推进民主AI,正在和中国竞争。中国决心在2030年前成为全球领导者。这也是为什么必须高度重视DeepSeek 发布的R1模型。这不光跟R1的能力有关(尽管R1的推理能力令人印象深刻,但充其量只和几个美国模型能力差不多),还是衡量这场竞争状态的一个指标。

2、和华为一样,在关键基础设施和其他高风险使用场景中,如果一个系统构建在 DeepSeek 模型之上,会有巨大风险,因为 DeepSeek 可能会被迫受中国指令操纵其模型以造成损害。

3、DeepSeek受到“国家补贴”、“国家控制”,并且免费提供,其用户的代价是隐私和安全,因为DeepSeek根据中国法律需要提供用户数据,并利用这些数据训练更强大的系统,供中国使用。DeepSeek的模型也更容易生成有关非法和有害活动的操作指南,比如身份欺诈和知识产权盗窃。

4、 中国能迅速动员数据、能源、技术人才、建立自身国内芯片研发能力所需的巨额资金等资源,还有“一带一路”倡议。中国会复制华为的做法,胁迫需要AI工具和国家建设基础设施资金的国家,推动它们使用DeepSeek模型这样的中国人工智能系统

OpenAI还对拜登政府发布的AI扩散框架提出建议:

首先,他们提出一项孤立中国AI的全面出口管制战略:把全球希望获取美国AI技术的国家分为“总可服务市场”(TAM,即中国及其盟友以外的国家)和“可服务市场”(SAM,即倾向于在民主轨道上构建AI的国家),主动推动全球采用美国AI系统,同时利用出口管制保护美国的AI领先地位,包括对AI扩散规则进行更新。

具体而言,OpenAI建议维持AI扩散规则的三级框架,但扩大一级国家的数量:只要部署AI系统是承诺遵守民主AI原则,旨在给本国公民带来更多自由的国家,都可以视为一级国家。二级国家范围缩小,仅限于那些没能防止管制芯片和其他美国原产知识产权转移到三级国家的国家,但美国鼓励和支持它们随着时间推移获得一级身份,前提是这些国家在过渡期间需要遵守更严格的安全要求。三级国家是中国以及与中国结盟的少数国家,美国将完全禁止这些国家获取“民主人工智能系统”。

OpenAI认为,上述策略能鼓励全球采用“民主AI”原则,推动使用“民主AI”系统,同时保护美国优势。美国还应当确保这些国家的开发者能方便地获得开源模型。AI该开源还是闭源不是非此即彼,美国两者都需要,它们可以互补。一级国家的商业外交战略应当承认彼此在出口与海关管控方面的良好记录,并努力最大限度地扩大民主AI系统的市场份额,同时保护这些系统免受中国和其他恶意行为者的知识产权盗窃(例如窃取模型权重和/或芯片设计、未经授权干预或访问数据中心运营)。

为了在一级国家扩大市场份额,美国商业外交政策应:

● 鼓励跨境资本流动,并推广为国内芯片设计优化的软件框架。

展开全文

● 协调全球对中国结盟的AI基础设施(包括华为芯片)的禁令。

● 继续代表美国企业在安全和标准制定机构中的利益,并鼓励全球监管机构采纳有利于增长的安全政策。

● 修改现有出口管制规则,消除对计算能力的国家上限。

● 保持现有出口许可例外(例如许可例外 ACM),以便与盟友进行技术合作并维护经济关键供应链。

为了保护在一级国家运营数据中心所需的美国开发知识产权,安全要求可能包括:

● 禁止与三级国家的外国军事和情报机构建立关系,并禁止利用数据中心支持三级国家或侵犯人权的行动。

● 禁止使用中国产设备(例如华为昇腾芯片)以及那些侵犯用户隐私或造成知识产权盗窃风险的模型。

● 确保企业由总部位于一级国家的实体控制。

● 实施并不断现代化网络安全、模型权重安全和人员安全控制,理想情况下在一级国家间实现全球同步和协调。

OpenAI还建议,如果美国决心管制模型权重,那么应该在保护美国知识产权和推广美国模型之间取得平衡,使美国的模型能优于那些由中国等三级国家研发的模型。

美国在二级国家的商业外交战略应继续努力扩大美国模型在这些国家的市场份额,但应更加谨慎,包括对美国AI基础设施出口施加更严格的控制,同时也要给二级国家提供透明的路径,让它们可以通过采纳民主AI原则并更有效地管理芯片转运风险而获得一级身份。此外,美国还可以利用二级国家对美国主导人工智能的商业兴趣,鼓励它们投资美国、加强安全措施,鼓励更多国家在美国轨道上构建AI,具体来说可以:

● 建立一个透明流程,以评估各国从二级到一级的转型准备情况。

● 通过帮助二级国家加强本国安全计划,支持它们从二级向一级转型。

● 鼓励美国与二级国家之间建立更紧密的经济相互依赖。

● 激励公私合作伙伴关系,迅速成熟、规模化并商业化能够在未来提升国内安全控制的硬件机制。

为保护在二级国家运营数据中心所需的美国知识产权,并管理知识产权盗窃风险以及管制芯片从二级国家转运到三级国家,美国的商业外交政策还可以允许把先进AI芯片出口给位于二级国家、且符合一级安全要求的终端用户,并要求其采取额外的企业治理控制和技术增强保护措施(例如硬件启用机制),以防止管制芯片的转运。

中国等三级国家应继续受到严格的AI系统出口管制,包括现有对先进芯片的出口管制。美国还可以扩展既有管制,延伸到包括大规模推理和强化学习训练所需的先进芯片,以及用于制造先进AI芯片和数据中心的组件。

Anthropic早几天提交了自己对AI行动计划的政策建议,除了强调DeepSeek不安全(比如R1会回答大多数和生物武器相关的问题,即使这些问题是以明显的恶意意图提出的),主要是强烈建议政府加强对计算资源的出口管制,并对某些模型权重实施出口管制,以保持并扩大美国在AI领域的优势。具体而言:

1、管制H20芯片:Anthropic认为,虽然这些芯片在初始训练方面的性能不如H100芯片,但它们在文本生成(“采样”)方面表现出色——这是先进强化学习方法的基本组成部分,对当前前沿模型能力的提升至关重要。特朗普政府有机会填补这一漏洞。

2、要求各国签署政府间协议以制定防止走私的措施:作为允许拥有超过50,000块美国公司芯片的数据中心在其境内运营的先决条件,美国应要求存在芯片走私高风险的国家遵守政府间协议,该协议应:1)要求它们使其出口管制系统与美国保持一致;2)采取安全措施解决向中国走私芯片的问题;3)阻止其公司与中国军方合作。Anthropic认为,AI扩散框架已经包含了达成此类协议的可能性,为进一步的政策制定奠定了基础。

3、仔细审查并降低扩散规则中对二级国家1700H100芯片无需许可证的订单门槛:目前,“扩散规则”允许二级国家的先进芯片订单(数量少于1700块H100芯片,价值约4000万美元)无需审查即可进行。无论购买者是谁,这些订单都不计入该规则的上限。虽然这些门槛满足了合法的商业目的,但Anthropic认为它们带来了走私风险,建议特朗普政府考虑降低二级国家无需审查即可购买的H100芯片数量,以进一步降低走私风险。确定最佳的较低门槛需要进行全面分析,在防止走私和促进商业活动之间取得平衡,建议由最终用户审查委员会的四名成员做出决定。

4、增加对BIS出口执法的资金投入。

5、大幅提升美国前沿实验室的安全性。Anthropic认为,下一代强大的AI模型将具有高度的能力和经济价值,因此是不良行为者窃取的主要目标。即使是单个前沿模型被窃取,也可能对整个出口管制体系造成重大损害,使对手能够立即获取源自受限计算资源的精炼知识产权。为了降低这些风险,美国政府应与行业领导者合作,大幅加强前沿AI实验室的安全协议,以防止对手滥用强大的AI技术。Anthropic强烈建议特朗普政府采取以下措施:

  • 在美国前沿AI实验室和情报界之间建立机密和非机密的通信渠道,以共享威胁情报,类似于关键基础设施领域使用的信息共享与分析中心。这应包括传统的网络威胁情报,以及行业或政府对模型恶意使用情况(特别是外国行为者的恶意使用)的更广泛观察。

  • 在前沿AI公司和情报机构(包括“五眼联盟”合作伙伴)之间建立系统的合作,以监测对手的能力。

  • 将对手AI开发的情报收集和分析提升为首要情报优先事项,以提供战略预警并支持出口管制。

  • 加快为行业专业人员办理安全许可,以促进合作。

  • 指示美国国家标准与技术研究院制定专门针对AI训练和推理集群的下一代网络和物理安全标准。

  • 指示美国国家标准与技术研究院制定机密计算技术的技术标准,即使在数据活跃处理期间也能通过加密保护模型权重和用户数据。

  • 通过对支持联邦政府部署的系统的采购要求,制定有意义的激励措施,以推动实施加强后的安全措施。

  • 指示能源部/国家情报总监办公室进行一项研究,确定可能适合的先进安全要求,以确保对高度自主性模型进行充分的控制和保障其安全。

在美国前沿AI实验室和情报界之间建立机密和非机密的通信渠道,以共享威胁情报,类似于关键基础设施领域使用的信息共享与分析中心。这应包括传统的网络威胁情报,以及行业或政府对模型恶意使用情况(特别是外国行为者的恶意使用)的更广泛观察。

在前沿AI公司和情报机构(包括“五眼联盟”合作伙伴)之间建立系统的合作,以监测对手的能力。

将对手AI开发的情报收集和分析提升为首要情报优先事项,以提供战略预警并支持出口管制。

加快为行业专业人员办理安全许可,以促进合作。

指示美国国家标准与技术研究院制定专门针对AI训练和推理集群的下一代网络和物理安全标准。

指示美国国家标准与技术研究院制定机密计算技术的技术标准,即使在数据活跃处理期间也能通过加密保护模型权重和用户数据。

通过对支持联邦政府部署的系统的采购要求,制定有意义的激励措施,以推动实施加强后的安全措施。

指示能源部/国家情报总监办公室进行一项研究,确定可能适合的先进安全要求,以确保对高度自主性模型进行充分的控制和保障其安全。

为了获得母国本土的一些政策支持或者游说放松监管,科技公司们会搬出外国竞争对手来说事,比如跟自己的政府说你看某某国人家在大力补贴、也没有管得很死,人家的企业就发展得比我们好,你得多投钱、最好不要监管。这实在已经不算什么新鲜事,可能中美两边的企业多少都干过。但主动代入地缘政治竞争,并且对外国竞争对手施以如此露骨的攻击,还是让人感觉到有些震惊。通过渲染中国AI对美国的国家安全威胁,OpenAI和Anthropic试图说服特朗普政府对内加强对它们的补贴、放松监管,对外继续收紧半导体出口管制,限制中国AI公司获得高性能计算芯片,但历史上看,靠限制对手很难取得真正而长久的成功,决定技术发展的,几乎总是坚持不懈的创新精神和勇于拥抱竞争的开放心态。

本文来自网络,不代表冰河马新闻网立场,转载请注明出处:http://lcvt.cn/18660.html

作者: wczz1314

为您推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

联系我们

联系我们

13000001211

在线咨询: QQ交谈

邮箱: email@wangzhan.com

关注微信
微信扫一扫关注我们

微信扫一扫关注我们

关注微博
返回顶部