2025 年 9 月 5 日,美国知名大模型公司 Anthropic 发布《更新对不受支持地区的销售限制》公告,宣布禁止多数股权由中国资本持有的集团或其子公司使用 Claude 等 AI 服务,无论公司运营地点在哪。这是美国 AI 公司首次出台此类政策,背后涉及复杂的多方面因素,对全球 AI 产业格局影响深远。
政策核心内容:Anthropic 新政策规定,只要公司直接或间接被中国公司持股超过 50%,就无法再使用 Claude 服务。这一限制不仅针对中国大陆企业,还涵盖其在全球各地的子公司,包括通过云服务间接接入的情况也被禁止。除中国外,俄罗斯、伊朗、朝鲜等被美国视为 “对手国家” 的实体也受此政策约束,直接客户和通过云服务访问的团体同样受到影响 。
官方给出的限制原因:Anthropic 声称,做出这一决策主要基于法律、监管和安全风险的考虑。他们认为中国控股公司可能因所在地区法律要求,被迫共享数据、配合情报机构,从而带来国家安全风险。此外,还担心这些公司利用 Claude 的能力开发服务,服务于对抗性军事和情报机构,以及通过技术手段推进自身 AI 研发,与美国及盟国的科技公司在全球市场竞争,威胁美国在 AI 领域的优势地位。
对不同主体的影响
- 个人开发者:目前个人账号理论上还能使用,但未来存在被限制的风险。随着政策进一步收紧,个人获取先进 AI 工具的难度可能加大。
- 企业团队:国内公司此前通过境外子公司间接使用 Claude 的途径被彻底切断。这意味着相关企业需要寻找替代方案,如转向 OpenAI、Google Gemini 或国内大模型,增加了企业的技术转型成本和业务调整压力。
- 行业生态:许多基于 Claude 二次开发的 SaaS 和 AI 应用,不得不改变技术路线。这可能促使行业加速技术替代和创新,推动国内 AI 技术的发展,但短期内会造成行业内的动荡和资源重新配置。
政策背后的地缘政治因素:这一政策与美国整体对华科技政策一致,是大国博弈在 AI 领域的直接体现。AI 技术已成为国家竞争的重要筹码,美国试图通过限制技术输出,维护自身在 AI 领域的主导权,确保 AI 发展符合美国的战略利益和价值观 。 行业未来发展趋势:此次事件标志着全球 AI 工具 “地缘政治化” 加剧,未来可能形成明显的 “两套生态”,即美国主导的模型和中国的模型,两者互不兼容、各自发展。这将促使各国更加重视自主研发,加大在 AI 领域的投入,推动全球 AI 技术在不同体系下独立发展,减少国际间的技术交流与合作。
以下为 Anthropic 公告全文:
Anthropic 的服务条款禁止相似某些地区使用我们的服务,原因包括法律、监管及安全风险。然而,来自这些受限地区的公司(包括像中国),仍以各种方式访问我们的服务,例如通过在其他国家注册的子公司。
这些地区的公司面临法律要求,这些要求可能迫使它们共享数据、配合情报机构,或采取其他可能带来国家安全风险的行为。无论这些公司运营的地点或个人偏好如何,这些要求都会使其很难抵抗这些压力。当这些实体通过子公司访问我们的服务时,它们可能利用我们的能力开发最终为对抗性军事和情报机构及更广泛威权目标服务的应用和服务。同时,它们也可能通过蒸馏等技术利用我们的模型推进自身的 AI 开发,并与总部位于美国及盟国的可信科技公司展开全球竞争。
为了应对这一现实,并更好地与我们确保变革性 AI 能力服务于民主利益的承诺保持一致,我们正在加强区域限制。此次更新禁止那些所有权结构使其受限于我们产品不允许的司法管辖区(如中国)控制的公司或组织使用我们的服务,无论它们实际运营地点在哪里。这包括那些直接或间接由不受支持地区的公司持股超过 50% 的实体。这一变更确保我们的服务条款反映现实风险,并忠实于我们政策的精神。
基于这一考量,我们继续倡导相关政策,例如:严格的出口管制;加快在美国本土的能源项目建设,以支撑大规模 AI 基础设施的建设;以及严格评估 AI 模型的国家安全相关能力,包括可能被美国对手利用的能力。
AI 发展的安全性和保障需要集体承诺,防止对手滥用其能力。负责任的 AI 公司可以且应该采取果断行动,确保变革性技术服务于美国及盟国的战略利益,并支持我们的民主价值观。
来源:https://www.anthropic.com/news/updating-restrictions-of-sales-to-unsupported-regions
No Responses (yet)
Stay in touch with the conversation, subscribe to the RSS feed for comments on this post.