系统级智能体的数据接入冲突与法律规制:以“屏幕抓取”为中心的考察
陈取旺 | 欢聚集团
目次
一、问题的提出:系统级智能体与平台秩序的碰撞
二、 “屏幕抓取”模式的竞争法分析:从寄生利用到实质性替代
三、数据治理与合规困境:授权链条的断裂与“黑箱风险”
四、风险分配与责任边界:金融安全中的“零信任”逻辑
五、制度建构:从“技术对抗”走向“协同共治”
六、结语:在数据接入秩序中重构技术与责任的边界
摘要:以“豆包手机助手”为代表的系统级智能体,借由“无障碍服务+屏幕抓取+模拟点击”的接入路径在操作系统层面接管多种应用场景,重塑平台秩序、人机交互与风险分配结构。本文从反不正当竞争法、数据安全与个人信息保护规范以及金融安全三个维度,分析该路径的合规边界与风险:在竞争法维度,屏幕抓取式智能体对平台基于投入形成的竞争性法益,构成交互层面的寄生利用与功能性替代;在数据治理维度,“用户单方授权+屏幕全量读取”的模式割裂数据处理授权链条,放大第三人信息被动卷入,并制造难以审计的“黑箱风险”,因而难以直接纳入数据可携带权的正当化框架;在金融安全维度,系统级智能体模糊行为识别与设备持有边界,在银行卡盗刷责任趋严背景下显著抬升金融机构的系统性风险。在此基础上,本文主张以风险分级为前提,将标准化 API、OAuth 及“双重授权+可审计”机制确立为系统级智能体接入高风险场景的默认通道,将屏幕抓取压缩于低风险且技术替代性不足的例外场景,并在金融等高风险领域探索“算法强制责任险”等风险社会化工具,以在平台数据接入秩序与系统级智能体创新发展之间实现更可持续的制度平衡。
关键词:系统级智能体;屏幕抓取;反不正当竞争;数据接入;个人信息保护;金融安全
一问题的提出:系统级智能体与平台秩序的碰撞
随着大模型技术的持续演进,人工智能正在从“回答问题的工具”升级为“执行任务的代理人”。2025 年底,“豆包手机助手”等系统级智能体尝试通过获取 Android 系统高等级权限(如无障碍服务 Accessibility Services 及 INJECT_EVENTS 等模拟事件能力),在用户一端实现跨应用、跨场景的自动化操作:从转账支付、抢票下单,到聊天回复、比价选购,均可通过一句自然语言指令触发[1]。与传统“一个任务打开一个 App”的交互模式相比,系统级智能体试图将智能交互上移到操作系统层甚至云端代理层,由 AI 在后台代行绝大部分点击与输入操作。为便于后文分析,图 1 对比展示了传统 App 交互模式与系统级智能体“屏幕抓取”模式下用户路径和控制权结构的差异。

这一技术图景在效率与用户体验层面具有直观吸引力,却在现实中遭遇微信、淘宝以及多家银行 App 的防御性阻断:包括在开启无障碍、屏幕录制或注入权限时限制关键功能使用,甚至直接将相关行为识别为高风险操作予以拦截[1][2]。表面上看,这似乎是“巨头封杀新入者”的又一轮攻防,但若从法律结构与权利配置出发,冲突的本质更为复杂。
首先,系统级智能体并非像传统 App 那样在既有“沙箱”之内运行,而是通过操作系统层面的高权限接口,挤占了原本为视障群体等弱势用户设计的无障碍能力,用以全局拦截界面、抓取屏幕内容、注入模拟点击。如图 1 所示,在这一结构下,用户与各个 App 之间的直接接触被统一折叠进系统级智能体的对话界面之中,第三方 App 的前端界面只是在后台被智能体远程操控,其角色从“用户交互入口”退化为仅负责执行指令和回传数据的“哑终端”(dumb terminal)。本文所称“哑终端”,即几乎不再承载独立的人机交互与决策功能,仅以被动执行指令、返回结果的方式存在的应用形态。在这种意义上,平台围绕前端流量、品牌展示和广告位构建的商业模式被显著边缘化。
其次,这种“反客为主”的架构,将原本围绕单一 App 划定的权利与责任边界,上移为操作系统层面的“总入口”与“总代理”安排,从而直接冲击反不正当竞争法意义上平台基于投入形成的经营利益与数据竞争性法益,数据安全与个人信息保护规范下平台对数据处理场景的控制义务与数据处理责任,以及金融规制中关于风险识别与责任分配的制度安排[3][4][5]。
最后,系统级智能体通过高权限“穿透”既有 App 沙箱的技术路径,在结构上重塑了平台与用户、平台与第三方服务之间的权利与责任边界,并将前述技术与商业架构问题转化为规范评价问题:相关判断至少包括两个层面。其一,在竞争法意义上,这一路径对平台基于投入形成的竞争性法益究竟构成“合理利用”,还是已经演变为不正当的“搭便车”甚至功能性替代;其二,在个人信息保护与金融安全的语境下,平台与智能体服务商能否在现有制度框架下切实履行各自被赋予的安全保障与风控义务。
在更宏观的层面上,系统级智能体引发的冲突,也不断被纳入关于数字时代“谁来控制接入、谁来承担风险”的更大叙事之中。国家通过平台治理、数据安全与个人信息保护立法,试图在用户权利、平台门控权与技术创新之间重新划线[4][5][6]。在此背景下,本文选择聚焦于一个更具体的切面:系统级智能体通过何种技术路径接入既有数字基础设施,以及由此引发的数据接入冲突,如何在现行法律框架下加以规制。
基于此,本文首先从新修订《反不正当竞争法》的规范目的和既有判例出发,对“屏幕抓取+模拟点击”模式进行竞争法上的定性分析[3][7][8]。在此基础上,继而回到《个人信息保护法》与数据可携带权等规范安排,分析该接入路径在数据授权链条与场景完整性方面的合规困境;再进一步从银行卡支付等高风险金融场景出发,讨论责任分配与风险控制的经济理性,最终尝试提出一套兼顾系统级智能体发展与平台数据接入秩序的制度设计思路。
二 “屏幕抓取”模式的竞争法分析:从寄生利用到实质性替代
(一)平台竞争性法益的正当性基础
在判断“屏幕抓取+模拟点击”是否构成不正当竞争之前,必须厘清一个前提性问题:平台对其数据与交互界面是否享有值得法律保护的竞争性利益。
以洛克的劳动财产理论为理论起点,互联网平台在构建双边乃至多边市场(two-/multi-sided markets)的过程中,持续投入大量服务器成本、算法研发、用户获取与运营维护资源,形成了稳定的用户关系网络、功能架构与界面设计[9]。这种投入虽然并不自动转化为传统物权意义上的“数据所有权”,但至少塑造了可以被反不正当竞争法保护的竞争性法益与商业优势[3]。
从法经济学视角看,如若允许第三方在不承担相应成本的前提下,大规模“搭便车”使用平台核心数据与交互成果,势必削弱平台持续投入的积极性,最终导致服务质量下降甚至“公地悲剧”[10]。反不正当竞争法的介入,在于维护这种投入与收益之间的基本平衡机制,而非简单为平台的市场势力背书[3]。
在这一规范与经济分析基础之上,“微博诉脉脉”案提供了有代表性的司法确认路径:二审法院认为,被告通过爬虫技术大规模抓取原告平台用户数据,用于导流自家服务,已经超出合理使用界限,损害了原告基于投入形成的竞争性利益;判决明确否定了“公开页面即可任意抓取”的主张,为“数据抓取+流量转移”模式的法律评价提供了重要参照[7]。
在此背景下,系统级智能体通过屏幕抓取方式获取平台界面信息,并藉由自身交互层取代平台原有的人机界面,至少在法理起点上,已经进入需要谨慎审视的“灰色地带”。
(二)寄生性利用与交互层面的“实质性替代”
表面上看,系统级智能体(AI Agent)只是“辅助用户完成操作”的技术服务,但从商业结构上观察,其具有明显的“寄生竞争”特征:
(1)高度依附性与非互惠性
系统级智能体并不直接提供支付清算、物流履约或社交链接等基础业务功能,而是高度依附于第三方 App 的既有功能。它通过 OCR 与界面解析,精确捕捉平台最具价值的信息元素——价格、库存、聊天内容、订单状态等——却刻意绕开开屏广告、信息流展示、品牌露出等关键变现环节。换言之,系统级智能体充分利用了平台的功能与数据,却大幅削弱平台与用户之间的直接接触面,形成单向的价值吸附与“流量截流”。
(2)交互层面的实质性替代
在“大众点评诉百度”案中,法院判决明确提出并采纳了“是否对原告服务构成实质性替代”的判断标准,认为被告在搜索结果页面中大规模聚合、展示涉案评论内容,使用户无需再访问原告网站,即可获得主要功能体验,已对原告服务形成立体、实质性替代,从而构成不正当竞争[8]。该案此后被广泛视为评估数据抓取行为竞争法风险的重要标尺。
与传统意义上仅将数据“搬运到另一个展示层”的抓取工具不同,系统级智能体并不仅仅重构数据展示,而是重构整个操作路径——用户不再主动打开某 App,而是向 AI 发出自然语言指令,由 AI 在后台完成点击、输入与跳转。平台原有的交互路径被整体“封装”在 AI 的内部逻辑中,其与用户之间的“注意力通道”被截断,商业模式面临更彻底的替代风险。
需要特别区分的是,这一评价标准并非要一概否定所有“附着于平台之上的技术工具”。例如,一些浏览器插件、广告屏蔽工具或比价插件主要对页面展示内容进行再加工或过滤,用户仍需主动访问原平台,其核心交互逻辑和流量入口并未被取代。这类工具更多体现为在展示层面对信息进行重组,其“替代效应”相对有限。而屏幕抓取式系统级智能体则在入口层面替代了用户与具体平台之间的直接连接关系:用户与平台之间的交互被包裹在智能体统一的界面之下,既截走了流量,又实质改变了平台预设的人机交互流程,因此更接近“功能性替代”而非一般意义上的工具性竞争。
在这一意义上,将屏幕抓取式系统级智能体归入“不创造新的基础服务,而是通过技术封装实现对既有服务的寄生性利用与实质性替代”的范畴,并非夸张,而是对其竞争位形的较为精准刻画。当然,这种定性仍需与其他情形进行区分,避免将一切自动化工具一概归入“寄生竞争”。
(三)第十三条“妨碍正常运行”的功能性扩张:从服务器安全到交互逻辑
现行《反不正当竞争法》第十三条第二款对“利用网络从事生产经营活动的经营者”作出专门规制,禁止其利用数据和算法、技术、平台规则等,通过影响用户选择或者其他方式,实施妨碍、破坏其他经营者网络产品或者服务正常运行的多种行为,并以第(四)项“其他妨碍、破坏其他经营者合法提供的网络产品或者服务正常运行的行为”作为兜底条款,为新类型技术利用模式预留规制空间;第三款则进一步禁止经营者以欺诈、胁迫、避开或者破坏技术管理措施等不正当方式获取、使用其他经营者合法持有的数据[3]。与 2019 年修正相比,现行条文在数据和算法行为的列举以及对平台规则滥用的规制方面更为细化,体现出对平台经济与数据利用中不正当行为的系统性应对。
传统理解中,“妨碍、破坏网络产品或者服务正常运行”多聚焦于 DDoS 攻击、恶意注入、数据篡改等物理层或安全层破坏,强调的是服务器与网络系统的技术稳定性。然而,随着网络服务形态和商业模式的演进,“正常运行”逐渐被理解为不仅包含技术层面的系统可用性,也包括服务预设使用方式和交互秩序的整体完整性。在若干涉及外挂程序和自动化工具的不正当竞争案件中,司法实践已经明确将交互规则与商业逻辑的擅自改写,纳入“正常运行”的规范射程之内[11]。法院普遍认为,改变产品预设的使用方式和社交互动秩序,削弱平台维持用户黏性与商业价值的能力,同样构成对服务正常运行的妨碍。
将这一思路移植至系统级智能体场景可以发现:当智能体利用模拟点击能力跳过平台的用户授权协议弹窗、功能指引乃至广告展示,直接调用核心功能,且这一操作路径被固化为可规模复制的商业模式时,平台对自身服务运作逻辑的控制能力被显著削弱。用户不再沿着平台设计的交互流程进入服务,而是通过智能体的统一界面“直达”底层功能,这种对交互路径与商业逻辑的“功能性改写”,已经超出“单纯辅助用户操作”的中性工具范畴,而具有“重写服务运行规则”的实质效果。
因此,若从第十三条“妨碍正常运行”条款的目的性解释出发,将此类行为纳入规制考量范围,在逻辑上是自洽的,也与既有关于数据抓取、外挂和自动化工具案件的裁判趋势具有连续性[11]。当然,个案中行为是否达到“妨碍”程度,仍需结合多个因素综合判断,包括对原有交互逻辑的替代性强弱、对用户权益和服务质量的实际影响、相关行为的持续性与规模等,以避免将一切技术性改动一概归入“妨碍正常运行”。
在此意义上,第十三条第二款关于“通过影响用户选择等方式妨碍、破坏其他经营者合法提供的网络产品或者服务正常运行”的规定,与第三款关于“以欺诈、胁迫、避开或者破坏技术保护措施等不正当方式获取、使用其他经营者合法持有的数据”的禁止性规范,共同构成了评价屏幕抓取式系统级智能体行为的条文基础:智能体通过技术封装改变用户决策路径、规避平台技术规则并抓取平台数据的整体行为模式,应当在这一规范框架下接受“妨碍正常运行”与“不正当获取、使用数据”的双重审查[3]。
(四)与指导性案例第 263 号的界限:合理关联服务与系统级“穿透”的分野
值得注意的是,最高人民法院指导性案例第 263 号在评价“关联账号服务”模式时,明确区分了经用户授权的有限度数据同步与未经授权的大规模数据抓取之间的界限[12]。该案中,被告提供的服务允许招聘企业用户在其平台上输入自己在另一招聘网站的账号密码,经用户主动授权后,由系统自动登录原网站并将与该用户招聘活动相关的简历信息同步至其在被告平台下的企业账号中。最高人民法院据此指出:在不违反法律、行政法规,未采用欺诈、胁迫等不正当手段获取数据,未损害个人信息安全与数据安全,且未扰乱市场竞争秩序的前提下,经用户授权的关联登录、数据同步等服务,可以不构成不正当竞争。该案从正面确认了在一定条件下,用户授权下的技术介入具有合法性空间。
这意味着,法律并非一概否定“第三方辅助工具”或“自动登录、数据迁移”之类功能,而是基于以下界限条件作出区分:
(1)场景限定与功能单一
指导性案例第 263 号所涉服务,围绕的是招聘这一特定业务场景,功能主要限于帮助同一企业用户在两个招聘平台之间进行账号关联和简历同步。其数据流动范围限定在用户自身账号之内,并未扩展为对所有用户数据的普遍抓取,更未通过系统级权限去统领用户的全部数字生活场景。在这种限定下,第三方服务对原平台的功能更多是一种补充和延伸,而非对整个平台服务的系统性替代[12]。
(2)获取方式与安全/个人信息保护
该案明确要求不得以不正当方式获取他人数据,被告系基于用户主动输入账号密码并明确选择同步行为,未绕过原平台技术措施,也未利用安全漏洞进行隐蔽抓取。同步的数据主要用于用户自身的招聘活动,未被开放为可供第三方随意搜索的公共数据库,对个人信息权益和数据安全的侵害风险相对可控。与之相比,系统级智能体通过屏幕抓取在一个界面内同时吸入多方当事人的信息,往往难以区分授权主体与非授权主体,且数据是否被上传、存储、进一步训练模型对平台和相对方均不透明,风险维度要复杂得多[4]。
(3)竞争秩序影响程度与平台控制力
指导性案例第 263 号强调“不扰乱市场竞争秩序”这一底线:被告的关联服务并未改变原平台的基本交互逻辑和收费模式,也未通过大规模搬运内容直接在自身平台上向公众提供与原平台功能等同的服务,因而未对原平台服务形成实质性替代[12]。相反,系统级智能体通过全局代理方式重构用户与平台的关系,用户与具体 App 之间的交互被封装在智能体内部,流量入口从单一 App 前端上移至操作系统/智能体层面,长期看可能改变流量分配格局与变现结构。这种“架空式”改写,显然比单一场景下的关联登录具有更强的市场结构影响力。
因此,从指导性案例第 263 号出发,可以更清晰地划出一条界线:法律并不排斥一切“经用户授权的技术中介”,甚至在特定场景下对关联账号服务、数据同步服务给出了正面评价;但对于突破服务场景合理期待、在广泛场景下通过系统级权限穿透平台边界、削弱平台安全控制与商业自决能力的屏幕抓取式系统级智能体,应当适用更为严格的审查标准,结合《反不正当竞争法》第十三条关于“妨碍正常运行”以及利用技术手段影响用户选择的相关规定进行规制评估[3][12]。
当然,上述分析仍主要立足于《反不正当竞争法》维护市场竞争秩序与经营者投入利益的视角。即便在某些情形下,系统级智能体的行为尚不足以被认定为不正当竞争,其在个人信息保护与数据流动合规性层面仍然可能面临独立的规制风险。尤其是在“用户单方授权+屏幕全量读取”模式下,授权链条是否完整、第三人信息能否获得合法性基础、处理活动能否满足“最小必要”与目的限定原则,已经超出了反不正当竞争法本身的调整范围。因此,有必要在竞争法分析之后,进一步回到《个人信息保护法》的规范框架,从数据授权结构与“场景化正义”的角度对“屏幕抓取”模式进行专门审视[4][13]。
三数据治理与合规困境:授权链条的断裂与“黑箱风险”
在前文竞争法分析的基础上,可以进一步作一层推论:即便某些屏幕抓取行为在《反不正当竞争法》维度尚未被认定为不正当竞争,在个人信息保护与数据安全维度上,仍完全可能构成独立的违法或高风险处理活动,因而需要在另一套规范框架下接受单独审查。
(一)用户授权、场景完整性与数据可携带权的边界
系统级智能体厂商常用的一种辩护理由是:“数据属于用户本人,只要用户授权,AI 读取屏幕内容并加以分析就是合法的。”这一说法在直觉上颇具吸引力,却混淆了两个关键维度:其一是数据人格权益与数据控制权的区分,其二是数据可携带权与技术抓取路径的区分。
一方面,根据隐私与数据保护理论,尤其是 Nissenbaum 的“场景化完整性”(Contextual Integrity)理论,信息流动是否“适当”,关键在于其是否在原本预设的社会情境与流动规则之内被传输与使用[13]。用户在微信聊天、银行 App 交易产生的数据,其默认情境是“封闭社交/金融交易环境”,平台围绕这一情境设计了认证流程、安全策略与界面隔离。系统级智能体通过屏幕读取将这些数据转移至通用大模型的处理场景,显著改变了信息暴露范围与潜在使用目的,仅以用户 A 的单方授权,难以为这种跨场景迁移提供充分正当性。
另一方面,《个人信息保护法》第 45 条确立了类似“数据可携带权”的制度,但其实现方式被明确限定为“符合国家网信部门规定的条件”[4]。这意味着,立法者更期待通过标准化数据接口、互操作性协议等“有秩序的通道”来实现数据的流动,而非默许任何形式的技术抓取。屏幕抓取作为一种非结构化、无协商的获取方式,与通过 API 进行字段控制与频率管理的模式存在本质差异。将可携带权简单理解为对屏幕抓取的全面豁免,既不符合条文在制度体系中的位置,也不利于数据安全与信息流动的场景化完整性。
因此,更为审慎的理解是:用户的授权是合法处理个人信息的必要条件,但并非充分条件;数据可携带权提供的是“请求建立数据接口与格式转换的权利”,而非对任何抓取技术路径的无限制背书[4][13]。但反过来看,这一制度设计也对平台提出了实质性的合规要求:如果平台长期未按照监管要求建设便捷、可用的数据迁移接口,在事实上阻碍了个人行使可携带权,那么其在面对用户授权下的第三方技术接入时,单纯以“反不正当竞争”或“数据安全”为由全面否定一切外部技术路径,其法理正当性也会受到质疑。至少在判断其是否构成滥用市场支配地位、以及其限制措施是否属于必要且适度的安全防范时,应当将其在接口开放与数据可携带权落实方面的努力程度纳入考量[5][14][15]。
这并不意味着据此可以为一切屏幕抓取行为“正名”,而是提示我们:数据可携带权的有效实现与平台限制第三方接入的正当性之间存在结构性关联。若立法者与监管机关希望通过禁止或严格限制屏幕抓取来维护数据安全与信息流动的场景化完整性,就必须同步推动平台侧在开放标准化接口、落实数据可携带权方面承担更积极的义务,否则容易在客观上形成对封闭生态的制度加持。
(二)第三人信息的“被动卷入”:屏幕抓取的结构性难题
屏幕抓取模式下,智能体往往对当前屏幕内容进行整体识别与解析。这意味着,在聊天、群组、好友列表、订单详情等高度交互化界面中,授权用户 A 与第三人 B 的信息通常是不可分地混合在可视区域内:
(1)聊天记录中的每一条消息,既是 A 的使用痕迹,也是 B 的通信内容和个人信息;
(2)群组列表、联系人头像、昵称等信息,涉及众多未授权主体;
(3)银行短信、验证码、通知中包含的号码与交易信息,亦可能涉及第三方当事人。
在理论上,智能体当然可以通过额外设计本地过滤机制,对截屏进行区域裁剪或对特定字段进行脱敏处理;在极端理想情形下,甚至可以在技术上实现“仅本地解析、不上传、不留存”,并对第三人信息进行自动屏蔽。但在现实商业实践中,出于性能成本、产品便利性与效果追求等考量,大多数实现方式仍是对屏幕内容进行近乎全量识别与解析,且外部主体难以验证其是否真正做到“仅本地处理”。
在这种结构性前提下,只要屏幕抓取作为常规路径持续存在,且缺乏可验证的本地过滤与第三人保护机制,它就几乎必然处于处理未授权第三人信息的高风险状态。从《个人信息保护法》的角度看,平台和 AI 服务商若无法给出一个稳定、可验证的第三人保护机制——包括合法性基础、通知途径、权利行使渠道与技术防护措施——就难以证明对第三人信息处理具有正当基础[4]。在 API 模式下,平台可以在服务端预先过滤第三人数据,或仅向第三方推送经脱敏处理后的结果;而在屏幕抓取模式中,这种“在管控前端就切断风险”的可能性被大幅削弱。
因此,本文的基本判断并非宣称屏幕抓取在逻辑上必然违背一切数据保护要求,而是指出:在当前缺乏可验证技术承诺与统一行业标准的现实条件下,屏幕抓取应当被视为一种监管意义上的“高风险路径”,需要通过更严格的审查和更窄的适用范围加以约束。
(三)平台“守门人”义务与技术封禁的合规逻辑
《个人信息保护法》第 58 条对大型平台经营者设定了“特殊义务”:包括建立全面的个人信息保护制度、对平台内运营者进行合规管理,并对严重违法者采取停止提供服务等措施[4]。《数据安全法》则从数据分类分级、风险评估和安全审查等方面,对重要数据处理活动设置了更高的安全保障要求[5]。在此框架下,平台在面对难以审计与控制的数据流动路径时,已经不仅仅是在维护自身商业利益,而是被赋予了某种意义上的公共“守门人”(gatekeeper)角色。
在 API 路径下,平台可以通过以下方式履行这一义务:
(1)与第三方签署数据处理协议(DPA),限定数据使用目的、范围与保存期限;
(2)设置字段与频率限制,避免过度抓取与高频调用;
(3)记录详细日志,便于事后审计与责任追溯。
然而,在屏幕抓取路径下,数据是以像素形式被读取、在设备端或云端被解析,平台在技术上很难知道:
(1)哪些具体内容被读取、是否包含敏感或第三人信息;
(2)数据处理是在本地完成,还是通过网络被上传;
(3)数据是否被用于训练通用模型,或仅限当前会话。
即便 AI 服务商在对外说明中声称“仅本地处理、不上传服务器”,在缺乏可供平台或监管机构独立验证的技术标准与审计机制之前,这种承诺在治理结构上仍然构成一种“黑箱”。一旦发生数据泄露或滥用事件,监管机关很可能追问平台:在明知存在高风险、且无法有效监控数据流向的情况下,仍然向相关工具开放接入,是否尽到了应有的安全保障义务?从风险控制的角度看,如果缺乏可审计、可控制的合规方案,平台在当下阶段通过技术手段对相关行为进行限制乃至封禁,确实是合规成本最低、责任最易自证的选择之一[5]。
这并不意味着法律永远支持“封禁优先”,更不意味着应当否定一切基于屏幕抓取的创新尝试,而是说明:在缺乏透明、安全、可追责的对接机制之前,平台选择谨慎乃至保守策略,在公法责任与私法风险双重压力下具有一定合理性。未来,随着制度与技术工具(例如可信执行环境、本地处理可验证机制等)的完善,这一平衡点可以逐步调整。
从数据治理和平台责任的视角看,屏幕抓取模式的最大问题在于:平台与监管方难以掌握数据流向与处理方式,从而难以履行《个人信息保护法》第 58 条所要求的“守门人”义务[4]。这种合规上的“黑箱状态”并不仅仅是抽象的制度隐患,在金融支付等高风险场景中,更是会直接转化为资金安全与系统性风险,这一点在银行卡网络支付纠纷中尤为典型。因此,本文在下一章将以银行卡网络支付为代表,结合最高人民法院指导性案例第 169 号,从金融安全与侵权责任的维度,进一步分析在系统级智能体介入后,风险应当如何在银行、用户与 AI 服务商之间合理分配[16][17]。
四 风险分配与责任边界:金融安全中的“零信任”逻辑
(一)银行卡盗刷纠纷中的责任“严格化”趋势
在银行卡盗刷与非授权支付纠纷中,我国司法实践以最高人民法院指导性案例第 169 号为代表,逐渐形成了一种倾向性的责任分配格局:在持卡人能够合理说明交易并非本人操作的前提下,银行仅以“密码校验正确”“短信验证码一致”为由主张免责,往往难以获得支持,除非能够证明持卡人存在违反安全保管义务的重大过错[16]。
这一实践路径并未在条文上明文写作“严格责任”,但在裁判效果上,对银行设定了较高的注意义务与举证责任:银行不仅要证明自身已采取合理、必要的技术措施识别异常风险,还要通过账户监测、行为分析等手段及时发现和阻断可疑交易,否则就可能因“风控措施不到位”被认定为应承担赔偿责任。从责任效果的角度看,这一倾向可以被概括为对发卡银行责任的“严格责任化”或“事实上的严格责任”,但总体上仍应理解为在合同责任框架内,通过注意义务与举证责任配置实现的“责任趋严”,而非在法条层面直接确立形式上的严格责任[16]。
从 Calabresi 的事故成本理论出发,这种责任配置体现了立法与司法对“最低成本防范者”的偏好:在传统的支付体系中,银行在技术能力、信息掌握程度与资源配置方面,显然是更有能力以较低边际成本预防欺诈和盗刷的一方[17]。将更高的注意义务压在银行身上,既可以通过事前防范降低社会总体事故成本,也能够在事后救济阶段提供更稳定的预期,因而具有一定的制度合理性。
(二)身份识别体系的“模糊化”:系统级智能体带来的新变量
传统的交易安全模型通常建立在“多因素认证”之上:知识要素(密码)、持有要素(设备)、生物或行为要素(指纹、人脸、操作习惯)共同构成用户身份的“画像”。大规模黑产攻击往往通过模拟点击、脚本编程等方式试图伪装成人类操作,银行也正是在对这类模式的追踪与识别基础上不断优化风控策略。
系统级智能体的广泛应用,有可能从两个维度重构这一体系:
(1)行为特征的“平滑化”或“伪装化”
当大量合法交易都通过 AI 注入的模拟点击完成时,银行用于识别黑产脚本的行为特征(例如极端规律的点击频率、超高速响应等)将逐渐失效。更进一步,如果智能体刻意将自身行为“拟人化”,甚至学习正常用户操作节奏,反而可能帮助攻击者伪装,削弱银行基于行为分析的风控模型。
(2)“人机隔离”的突破
当用户开启屏幕共享、远程控制或允许智能体访问系统高权限时,第三方(包括攻击者)可以借此“搭车”接入设备。此时,从交易日志上看,所有操作都发生在“用户本机”上,银行很难区分指令来自用户本人、善意助手,还是恶意远程控制者。这直接动摇了“设备=持有要素”的基本假定。
在上述背景下,若仍然要求银行在“系统级智能体可以全权接管操作”的前提下维持既有风险水平,几乎等同于要求其在信息严重不对称的条件下完成不可能任务。一旦发生大规模损失,在责任“严格化”趋势下,银行作为资金中介极有可能成为“最后的兜底者”[16][17]。这不仅加重了发卡行的合规和财务压力,也在结构上放大了整个支付体系的系统性风险。
(三)谁是“最低成本风险防范者”?经济分析下的封禁与转型
在上述背景下,回到 Calabresi 所强调的“最低成本防范者”视角,可以对“开放系统级智能体接入”与“要求 AI 服务商改走合规路径”两种方案进行粗略比较[17]:
(1)在缺乏可审计机制的前提下强行开放接入
如果在现有屏幕抓取+模拟点击路径下,仍然要求银行完全适应由此带来的新型不确定风险,则银行只能通过大幅提高风控敏感度来对冲不确定性。例如,对更大规模的交易进行人工复核、增加多重二次验证、频繁触发风控锁卡或限额措施。这样的结果一方面显著增加了运营成本,另一方面会对正常用户造成更多摩擦与阻滞,导致交易体验恶化、金融排斥风险上升,社会整体效率因而受损。
(2)要求 AI 服务商调整技术路径,改走合规通道
另一种思路,是将系统级智能体对高风险金融场景的介入,从“屏幕抓取+模拟点击”转向基于金融机构提供的标准化 API、软令牌或其他可审计、可控的接口机制。在这种模式下,银行与支付机构可以预先设计适配智能体接入的权限边界和风险控制规则,将操作权拆解为细粒度的 Scope,并在服务端侧记录详细的请求日志和异常行为,从而在一个更明确、可控的责任框架下运行。短期看,这一转型需要 AI 服务商付出研发与适配成本,也需要银行在接口治理上投入资源;但从长期看,有利于形成统一的安全标准和可追责机制,减少“黑箱式”风险外溢。
在“最低成本防范者”理论下,二者的关键差异在于:若选择第一种方案,银行被迫在可观测性降低的前提下承担更高的前端防范责任,属于在结构上“加重最低成本防范者的负担,却不给其相应工具”;若选择第二种方案,则是要求更接近风险触发源头的一方(即系统级智能体服务商)承担技术路径调整的主要成本,使其通过合规接入机制恢复银行和平台对交易行为的可观测性与可控性,再在此基础上谈论防范责任的分配。
需要特别强调的是,这种“成本再分配”并不意味着要削弱对用户的保护标准,也不意味着简单放松对发卡银行的注意义务。在任何路径选择下,持卡人作为相对弱势一方,其在非授权支付场景中的优先救济地位应当得到保持。差异更多体现在:在确保用户权益不被减损的前提下,通过技术路径重构与责任险等工具,将新增风险在银行、智能体服务商与平台之间进行更为合理的内部消化与分配,而不是无限上推至消费者本身[16][17]。
从经济理性角度看,将技术路径调整的主要成本分配给 AI 服务商,而不是在高不确定性条件下继续单方面提高银行的事前注意义务和事后赔付责任,更符合“谁更有能力、以更低成本防止事故,就由谁承担更多责任”的基本逻辑。在此意义上,银行在过渡阶段对系统级代理采取“高度审慎,甚至接近零信任”的策略,可以被理解为对风险外溢的必要防御,而不应简单被贴上“技术保守”或“排斥创新”的标签。当然,这并不意味着可以完全豁免银行的注意义务,而是在合理划分前端技术路径选择责任与后端风控义务的基础上,重构多方之间的风险承担格局。
综上,在银行卡支付等高风险场景中,若在缺乏可审计能力和可控接口的前提下,仍然允许系统级屏幕抓取模式被常态化使用,一方面会在责任“严格化”趋势下,使银行难以在现实可行的条件下履行其风险控制义务;另一方面,也会迫使各类平台通过“全面封禁或强限制”的方式来自保,从而陷入“要么安全,要么创新”的二元对立。要打破这一困局,显然不能仅仅停留在个案责任分配层面,而需要在技术标准、授权机制与风险分担工具上进行制度性重构:通过可审计的合规接入路径与合理的风险内部化安排,将智能体创新“拉回”到可被金融体系承受和治理的风险边界之内,为后续的制度建构与协同共治奠定基础。
五制度建构:从“技术对抗”走向“协同共治”
前文从《反不正当竞争法》《个人信息保护法》和金融安全三个维度,对系统级智能体以“无障碍服务+屏幕抓取+模拟点击”为核心的接入路径进行了风险揭示:它一方面对平台基于投入形成的竞争性法益构成交互层面的实质性替代,另一方面又切断了数据处理的授权链条,推高了银行等金融机构在责任“严格化”背景下的系统性风险。由此形成的现实困局可以概括为:一方以“安全与合规”为由实施技术封禁,另一方以“创新与用户自主”为名寻求系统级穿透;双方在技术侧不断升级攻防,在舆论侧则互相指责。这种“技术军备竞赛式”的互动模式,无论对平台、对智能体服务商,还是对用户和监管者,显然都不是长期最优解。
要走出这一困局,关键不在于简单选择“全面封禁”或“无条件放行”,而在于在法律规范与技术实现之间重建一套可预期的制度框架:在事前通过技术标准与授权机制明确“如何合法接入”,在事后通过风险社会化工具回答“出了问题由谁买单”。基于此,本文从技术标准的法律化引导与算法强制责任险两个层面,提出一套“协同共治”的制度构想。
(一)技术标准的法律化引导:分级分类下确立 API+双重授权为默认路径
从技术治理的角度看,核心并不是一概否定屏幕抓取在所有场景下的存在可能,而是要按照风险程度实行“分级分类”的接入标准:对于涉及金融资产、通信秘密、健康医疗、未成年人保护等高度敏感的数据场景,应当将基于标准化 API 与可审计协议的接入模式确立为强制性或默认路径;而对于仅涉及本地功能调用、不涉及敏感数据或第三人信息的低风险长尾场景(如系统设置、工具类应用、部分单机应用),在确保用户明确知情、自主选择的前提下,可以保留经过规则约束的屏幕抓取作为兼容性解决方案,以避免因接口建设成本过高而在事实上扼杀人工智能对“长尾应用”的普惠能力。换言之,“API 为主、屏幕抓取为辅”的结构,应当在风险分级的前提下被塑造成一种动态格局,而非对后者的简单全盘否定。
2025 年,中国信息通信研究院等机构发布的《端云协同智能体交互双重授权安全指引》,已经在软法层面勾勒出一套值得注意的治理思路:以“用户侧授权+平台/应用侧授权”的双重授权模式为基本结构,并强调操作记录和数据流向的可审计性[2]。这一指引虽属于团体标准,但在规范理念上为未来立法与监管提供了重要参照。
在这一框架下,至少可以从两个技术机制入手进行制度化:
(1)以 OAuth 等协议固化“最小必要权限”原则
通过 OAuth 2.0/2.1 等成熟协议,可以将权限拆分为细粒度的 Scope,用户不再是对智能体“一键全开”,而是对特定数据与操作能力进行有限授权,例如“仅读取订单信息,不可访问聊天内容”“仅发起小额支付,不得修改支付密码”等;平台或金融机构则可以结合自身风控策略,将不同 Scope 置于不同的审核与风控强度之下。与屏幕抓取“一屏全吃”的粗放模式相比,这种结构化授权在数据最小必要性、目的限定和敏感信息保护方面具有天然优势[2][4]。
(2)通过日志与审计机制强化责任可归属性
API 调用天然伴随详细日志,能够记录是谁在何时以何种权限发出了何种请求,平台与智能体服务商可以在此基础上约定审计条款和数据使用记录,在争议发生时为责任划分提供类似“黑匣子”的证据基础。相比之下,屏幕抓取与模拟点击在平台侧日志中往往只体现为“用户点击”或“终端操作”,极难区分具体责任主体,更无法判断是否涉及越权访问与非法抓取。
在规范层面,未来可以考虑通过以下方式,将上述技术治理思路上升为具有约束力的制度基准:
其一,在《反不正当竞争法》及其司法解释中,将“是否优先通过公开接口、可审计协议与双重授权机制接入”,作为判断某一系统级代理行为是否符合“诚实信用与商业道德”“不妨碍其他网络服务正常运行”的重要参考因素;同时,在评价平台对基于屏幕抓取的第三方接入采取限制措施是否适度时,也应当考察其是否已经提供了功能可用、条件合理的 API 路径,以防止平台一方面拒绝开放正门,另一方面又以合规之名封堵所有后门[3][14][15]。
其二,在《个人信息保护法》的配套规则中,对“数据可携带权”的实现方式予以细化,引导其通过标准化接口和格式转换机制实现,而非默许以屏幕抓取等非协商性技术手段作为常规路径,同时将平台在接口建设与互操作性方面的履约程度,纳入判断其限制第三方技术接入是否正当的重要背景事实[4][5]。
其三,在金融监管规则中,将智能体通过标准化 API 接入高风险业务(如转账、支付、证券交易)确立为监管上的“合规通道”,对在金融等高风险领域坚持绕开公开接口、长期依赖屏幕抓取+模拟点击的商业模式施加更严格的许可条件与合规审查,同时为在低风险业务场景中、在用户明确知情同意基础上的有限屏幕抓取保留合理空间。
当然,把 API 和双重授权机制视为“正门”,并不意味着大型平台可以无限期地选择是否开启这扇正门。尤其是在平台已经具备明显市场支配地位、其数据和接口具有“基础设施化”“必需设施”属性的场景下,如果一方面强力游说监管机关对屏幕抓取等“翻墙式”技术路径进行严厉规制,另一方面又以技术、安全、合规为由长期拒绝向合格第三方提供合理、非歧视的 API 接入,就容易演变为以合规之名实施市场封锁。结合《反垄断法》以及《平台经济领域反垄断指南》等规范,在具备市场支配地位的平台运营者身上,应当逐步重塑与其“守门人”角色相匹配的互操作性义务:对于具有明显基础设施属性的核心功能和数据接口,在合理安全边界内提供标准化、透明、非歧视的接入条件,不再只是商业自愿选择,而应当成为受到反垄断规则约束的合规责任[14][15][18]。
通过这种“技术标准+互操作性义务”的法律化,API+双重授权+可审计机制不再只是工程师眼中的“更优实现方案”,而成为衡量系统级智能体行为是否符合竞争秩序、数据安全与金融稳健要求的规范基准。相应地,屏幕抓取不必被完全否定,但应被推向那些确有技术替代障碍、风险等级较低、且用户和第三人权利可以被有效保障的例外场景,并接受更严格的用途限制和安全约束。
(二)风险社会化工具:在高风险场景中构建“算法强制责任险”机制
然而,即便在技术路径优化与规范引导之后,系统级智能体在支付、证券交易等高风险场景中,仍然可能引发“低频巨大损失”与“高频小额损失”的复合风险:前者如系统被利用为攻击通道导致大规模资金损失,后者如大量用户因指令理解偏差、模型幻觉或界面误判而遭遇多次“小额扣款”或错误下单。在这类场景中,单靠传统的个案诉讼与逐案赔偿机制,既难以及时救济分散且数额不大的个体损失,也很容易在一次尾部事件后将单一创新主体推入破产清算,反而不利于形成稳定、可持续的治理格局[17]。
在其他高风险领域,法制实践已经发展出以强制责任保险为核心的风险社会化工具,例如机动车交通事故责任强制保险(交强险)、部分地区的环境污染责任险等。这些制度的共通逻辑在于:通过强制投保+先行赔付+事后追偿,将高度不确定且个体难以承受的事故风险,转化为在更大风险池中进行分摊的财务成本[17]。参照这一思路,在限定于高风险 AI 应用场景(特别是涉及资金安全和重大人身、财产风险的场景)中探索“算法强制责任险”,在规范层面具有一定的可行性。
在制度路径上,这一机制可以采取“渐进+试点”的模式推进,而不宜一开始就扩展为对所有智能体产品的全面强制。其基本制度设计可以包括以下几个要素:
(1)接入前置的保险要求(限于高风险 API)
对于拟接入银行、证券交易等核心 API 的系统级智能体,可以由监管规则或行业自律规范要求其在获得接入许可前提供强制责任保险凭证,将部分潜在损失预先纳入可保风险池。保单的投保主体可以是智能体服务商,也可以是与其形成生态共同体的平台方,具体安排可由市场结构与监管偏好共同决定。
(2)先行赔付与追偿机制
当发生非因用户重大过错导致的资金损失时,由保险机构按照约定限额向用户或其他受害者先行赔付,再根据事后调查对事故成因进行归责,将责任在平台、智能体服务商、金融机构与用户之间进行相应的追偿与分配。这样既保证了受害者的及时救济,也为复杂、多因的事故提供了制度上的“缓冲带”,避免任何一方在单次事故中承担难以承受的集中风险。
(3)保费信号与风险定价
保险费率可以根据不同智能体产品的技术架构、接入路径(是否通过标准化 API)、合规措施完备程度、历史事故记录等因素动态定价。安全投入多、合规程度高、事故记录良好的服务保费较低,反之则保费较高。通过将行为风险内生化到保险成本中,可以在市场层面形成对安全实践和合规投入的正向激励,促使智能体服务商主动优化自身架构,而不是一味将风险外溢给平台与金融机构[17]。
需要明确的是,“算法强制责任险”在现阶段更多是一种规范性制度构想,其实现依赖于后续在金融监管、保险监管与技术标准层面的多方协调。它并非要取代民事责任规则或监管处罚,而是作为它们的制度补充:前者为高风险场景下的“损失分担与风险社会化”提供基础设施,后者则继续在确定过错、威慑违法和纠偏市场行为方面发挥作用。两者结合,可以将目前“不确定且难以承受”的技术风险,转化为“可计量、可分摊与可保险”的财务成本,减轻平台和金融机构开放接口的后顾之忧,为智能体技术的规范化接入提供一条更具可行性的道路。
从更宏观的视角看,以“API+双重授权+可审计机制”为核心的技术标准,回答的是系统级智能体“如何合法进入现有金融与数据基础设施”的问题;而以“算法强制责任险”为代表的风险社会化工具,则回应了“在事故无法完全避免的前提下,如何在智能体服务商、平台、金融机构与用户之间合理分配由此产生的经济后果”的问题。二者共同作用,才有可能将当前的“封禁—穿透”对立格局,转化为基于规则和契约的可持续协同[2][17]。
在此意义上,“协同共治”的关键不在于简单调和各方利益诉求,而在于通过技术标准、互操作性义务与风险分担安排重构游戏规则:谁可以接入、以何种方式接入、在何种责任与风险结构下运行。基于前文的分析,本文最后的结语部分将进一步回到系统级智能体数据接入冲突这一核心问题,讨论在这一新型治理结构下,平台、用户与系统级智能体如何从“技术对抗”走向“制度化合作”。
六结语:在数据接入秩序中重构技术与责任的边界
“豆包手机助手”等系统级智能体引发的争议,并非简单的“巨头围剿创新者”,也不能被抽象为“技术对法律”的二元对立。本文所要回答的核心问题是:在高度数据化、算法化的数字社会中,如何在同一制度框架下,同时尊重用户自主选择,维护平台基于投入形成的竞争性法益,保障第三人和公众的安全与隐私,并为系统级智能体保留合理的发展空间。
从竞争法维度看,系统级智能体通过“无障碍服务+屏幕抓取+模拟点击”对既有平台服务的人机交互逻辑实施外层封装,其行为在很大程度上接近于对平台功能与数据的寄生性利用与交互层面的实质性替代,而难以被视为中性的技术使用。新修订《反不正当竞争法》第十三条关于“通过影响用户选择妨碍、破坏其他网络产品或者服务正常运行”以及“以不正当方式获取、使用数据”的规定,为此类行为提供了否定性评价的规范坐标;与之相对,指导性案例第 263 号则表明,在特定边界条件下,经用户授权的关联账号服务与数据同步可以被视为合法的技术中介,勾勒出“合理关联服务”与“系统级穿透”之间的界限[3][8][12]。
从数据安全与个人信息保护的视角看,“用户单方授权+屏幕全量读取”的结构切断了数据处理活动的授权链条,使平台与监管者难以掌握数据流向与处理方式,第三人信息的被动卷入尤为突出。《个人信息保护法》第 45 条虽赋予个人类似数据可携带权的请求权,但其条文体系位置与规范目的均指向通过标准化接口实现“有序流动”,而非为一切屏幕抓取路径提供通行证。将可携带权理解为对屏幕抓取的全面豁免,既与制度设计初衷不合,也难以回应数据安全与场景化正义的要求;反之,如果平台长期不建设可用的数据迁移接口,事实上使可携带权难以落地,那么在完全排斥用户授权下的第三方技术接入时,其合规正当性也难言牢不可破[4][5][13]。
在金融安全维度,银行卡盗刷与非授权支付纠纷中责任“严格化”的司法倾向,使发卡银行在传统交易模型下成为典型的“最低成本防范者”。系统级智能体大规模部署之后,一方面通过行为特征的“平滑化”削弱了基于操作轨迹的异常识别,另一方面通过高权限接入打破了“设备=持有要素”的基本假定,从而在责任标准未变的前提下显著降低了银行的“可防能力”。在这种错位结构下继续开放系统级接入,既不利于金融稳健,也会在现实中倒逼平台与银行通过“零信任式封禁”来自保[16][17]。
在此背景下,出路不在于简单选择“全面封禁”或“无条件放行”,而在于通过技术标准、互操作性义务与风险分担机制构建一种可预期的协同共治框架:在事前,以标准化 API、双重授权与可审计机制确立系统级智能体的默认接入路径,对涉及高度敏感数据和金融资产安全的场景进行严格约束,同时在低风险长尾场景下保留经规则限定的屏幕抓取空间[18];在事后,通过在高风险场景探索引入“算法强制责任险”等风险社会化工具,将难以避免的尾部损失纳入可计量、可分摊的保险机制之中,减轻平台和金融机构开放接口的后顾之忧[2][17]。
归根结底,系统级智能体的数据接入冲突问题,要求我们在技术创新与法律规制之间重构一套新的“接口宪制”:谁有权设计、开放和管理数据接入路径,谁在何种条件下可以基于用户授权介入既有平台场景,以及在发生风险时,如何在智能体服务商、平台、金融机构与用户之间进行合理的责任分配。通过将 API 标准、双重授权、互操作性义务与责任保险等工具纳入统一的制度设计,有可能在“安全”与“创新”之间寻找第三条道路,使系统级智能体真正成为可被信赖的“数字助手”,而不是游走在监管边缘的“技术黑箱”[6][18]。这既关涉用户的个体权益与日常体验,也关涉未来数字秩序中数据接入权与控制权的再分配方向。
参考文献(上下滑动阅览)
【1】 豆包手机助手下线金融类应用能力,AI 手机如何打消隐私担忧[EB/OL]. 腾讯新闻·南方都市报客户端,2025-12-06.
【2】云计算标准和开源推进委员会,中国信息通信研究院等. 端云协同智能体交互双重授权安全指引[S].2025-12-01.
【3】中华人民共和国反不正当竞争法(2025 年修订)[S]. 全国人民代表大会常务委员会,2025.
【4】中华人民共和国个人信息保护法[S]. 全国人民代表大会常务委员会,2021.
【5】中华人民共和国数据安全法[S]. 全国人民代表大会常务委员会,2021.
【6】 廖凡. 数字主权与全球数字治理[J]. 暨南学报(哲学社会科学版),2024,(7).
【7】北京知识产权法院. 北京淘友天下技术有限公司、北京淘友天下科技发展有限公司与北京微梦创科网络技术有限公司不正当竞争纠纷案:(2016)京73民终588号[Z].
【8】上海市浦东新区人民法院,上海知识产权法院. 上海汉涛信息咨询有限公司诉北京百度网讯科技有限公司、上海杰图软件技术有限公司不正当竞争纠纷案:(2015)浦民三(知)初字第528号,(2016)沪73民终242号[Z].
【9】Locke J. Two Treatises of Government[M]. London: Awnsham Churchill,1690.(中译本可参见:洛克. 政府论(下篇)[M]. 关锋等译. 北京: 商务印书馆,1964.)
【10】 Hardin G. The Tragedy of the Commons[J]. Science,1968,162(3859):1243-1248.
【11】北京市高级人民法院. 2023年度北京法院知识产权司法保护典型案例[EB/OL].2024.
【12】 最高人民法院. 指导性案例第263号:某网络信息技术有限公司诉某信息科技有限公司不正当竞争纠纷案[Z]. 2025.
【13】Nissenbaum H. Privacy as Contextual Integrity[J]. Washington Law Review,2004,79(1):119-158.
【14】中华人民共和国反垄断法(2022 年修正)[S]. 全国人民代表大会常务委员会,2022.
【15】王健,吴宗泽. 论数据作为反垄断法中的必要设施[J]. 法治研究,2021,(2):102-114.
【16】 最高人民法院. 指导案例169号:徐欣诉招商银行股份有限公司上海延西支行银行卡纠纷案[Z].2021.
【17】 Calabresi G. The Costs of Accidents: A Legal and Economic Analysis[M]. New Haven: Yale University Press,1970.
【18】Regulation (EU) 2022/1925 of the European Parliament and of the Council of 14 September 2022 on contestable and fair markets in the digital sector and amending Directives (EU) 2019/1937 and (EU) 2020/1828 (Digital Markets Act)[S]. Official Journal of the European Union, L 265,12.10.2022.
作者:陈取旺
编辑:Sharon



