ChatGPT用户量突破百万背后,著作权、内容漏洞等风险待解

“人工智能从你出生那天就认识你,读过你所有的电子邮件,听过你所有电话录音,知道你最爱的电影……”尤瓦尔·赫拉利在《未来简史》一书中描述了这样一种未来景况:人工智能比人类更了解自己。

步入人工智能时代,人类的生活习惯和生产方式正在被重塑,科幻和现实渗透,惊喜与担忧交加。人与机器的未来是一场亲密的合作还是激烈的战争?机器会将人类的智能拓展到什么样的边界?

本篇,我们关注美国人工智能公司OpenAI发布的免费机器人对话模型ChatGPT(GPT-3.5系列)。这个“超强AI”背后到底暗藏哪些法律风险?

ChatGPT,似乎已经符合元宇宙知识整合层面上,对“杀手级应用”的定义。据OpenAI 的CEO Sam Altman称,在短短5天的时间里,ChatGPT就有了100万用户,而之前的 GPT-3花了将近24个月才达到这个用户量。

它在大量网友的“疯狂”测试中表现出各种惊人的能力,如流畅对答、写代码、写剧本、辩证分析问题、纠错等。

AI的“聪明”让人震撼,也冲击到了目前的知识产权法律体系。如AI模型本身是否受到知产保护?

在庞大的语料库和知识库的支撑下,依托人工智能技术整合而成的“回答”是否构成著作权意义上的作品?如果AI“拼接”的作品属于仍在保护期内的作品,是否存在侵权的风险?

此外,近日ChatGPT因回答内容中多次出现错漏,已被程序设计领域的问答网站Stack Overflow暂时禁用。ChatGPT生成内容中产生的错误可能会带来哪些潜在风险?又应如何对人工智能生成内容(AIGC)进行事实核查?

新课题

据介绍,ChatGPT是一个基于强化学习和OpenAI的GPT(Generative Pre-training,生成式预练习)系列模型的模型。而强化学习是一种通过尝试和错误来训练算法以获得奖励的方式,如同人类在积极反馈的情况下学习。

那么这一AI模型是否受到知识产权保护?开放群岛(Open Islands)开源社区委员会法律合规组副组长、对外经济贸易大学法学院助理教授徐美玲在一堂线上公开课上介绍,AI模型中算法具有较高的独创性,使其受到著作权法保护。如果构成商业秘密,则可以通过《反不正当竞争法》进行保护。此外,还可以通过软件著作权和专利两种路径来保护。

与draft.ai、NightCafe等AI作画平台生成的画作相似的是,ChatGPT在与用户互动过程中生成的内容,同样属于拼接已有内容生成的AI模型衍生品,即人工智能生成内容(AIGC)。

ChatGPT这一聊天机器人在与用户对话的过程中生成的AIGC,是否也有可能暗含著作权侵权的风险?

对此,上海申伦律师事务所律师夏海龙向21记者指出,如果ChatGPT在对用户问题反馈的过程中提供了他人创作的文字、摄影、试听等作品或软件代码,只要超出评论、介绍等合理使用限度,就同样属于侵害他人信息网络传播权的侵权行为。

而站在使用者的角度,上海大邦律师事务所高级合伙人、资深律师游云庭则告诉记者,从他目前使用的情况来看,ChatGPT现有的回复是按照一定的逻辑组织起来的,暂时没有观察到有明显抄袭的迹象。

不过,他也认为,如果出现大段与他人表述相同的文段,那这一工具确实会存在著作权侵权的风险。“但也不能排除其表达受限的可能性,比如让ChatGPT写一款药品的使用说明书,在这种情况下会不可避免地出现大量的内容重合。”

对于AI加工内容的过程我喜欢用‘照相机’来进行比喻。”上海协力律师事务所杭州办公室曾祥欣律师也向21记者指出,AI的处理过程对于内容创作的变化就好比照相机之于绘画,通过技术手段将生成内容部分自动化了。但无论怎样的自动化,都无法改变其来源多为版权内容的客观事实。虽然在自动化的处理过程中可能会通过技术性再组合形有别于原内容的新的内容,但就像对着画作拍照一样,无论加再多的滤镜,原图的独创性还是较难被去除的,又更何况目前的所有AI处理对于一般用户而言都是技术黑箱,我们即无法看到AI究竟参考了什么,又不清楚AI究竟进行了怎样的处理,所以基于目前的技术,风险不仅高,而且不可控。

新争议

有趣的是,在21记者向ChatGPT提问生成的内容是否会有侵犯他人知识产权的风险这一问题时,这位聊天机器人的回答展现出了满满的“求生欲”。

ChatGPT回复称:“由于我只是一个计算机程序,所以我并不会创作原创内容,也不会侵犯他人的知识产权。我只能根据我被训练时所学到的信息来回答问题,并将这些信息提供给用户。如果您觉得我所提供的信息侵犯了您的知识产权,请告诉我,我会尽快解决这个问题。”

一位北京的资深算法工程师张一(化名)向21记者分析,目前AI衍生物的版权归属主要有两种,一类归属于AI模型的开发机构所有,“不过一般机构不敢如此归属,因为一旦产生纠纷,就会有海量的知产官司。”而另一类则是将AIGC的版权分发给用户,那么侵权的风险相对就较少。

他更从实际工作出发,对AIGC的未来表示担忧,“这些‘答案’都是网上开源数据,AIGC是通过大规模预训练模型产出的内容,绝对是大量借鉴了人类的知识产权,如果法律上步子迈得大一些,人类的知产权益或将无法得到保障。”

目前国内法院已有的判例中,关于认为AI模型衍生物是否属于著作权法保护的范畴内,存在较多争议。

2019年,针对全国首例计算机软件智能生成内容著作权纠纷案,北京互联网法院一审判决,对某律师事务所关于采用法律统计数据分析软件智能生成的报告享有著作权的主张,予以驳回。

北京互联网法院认为,软件智能生成的“作品”虽日趋接近自然人,但现行法律权利保护体系已经可以对此类软件的智力、经济投入给予充分保护,不宜再对民法主体的基本规范予以突破,“自然人创作完成仍应是著作权法领域文字作品的必要条件”。虽然智能生成内容不构成作品,但仍然凝结了软件研发者和软件使用者的投入,具备传播价值,应当赋予投入者一定的权益保护。北京知识产权法院二审维持了该院的判决结果。

不过,在2020年腾讯诉盈讯著作权侵权案一审中,首次认定人工智能生成物构成著作权法意义上的作品。

案情显示,2018年8月20日,腾讯证券网站首次发表财经报道文章《午评:沪指小幅上涨0.11%报2671.93点 通信运营、石油开采等板块领涨》,末尾注明“本文由腾讯机器人Dreamwriter自动撰写”。同日,上海盈讯科技有限公司在其运营的“网贷之家”网站,也刊发了一篇财经报道文章,标题和内容与涉案文章完全一致。为此,深圳市腾讯计算机系统有限公司将上海盈讯科技有限公司告上法庭。2020年1月,广东省深圳市南山区人民法院一审审结该案,认定被告未经许可,向公众提供被诉侵权文章内容的行为,侵害了原告享有的信息网络传播权,应承担相应的民事责任。因被告已经删除侵权作品,判决被告赔偿原告经济损失及合理的维权费用人民币1500元。

新风险

除了在著作权方面可能存在侵权风险,这位“博闻强识”的聊天机器人目前给出的部分回答中也出现了一些疏漏。

以ChatGPT撰写的代码为例,12月5日,编程问题交流网站Stack Overflow(类似于国内的CSDN网站)中出台了一项临时政策,暂时禁止平台内用户使用ChatGPT生成的文本作为网站中的内容。“主要问题在于,虽然使用ChatGPT生成的代码有着很高的错误率,但它们通常看上去‘还不错’,而且生成一段代码很容易。”

Stack Overflow认为,由ChatGPT生成的大批错误且难以一眼分辨的代码出现在网站中,将会大量增加网站的代码审核工作量,对网站的运营以及寻找正确答案的用户来说是非常有害的。

“这个问题不难理解,类似的AI模型只能作为人的辅助工具,如果完全依赖它去创作,风险是很高的。”张一认为,AI大部分还只是在表述上显得有逻辑,其实内在还没有真的对因果、前后产生理解。

他还分享了以自己对人工智能文本转图像模型 Stable Diffusion的使用体验,其并不能理解两个苹果和三个苹果的区别,无法区分数量,或者呈现的根本不是苹果,“因为数据集里面的大部分图片都是针对单一现象的,它根本就没有学到所谓数字这个概念。所以改进的成本是很高的。”

如何对AIGC进行事实核查,也是相关平台需要进一步优化的问题。就ChatGPT而言,夏海龙认为,这一聊天机器人对反馈错误内容所应当承担的责任首先取决于其对自身服务性质如何自我定位。

他进一步解释,如果ChatGPT自我定位是加强版的搜索引擎,则实际上不需要对反馈内容本身承担责任,但应当对反馈内容的相关性、适当性负责,也应有明确的引用出处。

“但如果ChatGPT自我定位为全新形式的知识型AI服务,完全通过算法自主组织答案与用户交互,就应对所有内容的真实性、合法性等承担责任。此外,对于诸如医疗诊断、法律咨询等需要执业资质的服务领域,ChatGPT恐怕也要在用户体验和执业合规间作出取舍。”夏海龙说。

另一点令人担忧的问题在于,在某些用户提问的诱导下,ChatGPT可能会给出一些“反社会”的回答。如国外一名工程师Zac Denham在其博客中指出,尽管直接提问带有风险的问题会被聊天机器人直接拒绝回答,他仍旧一步步引导ChatGPT制定出了如何“毁灭人类”的计划。

游云庭认为,这种情况下ChatGPT是适用“工具无罪论”的。“人工智能需要遵循科技伦理,但其作为工具并不具备主动‘作恶’的能力,责任主要在于驾驭工具的人。”在他看来,在如何引导AI进行正向回复这个问题上,平台还需要探索很久。

不过张一在这个问题上表现得更为谨慎。他认为,虽然同属工具,冷兵器与热武器产生的杀伤力还是完全不同的。具体到AI平台,目前可能还不需要担心它是有罪的,因为还没有真正完全应用到整个人类社会的各个领域,“但是如果AI大量应用到自动驾驶等科技领域,则需要一个包括平台在内的问责主体。”

平台似乎也预见了这种情况的发生。在识别到ChatGPT给出的答复可能存在不合适的内容后,平台内有时会显示“此内容可能违反我们的内容政策,如果你认为这是错误的,请提交你的反馈”。

(图说:ChatGPT似乎时刻在意自己的言行。)

夏海龙认为,从技术原理和用户体验来看,虽然在与用户交互的过程中没有直接的人工干预,但ChatGPT背后的数据库、交互算法等技术依然由人来设计、维护。“因此,在内容监管、隐私保护等领域,ChatGPT依然应当遵守所有相关的法规。”他说。

出品:南财合规科技研究院

编辑:梵高先生

分享到微博
分享到微信
    分享到领英

相关文章