(资料图)
川观智库研究员 徐也晴
4月11日,国家网信办起草《生成式人工智能服务管理办法(征求意见稿)》(以下简称“征求意见稿”),向社会公开征求意见(反馈截止时间为2023年5月10日),未来法治领域的专家怎么看?
川观智库采访了中国人民大学未来法治研究院执行院长张吉豫,她表示,考虑到目前国际科技竞争的形势异常激烈,在此时对生成式人工智能进行监管是有必要的,但也要非常重视对创新发展的促进。此外,关于模型训练中的作品合理使用、侵权责任认定和责任分配等法律问题,当前还在热烈讨论当中。对此她也给出了一些具体思考:
第一,关于侵权责任认定和责任分配问题。张吉豫认为,应该基于场景进行更细致的责任界定。例如,如果人工智能大模型的拥有者为第三方提供了定制化的可编程接口,便于后者在此基础之上进行内容生成和开发的话,此时后者可能就成为了更有利于进行风险预防的主体,是需要去承担一部分责任的。简单来说,此时人工智能大模型生成的内容就相当于是领域里的“原材料”,提供“原材料”的人根据情况确实要承担一部分责任,但肯定不是全部。
除此之外,张吉豫提到,虽然征求意见稿是根据人工智能的服务去提出管理办法,但在责任设置的时候也要考虑到用户方可能存在恶意使用的行为。比如已经有人在使用ChatGPT的时候,变着法地、刻意地引导它来生成一些有失偏颇的言论。所以发生类似情况时,也不一定要由最源头的那一方来承担所有的责任。
第二,关于作品合理使用的问题。比如第七条第二款规定,用于生成式人工智能产品的预训练、优化训练数据,“不含有侵犯知识产权的内容”。张吉豫认为,这样的表述不太准确,如果调整为“在大模型整个训练的过程中不侵犯知识产权”,可能就会更好一些。作品保存在数据库中未经许可对外提供,一般是侵犯著作权的;但如果合法获得的作品在模型训练中使用,则存在解释为合理使用的空间。国际上也有一些立法活动,比如日本、欧盟规定了不同范围的文本数据挖掘侵权例外,即在规定的文本数据挖掘情况下使用作品是构成合理使用。我国著作权法上也预留了合理使用制度的扩展接口,正在探讨。张吉豫总结,侵权实际上要更注重“行为”,而不能仅看“内容”,否则可能会把比如民事领域里预留的一些不侵权的、合理使用的空间给压缩了。例如大段复制他人作品往往构成侵权,但如果是为介绍、评论该作品而适当引用,则可能构成合理使用。
张吉豫补充,由于科技创新带来的影响往往具有“两面性”,在带来风险的同时也为社会生产力的进步提供巨大驱动力,而系统的安全性和风险防控措施的成熟度也往往将在发展中不断提高。因此,法律需要给技术的发展留出一定“空间”,否则会影响到一些企业创新的积极性和可能性。
第三,可以进一步细化相关规则。张吉豫解释,征求意见稿中的一些内容可以由部分法律规范推导出来,比如民法典、著作权法、网络安全法、数据安全法、个人信息保护法、刑法等法律,以及网信办此前出台的《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》等规定,它们都为生成式人工智能服务提供了层次化、多维度的法律规范。因此进一步明确相关内容或配套出台相关解释细则,可以帮助企业明确合规行为,也能够为法律合规建设力量相对薄弱的小微企业或初创企业,提供更好的指导。
最后,张吉豫表示,在现阶段的讨论过程中,监管机构可以与国内正在推出生成式人工智能的头部企业及其他利益相关方进行对话,研讨目前面临的重点问题,并结合具体应用场景将监管细化。只有在对这些问题形成了更多、更深、更好的共识以后,才能进一步形成更富有指导力的规定,从而更好地在控制风险、保障安全的同时,促进生成式人工智能产业健康发展。
标签:
X 关闭
X 关闭