来源:互联网天地杂志 作者:滕海波
摘要:ChatGPT的出现引发广泛关注。通过了解生成式人工智能的技术原理,认识到其带来进步的同时更需重视造成的短期冲击与长远威胁。应对冲击,短期内需处理好著作权,信息安全,生成内容真实合法等问题的法律规制。立足长远需做好面向未来的制度储备。针对发展人工智能特点,建立“全国一盘棋”的运作体制,集合力量引领发展。为应对风险,从内外两方面协调各方建立全方位的风险防控体系。更需侧重思考人机关系这一核心命题,在发展产业与技术的同时做好人工智能伦理的框架建设工作,确保人工智能安全可控,增进人类福祉。
关键词:ChatGPT;生成式人工智能;风险;规制
0 引言
生成式人工智能又称为AIGC(AI Generated Content),与过去从海量数据中寻找信息的传统人工智能相比,生成式人工智能可以“自主创造”,完成高水平的写作,互动对话等任务,水平甚至高于普通人。其他类型的生成式人工智能还有图像内容生成,娱乐内容生成与办公内容生成等多样功能。以ChatGPT为代表的生成式人工智能的强大功能过于“惊艳”,引起科技领导者的关注甚至是担忧。比尔·盖茨认为其意义不亚于互联网或个人电脑的诞生。埃隆·马斯克曾在多个场合表达了担忧,并且联名众多科技领导者签字并呼吁暂停对ChatGPT的研究,要求在6个月内出台相应的治理制度。基辛格认为ChatGPT等人工智能可能瓦解人类的自主意识,摧毁我们的认知。各国纷纷尝试出台规划或者法案来引领行业发展,调整社会关系,防控人工智能带来的风险。
本文通过以ChatGPT为例研究生成式人工智能原理以及影响,探讨法律上应对生成式人工智能短期方案,并尝试以更高站位,更深层次的制度探索来应对生成式人工智能的冲击。
1 ChatGPT的原理以及冲击
1.1 ChatGPT技术原理
ChatGPT全名是Chat Generative Pretrained Transformer,即生成式预训练变换模型。ChatGPT改变了深度学习模型理念,采用Transformer算法,其技术原理可以用简单的“预训练+微调”模式加以概括。在模型里调用超大规模的数据来完成日常训练,理解上下文以及抓住文本重点。模型几乎能模拟出人脑的神经元链接系统,像人类一样学习。但人工智能仅是经过大数据模型预训练还不够,因为此时人工智能虽可造出形式上通顺的句子,但依旧无法从实质上理解人类指令。故人工智能还需要引入人类偏好的数据,通过反馈强化学习,完成对模型的微调优化。之后重复以上步骤,使原始模型不断吸收反馈的信息而升级迭代,变成最终模型。实质上该人工智能的学习过程大体上类似一般人的学习过程。
1.2 生成式人工智能带来的冲击
算法的改变,带来技术的突破,以ChatGPT为代表的一系列生成式人工智能将对人类社会带来冲击。从有利方面看,人工智能提高工作效率,能代替人类完成机械性的重复劳动,人们得以解放出来而集中精力从事深层次工作。作为内容生成式人工智能,其努力“工作”能够生产更多的信息,帮助人们学习,推动科学文化的进步。也有人预测人工智能将与各行各业的结合,引导传统产业升级甚至是创造新的产业,推动社会的创新发展。
生成式人工智能同样带来显而易见的负面影响。地球上每一轮的科技革新都伴随着凯恩斯眼中的“技术性失业”,而能力强大的生成式人工智能更是直接威胁到了脑力工作者的竞争力。历史上每一轮的革新都会冲击“保守”的力量,法律作为社会稳定的基础便首当其冲。生成式人工智能大幅增加了现有法律的适应性压力。如在著作权方面,关于人工智能生成的内容是否属于作品,是否享有知识产权,其形成内容过程是否侵犯别人的知识产权都成为热点问题。生成式人工智能还会威胁他人隐私与信息安全,有能力生成虚假内容以及充斥暴力,歧视,犯罪等违反法律与社会公德的内容,以上问题都需要法律做出应对。
或许现在的技术仍不够发达,但展望未来,生成式人工智能对人类文明,国家关系,市场竞争等方面将产生深远作用。有学者从人类文明的高度提出担忧,认为人工智能将会使得人类失去未来走势的决策权,陷入人工智能主导的信息茧房之中。生成式人工智能可能改变公众对人工智能的主客关系认知,削弱人类独立思考与批判意识。“地球脑的觉醒”可能并非危言耸听,人类应该对人工智能研发的安全性与伦理性进行普适性立法,提前为可能到来的风险失控做好防范。
在国家安全层面,人工智能有条件成为黑客攻击的推手,成为日后全球网络战的主力。目前来看,内容生成式人工智能训练的数据库以及产生的数据以英文居多,输出的内容也不可避免蕴含明显的英美国家价值观,这将阻碍其他国家形成文化认同,危害穷国弱国的国家安全。从市场竞争角度来看,生成式人工智能需要巨量的技术成本与资金成本。即使公开所有的技术难点,初创公司也难以承担模型训练成本。这使得ChatGPT这种划时代的产品只能由少数互联网巨头才能驾驭,从而垄断市场,使得社会分化更为严重。
生成式人工智能虽然带来社会进步,但是如何应对其带来的明显负面影响以及如何提前采取措施,化解好未来可能产生的对人类文明、国家安全与社会经济等层面的危机是值得深入探讨的。
2 短期内对具体问题的法律应对
为了应对近年来人工智能所带来的冲击,尤其是对一些具体问题的法律规制,各方反应迅速。美国于2022年发布的《人工智能权利法案蓝图》,通过规范数据的安全隐私以提高数据质量。欧洲发布的《欧盟人工智能发展战略》在保护个人数据安全的同时,也在积极促进数据运用。我国近期也出台了相关文件,如2023年1月10日施行的《互联网信息服务深度合成管理规定》(以下简称《深合规定》),以及2023年4月11日发布《生成式人工智能服务管理办法(征求意见稿)》(以下简称《征求意见稿》)。我国出台针对人工智能的法律文件,并配合既有的法律规定尝试应对生成式人工智能带来的著作权、个人信息安全、生成内容真实合法等问题。
2.1 著作权的相关分析与应对
生成式人工智能一经出世,首当其冲的便是著作权问题。诸多学者归纳指出,生成式人工智能相关的著作权问题包含两个方面,其一是人工智能会不会侵犯信息源内容的著作权,其二是生成式人工智能形成的内容构不构成受著作权法保护的作品且何人为著作权人。
针对第一个问题,《深合规定》尚未对知识产权相关内容进行规定,但是《征求意见稿》中明确指出,技术提供者应履行训练数据中不含有侵犯知识产权内容的义务。单从我国现状看,通过技术手段抓取数据不构成个人学习情形,因此数据抓取方应获得原著作权人相关授权。具体来看,可以通过“知情—同意”框架进行授权。为提高效率,可考虑针对特定内容在一段时间内连续授权或打包集体授权。同时基于数据行业创新发展的需要,笔者认为可以通过修法或者解释扩大公共领域合理使用的范围。
针对第二个问题,学者讨论颇多。关于能否被赋予作品资格,有学者持否定观点,其认为驱动人工智能生成的仅是算法程序,不能体现创作者个性,故不能被认定为著作权中的作品。但也有肯定观点认为内容生成式人工智能的内容生成过程可以被认为是创作行为,因此其作品可以被著作权法保护。笔者认为著作权法是保护思想的表达形式,而非思想本身。人工智能把信息进行重新组合与抽象,不一定要求达到“创一家之言”的开山之作创新度,只要外观上符合独创性的条件,可被认定为作品。而关于人工智能能否被认定为著作权人,目前主流国家的法律有两种模式。美国注重激励的实际效果,对著作权主体的认定较为宽松,主体不必为自然人;而在我国法系下更强调人的道德与权利,对著作权的认定更加严格。依据我国现行的著作权法,著作权的主体是自然人,法人等,在法律层面很难做出回应。笔者认为,如能提高相关主体的积极性,在完善责任制度前提下,可考虑授予内容生成式人工智能著作权人资格。在发生侵权责任的场合下,如果有幕后人操纵人工智能进行侵权,可以仿照公司法上“刺破公司面纱”否定其权利主体资格,直接追究其幕后人,或者要求人工智能与幕后人一起承担连带责任。
2.2 个人信息安全的相关分析应对
针对个人信息安全的问题,《征求意见稿》与《深合规定》都有规范。两部文件主要从两方面保护个人信息安全,其一是信息的获取规则,其二是安全机制的建立。在第一个方面,《征求意见稿》第七条要求提供者对生成式人工智能产品数据来源的合法性负责,涉及到个人信息的应当征得个人同意。《深合规定》第十四条要求服务提供者加强数据管理,保障数据安全,如涉及个人信息的,应遵守个人信息保护的相关规定。《中华人民共和国个人信息保护法》第十三条则对个人信息的获取规则做了细致规定。在第二个方面,《征求意见稿》第十三条、《深合规定》第七条都要求建立安全机制,《中华人民共和国个人信息保护法》中第五十一条通过对信息处理者施加义务的方式保护个人信息安全。
法律规定虽看似比较完整,难点在于落实。信息处理者每天接触大量信息,对每一条信息都获得充分授权是偏理想化的。如需获得个人信息的授权,可参照上文著作权的授权方案,对特定信息定时或批量完成信息授权行为。法律规定的另一个问题在于用语模糊不清。对法律中的用语,实务中需要进一步的明确并规范,比如“合理范围”,“最低限度”等诸如此类的概念,需要结合具体类别被充分细化,切实保护社会公众的个人信息安全。
2.3 生成内容真实合法性的分析应对
内容生成式人工智能固然会生成内容,但并不必然保证其产生的内容是真实且合法的。在人工智能生成内容过程中可能是基于技术不足而导致生成错误内容,如学者指出ChatGPT是文本的“有损图片”格式,虽保留大部分信息,但是也仅是近似值,经重新组合后更难保证真实,但内容生成过程更有可能被人利用。通过人工智能强大能力“疯狂”制造违法信息,庞大信息库鱼龙混杂,质量下降。因此有必要在人工智能企业自行优化算法的同时,从外部对生成过程施加法律要求。
我国在这方面做出了较为务实的规定。一方面明文规定不得利用技术生成违法和虚假信息,如《深合规定》第六条与《征求意见稿》第四条。在另一方面从预防与整改措施出发,如《征求意见稿》第十五条要求采取内容过滤措施与防止再生成机制。《深合规定》第十条要求建立用于“识别违法和不良信息的特征库”。
3 面向未来的制度储备思考
习近平总书记指出:“人工智能是新一轮科技革命和产业变革的重要驱动力量,加快发展新一代人工智能是事关我国能否抓住新一轮科技革命和产业变革机遇的战略问题。”目前我国已经出台了《深合规定》与《征求意见稿》,对具体问题做出了法律回应。但我们要抓住人工智能的机遇,决不能满足于此。我国要在发挥既有的人工智能治理优势上,通过顶层设计推进基础性人工智能立法,探索通用人工智能立法的经验,形成更具影响力的制度体系。
3.1 “全国一盘棋”发展人工智能
现代竞争日趋激烈,参与竞争并胜出所需的条件也愈发苛刻,人工智能的发展便是典型。发展以ChatGPT为代表的生成式人工智能需要先进技术与巨量资金,即使头部互联网企业公开技术难点,一般企业也很难承担起训练、运行费用,这使得大部分主体失去了入场的资格。而数据领域更是存在“飞轮效应”,起步艰难,投入巨大,回馈缓慢,但一旦超过某个临界值,便能给投入者超额的回报。为克服发达国家数字领域的飞轮效应,也为打破头部互联网企业为抢夺数据造成“诸侯割据”的不利局面,我国有必要统筹协调数据资源,制定发展规划,优先保障重点领域发展,形成“全国一盘棋”的局面。
全国一盘棋的主要参与者有公共部门、人工智能企业、第三方机构和社会公众等。制度设计上既需要紧跟世界潮流,又需要立足自身的实际,在科技发展,经济增长及保障安全与稳定之间维持平衡。既要跟上人工智能快速迭代的能力,预防人工智能带来的全局风险。但也不能简单一刀切,施加过于苛责的规定,最终遏制新技术的发展。
从具体角色分工来看,政府制定规则,平衡兼顾,对安全等原则性事项采用硬法规定,对于设计形式等细节问题则采用软法规范来赋予市场主体充分积极性与活力。政府不但要运用经济,法律,行政等多样化的手段进行宏观调控,培育人工智能市场,同时也要加强对微观主体的规制与监督,守住市场底线。人工智能企业作为发展技术的最重要动力,在追求经济效益的同时要自我规制,接受他人监督,维护社会效益。现代发达的市场需要市场中介或者第三方机构的介入,他们是公共部门的助手,同时也具有一技之长,可参与对人工智能企业的技术认证,审计监督等多方面的专业规范。社会公众则主要从用户的视角对企业、对第三方及政府的履职进行全方面的监督。
3.2 构建全方位的防控体制
人工智能是影响面广的颠覆性技术,不同于农业与工业仅在物理空间的变革,人工智能还在虚拟空间中有革新。因此在设计制度的时候应具有前瞻性与针对性,从内外两方面着手,构建全面的风险防控体系。
其一是从人工智能运作的内部着手,主要目标是提高人工智能的透明度。具体来看,生成式人工智能的研发者与技术提供者应该充分了解人工智能系统的运作原理,性能与缺陷,并且向用户客观全面完整的陈述本产品与服务的情况以及可能的影响。而作为技术提供方,应该确保内容生成式人工智能运作全程可追溯,减少乃至消除算法黑箱。
其二则是通过外在主体对人工智能进行监督与限制。首先对人工智能企业而言,可设立人工智能“风险安全官”角色,其职责既要在风险议题上对企业高层决策者负责,同时也要与公共的安全部门保持沟通。其次要充分发挥市场中介组织,第三方专业机构的专业监督作用,通过认证,审计等程序对人工智能企业的合规进行监督。人工智能行业内的上下游以及关联企业间,也应该在自己的业务需求范围内对该人工智能企业的风险状况予以监督。最后广大社会公众应有权基于对自己利益或者社会公益的维护而时刻全方位进行监督以应对人工智能发展所带来的全局风险。
3.3 加强人工智能伦理的框架设计
人对人工智能最深层次的担忧在人机关系层面。学者担忧人工智能不但将破坏人类文明所依赖的自然语言与人脑结合的这一社会基础,最终使得人类失去对于未来走势的决策权,更可能出现罗素提到的“地球脑的觉醒”。如果真正诞生了硅基智能,不受目前碳基生物规律的限制,那么未来的社会形态将会全面颠覆。
有人认为上述猜想是危言耸听,但从ChatGPT系列的代际变化观察,随着其受训练数据增加及算法模式优化,成果出现显著变化,具体来看是认知从文本到图像,逻辑性大幅度提升,甚至可以自我编码等类似“自我意识”的能力。因此当其接触的信息足够大,很可能会出现质量跃升,甚至出现意识。在现在ChatGPT等人工智能运行过程中,已经出现部分不可解释现象,这足以引起我们的警惕。
我们无法真正预测未来,但是我们必须做好准备。2021年9月,国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》,提出“增进人类福祉、促进公平公正,确保可控可信”等六项基本要求及针对研发,管理等特定活动的十八项要求。2022年10月,外交部发布了《中国关于加强人工智能伦理治理的立场文件》。国内学者普遍认为应该构建法律、自律等多元互动规制体系来保障人工智能可行可控。
人工智能带给人类无限便利的同时暗藏危机,加强人工智能伦理的框架设计是风险防控体系的内核要求。我们应有充足的预见性,坚持伦理先行,建立并完善人工智能伦理准则、规范及问责机制,明确人工智能相关主体的职责权和边界。未来要主动将伦理规范融入到人工智能研发、应用的各个环节之中,确保可审核、可监督、可追溯、可预测、可信赖。要重视人工智能伦理与人类未来的发展研究,建立严格的科技伦理审查制度,评估与管控风险。最后从政府、企业,到中介机构、社会公众等形成共识,树立风险底线思维,提高处置极端情况的能力。通过以上努力,确保人工智能安全可靠,可控,赋能全球发展,增进人类福祉。
4 结束语
以ChatGPT为代表的内容生成式人工智能是一次重大的新技术变革,其促进社会全面发展的同时也对人类造成全方位冲击。短期来看,人工智能的问题可能是人与人之间的矛盾,可以通过对著作权、信息安全、内容质量等具体问题的法律调整应对,人类应对过往社会变动的经历使得自身富有底气。但是技术快速迭代存在失控的危险,未来或许演化为人与机之间的矛盾,这是全新的调整。我们须有前瞻性,通力协作扬长避短,形成我国人工智能发展“全国一盘棋”的局面。为防控人工智能已知或未知的风险,需尝试构建全方面的风险防控体系。而坚持伦理先行,加强人工智能伦理的框架设计是风险防控体系的内核要求。勇敢抓住机遇,妥善应对风险,最终让社会安全享用技术带来的红利,增进人类福祉。
参考文献:
[1] 唐林垚.具身伦理下ChatGPT的法律规制及中国路径[J/OL].东方法学:1-13[2023-05-16].
[2] 袁曾.生成式人工智能的责任能力研究[J/OL].东方法学:1-16[2023-05-16].
[3] 商建刚.生成式人工智能风险治理元规则研究[J/OL].东方法学:1-14[2023-05-16].
[4] 於兴中,郑戈,丁晓东.生成式人工智能与法律的六大议题:以ChatGPT为例[J].中国法律评论,2023,No.50(02):1-20.
[5] 舒洪水,彭鹏.ChatGPT场景下虚假信息的法律风险与对策[J].新疆师范大学学报(哲学社会科学版),2023,44(05):124-129.
[6] 王兰仲.从ChatGPT看人工智能的突破与隐忧[J].金融博览,2023,(04):18-20.
[7] 王洋,闫海.生成式人工智能的风险迭代与规制革新——以ChatGPT为例[J/OL].理论月刊:1-11[2023-05-24].
[8] 王迁.ChatGPT生成的内容受著作权法保护吗?[J].探索与争鸣,2023(03):17-20.
[9] 聂童.ChatGPT生成式人工智能的法律风险及合规[J].互联网天地,2023(03):29-33.
[10] 尹雨璇.ChatGPT逻辑解构及带来的机遇和风险[J].互联网天地,2023,No.231(03):24-28.
[11] 马长山.人工智能的社会风险及其法律规制[J].法律科学(西北政法大学学报),2018,36(06):47-55.
[12] See FLI, Pause Giant Al Experiments: An Open Letter, https://futureoflife.org/open-letter/pause-giant-人工智能-experiments/ ,last visited on March 30, 2023.
[13] See OpenAl , Introducing ChatGPT, https://openai.com/blog/chatgpt/,last visited on February 27, 2023.
[14] 冯晓青,潘柏华.人工智能“创作”认定及其财产权益保护研究——兼评“首例人工智能生成内容著作权侵权案”[J].西北大学学报(哲学社会科学版),2020,50(02):39-52.
[15] 吴汉东.人工智能生成作品的著作权法之问[J].中外法学,2020,32(03):653-673.
[16] 习近平在中共中央政治局第九次集体学习时强调 加强领导做好规划明确任务夯实基础 推动我国新一代人工智能健康发展[J].党建,2018(11):1+19.
[17] 张凌寒.深度合成治理的逻辑更新与体系迭代——ChatGPT等生成式人工智能治理的中国路径[J].法律科学(西北政法大学学报),2023,41(03):38-51.
红包分享
钱包管理

