「垦丁律所-人工智能法律研究部」是由所内几位对人工智能法律问题足够好奇的小火伴共同发起,部门将聚焦科技与行业动态,专注于人工智能产品研发、使用主体的合规服务,包括网络安全、数据合规和个人信息保护、知识产权与反不正当竞争和相关诉讼服务,并对各类法律法规进行研究分析。《生成式人工智能服务管理办法(征求意见稿)》发布以后,关于国内生成式AI的监管问题一直处于热烈讨论当中。这段时间我一直在参加各种关于人工智能和ChatGPT的研讨活动,也使用过一些内容生成人工智能产品,听过许多技术人员、业内人员介绍过这类产品,现将一些想法分享给大家。一、新技术产品的监管程度愈来愈遭到用户实际交互行动的影响,平台责任面临“兜底”困难以ChatGPT为例,ChatGPT的本质是一个自然语言处理机器模型,通过语言训练掌握基本规律,再基于大数据的加持,对用户的需求做出反应[1]。天津大学智算学部王博副教授用“接话茬”的例子来形象地描写了ChatGPT语言模型及其功能[2]。只不过从我们用户的视角,ChatGPT是以对话机器人的情势来面向我们提供服务的。如果单从ChatGPT的技术属性来看,我们可能会误认为它是一个互联网世界的“Siri”,在没有使用它的条件下,我们可能不太会“预感性”地对这一类产品做过量的法律风险判断。但是,用户其实不关心ChatGPT的本质是一个甚么样的东西,由于在用户看来这就是一个“无所不能”的对话机器人,并且为了满足用户各式各样的需求,ChatGPT也在不断“成长”。最后,用户的期待加上反复屡次的互动学习将ChatGPT推上了一个“神坛”,使之成为一个集内容搜索、内容生成、聊天文娱一身的产品(客观上,ChatGPT也的确能很大程度满足用户的这些需求)。虽然我们内心都清楚“内容生成≠内容搜索”,但实际需求和使用效果致使我们其实不能完全将ChatGPT从“搜索引擎”等角色中剥离开[3]。对此,有一点我比较困惑,如果我们依照OpenAI对产品的“生成、编辑、迭代创意”的定位[4],将ChatGPT单纯作为一个能对话的机器人,并且认为这样的人工智能具有“类人的智慧”时,那末我们会不会也能够允许它犯“类人的毛病”。例如,人与人之间各种情势的交换所转达的信息也并不是一定是准确的,我们可能由于记不清某个法条的全称,而给对方一个模糊的说法,乃至由于信息过量而产生的记忆混乱的情况。如果是这样,我们也能够容忍ChatGPT在与我们交换中产生的信息也会存在误差,需要我们去实践、去验证以后才能被进一步使用。但后来我发现这个问题,就犹如人工智能能否具有人类的“情感”、“情绪”等话题一样,是伦理层面的问题,法律规范更关注于这一产品所带来的可能的影响和效果,而不是“理想化”地去纠君子们的观念然后再去进行规制。二、类似ChatGPT的生成式人工智能产品触发较快的监管响应,其本源在于对信息传播产生极大的影响
很多人说现在应当让新技术的“子弹再飞一会儿”,但生成式人工智能对信息传播的影响之大明显已超越了以往对新技术的“容忍程度”。主要缘由我认为有以下四方面:确切的说,类似ChatGPT这样的生成式人工智能很有可能会垄断流量入口。我们现在已看到了一种“遇事未定,就问AI”的趋势了。但是,比ChatGPT更利害的是“ChatGPT+”,当许多利用和服务接入ChatGPT以后,我们或许就能够通过ChatGPT直接搜索想要的服务。我们可以天马行空一下,例如,本来我们需要通过一个个APP去看火车票、飞机票的时间、价格,来安排我们的行程,而当这些利用和服务都能接入ChatGPT的时候,我们可以直接在ChatGPT的入口输入我们的行程时间、预算等等,然后由它为我们推荐合适我们的行程安排。因而,流量入口从本来的一个个APP变成了类似ChatGPT这样的工具并且这样的工具普及以后很有可能成为一个唯一的入口。这对目前的互联网业态会有很大的影响。ChatGPT等产品是可以人为训练的。我们输入的信息都可能成为这类产品语言学习的“素材”,国内曾有学者针对ChatGPT反馈的毛病信息进行反复纠正,最后终究提供了正确答案的情况。因此,一些歹意的人极可能给这类产品灌输具有不良价值导向、包括他人个人信息的一些内容,乃至编造谎言训练这些产品。训练进程可以很隐蔽,最后输出的内容来源也很难追溯,从而增加信息安全监管的难度。原来的互联网企业通过搜集、存储、分析用户的数据来提供服务,同时服务提供者可以依照用户的意愿删除用户的数据或不再分析用户的数据(例如常常访问的页面等)来停止为用户提供个性化推荐等服务。由于ChatGPT这样的产品能从平常的与用户互动的进程中实现进一步的语言训练,因此我们一旦向这类产品提供我们的一些信息,它的参数就会产生变化,不论该数据会不会被保存,从而产生个人信息保护的问题。ChatGPT这类AI产品可以快速分析大量网络装备和软件中的潜伏漏洞。传统的手动分析方法耗时较长,而AI技术可以大幅度提高分析速度,能够帮助攻击者迅速找到目标系统的弱点。基于产品本身的标记能力和分析能力[5],也能被利用更精确地定位高价值目标,如关键基础设施、政府机关和大型企业。同时,攻击者也能利用这类产品开发出更加智能的攻击工具。因此,从ChatGPT等生成式人工智能产品的影响来看,基于这类产品本身的特性,其对现有信息传播的改变非常可观,再加上人为使用的效果(也包括滥用的效果),其带来的信息安全风险也就成为目前最亟待解决的合规风险。由于互联网领域的治理和监管已构成以平台为抓手的习惯,信息安全和治理的主要责任也毫无疑问落在产品开发者和使用者(常常是平台服务提供者)身上。
我研究了《生成式人工智能服务管理办法(征求意见稿)》里面的条款,并且梳理了自己的想法和意见,并通过线上途径提交我的修改意见,这里就不展开详述了。
固然我也拜托有权限的朋友帮我询问了GPT⑷,作为生成式人工智能中的典型代表,我也想了解一下“当事人”的想法。我让朋友帮我输入了问题“请你针对中华人民共和国网络安全和信息化委员会办公室发布的《生成式人工智能服务管理办法(征求意见稿)》里面的条文提出修改意见”,而它给出的回复以下:可以看出,“它”对自己可能的影响和需要规制的地方都有非常清晰的认识,也给了我接下来细化研究的方向。我本来担心使用类似人工智能产品会使我产生依赖感,放弃自己的思考。但我现在觉得,相比于机械地从它那里获得现成的知识,我更加享受它给我打开思路的进程。单纯将它作为一个聊天工具,可以从它那里取得知识线索,它会说出一些我之前从未接触过的知识盲点,启发我去搜索、验证更多的内容。这里援用我厂阿来律师在《法律人会是下一个李世石吗?》的直播中说的一句话来总结:AI能够发挥甚么作用,取决于使用它的人的能力和想法。参考:
chatgpt中文版 http://chatgpt.guige.xyz
维基百科:https://zh.wikipedia.org/wiki/ChatGPT
清华大学智能法治研究院微信公众号:“ChatGPT的问题、风险与机遇”会议综述https://mp.weixin.qq.com/s/neFstQ4mUbgUd4pbL8XbZQ
36Kr:《ChatGPT现象级AI利用,真要颠覆搜索引擎?》https://36kr.com/p/2036764677991431
OpenAI官网:https://openai.com/product/gpt⑷
人工智能学家微信公众号:《不经意间!发现 GPT⑷ 标注性能已超出人类:模型目标与道德行动的权衡》https://mp.weixin.qq.com/s/zDaVSAlcvASED2w6Tu5-ig
来源:程念网络法实务圈
桂{哥{网{络www.gUIgeGe.cn
本文来源于chatgptplus账号购买平台,转载请注明出处:https://chatgpt.guigege.cn/jiaocheng/29893.html 咨询请加VX:muhuanidc