关闭
用户登录
关闭
新用户注册
*
*
*
*
        当前位置:首页 > 成员动态 >详情
生成式人工智能探析
信息来源:深圳特区报        发布日期: 2023-06-27    【字体: 放大  缩小 】

  生成式人工智能是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。以ChatGPT为代表的生成式人工智能技术产生,在极大地提升人们工作效率的同时,也在相关领域带来了诸多法律风险。目前我国虽然已经初步具备了有关人工智能的基本治理框架,但相关的理论以及实践仍在治理主体、治理规范设置、治理手段以及治理规则适用等方案上存在不足,亟须完善现有的人工智能风险治理体系,在技术创新与风险治理之间寻求平衡。学者们从不同角度对生成式人工智能进行了有益探索,本期文汇予以汇编。

  智能革命的发展需要遵循法治的轨道

  毕文轩在《比较法研究》2023年6月《生成式人工智能的风险规制困境及其化解:以ChatGPT的规制为视角》一文中认为,生成式人工智能的出现既提供了许多传统应用无法实现的经济形态,又倒逼许多传统应用进行功能上的升级和转型。例如,ChatGPT的出现就解决了传统搜索引擎搜索广告多、检索结果质量低的问题。虽然此种具有破坏性创新作用的生成式人工智能应用会对诸如翻译、搜索、润色等许多传统的应用服务造成冲击和挑战,并逐渐取代其部分甚至全部市场份额,但这却是技术革新所触发的新经济形态破坏性创新所带来的正向竞争收益,是一种值得被鼓励并可以带来消费者和社会福利整体提升的市场正常竞争行为。故而在此过程中,法律应当保持谦抑性并尽量扮演激励性的引导角色。需要注意的是,智能革命的发展需要遵循法治的轨道,技术中立也不是被滥用和侵权的借口,更不能仅以创新之名而行损害其他竞争主体、消费者以及社会公共利益的行为。因此,对于此种因技术创新所带来的破坏性创新,应当坚持包容审慎的治理原则,以将由此导致的法律风险降到合理限度内。当然,规制的目的在于降低风险但又不阻碍科技的创新发展,故而这就涉及到在二者间选取合适的平衡点。

  三方面协同推进治理

  张欣在《现代法学》2023年第3期《生成式人工智能的算法治理挑战与治理型监管》一文中认为,就生成式人工智能而言,治理型监管理念至少需要从三个方面协同推进:第一,构建科技企业自我规制与政府监管的衔接互动机制,探索共建共治共享治理新格局。科技企业是最具敏锐洞悉技术漏洞和应用风险能力的首要担当,监管生态的效能直接影响科技企业的创新动能。在透明度治理难以为继的人工智能“2.0时代”,以制度设计激发企业的社会责任和伦理坚守成为首要任务。第二,为专业性非营利组织和用户社群参与人工智能治理创造制度环境,探索符合我国发展特点的协同治理范式,促进社会监督与政府监管的协同联动。第三,培育面向生成式人工智能技术的伦理认证和评估机制,探索第三方规制框架。人工智能伦理认证是指以人工智能透明度、问责制、算法公平和隐私保护等伦理价值为基准,将高层次伦理价值观转化为可资操作的评价和方法,由第三方机构独立评估人工智能技术和产品,对符合标准的人工智能颁发认证标志,以证明其符合伦理准则的第三方规制形式。

  伦理是综合监管制度设计的基准与底线

  郭娜、彭玉婷、冯立在《当代经济科学》2021年第2期《影子银行、金融风险与宏观审慎监管有效性》一文中认为,AIGC的开发与应用作为人类科技实践活动,应当与人的目的相一致,与社会核心价值、发展目标相契合。为此,须牢固树立红线意识,划定伦理治理底线。应充分考虑社会各界对GAI(Generative Artificial Intelligence,生成式人工智能)应用的高度伦理关切,全面研判潜在伦理风险,参照国内外具有较大影响力的伦理指南,制定相关伦理治理原则,以增进人类福祉作为第一要义,负责任地开发GAI。在此基础上,根据AIGC的具体应用情境和技术条件,制定更具操作性的伦理与法律规范和行为准则。首先,应加强对AIGC各垂直领域及其特征的分析研判,识别潜在伦理风险。其次,针对应用实践,梳理各类影响因素并据此确定具体应用规范和治理指南。最后,应全流程记录规范的实施过程与结果,使规范得以动态调整并可持续地发挥作用。


图片新闻
Copyright©2020 深圳智库联盟版权所有        承办:深圳智库联盟秘书处       备案序号:粤ICP备20058290号-2       网站访问统计:-
--