第三,发展经济是实现人权的物质基础。
当然,在现实生活中,老年人是否继续参与劳动以及采取何种参与方式,都取决于他们的个人意愿与身体健康状况,社会各界应当尊重老年人的自我决定权。健康权是每个公民都应享有的基本人身权利。
2016年通过的《国民经济和社会发展第十三个五年规划纲要》则将积极应对人口老龄化设为一章。为防止算法在无形中剥夺老年人的劳动权,国家应加强算法规制,并引入独立的第三方机构对算法及数据收集进行评估,避免算法歧视的发生。人口老龄化带来了丰富的银色人力资源,推进银色产业蓬勃发展、充分发挥老年人余热,能够助力社会管理创新与和谐稳定。首先,受经济条件、生活习惯、对新生事物的接受程度等因素影响,老年人群体无法平等地接触或使用智能设备,在社会其他群体和老年人群体之间将形成一道银色数字鸿沟。为了落实这些政策,国务院办公厅专门印发了《老年教育发展规划(2016—2020年)》(国办发〔2016〕74号)、《关于制定和实施老年人照顾服务项目的意见》(国办发〔2017〕52号)、《关于推进养老服务发展的意见》(国办发〔2019〕5号)、《关于促进养老托育服务健康发展的意见》(国办发〔2020〕52号)等规范性文件,通过构建积极老龄化的政策体系来释放老年人的消费需求、推动开发老年人力资源、促进老年人更多地参与社会。
一些老年人受限于经济条件和学习能力,在信息的获取和技术的应用方面处于不利地位,由此成为数字时代的弱势群体。(一)提升老年人内在能力的法治保障个体的内在能力是个体生理能力与心理能力的综合。但这一主张显然并不利于相关技术与产业的发展。
(3)数据跨境安全方面,用户与生成型人工智能模型的海量交互数据如果是跨境产生的,则会引发数据跨境安全问题。更重要的是这些模型通常设置了随机元素,意味着它们可以以不同的输出应对同一个输入请求,使得ChatGPT看起来更加栩栩如生。如《算法推荐管理规定》明确其调整的应用算法推荐技术,是指利用生成合成类、个性化推送类、排序精选类、检索过滤类、调度决策类等算法技术向用户提供信息。(1)深度合成信息内容安全问题相较过去更为严峻。
第一, 深度合成治理需要在算法治理基础上做出延伸和迭代。另一方面在深度合成治理的探索中,逐步形成通用人工智能立法的经验,为未来统筹算法、算力、数据的人工智能治理作出更多有益尝试,是目前深度合成治理路径的最佳选择。
正如专家调查了欧盟现有的治理方案之后得出的结论:人工智能将重新需要一个灵活和反应迅速的治理框架,以最大限度地提高其重新应对不断变化的风险和问题的能力。如算法机制机理的备案说明、特征库和标签制度等,应结合深度合成的新技术发展与应用场景做出相应调整和改进。欧盟通过对《数字服务法》的修订,要求平台进行深度合成标注。任何可用于任何高风险应用的通用人工智能系统,如就业、医疗、信用评分、行政、执法都必须初步遵守《人工智能法》对高风险系统规定的全部义务。
如2020年的《网络音视频信息服务管理规定》明确提出对基于深度学习、虚拟现实等技术,具有媒体属性或社会动员能力的音视频信息服务展开安全评估,对非真实音视频信息进行标识。生成型人工智能具有一定通用性,是否延续传统对人工智能的分级分类方式进行治理?目前欧盟就面临着这个问题。对于使用AIGC(人工智能生成内容)为他人提供服务的专业用户,如使用ChatGPT撰写法律文书,用AI绘画提供设计装饰服务,使用生成型人工智能编码或提供教育服务等经营活动,应承担人工智能生成内容的标识义务。在算法监管本身调整对象就有较大局限的情况下,深度合成作为未来技术发展重要领域的人工智能技术和应用,难以被算法规范有效涵盖。
例如,代码的编写和网络攻击本身具有专业门槛,网络安全攻击在大众眼中仍是专业技术。三是深度合成的生成型人工智能需要海量数据进行训练,而数据的汇聚和量级本身就被认定为具有较高风险。
这都需要网络安全技术、监管技术的全面升级以更好地加强监管。(二) 维度拓展:从平台问责到产业治理我国《深度合成管理规定》已经将治理的触角向技术支持者和用户延伸,但平台问责仍然是深度合成治理的主要抓手。
人工智能发展到2010年,基于深度学习技术获得了显著成效,同时社会的数字化转型也使得社会数据资源显著增长,人工智能的发展才开始进入全面爆发期。我国在个人信息保护和数据立法领域,可以说与欧盟、美国并行,在算法治理和深度合成治理领域则成为一定意义上的领跑者。第一, 深度合成的生成内容监管。我国在信息内容安全领域已经具备相较于其他国家更多的实践经验,坚持分层治理,尤其是加强生成内容的专门化治理,可避免合规成本过高阻碍深度合成产业的发展。深度合成的概念与治理挑战深度合成在我国法律法规中已经采用,具体代指生成合成类人工智能的技术概念。一方面在算法监管的经验与框架中,继续推进深度合成的治理。
摘要:以Deepfake、ChatGPT、元宇宙等为代表的深度合成技术与应用场景,极大地改变了信息获取、人机交互的方式,并成为未来数字空间的基础性技术。可见,《深度合成管理规定》的调整对象深度合成既指深度合成服务,也指深度合成技术。
未来,黑客发动网络安全攻击将如同顽童投掷石子一样容易,这也意味着重要数据、关键信息基础设施等可能面临着网络安全防范资源的严重不足的重大挑战。如欧盟立法面临着《人工智能法》《通用数据保护条例》《数字服务法》等法规协调的问题。
(1)数据安全方面,深度合成的预训练大模型促进了合成数据产业的发展,深度合成技术可以模拟真实用户数据并规避高昂的隐私合规成本。(1)保障急用先行一向是我国立法的一条重要经验。
但目前深度合成总体应如何做分级分类的定位尚不明晰。我国深度合成的治理应适应中国本土亟需发展生成型人工智能产业的需求,同时发挥中国既有的信息内容治理优势,以形成在全球更具影响力的深度合成治理法律制度体系。我国的深度合成治理中有关信息内容安全的监管措施应严格执行,继续要求AIGC技术与服务提供者在相关的人工智能自动生成内容中履行添加可识别水印或有效警示信息的义务,在源头上实现人工智能自动生成内容的可识别性。(2)深度合成会极大地降低专业知识与特定技能的获取门槛,显著扩大网络安全风险的范围,提高安全风险的等级。
既应发挥中国既有的深度合成治理优势,根据生成型人工智能技术特点更新监管逻辑,基于生成型人工智能技术的通用性实施全链条治理。因此本文不采用人工智能概念作为讨论对象,而采用可明确具体功能的深度合成概念。
深度合成是人工智能的具体领域,它以人工智能深度学习为方法,合成逼真内容为目标。在当前我国的治理逻辑中深度合成主要被定位为算法,聚焦信息安全。
精准选定和界定概念是科学研究展开的前提。深度合成的发展对为其提供基础计算工具和环境的数据中心算力以及服务器硬件设备提出了新的要求。
逼真的合成效果打乱了人类认知的两个底层逻辑:其一是认为人和机器有着本质区别。否则,过于强调绝对的信息内容安全,会阻碍深度合成产业的发展。虽然目前法规中列举的深度合成应用未必能够当然涵盖预训练大模型技术,但由于预训练大模型技术同深度合成技术的功能和原理大致相通,因而我们可以通过法解释,将预训练大模型技术纳入《深度合成管理规定》的调整范围。但在深度合成成为人工智能的重要领域,甚至逐渐走向通用人工智能的趋势下,仅将其以算法信息服务之一作为调整对象难以适应该领域技术的应用发展。
这种功能式的列举可容纳未来的技术发展,包括目前的生成合成类算法、生成型人工智能、AIGC(人工智能技术生成内容)应用等。本文论述围绕我国深度合成治理的监管理念和未来走向展开,讨论其治理迭代路径,监管工具、责任链条,以及分级分类和技术、产业、应用分层的多维治理制度构建。
网络信息内容的生产经历了此前Web1.0、Web2.0时代的PGC(专业生产内容)和UGC(用户生产内容),代表人工智能生成内容的AIGC是新一轮内容生产方式变革,AIGC内容在Web3.0时代也将出现指数级增长。如达到一定量级的个人信息处理如果发生重大网络安全事件,在我国法律体系中被列为与重要数据安全事件同等级别的事件,《关键信息基础设施条例》明确将二者并列。
(3)生成类人工智能将成为新的流量入口,基础模型依赖互联网上公开的训练数据,持续训练需要不断与用户互动输入数据,国家、地区、语言的既有优势将被持续强化,地区间数字鸿沟将进一步加大。本文的讨论区分应用概念与技术概念。