我校2015级民商法专业硕士研究生马然在最高人民法院第二批法律实习生工作总结中获评“优秀法律实习生”。
“法律实习生制度”是最高人民法院为加强与法律院校交流合作,创新法治人才培养机制,面向全国高等法律院校和法律研究机构接收法律实习生的制度。第二批法律实习生是从全国79所院校的150余名研究生中层层遴选,最终接收了41所院校的55名实习生,我校马然同学成功入选,进入民四庭实习。实习期间,马然同学工作表现突出,成绩显著,庭内领导和指导老师均给予较高的评价,获得“优秀法律实习生”称号。
目前,最高人民法院第三批法律实习生报名推荐工作已经开始。
中共六届六中全会(扩大)主席团成员。 资料图片 延安整风运动时期,全党范围内开展了普遍的马克思主义教育。资料图片 中共七大会场。 资料图片 习近平总书记强调,要加强干部教育培训,使广大干部政治素养、理论水平、专业能力、实践本领跟上时代发展步伐。近日,中共中央办公厅印发了《全国党员教育培训工作规划(2024—2028年)》。干部教育培训工作作为建设高素质党员干部队伍的先导性、基础性、战略性工程,是新时代加强党的全面领导、改进党的建设的重要方式。党在历史上对干部教育培训工作始终常抓不懈、常抓常新,尤其是在延安时期,随着中国革命向纵深化发展,革命形势、队伍建设、发展需求等方面也同步发生了重大变化,干部教育培训工作在这一阶段逐步向系统化、规范化、正规化方向发展,呈现出鲜明的政治性、革命性、教育性等特质,开了中国式现代化干部教育培训工作的先声。 中共中央到达陕北后,由于革命形势与政治环境发生的重要变化,党的建设需要更具有紧迫性、全面性。但在全国抗战初期,党的干部大约只有2万余人,干部匮乏对这一时期革命任务发展产生了严重影响。张闻天曾专门指出,“干部的极端缺乏——各方面要,无法应付”。与数量上的不足相对应,干部能力不足的问题也日渐突出。这一时期的革命斗争形势极其复杂激烈,革命根据地同时面临革命与建设的双重任务,由此导致干部需要由无产阶级革命者向革命者与建设者的双重身份进行转变,干部队伍整体的思想政治觉悟、革命理论水平、教育文化素养及实践工作能力亟须全面提升。对此,中共中央到达陕北后立即恢复因长征停办的“马克思共产主义学校”,并将其正式命名为“中共中央党校”,于1935年11月中旬正式复校复学。同时,为应对革命发展的现实需求,中共中央政治局特此提出以培训“群众的、军事的、党的、政治的四种人才”为主要目标的干部教育培训工作要求,表明了党的干部教育培训工作向专业性、综合性、精准性发展的客观要求。1937年5月,毛泽东同志在中国共产党全国代表会议上指出,“指导伟大的革命,要有伟大的党,要有许多最好的干部”。随着全面抗战的爆发,中国革命的发展变化赋予了党的干部教育培训工作以重要的历史责任与使命。1937年10月,毛泽东在《目前抗战形势与党的任务报告提纲》中提出了“从苏区与红军的党走向建立全中国的党”这一战略任务。在1938年9月召开的中共六届六中全会决议中提出“必须加紧认真地提高全党的理论水平”,要求自上而下一致努力学习马克思、恩格斯、列宁、斯大林的理论,灵活地把马克思列宁主义及国际经验应用到中国每一个实际斗争中来。自此,延安时期的干部教育培训工作逐步向正规化、现代化方向迈进。这一时期,党的干部教育培训工作集中凸显出以下特点。 在顶层设计方面,制定并实施相关法律与政策,确保干部教育培训工作有法可依、有令可循 1939年4月公布的《陕甘宁边区抗战时期施政纲领》中,要求“实行干部教育,培养抗战人才”。1941年5月颁布实施的《陕甘宁边区施政纲领》中规定“加强干部教育”,“实施公务人员的两小时学习制”。1943年2月公布的《陕甘宁边区简政实施纲要》在“统一干部管理,调整和提高干部”章节中,分析了边区各级干部中诸如缺乏文化知识和独立工作能力,存在狭隘经验主义、宗派主义甚至思想意识腐化蜕化等问题,要求改造行政学院为区县级干部学校,并在重新制定学习计划与学习材料的基础上,坚持贯彻整风的思想教育。同年5月颁布的《陕甘宁边区政务人员公约》中确立了“努力学习,学而不厌,诲人不倦”的干部准则。上述法律法规分别从宪法性规章、政府规定、行为公约等方面对干部教育培训工作进行了确认,赋予了其法律价值与效力。 与上述法律法规相对应,关于干部教育培训工作的相关要求大多以党内政策文件的形式颁布实施。例如,1939年3月,中央干部教育部制定《延安在职干部教育暂行计划》,针对不同的干部分类实施教育培训;1940年1月、3月,中共中央书记处分别发出《关于干部学习的指示》《关于在职干部教育的指示》,中央宣传部先后发出《关于加强干部策略教育的指示》《关于抗日根据地在职干部教育中的几个问题的指示》《关于提高延安在职干部教育质量的决定》等相关文件;1941年12月,根据世界反法西斯战争和中国抗战形势的重大变化,中共中央提出“积蓄力量,恢复元气,巩固内部,巩固党政军民”的方针要求,其中重要内容即在于加强干部的教育培训工作。随后通过的《中央关于延安在职干部学习的决定》《中共中央关于延安干部学校的决定》《对目前党校的整理办法》等相关制度文件,进一步明确了干部教育培训的工作要求、培训计划、指导思想等相关内容,对于整合教育教学资源、提升培训育人实效、优化教师学员队伍等方面起到了重要的推进作用。与此同时,根据中共中央的工作指示,各革命根据地也紧跟延安步伐,借助整风运动的形势相继出台系列文件,进一步加强了干部教育培训工作整顿,如晋察冀边区发布《关于目前各地干部教育的决定》(1940年1月)等。 这一时期关于干部教育培训工作出台了大量的法律制度和政策文件与中国共产党强化党的政治建设、思想建设、组织建设、作风建设、纪律建设密切关联,凸显了中国共产党在逐步从小党发展为大党、从局部执政到创立新中国、从无产阶级革命向社会主义建设过渡等一系列深刻转变的过程中,关于如何培养干部、为谁培养干部、培养什么干部等问题的探索与回答,指明了干部教育培训工作的基本方向和主要内容。总的来看,延安时期是中国革命发展的关键转型期,也是中国共产党积累治国理政经验的重要时期。在中国革命的语境中,这些宏大的历史背景与革命任务要求干部教育培训工作客观上承担着解放人、改造人、培养人的重要功能,而这一功能要求必然是长期性、根本性、革命性的,需要在政治和法律的双重作用下保证实施效果。 在教育原则方面,着重突出问题导向和实践导向,推动马克思主义基本原理与中国革命的具体实际相结合,力求教育走深走实 针对干部队伍整体理论弱化、实践虚化及观念偏差等问题,延安时期干部教育培训的覆盖面不断扩大,培训群体的类型、层次、内容也不断得到提升。据李维汉回忆,1937年5月,仅在中央党校培训的干部学员主体上至少囊括了红四方面军干部、陕北干部、老干部、高级干部、少数民族干部、抗大党员、白区学运干部、工农以及文化水平较低的干部等群体。这一时期人员分级分类教育体现出因需施教、因材施教的工作理念,也表明了干部教育培训工作逐步系统化的态势。 鉴于文化程度、工作性质、学员结构等差异,这一时期贯穿干部教育培训工作的主线是依靠科学理论指导科学实践活动,其主要内容是围绕马克思主义的基本理论及其在中国革命中的具体运用。中共六届六中全会把学习提升到关系党的根本目标的战略高度,毛泽东在会上提出了实现马克思主义中国化的伟大任务,他强调,“学习理论是胜利的条件”,并向全党发出开展学习竞赛的号召。张闻天着重说明了“理论联系实际”的深刻内涵,即加强马列主义的革命精神与方法的教育,用实际问题来说明马列主义的原则。会后,中央党校在课程设置上着重突出了马克思主义理论与党的建设相关内容的学习。例如,将党史、党建教育摆在干部教育培训的重要位置,在开展“联共(布)党史”学习的同时,由陈云讲授《党的基本组织原则》《组织工作与领导方法》《支部工作》,谢觉哉讲授《中国共产党》《党员》等专题。在中共中央《关于干部学习的指示》中,再次强调全党干部都要学习和研究马列主义的理论及其在中国的具体运用;在《关于办理党校的指示》中,明确了党校的基本任务是“以马克思列宁主义理论与实际教育干部”,教学的中心目标是“求得理论与实际的一致”。1941年5月,毛泽东在《改造我们的学习》报告中提出,干部教育培训“应确立以研究中国革命实际问题为中心,以马克思列宁主义基本原则为指导的方针,废除静止地孤立地研究马克思列宁主义的方法”。同年12月,《中共中央关于延安干部学校的决定》重点纠偏了在干部教育培训工作中存在的教条主义、主观主义、本本主义等错误倾向,强调学习马克思主义理论是为了解决中国革命的实际问题,而不是各种原则的死记和背诵,要求加强对国史、国情、党史及政策的教育,“使学生既学得理论,又学得实际,并把二者生动的联系起来”。 上述教育实践凸显了干部教育培训工作中的政治导向和科学属性。其深刻价值在于,中国共产党在彼时历经二十余年的艰苦奋斗后,需要建构出一套符合马克思主义理论与中国革命实际的话语逻辑和实践范式。这一“结合”的过程并非“话语再造”或“概念重塑”,而是逻辑契合、内容互嵌、语用融合的,具有对中国革命实践进行正确引领和科学阐释的功能,由此体现了党在干部的思想引领、价值规范、行为塑造等方面力图实现一体化、本土化的实践倾向。 在教育内容方面,坚持解决思想问题与实际问题、提升革命素养与建设能力同步进行,为革命转型奠定了基础 毛泽东在创办党的历史上第一所干部学校——湖南自修大学时,即明确了思想教育与知识教育相结合的教学要求。可以说,党的干部教育培训工作在开展之初就具有实现思想解放与人的解放双重功能。为了实现这一目标,党的干部教育培训迥异于旧式的私塾教育,也不同于资本主义学校的“文明教育”,其鲜明地体现出阶级性、实践性和革命性等特征。历经多次调整和优化,延安时期的干部教育培训工作在教育内容上,主要分为四类:一是业务学习。从事党务、政治、宣传、组织、经济、卫生、民运等各个部门的干部均要开展业务学习,学习内容囊括相关业务知识、政策法令、工作经验、相关历史及科学知识等方面。二是政治学习。包括时事教育和一般政策教育,主要以报纸、时事报告、时事讨论会等形式进行。三是文化教育。涵盖了国文、数学、历史、地理、自然知识和政治常识等方面的学习,例如徐特立、廖承志等人就在中央党校讲过自然和地理课。四是理论教育。主要包括马克思主义世界观教育、党的宗旨和党性教育、具体科学理论学习等方面。这四类课程有机结合、互相嵌入,形成全面提升思想教育、知识水平及能力培养的教学体系,着力在通过革命活动实现人身解放的同时,以教育培训的形式使党的广大干部自觉融入人民革命中,从“灵魂深处”找寻和践行中国革命的使命与责任。 为提升教育教学实效,延安时期党的干部教育培训工作在教学过程中与现代教育进行对接,对教育环节进行了深度优化,建立起科学的教学体系。首先,在教学理念上,对不同层次、不同需求、不同类别的干部教育培训工作思路进行了统一,即通过将学习与工作放置在同等地步,构建了全党上下一起学、在战斗和工作中学、党校集中学和“见缝扎针”学的教育工作理念。其次,在教学管理上,建立了一系列常态化学习的制度,切实保障干部教育培训工作严格规范、行之有效。一是设立学习节,加强学习的普及化、大众化、常态化。自1940年起,确定每年5月5日为“五五”学习节,专门对干部教育培训工作进行总结和表彰。二是规定固定的学习时长。要求党员干部在不妨碍业务工作、战争、身体健康等情况下,一律坚持每日两小时学习制。三是成立学习小组。将文化理论水平相近的同一单位干部进行编组,分类开展学习研讨、互促互学。四是建立讲授辅导制度。以设置学习小组指导员、巡回教育站、顾问团等形式,广泛开展学习指导和答疑解惑工作。五是实行定期测验考试。以日常考查、临时测验、学期考试、毕业考试等多种形式强化教育观测和监督学习。六是建立考核评定制度。以政治鉴定或组织鉴定衡量学员党性修养,以学业鉴定审核党员学习成绩,加强过程管理和成效考核。再次,在学习方式上,主要以自学、讨论、座谈、讲课等形式为主,注重精学、细学、研学、联系党史与实际问题学,促使干部教育培训学讲结合、学懂弄通、真学真用。尤为重要的是,通过自上而下和自下而上相结合的方法,使广大党员干部将历史与现实、个体与社会、局部与整体等不同层面的问题进行了全方位、多角度、系统化的学习,真正融入党的思想路线和方针政策中,建立起统一的思想认知和规范认识。 事实证明,坚持不懈用党的创新理论凝心铸魂、强基固本是党的建设的重要经验,也是干部教育培训工作的内在要求。回溯延安时期的实践经验,主要着力于为新时代干部教育培训工作科学体系的构建提供“一泓清泉”,在新的历史方位中,干部教育培训工作更需要着眼于为党育人、为国育才的宏伟使命,以深入学习贯彻习近平新时代中国特色社会主义思想主题教育为主线,全面提高干部素质和能力。 〔本文系2022年度国家社科基金重大项目“延安时期中国共产党防范化解重大风险研究”(22&ZD025),2020年度国家社会科学基金青年项目《延安时期中国共产党的群团组织建设经验及其当代启示研究》(20CDJ005)的阶段性成果〕 (作者单位:西北政法大学马克思主义学院) 【人民法院报】延安时期干部教育培训工作的实践探索 https://rmfyb.chinacourt.org/content/202503/21/article_968592_1390963239_5947844.html
2025-03-21从微信、微博、抖音,到游戏账号、电子会员……在当下“全民触网”的时代,人们生活的大多数场景都“嫁接”于网络上。甚至很多情感链接,也深度依赖网络媒介。 然而,近日一网友因去世近10年的父亲的微信账号被平台回收而发帖“求助”,引发了一场“数据热”背后的冷思考。 “……我和爸爸在世界上唯一的联络方式彻底消失了。”面对该网友的遭遇,其他网友也纷纷分享自己“遗失”网络账号的经历,有人担忧自己已故亲属的社交账号迟早会被收回,甚至有人紧急为自己的各种网络账号备份。 身处移动互联网时代的人们,需要一份“账号安全感”。 ■ 虚拟账号并不“虚” “我从大二注册微博后,就一直在上面记录并分享自己的生活瞬间。但工作后的第二年,账号竟然被盗了。后来我通过官方渠道找回了账号,可里面的内容被清空了。”3月12日,回忆起自己的“倒霉”往事,在西安上班的山东人杨天祎连连叹息,她说,“那一刻,感觉自己的青春被人偷走了。” 像杨天祎一样,如今在很多人眼里,网络上的虚拟账号并不“虚”,哪怕与具体的金钱利益不挂钩,但镌刻着时光、承载着情感记忆和智慧结晶的网络账号也具有十足的价值。 “随着互联网的深度普及以及区块链等新兴技术的迅速发展,如何妥善保护网络虚拟财产、平衡各主体间合法权益是我们必须面对和解决的问题。”西北政法大学民商法学院副教授国瀚文解释,网络虚拟财产主要指依附于网络虚拟空间、以数字化形式存在、具有一定价值的,在特定群体中传播和使用的信息产品。目前,其法律属性已得到确认——我国民法典第127条规定:“法律对数据、网络虚拟财产的保护有规定的,依照其规定。” 国瀚文解读,我国民法典从法律层面确认了数据和网络虚拟财产具有作为价值载体的财产属性,就意味着个人网络账号作为网络虚拟财产的一种形式,是受到法律保护的。 ■ 数字遗产能继承吗? 国际电信联盟发布的《2024年事实与数据》报告显示,2024年,全球估计有55亿人使用互联网。 如此庞大的网民规模,已故人士网络账号如何处置以及数字遗产能否被继承等问题引发关注。 记者查阅到,国内某社交平台服务协议明确,为避免造成资源浪费,用户注册或创建账号或功能账号后如果长期不登录,平台有权回收该账号,由此带来的任何损失均由用户自行承担。 “目前大多数社交平台在用户服务协议中会明确表示账号所有权归平台,用户仅有使用权,同时也会禁止非初始申请注册人通过受赠、继承、承租、受让或其他方式使用。”国瀚文说,平台如此规定,一方面是基于信息管理安全考虑,另一方面是基于隐私和死者利益保护。她指出,承载着用户隐私、社交关系等的虚拟账号不能放任其处于长期“无人管理”状态,而基于网络虚拟财产不同于其他有形财产的特殊属性,也不能简单参照一般财产的继承规定对账号进行直接继承,否则可能会侵犯个人隐私和他人合法权益。 西安市雁塔区人民法院速裁庭法官李多萌表示:“身故并不意味着隐私不再重要,基于隐私保护与个人信息安全,个人社交账号,继承人一般不能直接继承,但是可以依照遗嘱继承。” 2023年度的《中华遗嘱库白皮书》显示,从2017年至2023年,中华遗嘱库一共收到488份涉及虚拟财产的遗嘱。将网络虚拟财产作为个人财产的一部分进行合理分配、管理,已成为越来越多人的选择。 另外,记者也了解到,目前已有平台规定,如用户不幸逝世,其近亲属可通过官方客服渠道联系平台,以获取相关指引来行使法律规定的合法、正当权益。 ■ 公众要提高自身权益保护意识 近几年,与虚拟账号有关的纷争屡见不鲜。 “因缺乏统一的价值认定标准,如何评估网络账号的价值是个棘手的问题。”李多萌介绍,目前的司法实践中,一些具有显而易见的经济价值的网络账号,如用户充值的游戏账号、淘宝店铺的账号、粉丝量众多的直播账号等,因能够实现网络交易变现,其价值较好判定。然而,普通群众在社交平台的个人账号,承载的更多的是情感价值,被侵权后,责任界定及赔偿等方面会存在一定的现实阻碍。 李多萌说,要想减少因虚拟账号引发的纠纷,网友需要提高权益保护意识。她建议,一方面,可以尝试通过设立遗嘱的方式,对自己名下的虚拟财产进行管理;另一方面,要避免在不安全的网络环境下登录账号,防止账号被盗,也不要随意将账号信息透露、转借给他人。 “一些重要的数据信息,可定期进行备份,以防丢失或损坏。”李多萌还提醒,公众在注册相关账号时,要仔细了解平台管理和服务协议内容,依规合理使用账号,使用中一旦发现异常,要及时与账号管理运营方沟通,万一发生纠纷,要敢于通过合法手段维权。 网络虚拟财产保护不仅是一个法律问题,还是涉及个人数字权益、网络平台运营治理、社会公序良俗、数字经济健康发展等的复杂议题。“期待不久的将来,我国能构建起既有效保护用户权益和平台利益,又兼顾网络安全和公序良俗的网络虚拟财产保护制度体系,在法治的轨道上促进网络虚拟产业和数字经济的有序发展。”国瀚文表示。 【陕西日报】虚拟账号受法律保护https://xzzsx.sxdaily.com.cn/app/template/displayTemplate/news/newsDetail/901068.html?isDigital=true&isShare=true
2025-03-21以可信为基础构建人工智能治理法律制度的必要性 人工智能技术发展突飞猛进,在诸多领域取得了令人瞩目的成就。但是,人工智能的发展,却因为技术的复杂性、风险的不完全确定性、技术滥用、法律规制的缺位等因素,还未完全赢得社会的信任。 (一)人工智能发展中还存在侵蚀其可信性的诸多因素 其一,人工智能技术发展还存在诸多可知或不可知的风险。当前,人工智能存在着失控性风险、社会性风险、侵权性风险、歧视性风险、责任性风险五个方面的伦理安全风险。其二,人工智能技术还不完全可信。(1)人工智能技术还未真正达到人们想象的发达程度,总体上还处于专用人工智能而不是通用人工智能发展阶段。(2)深伪技术加剧了人们对真实性瓦解的担忧。(3)技术安全等问题未完全解决。(4)与人工智能技术关联的问题是,人工智能的良好运行高度依赖个人信息和数据,而个人信息和数据管控本身还存在诸多问题,如App违反合法、正当、必要的原则收集与所提供服务无关的个人信息,“强制授权、过度索权、超范围收集个人信息”大量存在。其三,人工智能应用不当导致了侵权,致使人工智能不完全可信。其四,人工智能治理的技术使用还存在与其宣示的价值取向不一致的情形,损害了人工智能发展的价值基础。其五,规制人工智能的法律还不可信。 (二)人工智能法为什么要强调信任 信任,是人际关系得以长久维系的桥梁,是社会关系得以拓展的基础,是社会发展的内在条件,更是建立高效社会组织的基本前提。信任是社会合作得以进行的基础。信任成功与否取决于信任拓展范围的大小。人工智能技术的发展程度,不仅是由技术决定的,而且是由规制人工智能的伦理、法律等规范决定的。那些真正发展得良好的技术,必定也是法律保障有力、遵循了良好伦理规范的技术。 人工智能获得社会信任的法律基础 (一)人工智能的信任需要法律来保障 其一,传统社会基于血缘等关系构建了人际信任,人与人之间的信任多建立在熟人关系基础上。其二,到近现代社会,法律力图建构的是一种打破血缘关系、促进陌生人合作的普遍信任机制。现代社会共同体合作,主要建立在平等交换、契约自由基础上。其三,人工智能时代的信任须建立在人工智能技术安全、确定性的法律管控和社会伦理引领的基础上。 (二)捍卫现代法治的传统和公民的基本权利系确保人工智能可信的关键 人们对人工智能技术的信赖,建立在人工智能技术的安全性、保障和规制人工智能的法律制度的正当性、规制人工智能发展的制度的价值正义性、人工智能技术的实践运作对人类基本价值追求和人的基本权利维护的有效性的基础上。在支撑人工智能信任的技术维度、法律维度、伦理维度和实践维度中,最为关键的是为人工智能发展设定法律监管标准。 可信人工智能法律构建的伦理基础与可信特征 包括我国在内的许多国家均将“可信”作为人工智能的核心伦理原则,而“正当性”则是保障人工智能可信法律构建的基础。 (一)正当性是保障人工智能可信法律构建的伦理基础 全球关于人工智能治理可信问题的关注最初是在伦理文件中表达的。虽然存在一些争议,但是国际社会在“可信赖的人工智能”“负责任的人工智能”等核心理念上可能会达成一致。可信被很多国家人工智能伦理确认为了一项基本伦理原则,这一原则的提出,是为了解决人工智能的价值对齐问题,即确保人工智能的目标与人类的目标一致,使其“行为和决定符合人类的价值、目标、道德考量”。但是,单纯从伦理准则角度构建人工智能的可信存在诸多问题:(1)全球关于人工智能治理存在诸多争议,不同准则之间的冲突日益凸显,如“普惠发展与隐私保护”“安全可靠与非歧视要求的冲突”等;既有准则规范可能由私人部门提出,实际上是抵制政府监管的借口等。(2)作为伦理准则的可信标准,主要是一种倡导性、自律性准则,缺乏有效的监督执行机制,强制性程度不足;准则的表达多采概括性概念,可操作性不强。因而,国家立法所要做的工作就是,将伦理准则转化为法律准则,并通过更加具体的技术规则和法律规则设计,保障可信准则在人工智能产品或服务的研究、开发、设计、部署、使用、监管等具体环节得到落实。 (二)现行可信人工智能的评估标准 何积丰院士提出,人工智能的可信特征包括四个方面:(1)鲁棒性,即对未知情况具备一定的应对能力;(2)自我反省,即对自身性能或错误能够有所感知;(3)自适应,即能够成为通用的系统,能被应用到新的环境;(4)公平性,如应防止被不当力量训练为种族歧视的智能。有学者提出了可信人工智能系统的质量框架,包括:(1)尊重人类自治原则,含人权代理与监督。这是最为重要的原则,人工智能应当赋予人类新的权利而不是取代人类,且处于人类控制之下,不对人类基本权利或健康造成损害。(2)伤害预防原则,包括鲁棒性、稳定性、安全性(包括保密性、完整性、可用性)、可靠性、可问责性、隐私性、可重复性、准确性等。(3)可解释性原则,包括透明性、可解释性。(4)公平性原则,即确保群体或者个体不受偏见或歧视。(5)一般软件质量属性,如兼容性、可维护性、功能适用性、可移植性、性能效率、易用性等。 可信人工智能发展对法律构建提出的要求 (一)保障可信人工智能发展的多元路径与法律路径 保障可信人工智能发展的路径是多元的,大致包括四个方面。(1)侧重行业技术保障的路径。如中国信息通信研究院和京东探索研究院通过对全球范围内已经发布的84份政策文件按照词频进行梳理发现,当前人工智能治理原则已经收敛在“透明性、安全性、公平性、可责、隐私保护等五个方面”,支撑可信的技术包括“稳定性技术、可解释性技术、隐私保护技术、公平性技术、可视化技术”等。(2)技术认证的客观标准与伦理价值评价的主观标准结合的路径。(3)人工智能的风险防控路径。(4)法律、伦理、技术结合的路径。2019年,欧盟人工智能高级别专家组发布了《可信人工智能的伦理指南》,提出人工智能在整个生命周期中需要满足三个条件:合法性,即可信人工智能应当依法合规;道德性,即人工智能发展要符合道德原则、价值观;稳健性,即人工智能发展应避免造成无意的损害或负面影响。这实际上提出了保障人工智能可信发展的综合路径。 为人工智能设定法律标准,实际上是为人工智能的研究者、开发者、部署者等设定最为基本的标准,并通过法律的强制执行性推动各项标准的落实,以防人工智能的发展偏离人类追求的价值目标,实现对人工智能产业发展的规制、引领作用。 (二)可信人工智能对法律提出的期待 可信是一种文化,一种基于技术发展而形成的人对人工智能的认知和信任状态。为了保障人工智能的可信发展,法律制度的创设或者调整应当遵循一系列外在准则和内在准则。 1.可信人工智能法律构建应遵循的外在准则 外在准则构成了人工智能发展的国家社会目标,意在维护国家社会的福祉和法律的基本价值,是人工智能长远发展的基本准则。外在准则主要是一种理念,它无法通过人工智能技术而直接得到落实,但它可以成为评判人工智能技术发展是否正当的元准则,是人工智能发展的总的引领性准则。 其一,以人为本,捍卫人的基本权利。人工智能立法坚持以人为本,就应当保护个人信息和数据等数据权利,保护人格权、人的自主决策(自治权)和人类的主体性,还应当重视对社会弱势群体的权益保护。发展以人为本的人工智能,既应从技术发展的角度来设定制度,还应从人的基本权利的角度规制人工智能技术。以人为本还应当认真考量新产业发展对传统产业带来的冲击,如人工智能发展对传统产业领域的就业替代,就是一个需要高度关注的问题。以人为本的理念与宪法确定的人的基本权利之间具有密切的联系。 其二,人类主导原则。人类主导原则是从人与机器关系的最终意义上说的。因为人工智能在很多方面代替人进行道德选择和决策,但智能系统要为人类做决定,不能脱离人类伦理指导。当人工智能的决定不符合人类需要的时候,人类可以取代人工智能做出决定。人类主导原则还要求,人工智能的设定,还应当尊重国别文化的多元性、尊重个体差异,并采取措施防止“人类对机器人的过度依赖”。 其三,技术中立原则。技术中立原则是设计人工智能法律制度时应遵循的一项前置性原则。例如,如果在交通事故中对普通驾驶人按照过错责任进行归责,而对人工智能汽车采取严格责任原则予以归责并要求车主承担交通事故责任,那么就背离了技术中立原则,而适用过错原则可能是妥当的。 2.可信人工智能法律制度构建的内在准则 内在准则主要是法律技术性准则,这些准则大多可通过人工智能的技术设计、改进而得以落实。内在准则构成了人工智能法律的操作性准则。 其一,透明原则。人工智能的透明,首先是为了保障公民的知情权,让人们了解人工智能是如何运作的。透明原则是为了防止人工智能被运用于不法目的或不正当目的,有助于增强人的自主性,不透明的人工智能难以获得人的信任。 其二,安全原则。首先应确保网络安全、数据安全与算法安全。(1)可信意味着必须降低人工智能风险,采用“强制性标准”对风险进行管控,且风险管控措施应符合比例原则,不能向人工智能开发者提出过高的要求(欧盟人工智能法第64部分)。(2)对风险宜进行分类管控或是分级管控。如2024年欧盟发布的人工智能法案将人工智能的风险分为四级,采取不同的限制措施。中国的人工智能法(学者建议稿)则将人工智能分为关键领域与一般领域进行管控,对关键领域进行重点管控。 其三,公平原则。核心是,在人工智能的模型训练中,排除那些明显存在或者隐性存在文化偏见、性别歧视或种族歧视的数据集。 其四,隐私保护原则。隐私被侵犯,自然人的感知最为直接,显然,一个无法保护隐私利益的人工智能,是无法被人们接受的。 其五,可问责原则。确保人工智能的部署、使用产生的法律责任是可问责的。问责是对侵权者的追责,也是对受害者的救济。 保障人工智能可信发展的具体法律制度 (一)设计、评估与测试制度 其一,设计阶段的价值对齐制度。(1)法律应当将价值对齐作为一项基本义务赋予人工智能设计者。(2)人工智能在开发阶段就应注意防止偏见和歧视。首先,识别人工智能必须遵守的伦理价值和规范,其次,将这些规范通过程序编码写入人工智能系统,最后,为了验证人工智能是否与特定价值和规范兼容,应当对人工智能的规范和价值的有效性进行评估。 其二,评估制度。人工智能开发者、提供者在开发、提供人工智能产品和服务前,可自行或委托第三方机构对数据质量、潜在偏见歧视、科技伦理审查情况、公共利益影响、保护措施等内容进行安全风险评估。 其三,人工智能的安全测试制度。(1)为了保证安全,应建立密码技术管理制度,实现可信计算和可信验证。(2)设立沙盒监管制度,强化安全测试和安全风险监管。(3)人工智能提供者对人工智能生成内容的标示制度。 (二)建立针对人工智能领域的监督制度 (1)采用“宪法性AI”的思路,用人工智能监督人工智能,用“一个从属的AI模型评估主模型的输出是否遵循了特定的‘宪法性’原则(即原则或规则清单),评估结果被用于优化主模型”。目的在于推进价值对齐,将对可信人工智能影响最大的法律原则,落实在人工智能发展技术中。虽然人工智能监督人工智能是高效的,但考虑到人工智能法律监督仅处在初期,故设置针对人工智能法律监督的人类标注员依然是必要的、重要的。(2)分级监督制度。针对人工智能决策,针对性地建立一级监督制度或二级监督制度。一级监督制度针对部分自动化决策,即把人工智能决策作为专业人员决策的支持理由,决策最终由人类来选择;此等情形下,人工智能决策是人类决策的组成部分。二级监督针对的是完全自动化决策,即在人工智能作出决定后,人类对智能化作出的决策进行监督和纠正。总之,“一级监督在决策过程中具有构成性作用,而二级监督对一级监督进行检查和控制”。(3)隐私保护监督制度。(4)权力制约监督制度。 (三)完善人工智能的责任制度 其一,人工智能的使用者为了安全、放心,当然期望人工智能的开发或销售企业能够承担起全部责任。其二,在法律责任设定上,“应辅以问责框架,包括免责声明以及审查和补救机制等,以确保在开发、部署和使用之前和之后对人工智能系统及其结果负责和问责”。其三,刑法应增设相关责任条款,将对非法访问AI或从事黑客攻击的严重行为、让人工智能运行实行犯罪的使用恶意软件的行为纳入刑法调整范围。 结语 可信人工智能治理进程中的法律制度的构建,应以技术路径为基础,融合伦理准则,沟通人工智能发展的外在准则和内在准则,捍卫现代法治传统,保障宪法确认的公民的基本权利;同时,应当处理好人工智能发展中国际性与地方性、市场逻辑和治理逻辑、监管的包容与审慎、权力制约与权利保护、道义与理性等关系。
2025-03-19