《法律科学》编辑委员会第三届委员会换届会议召开

  • 2018年12月29日
  • 西北政法大学
关注西法大官网
微信
微博
Qzone
网址
打印
NaN
阅读

12月28日上午,《法律科学——西北政法大学学报》(以下称《法律科学》)编辑委员会第三届委员会换届会议在长安校区行政楼4层大会议室召开。校长杨宗科,副校长漆思、王健出席会议,《法律科学》第三届编辑委员会委员参加了会议,《法律科学》编辑部编辑和工作人员列席了会议。会议由王健主持。

《法律科学》主编韩松汇报了《法律科学》编辑委员会第三届委员会的换届筹备情况。漆思宣读了学校关于同意成立《法律科学》编辑委员会的通知和第三届编辑委员会委员名单。依据学校决定,杨宗科教授兼任《法律科学》第三届编辑委员会主任。杨宗科依据学校决定,聘请王健教授和《法律科学》主编韩松研究员兼任《法律科学》第三届委员会副主任,聘请马宁等33位教授担任《法律科学》第三届编辑委员会委员,并为他们颁发了聘书。

到会的编辑委员会委员对《<法律科学>编辑委员会章程》(草案)进行了认真审议,最终通过了《<法律科学>编辑委员会章程》,明确了编辑委员会的性质、职责、委员条件、工作方式等事项,为编辑委员会工作的开展奠定了制度基础和规范依据。

依据《<法律科学>编辑委员会章程》的规定,《法律科学》编辑委员会是西北政法大学设立的对《法律科学》的编辑出版工作进行学术指导、学术咨询和学术监督的工作机构。其职权和职责是:(一)贯彻执行党的路线和方针政策,依据《宪法》和法律,确定《法律科学》的办刊方针;(二)根据法学各学科发展方向和社会发展需要,指导编辑部制定《法律科学》的编辑计划,确定选题重点,保证期刊发文的学术创新性、科学性和规范性;(三)加强编辑、刊物与相关学科专家学者的联系与交流,增强《法律科学》与学科建设的相互促进作用;(四) 向编辑部通报学科发展和学科建设的前沿动态和学术信息,答复编辑部有关咨询;(五)指导《法律科学》提高刊物的学术质量和编辑质量,收集反馈读者意见,提出批评和合理化建议,帮助编辑部总结办刊经验,改进工作;(六)监督编辑部和编辑严格遵守学术规范和职业道德;(七)宣传《法律科学》及其刊发的文章,扩大《法律科学》的学术影响;(八)为促进《法律科学》发展所需要的其他职责。

杨宗科在讲话中对受聘担任第三届《法律科学》编辑委员会的委员表示热烈祝贺,希望各位委员珍惜学术荣誉,增强委员职责意识,切实履行编委会委员职责,为促进我校学报《法律科学》提高办刊质量,扩大学术影响,积极建言献策,作出自己的贡献。最后他从五个方面对编辑委员会委员履行职责提出期望和要求:(一)坚持正确的政治方向和办刊方向,坚持以马克思列宁主义毛泽东思想为指导,特别是以习近平新时代中国特色的社会主义思想为指导,确保《法律科学》不出现任何意识形态方面的问题;(二)坚持以学术为本,严格学术标准,指导编辑部切实把好《法律科学》刊文的学术质量,坚守《法律科学》的学术风格,维护《法律科学》来之不易的学术声誉;(三)发挥编辑委员会和委员的学科优势和智力优势,集智聚力,为办好《法律科学》建言献策,贡献善策良言;(四)要尽职尽责,但不越权,不干涉,不干扰编辑部和编辑职责范围内的事项;(五)加强学术监督,确保《法律科学》风清气正的办刊环境。同时,杨宗科也要求《法律科学》编辑部要加强与各位委员的联系和沟通,为委员履行职责提供良好的服务。(供稿:《法律科学》编辑部)

相关新闻

  • 王瀚教授受聘西安仲裁委员会第四届委员会委员

    2025年3月13日,西安市人民政府发布《关于聘任西安仲裁委第四届委员会组成人员的通知》,王瀚教授受聘西安仲裁委员会第四届委员会委员,聘期为2024年12月4日至2029年12月3日。 (供稿:国际法学院 撰稿:石文慧 审核:李立)

    2025-03-21
  • 【陕西日报】虚拟账号受法律保护

    从微信、微博、抖音,到游戏账号、电子会员……在当下“全民触网”的时代,人们生活的大多数场景都“嫁接”于网络上。甚至很多情感链接,也深度依赖网络媒介。 然而,近日一网友因去世近10年的父亲的微信账号被平台回收而发帖“求助”,引发了一场“数据热”背后的冷思考。 “……我和爸爸在世界上唯一的联络方式彻底消失了。”面对该网友的遭遇,其他网友也纷纷分享自己“遗失”网络账号的经历,有人担忧自己已故亲属的社交账号迟早会被收回,甚至有人紧急为自己的各种网络账号备份。 身处移动互联网时代的人们,需要一份“账号安全感”。 ■ 虚拟账号并不“虚” “我从大二注册微博后,就一直在上面记录并分享自己的生活瞬间。但工作后的第二年,账号竟然被盗了。后来我通过官方渠道找回了账号,可里面的内容被清空了。”3月12日,回忆起自己的“倒霉”往事,在西安上班的山东人杨天祎连连叹息,她说,“那一刻,感觉自己的青春被人偷走了。” 像杨天祎一样,如今在很多人眼里,网络上的虚拟账号并不“虚”,哪怕与具体的金钱利益不挂钩,但镌刻着时光、承载着情感记忆和智慧结晶的网络账号也具有十足的价值。 “随着互联网的深度普及以及区块链等新兴技术的迅速发展,如何妥善保护网络虚拟财产、平衡各主体间合法权益是我们必须面对和解决的问题。”西北政法大学民商法学院副教授国瀚文解释,网络虚拟财产主要指依附于网络虚拟空间、以数字化形式存在、具有一定价值的,在特定群体中传播和使用的信息产品。目前,其法律属性已得到确认——我国民法典第127条规定:“法律对数据、网络虚拟财产的保护有规定的,依照其规定。” 国瀚文解读,我国民法典从法律层面确认了数据和网络虚拟财产具有作为价值载体的财产属性,就意味着个人网络账号作为网络虚拟财产的一种形式,是受到法律保护的。 ■ 数字遗产能继承吗? 国际电信联盟发布的《2024年事实与数据》报告显示,2024年,全球估计有55亿人使用互联网。 如此庞大的网民规模,已故人士网络账号如何处置以及数字遗产能否被继承等问题引发关注。 记者查阅到,国内某社交平台服务协议明确,为避免造成资源浪费,用户注册或创建账号或功能账号后如果长期不登录,平台有权回收该账号,由此带来的任何损失均由用户自行承担。 “目前大多数社交平台在用户服务协议中会明确表示账号所有权归平台,用户仅有使用权,同时也会禁止非初始申请注册人通过受赠、继承、承租、受让或其他方式使用。”国瀚文说,平台如此规定,一方面是基于信息管理安全考虑,另一方面是基于隐私和死者利益保护。她指出,承载着用户隐私、社交关系等的虚拟账号不能放任其处于长期“无人管理”状态,而基于网络虚拟财产不同于其他有形财产的特殊属性,也不能简单参照一般财产的继承规定对账号进行直接继承,否则可能会侵犯个人隐私和他人合法权益。 西安市雁塔区人民法院速裁庭法官李多萌表示:“身故并不意味着隐私不再重要,基于隐私保护与个人信息安全,个人社交账号,继承人一般不能直接继承,但是可以依照遗嘱继承。” 2023年度的《中华遗嘱库白皮书》显示,从2017年至2023年,中华遗嘱库一共收到488份涉及虚拟财产的遗嘱。将网络虚拟财产作为个人财产的一部分进行合理分配、管理,已成为越来越多人的选择。 另外,记者也了解到,目前已有平台规定,如用户不幸逝世,其近亲属可通过官方客服渠道联系平台,以获取相关指引来行使法律规定的合法、正当权益。 ■ 公众要提高自身权益保护意识 近几年,与虚拟账号有关的纷争屡见不鲜。 “因缺乏统一的价值认定标准,如何评估网络账号的价值是个棘手的问题。”李多萌介绍,目前的司法实践中,一些具有显而易见的经济价值的网络账号,如用户充值的游戏账号、淘宝店铺的账号、粉丝量众多的直播账号等,因能够实现网络交易变现,其价值较好判定。然而,普通群众在社交平台的个人账号,承载的更多的是情感价值,被侵权后,责任界定及赔偿等方面会存在一定的现实阻碍。 李多萌说,要想减少因虚拟账号引发的纠纷,网友需要提高权益保护意识。她建议,一方面,可以尝试通过设立遗嘱的方式,对自己名下的虚拟财产进行管理;另一方面,要避免在不安全的网络环境下登录账号,防止账号被盗,也不要随意将账号信息透露、转借给他人。 “一些重要的数据信息,可定期进行备份,以防丢失或损坏。”李多萌还提醒,公众在注册相关账号时,要仔细了解平台管理和服务协议内容,依规合理使用账号,使用中一旦发现异常,要及时与账号管理运营方沟通,万一发生纠纷,要敢于通过合法手段维权。 网络虚拟财产保护不仅是一个法律问题,还是涉及个人数字权益、网络平台运营治理、社会公序良俗、数字经济健康发展等的复杂议题。“期待不久的将来,我国能构建起既有效保护用户权益和平台利益,又兼顾网络安全和公序良俗的网络虚拟财产保护制度体系,在法治的轨道上促进网络虚拟产业和数字经济的有序发展。”国瀚文表示。 【陕西日报】虚拟账号受法律保护https://xzzsx.sxdaily.com.cn/app/template/displayTemplate/news/newsDetail/901068.html?isDigital=true&isShare=true

    2025-03-21
  • 杨建军:可信人工智能发展与法律制度的构建

    以可信为基础构建人工智能治理法律制度的必要性 人工智能技术发展突飞猛进,在诸多领域取得了令人瞩目的成就。但是,人工智能的发展,却因为技术的复杂性、风险的不完全确定性、技术滥用、法律规制的缺位等因素,还未完全赢得社会的信任。 (一)人工智能发展中还存在侵蚀其可信性的诸多因素 其一,人工智能技术发展还存在诸多可知或不可知的风险。当前,人工智能存在着失控性风险、社会性风险、侵权性风险、歧视性风险、责任性风险五个方面的伦理安全风险。其二,人工智能技术还不完全可信。(1)人工智能技术还未真正达到人们想象的发达程度,总体上还处于专用人工智能而不是通用人工智能发展阶段。(2)深伪技术加剧了人们对真实性瓦解的担忧。(3)技术安全等问题未完全解决。(4)与人工智能技术关联的问题是,人工智能的良好运行高度依赖个人信息和数据,而个人信息和数据管控本身还存在诸多问题,如App违反合法、正当、必要的原则收集与所提供服务无关的个人信息,“强制授权、过度索权、超范围收集个人信息”大量存在。其三,人工智能应用不当导致了侵权,致使人工智能不完全可信。其四,人工智能治理的技术使用还存在与其宣示的价值取向不一致的情形,损害了人工智能发展的价值基础。其五,规制人工智能的法律还不可信。 (二)人工智能法为什么要强调信任 信任,是人际关系得以长久维系的桥梁,是社会关系得以拓展的基础,是社会发展的内在条件,更是建立高效社会组织的基本前提。信任是社会合作得以进行的基础。信任成功与否取决于信任拓展范围的大小。人工智能技术的发展程度,不仅是由技术决定的,而且是由规制人工智能的伦理、法律等规范决定的。那些真正发展得良好的技术,必定也是法律保障有力、遵循了良好伦理规范的技术。 人工智能获得社会信任的法律基础 (一)人工智能的信任需要法律来保障 其一,传统社会基于血缘等关系构建了人际信任,人与人之间的信任多建立在熟人关系基础上。其二,到近现代社会,法律力图建构的是一种打破血缘关系、促进陌生人合作的普遍信任机制。现代社会共同体合作,主要建立在平等交换、契约自由基础上。其三,人工智能时代的信任须建立在人工智能技术安全、确定性的法律管控和社会伦理引领的基础上。 (二)捍卫现代法治的传统和公民的基本权利系确保人工智能可信的关键 人们对人工智能技术的信赖,建立在人工智能技术的安全性、保障和规制人工智能的法律制度的正当性、规制人工智能发展的制度的价值正义性、人工智能技术的实践运作对人类基本价值追求和人的基本权利维护的有效性的基础上。在支撑人工智能信任的技术维度、法律维度、伦理维度和实践维度中,最为关键的是为人工智能发展设定法律监管标准。 可信人工智能法律构建的伦理基础与可信特征 包括我国在内的许多国家均将“可信”作为人工智能的核心伦理原则,而“正当性”则是保障人工智能可信法律构建的基础。 (一)正当性是保障人工智能可信法律构建的伦理基础 全球关于人工智能治理可信问题的关注最初是在伦理文件中表达的。虽然存在一些争议,但是国际社会在“可信赖的人工智能”“负责任的人工智能”等核心理念上可能会达成一致。可信被很多国家人工智能伦理确认为了一项基本伦理原则,这一原则的提出,是为了解决人工智能的价值对齐问题,即确保人工智能的目标与人类的目标一致,使其“行为和决定符合人类的价值、目标、道德考量”。但是,单纯从伦理准则角度构建人工智能的可信存在诸多问题:(1)全球关于人工智能治理存在诸多争议,不同准则之间的冲突日益凸显,如“普惠发展与隐私保护”“安全可靠与非歧视要求的冲突”等;既有准则规范可能由私人部门提出,实际上是抵制政府监管的借口等。(2)作为伦理准则的可信标准,主要是一种倡导性、自律性准则,缺乏有效的监督执行机制,强制性程度不足;准则的表达多采概括性概念,可操作性不强。因而,国家立法所要做的工作就是,将伦理准则转化为法律准则,并通过更加具体的技术规则和法律规则设计,保障可信准则在人工智能产品或服务的研究、开发、设计、部署、使用、监管等具体环节得到落实。 (二)现行可信人工智能的评估标准 何积丰院士提出,人工智能的可信特征包括四个方面:(1)鲁棒性,即对未知情况具备一定的应对能力;(2)自我反省,即对自身性能或错误能够有所感知;(3)自适应,即能够成为通用的系统,能被应用到新的环境;(4)公平性,如应防止被不当力量训练为种族歧视的智能。有学者提出了可信人工智能系统的质量框架,包括:(1)尊重人类自治原则,含人权代理与监督。这是最为重要的原则,人工智能应当赋予人类新的权利而不是取代人类,且处于人类控制之下,不对人类基本权利或健康造成损害。(2)伤害预防原则,包括鲁棒性、稳定性、安全性(包括保密性、完整性、可用性)、可靠性、可问责性、隐私性、可重复性、准确性等。(3)可解释性原则,包括透明性、可解释性。(4)公平性原则,即确保群体或者个体不受偏见或歧视。(5)一般软件质量属性,如兼容性、可维护性、功能适用性、可移植性、性能效率、易用性等。 可信人工智能发展对法律构建提出的要求 (一)保障可信人工智能发展的多元路径与法律路径 保障可信人工智能发展的路径是多元的,大致包括四个方面。(1)侧重行业技术保障的路径。如中国信息通信研究院和京东探索研究院通过对全球范围内已经发布的84份政策文件按照词频进行梳理发现,当前人工智能治理原则已经收敛在“透明性、安全性、公平性、可责、隐私保护等五个方面”,支撑可信的技术包括“稳定性技术、可解释性技术、隐私保护技术、公平性技术、可视化技术”等。(2)技术认证的客观标准与伦理价值评价的主观标准结合的路径。(3)人工智能的风险防控路径。(4)法律、伦理、技术结合的路径。2019年,欧盟人工智能高级别专家组发布了《可信人工智能的伦理指南》,提出人工智能在整个生命周期中需要满足三个条件:合法性,即可信人工智能应当依法合规;道德性,即人工智能发展要符合道德原则、价值观;稳健性,即人工智能发展应避免造成无意的损害或负面影响。这实际上提出了保障人工智能可信发展的综合路径。 为人工智能设定法律标准,实际上是为人工智能的研究者、开发者、部署者等设定最为基本的标准,并通过法律的强制执行性推动各项标准的落实,以防人工智能的发展偏离人类追求的价值目标,实现对人工智能产业发展的规制、引领作用。 (二)可信人工智能对法律提出的期待 可信是一种文化,一种基于技术发展而形成的人对人工智能的认知和信任状态。为了保障人工智能的可信发展,法律制度的创设或者调整应当遵循一系列外在准则和内在准则。 1.可信人工智能法律构建应遵循的外在准则 外在准则构成了人工智能发展的国家社会目标,意在维护国家社会的福祉和法律的基本价值,是人工智能长远发展的基本准则。外在准则主要是一种理念,它无法通过人工智能技术而直接得到落实,但它可以成为评判人工智能技术发展是否正当的元准则,是人工智能发展的总的引领性准则。 其一,以人为本,捍卫人的基本权利。人工智能立法坚持以人为本,就应当保护个人信息和数据等数据权利,保护人格权、人的自主决策(自治权)和人类的主体性,还应当重视对社会弱势群体的权益保护。发展以人为本的人工智能,既应从技术发展的角度来设定制度,还应从人的基本权利的角度规制人工智能技术。以人为本还应当认真考量新产业发展对传统产业带来的冲击,如人工智能发展对传统产业领域的就业替代,就是一个需要高度关注的问题。以人为本的理念与宪法确定的人的基本权利之间具有密切的联系。 其二,人类主导原则。人类主导原则是从人与机器关系的最终意义上说的。因为人工智能在很多方面代替人进行道德选择和决策,但智能系统要为人类做决定,不能脱离人类伦理指导。当人工智能的决定不符合人类需要的时候,人类可以取代人工智能做出决定。人类主导原则还要求,人工智能的设定,还应当尊重国别文化的多元性、尊重个体差异,并采取措施防止“人类对机器人的过度依赖”。 其三,技术中立原则。技术中立原则是设计人工智能法律制度时应遵循的一项前置性原则。例如,如果在交通事故中对普通驾驶人按照过错责任进行归责,而对人工智能汽车采取严格责任原则予以归责并要求车主承担交通事故责任,那么就背离了技术中立原则,而适用过错原则可能是妥当的。 2.可信人工智能法律制度构建的内在准则 内在准则主要是法律技术性准则,这些准则大多可通过人工智能的技术设计、改进而得以落实。内在准则构成了人工智能法律的操作性准则。 其一,透明原则。人工智能的透明,首先是为了保障公民的知情权,让人们了解人工智能是如何运作的。透明原则是为了防止人工智能被运用于不法目的或不正当目的,有助于增强人的自主性,不透明的人工智能难以获得人的信任。 其二,安全原则。首先应确保网络安全、数据安全与算法安全。(1)可信意味着必须降低人工智能风险,采用“强制性标准”对风险进行管控,且风险管控措施应符合比例原则,不能向人工智能开发者提出过高的要求(欧盟人工智能法第64部分)。(2)对风险宜进行分类管控或是分级管控。如2024年欧盟发布的人工智能法案将人工智能的风险分为四级,采取不同的限制措施。中国的人工智能法(学者建议稿)则将人工智能分为关键领域与一般领域进行管控,对关键领域进行重点管控。 其三,公平原则。核心是,在人工智能的模型训练中,排除那些明显存在或者隐性存在文化偏见、性别歧视或种族歧视的数据集。 其四,隐私保护原则。隐私被侵犯,自然人的感知最为直接,显然,一个无法保护隐私利益的人工智能,是无法被人们接受的。 其五,可问责原则。确保人工智能的部署、使用产生的法律责任是可问责的。问责是对侵权者的追责,也是对受害者的救济。 保障人工智能可信发展的具体法律制度 (一)设计、评估与测试制度 其一,设计阶段的价值对齐制度。(1)法律应当将价值对齐作为一项基本义务赋予人工智能设计者。(2)人工智能在开发阶段就应注意防止偏见和歧视。首先,识别人工智能必须遵守的伦理价值和规范,其次,将这些规范通过程序编码写入人工智能系统,最后,为了验证人工智能是否与特定价值和规范兼容,应当对人工智能的规范和价值的有效性进行评估。 其二,评估制度。人工智能开发者、提供者在开发、提供人工智能产品和服务前,可自行或委托第三方机构对数据质量、潜在偏见歧视、科技伦理审查情况、公共利益影响、保护措施等内容进行安全风险评估。 其三,人工智能的安全测试制度。(1)为了保证安全,应建立密码技术管理制度,实现可信计算和可信验证。(2)设立沙盒监管制度,强化安全测试和安全风险监管。(3)人工智能提供者对人工智能生成内容的标示制度。 (二)建立针对人工智能领域的监督制度 (1)采用“宪法性AI”的思路,用人工智能监督人工智能,用“一个从属的AI模型评估主模型的输出是否遵循了特定的‘宪法性’原则(即原则或规则清单),评估结果被用于优化主模型”。目的在于推进价值对齐,将对可信人工智能影响最大的法律原则,落实在人工智能发展技术中。虽然人工智能监督人工智能是高效的,但考虑到人工智能法律监督仅处在初期,故设置针对人工智能法律监督的人类标注员依然是必要的、重要的。(2)分级监督制度。针对人工智能决策,针对性地建立一级监督制度或二级监督制度。一级监督制度针对部分自动化决策,即把人工智能决策作为专业人员决策的支持理由,决策最终由人类来选择;此等情形下,人工智能决策是人类决策的组成部分。二级监督针对的是完全自动化决策,即在人工智能作出决定后,人类对智能化作出的决策进行监督和纠正。总之,“一级监督在决策过程中具有构成性作用,而二级监督对一级监督进行检查和控制”。(3)隐私保护监督制度。(4)权力制约监督制度。 (三)完善人工智能的责任制度 其一,人工智能的使用者为了安全、放心,当然期望人工智能的开发或销售企业能够承担起全部责任。其二,在法律责任设定上,“应辅以问责框架,包括免责声明以及审查和补救机制等,以确保在开发、部署和使用之前和之后对人工智能系统及其结果负责和问责”。其三,刑法应增设相关责任条款,将对非法访问AI或从事黑客攻击的严重行为、让人工智能运行实行犯罪的使用恶意软件的行为纳入刑法调整范围。 结语 可信人工智能治理进程中的法律制度的构建,应以技术路径为基础,融合伦理准则,沟通人工智能发展的外在准则和内在准则,捍卫现代法治传统,保障宪法确认的公民的基本权利;同时,应当处理好人工智能发展中国际性与地方性、市场逻辑和治理逻辑、监管的包容与审慎、权力制约与权利保护、道义与理性等关系。

    2025-03-19