随着人工智能的深刻变革及其在社会治理中的深度渗透,传统人类中心主义法理正遭遇前所未有的挑战;与此同时,对人工智能特殊法律地位的系统性探索与架构正在逐步展开,以制度创新回应智能社会治理课题,让人工智能发展行稳致远。在此背景下,法学院于2025年9月11日举办第172期本科生“每月法律论坛”,本次论坛由2024级7班承办,并有幸邀请到吉林大学法学院曹相见教授担任指导老师,围绕“人工智能的主体地位研究”这一主题,组织四组同学展开专题研讨,聚焦多元领域,开启一场深度思辨与前沿探索。

周筱茜团队聚焦医疗领域,以发现问题、分析问题、解决问题的结构对AI医疗诊断错误的责任归属和患者维权举证困境进行深入论述。团队指出问题的根源在于AI技术自身的“黑箱”特性,分析了涉及的三方主体的责任划分争议、患者维权困难问题,从法律、技术、行业三方面提出多维度的解决方案:举证责任倒置、可解释AI开发、数据共享与日志存留制度协同推进,最终构建一个既能保障患者权益又能促进技术健康发展的治理框架。

小组成员(从左到右依次为):孙瑞涵(汇报人) 裴育萱 周筱茜 凌云 祁鸿婷 韩金灿
付海霖团队聚焦智能驾驶领域,以智能驾驶侵权责任下的人工智能法律人格困境为主题展开汇报。团队以“3·18美国自动驾驶车辆致人死亡事故案”切入,揭示了传统侵权责任框架难以应对算法决策的独特挑战,一方面从权利能力、行为能力、责任能力三要素分析AI成为法律主体的可能性;另一方面解析四种归责路径,提出“多层次责任体系”——即短期通过“生产者责任追溯机制+强制保险制度+专项补偿基金”应对困境,长期则朝向设立“有限法律人格”进行前瞻性布局。

小组成员(从左到右依次为):董文毅 黄琳珺 张晓媛 付海霖 王一同 陈静 孙语晗 周瑾仪(汇报人)
王峰阁团队聚焦生成式AI著作权领域,援引三个使用生成式人工智能产生著作权纠纷的经典案例,揭示了当下生成式AI著作权中的责任归属困境。通过剖析AI技术特性带来的因果关系难以判定、用户与生成式人工智能服务提供者在侵权过程中的贡献度难以区分等问题,该小组创造性地提出生成式AI在当下仅能作为创作工具,无法成为著作权侵权的责任主体;真正的责任应归于具有控制意图与行为能力的用户或服务提供者

小组成员(从左到右依次为):赵一博 王峰阁 沈鑫 刘冠一(汇报人) 徐进 赵树梓
雷书华团队聚焦人工智能介入合同应用领域,从“法律人格说”“技术工具论”两套具有代表性的对立理论出发,提出技术工具论是目前司法中解决纷争的主要依据。团队同时强调人工智能在合同关系中的定位是合同缔约意思的传达者与履行合同义务的工具,无法独立承担责任;因此在人与技术的主体争夺危机中,要坚守人的主体性,人的意思表示和指示仍然是衡量人工智能合同责任的尺度,如此方能维护人的私法自决权和法律行为作为私人自治的工具之功能。

小组成员(从左到右依次为):赵亚慧 吕昕恬 何秋彤 周奥 田梦瑶 周宇淇(汇报人) 郭晓晨
各组同学汇报结束后,曹相见老师就各组的选题、学术研究方法进行了评析与总结。
曹老师肯定了同学们的题材具有前沿科技的亮点;提出法学本科阶段最重要的是形成体系思维,在未来可以多从基础的理论入手,并结合法学问题上的聚焦,增强的针对性与专业性。例如在著作权领域的汇报中“接触+实质性相似”理论就是较好的切入点。
学术研究方法上,曹老师指出可以遵循按照法律关系或按照概念、要件展开说理的两套逻辑。他结合同学们的汇报内容详细介绍了如何在法学研究中运用这两种方法。
曹老师指出:人工智能当今仍处于一定的辅助地位,成为法律意义上的主体仍有适用困境;未来在理论与实践的探讨中需通过法律、体系、学术的思维看待技术的重构

古人云:“君子使物,不为物使”。在人工智能日益渗透社会生活各个层面的今天,这句话依然闪烁着智慧的光芒。我们既须坚守“以人为本”的伦理底线,也需构建清晰可靠的责任机制,以应对技术带来的新型风险。展望未来,人工智能的治理路径将愈发依赖法律与技术的协同演进。随着理论辨析的深入和制度设计的完善,我们有望建立更加精准、分层的规制框架,鼓励创新的同时也防范失控。人工智能不应成为责任承担的“黑洞”,而应在人类主导的前提下,服务于社会福祉和公平正义。从更宏观的视角看,人工智能法律主体地位之辩,实则揭示出法治现代化进程中的深层命题——如何使传统法律理念在科技浪潮中保持解释力与生命力。将智能治理纳入法治发展总体布局,不仅有助于规范技术应用,也更将进一步强化“科技向善”的制度保障,使人工智能在法治轨道上行稳致远。而这,也正是法律人在走向智能时代的进程中,始终守护人性尊严、彰显法治精神的生动实践。