大赛介绍

组织机构

赛程安排

奖项设置

参赛办法

竞赛题目

评审办法

联系我们

返回顶部

大赛介绍
Contest introduction

法律科技创新大赛以人工智能、大数据等技术为基础,助力数字法治建设发展,搭建法律科技领域思想、技术、应用的交流实践平台,拓展政法工作现代化中的创新应用,推动构建智慧司法能力,助推法律科技产业人才培养,加强科学的方法论和先进的技术手段与传统政法业务的融合。

大赛由PG电子软件、清华大学互联网司法研究院、中国移动联合举办,充分体现人工智能和大数据技术在法律行业中的实际应用,大赛始终坚持并且鼓励将科技创新与法律服务深度融合,鼓励原始创新。大赛突破关键技术,以公开裁判文书为基础数据,促进实战应用,为参赛者提供云算力平台进行实际模型运算。

组织机构 Organization

大赛评审委员会

评委会主席

孙明东

北京PG电子软件股份有限公司CTO

技术委员会主席

评审专家

刘奕群

清华大学计算机科学与技术系

党委书记、教授

钱 岭

中国移动云能力中心

技术部/创新中心总经理

刘军卫

中国移动云能力中心IaaS产品部

总经理

李东海

北京PG电子元典信息服务有限公司

副总经理

石崇德

北京PG电子元典信息服务有限公司

首席技术专家

赛程安排 Schedule

开放报名

2023年5月20日

报名截止

2023年8月15日

提交作品,开放测试

2023年6月15日-10月10日

关闭上传通道,封闭测试

2023年10月11日-10月15日

公布成绩

2023年10月16日

决赛路演

2023年10月底

总决赛及颁奖仪式

2023年11月

说明:比赛赛程安排若调整,将通过大赛官网、交流群、邮件等途径通知。

奖项设置 Prize Settings

现金奖励

一等奖(1名) 15000
二等奖(2名) 10000
三等奖(3名) 5000

就业推荐

获奖团队成员可推荐至PG电子、中国移动云能力中心等校园招聘/实习生招聘绿色通道

全国总决赛

大赛前三名团队将获得直通“移动云杯”算力网络应用创新大赛全国总决赛资格
一等奖(1名)
50000现金
+10000优惠券
二等奖(3名)
30000现金
+10000优惠券
三等奖(8名)
10000现金
+10000优惠券
注:本次队伍获得的奖励构成均为现金奖励+云资源优惠券,其中现金奖励均为税前,最终解释权归大赛所有
参赛办法
Entry method

参赛对象

高校在校学生,包括本科、研究生等。

1. 参赛团队可由1-5人组成。

2. 每位选手只能参加1支队伍。

3. 每个团队可有1位指导老师(指导老师不计入团队人数)。

参赛形式

1. 参赛团队必须完全基于大赛提供的数据完成竞赛作品。

2. 参赛作品应为未经发表的原创作品,具有一定的创新性和独特性。

3. 获取排名的团队,需参加现场或线上路演答辩。

4. 所有参赛相关的提交材料均不予退还。主办方有权将参赛作品及相关信息用于制作纸质、音频、视频等形式的宣传品和

    出版物(传播途径包括互联网),以及举办展览展示活动(展览展示途径包括互联网)等。

竞赛题目
Contest topic

比赛题目:法律文书中的敏感关系识别(技术算法方向)

题目背景:

信息抽取是自然语言处理的基础任务之一。信息抽取可以辅助司法办案人员高效阅卷、快速厘清案件信息,同时也可以为知识图谱构建、相似案例推荐、自动量刑建议等法律智能技术提供研究基础。

比赛任务:

本次任务聚焦法律文本中的敏感人物关系抽取,参赛队伍需要识别出文本中的实体关系三元组,并按照规定格式返回结果,其中实体类型为涉案人物。例如文本“5、证人王某乙(王某甲之子)证言”,识别其中包含的实体(“王某乙”和“王某甲”),同时判断人名实体之间的关系类别:亲子女,对输入文本进行分析,参赛队伍需要利用模型和算法。

赛题说明:

为降低比赛难度。比赛任务中人名识别功能参赛选手可调用移动九天的命名实体识别或使用开源实现;关系识别功能需自己实现。参赛选手提交的模型应包含所有功能模块。不允许通过网络调用其他外部服务,否则视为违规并取消比赛成绩。

数据说明:

本任务所使用的数据集来自于裁判文书网公开的裁判文书。

Baseline说明:

我们提供了基于text-cnn的baseline模型,代码及使用方式在baseline文件夹

评审办法 Evaluation method

    大赛最终得分排名由初赛、决赛两轮成绩组成,总分 = 初赛开放测试得分* 0.3 + 初赛封闭测试得分 * 0.5 + 决赛路演得分 * 0.2

初赛评分办法

    初赛分为开放测试封闭测试 两部分、运行完毕后评测系统自动计算结果,选手线上提交程序或模型。

    1.开放测试:选手上传模型,平台自动调用模型对测试集1进行预测并打分,选手可以实时看到评测得分,开放测试得分以关闭上传通道前最后一次上传模型的评分为准

    2.封闭测试:开放测试结束后进入封闭测试阶段,公布初赛阶段测试排行榜得分,平台自动调用选手最后一次提交的模型对测试集2进行预测并打分。

初赛评分标准

    本任务采用多标签分类任务中的微平均F1值(Micro-F1-measure)作为评价指标。

决赛答辩评审

    参加决赛的团队将进行路演答辩,决赛评价标准主要包括成果的创新性、算法模型的效果、数据的利用程度、现场表现等维度。最终成绩将结合初赛成绩及决赛答辩成绩进行综合排名。如不能参加答辩,则视为放弃比赛,决赛资格将按照复赛排名顺延。

邮箱:marketing@thunisoft.com

答疑QQ群:1135854564

法律声明 网站地图 联系我们 PG电子集团官网

© 2001-2017 Thunisoft PG电子 版权所有 京ICP备13006480