立即参赛

官方媒体

微信公众号

APP下载

APP下载

在线客服

客服杨女士

分享

返回创成汇

项目征集:2018-11-21——2019-03-20
大赛简介
TOP高校创新科技大赛AI赛季,旨在打造国内最具权威、最具活力的高校科技赛事,是面向高校人工智能(AI)人才的编程竞赛平台,总奖金超过100万元人民币。赛事联动清华大学、电子科技大学、浙江大学、上海交通大学等四所在中国电子信息工程领域具有领航作用的高校,以此为核心覆盖17所高等院校、51个院系,10座城市、辐射100所高等院校,精准影响660万人。

大赛作为OPPO投入2亿的“贝尔计划”四大版块之一,致力于高校AI课题的市场化运用,推进人工智能在科教与企业实用领域的结合,促进全国高校范围内人工智能师生团队共同探索前沿领域的技术突破及应用创新,让AI技术融于更多应用场景,金融、安防、旅游、智慧楼宇等诸多领域,加强物联网、智能硬件、人工智能为代表的高科技产学研结合,广泛提升青年学生参与度,鼓励科技创新实践。为优质高校毕业生就业开启绿色通道。
组织机构

主办方:

电子科技大学计算机科学与工程学院(网络空间安全学院)、成都一片森林科技有限公司


赞助商:

OPPO广东移动通信有限公司

参赛条件
  • 参赛项目以团队进行申报,每个团队最多有3名学生队员和最多1位指导老师。


  • 晋级全国总决赛的团队人员信息不能修改。


  • 参赛作品不得违反有关法律、法规以及社会的道德规范;参赛者对自己的参赛作品负责;参赛作品不得侵犯他人知识产权;参赛作品涉及的使用其他素材等资料应该注明出处和来源,相应的版权问题由参赛者自行负责;对于所有参赛作品,主办单位、冠名、赞助单位可以以任何形式将参赛作品进行展示和传播,不另付酬劳;大赛尊重作者的知识产权,参赛作品的知识产权归属原作者所有,在技术转让过程中赞助单位具有优先权;参赛者一经提交作品参赛即代表完全接受大赛活动所有条款。条款的最终解释权归属于大赛组委会。


  • 大赛组委会在大赛官方平台公示入围全国总决赛的团队名单,接受社会监督。通过公示的团队方可参加全国总决赛。


  • 全国总决赛由大赛组委负责组织,根据5个课题方向进行评比。总决赛采用“答辩+评审”的方式,现场向创投机构、媒体、高校师生等观众开放。总决赛的举办地点和时间在大赛官网上另行公布。
赛程安排
竞赛时间

  • 2018年11月21日-2019年1月5日 项目计划书提交
  • 2019年1月10日 初审结果公示
  • 2019年1月10日-2019年3月10日 复赛作品提交
  • 2019年3月15日 复赛结果公示
  • 2019年3月 总决赛

宣讲会安排

  • 11月21日 新闻发布会暨电子科大宣讲会
  • 11月28日 浙江大学宣讲会
  • 12月6日 清华大学宣讲会
  • 12月14日 上海交通大学宣讲会
课题介绍


人脸识别


  • 任务描述

人脸识别算法已经被广泛应用于人们日常生活的方方面面,比如机场的人脸匹配、身份证的人证合一检测、手机的登陆系统等等。在实际应用场景中,由于人的表情、角度、光线等的不同,同时由于存在着伪造的人脸攻击等因素,人脸识别算法依然存在着很多的挑战。本任务旨在设计实现人脸识别算法,对任两张人脸图片进行比对,判断是否为同一人。一般,一个人脸识别算法由以下几个部分成:



输入:两张人脸图像
输出:判断是否为同一个人

  • 提交方式

参赛队伍需将运行环境、模型与代码按标准格式打包为可运行的文件,如为手机 app,则打包为可安装文件,并通过有邮件上传。并通过有邮件上传组织方会将账户通过邮件分发各队伍,每支队伍每周最多提交两次。

  • 评价标准

误识率(FAR),拒识率(FRR) 


NFA 错误接受次数,NIRA类间测试次数;NFR错误拒绝次数,NGRA为类内测试次数
(注:对同样FAR与FRR结果的模型,模型越轻量则评分越高)

  • 数据集描述

训练集:组织方不提供统一的训练集,参赛者可以使用任意训练数据,也可以使用自己构建的数据库。
测试集:组织方提供以 OPPO 手机采集的人脸图像比对的测试集。组织方的评审专家会对参赛者提交算法进行评审。


自然场景下的文字识别


  • 任务描述

自然场景下的文字识别技术已经在多个领域有了较为广泛的应用,同时也成为计算机视觉的重要研究方向。自然场景下,文字图像和背景差异巨大,同时又有复杂的光线,字体尺寸和多样的布局。如何能准确的定位和识别自然场景中的文字已经成为目前文字识别领域的一个挑战。快速定位和准确识别自然场景中的文本是本次任务的核心。

输入:一张带文本的 RGB 图像
输出:x,y,置信度,以及对应的文本


自然场景中的文本(红框所示)


  • 提交方式


参赛队伍需将运行环境、模型与代码按标准格式打包为可运行的文件,如为手机 app,则打包为可安装文件,并通过邮件上传。组织方会将账户通过邮件分发各队伍,每支队伍每周最多提交两次。


  • 评价标准


非英语文本或者非法字符视为无效文本,检测结果视为无效,不计入评价。

视检测窗口与标定窗口 IoU>0.5 且识别文本与标定文本完全匹配(忽略大小写)为有效识别结果。

采用 F1-score 为第一评价标准,F1-score 的计算方式如下:

 

注:指标计算方法参考 K. Wang, B. Babenko, and S. Belongie, “End-to-end scene text recognition”, in Computer Vision (ICCV), 2011 IEEE International Conference on (pp. 1457-1464), IEEE, November 2011. 评价方式参考以及 ICDAR2015 Incidental Scene Text Challenge, Task 4.4: End to End, http://rrc.cvc.uab.es/?ch=4&com=tasks


在上一标准相同的情况下,采用平均精度 AP 作为第二评价标准,AP 计算方式如下:

注:指标计算方法参考 M. Everingham, S. A. Eslami, L. Van Gool, C. K. Williams, J. Winn, and A. Zisserman, (2014). The pascal visual object classes challenge: A retrospective. International Journal of Computer Vision, 111(1), 98-136. 评价方式参考 ICDAR2017 Robust Reading Challenge on COCO-Text, Task 3: End-to-End Recognition http://rrc.cvc.uab.es/?ch=5&com=tasks


  • 数据集描述


训练集:组织方不提供统一的训练集,参赛者可以使用任意训练数据,如 COCO-Text,也可以使用自己构建的数据库。

测试集:组织方提供以OPPO手机采集的图像和人工标注的图像作为 groundtruth 的测试集。组织方的评审专家会对参赛者提交算法进行评审。


人体关键点检测


  • 任务描述


体感游戏基于人体行为识别技术,通过人体关键节点的组合和追踪来识别人的运动和行为。通过对人体姿态的定位于识别,可以为游戏,短视频等提供新的交互方式。人体姿态的主要获得途径有两个:一个是通过深度摄像机获得深度信息,如 3D 结构光和 TOF(Time of Flight) 相机;另一个是直接使用 RGB 图像估计人体关键节点。人体关键点检测任务侧重于为 2D 图像视频流提供持续人体关键点输出,从而实现人体姿态估计。

输入:RGB 人像图片

输出:人像图像的关键点,17 个点的坐标以及置信度


 


  • COCO 数据集 keypoint 标注:


{0-nose    1-Leye    2-Reye    3-Lear    4Rear    5-Lsho    6-Rsho    7-Lelb    8-Relb    9-Lwri    10-Rwri    11-Lhip    12-Rhip    13-Lkne    14-Rkne    15-Lank    16-Rank}



  • 提交方式


参赛队伍需将运行环境、模型与代码按标准格式打包为可运行的文件,如为手机 app,则打包为可安装文件,并通过有邮件上传。组织方会将账户通过邮件分发各队伍,每支队伍每周最多提交两次。


  • 评价标准


主要评估指标为平均精度均值 mAP(mean average precision):


AP(平均精度)计算公式如下:


其中,Object Keypoint Similarity (OKS) 为对象关键点相似度:


性标志,v = 0 表示未标记,v = 1 表示标记但不可见,v = 2 表示标记且可见。对于每个对象,关键点检测器都需要输出关键点位置和对象级别的置信度,对OKS 公式中,

表示每个关键点相应的实际真值和检测到的关键点之间的 Euclidean 距离,S,  为通过一个非标准化的高斯将标准差传递给标准偏差,s 为对象尺度, 为一个控制衰减的按键控制常数, 表示实际真值的可见性标记。

(注:对于图片中的每个对象,真实标定形式为 [,…,],其中 x,y 是关键点位置。v 为可见象的预测关键点应该具有与实际真值相同的形式。)


  • 提交格式


[{

“image_id”: int,

“category_id”: int,

“keypoints”: [x1,y1,v1,…,xk,yk,vk],

“score”: float,

}]

由于预测结果不存在不可见,vi 统一设置 vi = 1

参考文档: COCO 竞赛官方网站 http://cocodataset.org/#keypoints-eval的 1.2. Object Keypoint Similarity 部分。

  • 数据集描述


训练集:组织方不提供统一的训练集,参赛者可以使用任意训练数据,比如 COCO(keypoints-2018),也可以使用自己构建的数据库。

测试集:组织方提供以 OPPO 手机采集的图像和人工标注的图像作为 groundtruth 的测试集。组织方的评审专家会对参赛者提交算法进行评审。


人像精细分割


  • 任务描述


随着手机硬件平台和人工智能技术的飞速发展,目前的智能手机基本都可以实现后置双摄像头和前置单摄像头对人像拍照时的背景虚化。在虚化的方法上,后置通过双摄像头来计算景深从而实现前景人像的分割,进而对背景虚化;而前置则直接对单帧图像进行人像分割的方式来虚化背景。这两种方式来带的虚化效果是显著的,但是也存在很多弊端,无论哪种分割方式,都难以实现对人像发丝的精细分割,这导致了最终人像头部边缘的虚化效果不是很理想。随着用户对手机相机拍照功能要求的逐年升级,为了达到单反相机级别的背景虚化效果,需要能够实现人像的精细分割,尤其是发丝边缘。这样不仅可以实现更加精确的背景虚化,同时也为人像照片换背景提供了技术支持,而这些可以进一步增强用户的使用体验。


输入:RGB 人像图片

输出:分割为人像和背景的图片


  • 提交方式


参赛队伍需将运行环境、模型与代码按标准格式打包为可运行的文件,如为手机 app,则打包为可安装文件,并通过有邮件上传。组织方会将账户通过邮件分发各队伍,每支队伍每周最多提交两次。


  • 评价方法


本题目分为基于 groundtruth 的评价和算法运行时间。

基于 groundtruth 的评价。在测试集中,会给定多张人像图像及其对应的分割好的图像作为 groundtruth。基于参赛者生成的分割图像和 groundtruth 的比对,利用 F1-score 和 Mean Intersection Over Union (mIOU) 作为评价指标。

为 groundtruth,A 为其人像区域;为算法估计的分割,B 为其人像区域,则

最终的 F1-score,mIOU 结果为 m 个测试图片的得分均值。

算法的运行时间包括所有预处理和分割时间,是指从输入图片开始到输出图片结束的用时。参赛作品以 app 的形式,则其运行时间默认少于非 app 的作品。

F1,IOU 两个分值归一化后的均分,作为算法准确率的分值。如果两个算法分值相差 3% 以内,即,则用时较少者获胜。


  • 数据集描述


训练集:组织方不提供统一的训练集,参赛者可以使用任意训练数据,比如 COCO,也可以使用自己构建的数据库。

测试集:组织方提供以 OPPO 手机采集的图像和人工标注的分割作为 groundtruth 的测试集。组织方的评审专家会对参赛者提交算法进行评审。


创意类题目


创意赛为自选课题,内容要求与 AI、图像或通信相关,主要以基于 OPPO 手机的 App 形式完成,也可以基于无人机、机器人、虚拟现实等多种平台进行创意设计。


  • 提交方式


参赛队伍需将运行环境、模型与代码按标准格式打包为可安装文件 app,并发送至邮件(TOP@iconos.tech)。组织方会将账户通过邮件分发各队伍,每支队伍每周最多提交两次。其他参赛作品形式,如无人机、机器人等,需要提交作品文档和产品演示 demo。

大赛奖励
  • TOP

名额:1 名(课题组、创意组皆可参与奖项评比)
奖励:独享 30 万元奖金,指导老师奖励OPPO最新手机一部
团队赴OPPO国内外研究院访问学习
获得OPPO校招绿色通道

  • THE BEST

名额:课题组、创意组各1 名
奖励:总奖金20万元(每组各10万奖金),指导老师奖励OPPO最新手机一部

  • 优秀奖

名额:课题组、创意组各5名
奖励:分享50万奖金池(每组各5万元奖金)

  • 入围奖

名额:30名
奖励:每个团队获得OPPO手机一部
主办方保留对总决赛评比标准的最终解释权
评委导师

主导评审团:

电子科大宋井宽、清华大学鲁继文、浙江大学李玺、上海交通大学涂仕奎


联系方式
  • 官方客服QQ:1549056912
  • 大赛邮箱:top@iconos.tech
  • 官网地址:http://www.hopen.net.cn