$vue{csvName == '' ? '仅支持上传 CSV 格式的文件' : csvName+' 上传中...'}
- 赛事介绍
- 竞赛排行榜
- 讨论($vue{comment_count})
- 学习资源
$vue{item.rank_name}
大赛简介
“水下目标检测算法赛”紧扣水下目标检测算法领域,通过提供真实环境下的水下光学图像让选手在线上提交创新的目标检测算法和运算结果,本次比赛采用线上测评和线上打分的方法来实施比赛,着重考察选手的实际算法和研究能力。
比赛确保赛事公平公正,鼓励各行业各层次的专业团队参与比赛,发挥平台集聚效应,推动海洋机器人产业落地和地方产业发展,打造大连在海洋人工智能领域的名片。
参赛须知
报名时间
2020-08-13 12:00:00 - 2020-09-01 12:00:00
初赛-A轮比赛时间
2020-08-18 12:00:00-2020-09-05 10:00:00
初赛-B轮比赛时间
2020-09-06 10:00:00-2020-09-06 23:00:00
复现材料提交时间
2020-09-07 12:00:00-2020-09-09 10:00:00
B轮结束,排行榜前15支队伍在鹏城云脑上部署程序。收到组委会通知的团队请在规定提交时间内按照组委会要求部署程序和提交相关文档。
初赛成绩综合评审时间
2021-01-28 9:00:00-2021-01-28 16:00:00
大赛组委会将完成精度和速度综合测试评审工作并在网站展示【初赛综合排行榜】成绩,并于9月10日下午前通知【初赛综合排行榜】前12支队伍进行线上答辩。
决赛答辩时间
2021-01-28 9:00:00-2021-01-28 16:00:00
初赛优胜的选手进入线上答辩环节,采取网上远程答辩。形式包括PPT、视频等展示,由评委进行提问、打分,决定最终排名。
参赛方式
- 使用在线提交CSV结果文件方式进行参赛,CSV结果文件需控制在100M以内进行上传,数据评估出错将不消耗每日提交次数。
参赛选手说明
- 参赛人员身份信息需保证真实、有效,大赛主办方仅将个人信息用于赛事数据授权及颁奖使用
- 欢迎海内外的在校学生,算法工程师和所有AI爱好者参与
- 本次竞赛报名形式:以个人形式本地提交作品线上审核,并且以最终提交算法得分作为唯一有效成绩
- 在比赛截止日期前,团队中成绩最高分作为本团队的最终成绩
- 报名成功后请加入FlyAI竞赛交流群,一起学习进步!重要通知也将在群内发布,不要错过哦
比赛作品说明
- 参赛选手需要配合组委会对比赛作品的有效性与真实性进行验证
- 不同团队/个人,提交相似结果文件,取消双方所有人员参赛资格
- 多开小号报名、提交,一经发现将取消参赛资格
- 禁止使用外部链接下载代码替换本项目代码
- 比赛过程中,通过脚本获取比赛数据,成绩无效
- 使用线上测试集进行训练或者使用非官方提供的外部数据进行训练,成绩无效
- 使用的预训练模型需为FlyAI官方审核通过的模型,使用非官方验证预训练模型,成绩无效
- 提交的代码具备可解释性并且其它开源框架可复现
- 所有相似代码将一律不通过审核!!情况多次出现者封号处理
- 如有发现利用非正常手段作弊行为,奖金一律不发放。之前所获得奖金金额官方有权收回,情节严重者封号处理
- 提交代码即视为阅读并同意以上比赛作品说明
大赛奖项设置
奖项说明:
奖项设置 | 获奖人数 | 奖金额度说明(按最终得分评判) |
---|---|---|
一等奖 | 1队 | 20,000元(税前) |
二等奖 | 3队 | 每队 12,000元(税前) |
三等奖 | 5队 | 每队 6000元(税前) |
奖励获取要求:
- B轮结束后前15支队伍务必在24小时内提交主观评审材料,大赛组委会将完成精度和速度综合测试评审工作并在网站展示【初赛综合排行榜】成绩
赛事主题和数据说明
赛题描述
“水下目标检测算法赛”紧扣水下目标检测算法领域,通过提供真实环境下的水下光学图像让选手在线上提交创新的目标检测算法和运算结果,本次比赛采用线上测评和线上打分的方法来实施比赛,着重考察选手的实际算法和研究能力。
数据描述
由于需要提交代码作品在云端进行训练,参赛数据集不对外开放。仅提供调试数据。
字段说明:
文件名 | 字段名称 | 字段类型 | 备注 | 样例 |
---|---|---|---|---|
train.csv | image_path | str | 图片的相对路径 | image/0.jpg |
xml_path | str | 标注文件的相对路径 | xml/0.xml |
这个描述可以为空。这个描述可以为空这个描述可以为空这个描述可以为空这个描述可以为空这个描述可以为空这个描述可以为空这个描述可以为空
评审标准
算法输入输出格式
评审指标说明
- 初赛阶段的评审采用COCO mAP[@0.5:0.05:0.95] 指标(mean Average Precision) 进行计算,即将10个不同IOU阈值下的mAP取平均值作为最终结果
- 对于任意一IOU阈值,其对应的mAP计算公式如下:
- p(r) 为当召回率(recall)为r时,检测结果的准确率(precision)
- mAP指标的基本介绍
- AP (Average Precision) 的计算方式采用 PASCAL VOC 2010年之后的版本,关于该版本的mAP细节和原理参考The PASCAL Visual Object Classes (VOC) Challenge
- 测评指标的关键参数为IOU 阈值:0.5 + 0.05*i (i = 0,1,2...9)
- 单张图像中最多检测框的数量为80。
- 初赛综合得分规则:
- 0.5*精度排名得分+0.5*速度排名得分
- 根据初赛排行榜前20名参赛队伍,按照精度排名和速度排名加权计算初赛综合成绩。例如,精度排名第一名得分为100分,第二名为99分,第三名为98分,...以此类推
- 答辩环节主要考察模型方案本身的创新和应用价值以及选手综合能力, 先由评委根据各个项目进行打分,然后进行排名,最后计算答辩排名得分。
- 答辩排名得分计算规则:
- 排名得分计算方式:第一名 100 分,依次往后每相差一个排名减 1 分
- 例如,答辩第一名得分为100分,第二名为99分,第三名为98分,...以此类推
- 0.7 * 初赛综合得分 + 0.3 * 答辩排名得分
排行榜精度评估说明
初赛综合评估说明
线上答辩评审说明
总成绩计算规则
比赛常见问题说明
Q:比赛使用什么框架?
- 比赛支持常用的机器学习和深度学习框架,比如TensorFlow,PyTorch,Keras,Scikit-learn、MXNet等。
Q:怎么参加比赛,需不需要提交CSV文件?
- FlyAI竞赛平台提供免费云端GPU资源,报名后可以使用自己熟练的框架,修改main.py中的网络结构和processor.py中的数据处理;仅部分赛题支持CSV方式提交,请仔细阅读参赛方式相关内容。
Q:比赛排行榜分数怎么得到的?
- 参加项目竞赛必须实现prediction.py中的load_model和predict方法。系统使用这些方法评估模型算出评分。
$vue{item.finish_at_formate}
$vue{item.train_score}
暂无排行喔~不要急,马上就会有
暂无排行喔~不要急,马上就会有
这里还没有内容哦