「干货」YOLOv5 的 PyTorch 实现、多视图 3D 人体数据集等 AI 开源项目

star2017 1月前 ⋅ 73 阅读

— 文末 200 本 AI 纸质书、机械键盘、硬盘、VIP 会员,来就送~ —

项目一:YOLOv5-PyTorchYOLOv5 的 PyTorch 实现

项目地址:

https://github.com/Okery/YOLOv5-PyTorc
在这里插入图片描述
YOLOv5 的 PyTorch 实现。该存储库具有两个功能:

  • 纯 python 代码,无需构建即可立即使用 PyTorch 1.4 运行
  • 简化构造并易于理解模型的工作原理

环境要求:

  • Windows 或 Linux,Python≥3.6
  • PyTorch≥1.4.0
  • matplotlib-可视化图像和结果
  • pycocotools-用于 COCO 数据集和评估;Windows 版本在这里
  • nvidia dali(仅 Linux)-更快的数据加载器

数据集:

  • 该存储库支持 VOC 和 COCO 数据集。
  • 如果要训练自己的数据集,则可以:
  • 编写相应的数据集代码
  • 将您的数据集转换为 COCO 样式
  • PASCAL VOC 2012(下载):http://host.robots.ox.ac.uk/pascal/VOC/voc2012/
    MS COCO 2017:http://cocodataset.org/

模型训练:

使用 1 GPU 在 COCO 数据集上训练 (如果你使用 2 GPUs, 设置 --nproc_per_node=2)

性能:

在单个 RTX 2080Ti GPU 上测试 COCO 2017
在这里插入图片描述

— 今 日 福 利 —

七月在线 AI 充电季,开宝箱活动倒计时 2 天!!

200 本 AI 纸质书、机械键盘、硬盘、VIP 会员,来就送 ~

活动截止时间:7 月 31 日 15:00

点击立即开宝箱:https://m.julyedu.com/box/landing?treasure_code=3637373037302c37&origin=2
在这里插入图片描述

项目二:weibo-public-opinion-datasets 持续维护的微博舆情数据集

项目地址:

https://github.com/nghuyong/weibo-public-opinion-datasets

新浪微博是中国最大的公共社交媒体平台。最新和最受欢迎的社交活动将尽快在微博上公开和讨论。因此,建立一个实时,全面的微博舆情数据集具有重要意义。

目前,在给定指定关键词和指定期限的情况下,微博推文数据集的构建方法有两种:(1)应用微博提供的高级搜索 API;(2)遍历所有微博用户,收集指定时间段的所有推文,然后使用指定的关键字过滤推文。

但是,对于第一种方法,由于微博搜索 API 的限制,一次搜索的结果最多包含 1000 条推文,这使得构建大型数据集变得困难。至于第二种方法,尽管我们可以构建几乎没有遗漏的大规模数据集,但是遍历数十亿微博用户需要非常长的时间和大量的带宽资源。另外,大量的微博用户是不活跃的,遍历他们的主页是没有意义的,因为他们在指定的时期内可能不会发布任何推文。

为了缓解这些局限性,我们提出了一种新的方法来构建微博推文数据集,该方法可以构建具有高构建效率的大规模数据集。具体来说,我们首先建立并动态维护一个高保密性的微博活跃用户池(仅占所有用户的一小部分),然后我们仅遍历这些用户并在指定时期内使用指定的关键字收集其所有推文。

基于初始种子用户并通过社交关系不断扩展,我们首先建立了一个包括超过 2.5 亿用户的微博用户池。活跃的微博用户池是基于微博用户池构建的,遵循 4 条规则:

在这里插入图片描述



项目三:occlusion_person 具有详细遮挡标签的多视图 3D 人体姿势估计数据集

项目地址:

https://github.com/zhezh/occlusion_person

该数据集是相关的工作“AdaFuse: Adaptive Multiview Fusion for Accurate Human Pose Estimation in the Wild”,该出版物已发布在 IJCV 上。该论文位于(arXiv:2010.13302)。
在这里插入图片描述
以前的基准测试没有为图像中的关节提供遮挡标签,这阻止了我们对遮挡的关节进行数值评估。另外,基准中的遮挡量是有限的。为了解决这些限制,我们建议构建此综合数据集 Occlusion-Person。我们采用 UnrealCV 来渲染 3D 模型中的多视图图像和深度图。

特别是,将十三种不同衣服的人体模型放置在九个不同的场景中,例如客厅,卧室和办公室。人体模型由从 CMU Motion Capture 数据库中选择的姿势驱动。我们故意使用诸如沙发和书桌之类的物体遮挡某些身体关节。每个场景中放置了八台摄像机,以渲染多视图图像和深度图。我们提供 15 个关节的 3D 位置作为地面真实情况。

图像中每个关节的遮挡标签是通过将其深度值(可在深度图中获得)与 3D 关节在相机坐标系中的深度进行比较而获得的。如果两个深度值之间的差小于 30cm,则不会遮挡关节。否则,它将被遮挡。下表将此数据集与现有基准进行了比较。特别是在我们的数据集中,约有 20%的身体关节被遮挡。
在这里插入图片描述
在这里插入图片描述
完全下载所有部分后,您应该具有以下文件:
在这里插入图片描述

项目四:coco-minitrainminicoco 数据集

项目地址:

https://github.com/giddyyupp/coco-minitrain

COCO minitrain 是针对 COCO 的精选小型训练集(25K 图像 ≈train2017 的 20%)。这对于超参数调整和降低消融实验的成本很有用。minitrain 的对象实例统计信息与 train2017 的那些匹配。在 minitrain 上训练的模型的 val2017 性能与在 train2017 上训练的同一模型的性能强烈正相关。

COCO minitrain 是 COCO train2017 数据集的子集,包含 25K 图像(约占 train2017 集的 20%)和跨 80 个对象类别的约 184K 注释。我们从全套样本中随机采样了这些图像,同时尽可能保留了以下三个数量:

每个类中对象实例的比例,
小型,中型和大型物体的整体比例,
小型,中型和大型物体的每类比率。
对象检测器性能。在 minitrain 上训练模型并在 val2017 上进行评估:
在这里插入图片描述
在 Minitrain vs Train2017 上训练的对象检测器性能。模型在 val2017 上进行评估:
在这里插入图片描述

下图比较了 train2017 和 minitrain 上的物体检测结果。该图还显示了 train2017 和 minitrain 结果之间的正相关。对于 COCO 评估指标 AP 和 AP50,皮尔逊相关系数分别为 0.74 和 0.92。此图基于上表。 BaseModel 与具有 ResNet-101 主干的 HoughNet 模型相对应。
在这里插入图片描述

项目五:sidechainnet 用于机器学习的全原子蛋白质结构数据集

项目地址:

https://github.com/jonathanking/sidechainne
在这里插入图片描述

SidechainNet 是一种蛋白质结构预测数据集,它直接扩展了 Mohammed AlQuraishi 的 ProteinNet1。

具体来说,SidechainNet 添加了用于测量蛋白质角度和坐标的测量值,这些测量值描述了完整的,全原子的蛋白质结构(主链和侧链,不包括氢),而不是单独的蛋白质骨架。

该项目提供以下内容:

存储为腌制 Python 字典的 SidechainNet 数据集。
在 PyTorch 中有效加载和批处理 SidechainNet 数据的方法。
根据模型预测生成蛋白质结构可视化(.pdb,3Dmol,.gltf)的方法。

SidechainNet 数据概要:
在这里插入图片描述

— 今 日 福 利 —

七月在线 AI 充电季,开宝箱活动倒计时 2 天!!

200 本 AI 纸质书、机械键盘、硬盘、VIP 会员,来就送 ~

活动截止时间:7 月 31 日 15:00

点击立即开宝箱:https://m.julyedu.com/box/landing?treasure_code=3637373037302c37&origin=2
在这里插入图片描述


本文地址:https://www.6aiq.com/article/1627580587829
本文版权归作者和AIQ共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出

更多内容请访问:IT源点

相关文章推荐

全部评论: 0

    我有话说: