zoukankan      html  css  js  c++  java
  • YOLOv5的项目实践 | 手势识别项目落地全过程(附源码)

    计算机视觉研究院 今天
    图片欢迎关注“计算机视觉研究院
    图片计算机视觉研究院专栏图片

    计算机视觉研究院

    专注CV领域公众号

    图片

    作者:Edison_G

    长按二维码关注

    前言  计算机视觉可以学习美式手语,进而帮助听力障碍群体吗?数据科学家David Lee用一个项目给出了答案。

    如果听不到了,你会怎么办?如果只能用手语交流呢?

    图片

    当对方无法理解你时,即使像订餐、讨论财务事项,甚至和朋友家人对话这样简单的事情也可能令你气馁。对普通人而言轻轻松松的事情对于听障群体可能是很困难的,他们甚至还会因此遭到歧视。在很多场景下,他们无法获取合格的翻译服务,从而导致失业、社会隔绝和公共卫生问题。为了让更多人听到听障群体的声音,数据科学家 David Lee 尝试利用数据科学项目来解决这一问题:计算机视觉可以学习美式手语,进而帮助听力障碍群体吗?图片如果通过机器学习应用可以精确地翻译美式手语,即使从最基础的字母表开始,我们也能向着为听力障碍群体提供更多的便利和教育资源前进一步。数据和项目介绍出于多种原因,David Lee决定创建一个原始图像数据集。首先,基于移动设备或摄像头设置想要的环境,需要的分辨率一般是720p或1080p。现有的几个数据集分辨率较低,而且很多不包括字母「J」和「Z」,因为这两个字母需要一些动作才能完成。

    图片

    为此,David Lee 在社交平台上发送了手语图像数据收集请求,介绍了这个项目和如何提交手语图像的说明,希望借此提高大家的认识并收集数据。数据变形和过采样David Lee 为该项目收集了 720 张图片,其中还有几张是他自己的手部图像。由于这个数据集规模较小,于是 David 使用 labelImg 软件手动进行边界框标记,设置变换函数的概率以基于同一张图像创建多个实例,每个实例上的边界框有所不同。下图展示了数据增强示例:

    图片

    经过数据增强后,该数据集的规模从 720 张图像扩展到 18,000 张图像。建模David 选择使用 YOLOv5 进行建模。将数据集中 90% 的图像用作训练数据,10% 的图像用作验证集。使用迁移学习和 YOLOv5m 预训练权重训练 300 个 epoch。

    图片

    在验证集上成功创建具备标签和预测置信度的新边界框。

    图片

    由于损失值并未出现增长,表明模型未过拟合,因此该模型或许可以训练更多轮次。模型最终获得了 85.27% 的 mAP@.5:.95 分数。图像推断测试David 额外收集了他儿子的手部图像数据作为测试集。事实上,还没有儿童手部图像用于训练该模型。理想情况下,再多几张图像有助于展示模型的性能,但这只是个开始。

    图片

    26 个字母中,有 4 个没有预测结果(分别是 G、H、J 和 Z)。四个没有得到准确预测:
    • D 被预测为 F;

    • E 被预测为 T;

    • P 被预测为 Q;

    • R 被预测为 U。

    视频推断测试

    图片

    即使只有几个手部图像用于训练,模型仍能在如此小的数据集上展现不错的性能,而且还能以一定的速度提供优秀的预测结果,这一结果表现出了很大的潜力。更多数据有助于创建可在多种新环境中使用的模型。如以上视频所示,即使字母有一部分出框了,模型仍能给出不错的预测结果。最令人惊讶的是,字母 J 和 Z 也得到了准确识别。其他测试执行其他一些测试,例如:左手手语测试

    图片

    几乎所有原始图像都显示的是右手,但惊喜地发现数据增强在这里起到了作用,因为有 50% 的可能性是针对左手用户进行水平翻转。儿童手语测试

    图片

    儿童的手语数据未被用于训练集,但模型对此仍有不错的预测。

    多实例

    图片

    尽管手语的使用和视频中有所不同,但这个示例表明当多个人出现在屏幕上时,模型可以分辨出不止一个手语实例。模型局限性发现该模型还有一些地方有待改进。距离

    图片


    许多原始图像是用手机拍摄的,手到摄像头的距离比较近,这对远距离推断有一定负面影响。新环境

    图片


    这支视频来自于志愿者,未用于模型训练。尽管模型看到过很多字母,但对此的预测置信度较低,还有一些错误分类。背景推断

    图片


    该测试旨在验证不同的背景会影响模型的性能。结论这个项目表明:计算机视觉可用于帮助听力障碍群体获取更多便利和教育资源!该模型在仅使用小型数据集的情况下仍能取得不错的性能。即使对于不同环境中的不同手部,模型也能实现良好的检测结果。而且一些局限性是可以通过更多训练数据得到解决的。经过调整和数据集的扩大,该模型或许可以扩展到美式手语字母表以外的场景。

    图片

    原文链接:https://daviddaeshinlee.medium.com/using-computer-vision-in-helping-the-deaf-and-hard-of-hearing-communities-with-yolov5-7d764c2eb614

    /End.

    我们开创“计算机视觉协会”知识星球一年有余,也得到很多同学的认可,我们定时会推送实践型内容与大家分享,在星球里的同学可以随时提问,随时提需求,我们都会及时给予回复及给出对应的答复。

    图片

    如果想加入我们“计算机视觉研究院”,请扫二维码加入我们。我们会按照你的需求将你拉入对应的学习群!
    计算机视觉研究院主要涉及深度学习领域,主要致力于人脸检测、人脸识别,多目标检测、目标跟踪、图像分割等研究方向。研究院接下来会不断分享最新的论文算法新框架,我们这次改革不同点就是,我们要着重”研究“。之后我们会针对相应领域分享实践过程,让大家真正体会摆脱理论的真实场景,培养爱动手编程爱动脑思考的习惯!
  • 相关阅读:
    RMQ(模板 ST 区间最值,频繁的间隔时间)
    编程算法基地-2.1利用字符串API
    android学习记录(三)百度地图错误---只有一个电话显示帧,没有地图内容。
    【MongoDB】在windows平台mongodb切片集群(三)
    Android MenuItem 设置文本颜色-TextColor设置
    wikioi 1034 家 实时动态的网络流量(费用流)
    where can I find source of com.android.internal.R.styleable.AlertDialog_multiChoiceItemLayout?
    Android开发之自定义Spinner样式的效果实现(源代码实现)
    Java注释@interface的用法
    依赖注入及AOP简述(十三)——AOP应用举例(完结) .
  • 原文地址:https://www.cnblogs.com/shuimuqingyang/p/14176762.html
Copyright © 2011-2022 走看看