首页
社区
课程
招聘
安卓广告自动跳过三部曲--(1)跳过按钮识别
发表于: 2021-9-16 09:00 25936

安卓广告自动跳过三部曲--(1)跳过按钮识别

obaby 活跃值
20
2021-9-16 09:00
25936

yolov5

YOLOv5is a family of object detection architectures and models pretrained on the COCO dataset, and represents Ultralytics open-source research into future vision AI methods, incorporating lessons learned and best practices evolved over thousands of hours of research and development.

1. 环境搭建
没有找到合适的板块发布,先放在这里把。刚才看了一下帖子内容被清空了?重新上传一下。传统的广告跳过做法是通过控件获取文本,根据关键字进行匹配。但是这种方法对于图片按钮和自定义控件的兼容性基本没有,所以想通过ai识别跳过按钮来实现广告跳过。大家有什么想法和建议还望不吝赐教,也环境大家加入这个项目~~
自动广告跳过这个想法,不过由于各种原因一直没有实时。知道最近才又重新开始折腾这个东西,yolov5的安装这里就不再说明了,建议使用anaconda安装。我创建了一个conda环境可以直接下载之后通过conda安装:

conda
如果不想使用上面的安装方法可以参考:4bdK9s2c8@1M7s2y4Q4x3@1q4Q4x3V1k6Q4x3V1k6T1L8r3!0Y4i4K6u0W2j5%4y4V1L8W2)9J5k6h3&6W2N6q4)9J5c8X3!0v1K9g2N6#2h3s2g2S2L8W2)9J5c8X3q4J5N6r3W2U0L8r3g2Q4x3V1k6V1k6i4c8S2K9h3I4K6i4K6u0r3x3e0l9%4y4e0f1^5x3U0R3$3c24K9s2c8@1M7s2y4Q4x3@1q4Q4x3V1k6Q4x3V1k6Y4K9i4c8Z5N6h3u0Q4x3X3g2U0L8$3#2Q4x3V1k6#2L8s2c8J5j5h3I4&6N6r3W2U0M7#2)9J5c8Y4W2G2L8r3!0$3y4b7`.`. 按照官方指导进行安装。

2.数据准备
将手机上已经准备好的截图复制到Screenshot目录下,使用labelImg{conda 环境地址:3c4K9s2c8@1M7s2y4Q4x3@1q4Q4x3V1k6Q4x3V1k6S2L8X3q4U0L8$3&6V1j5g2)9J5k6h3!0J5k6#2)9J5c8X3!0T1j5h3u0&6i4K6u0r3L8r3q4T1k6h3I4A6L8h3M7`. 可以直接导入使用},对图片进行标记。将标记后的xml文件保存到xmls目录下。
屏幕截图:
screnshots
labelimg标记:
labelimage
xml文件路径:
xmls
3.构建数据集:
在根目录下创建make_text.py代码如下(以下代码基本都是拷贝自:48cK9s2c8@1M7s2y4Q4x3@1q4Q4x3V1k6Q4x3V1k6T1L8r3!0Y4i4K6u0W2j5%4y4V1L8W2)9J5k6h3&6W2N6q4)9J5c8X3!0v1K9g2N6#2h3s2g2S2L8W2)9J5c8X3q4J5N6r3W2U0L8r3g2Q4x3V1k6V1k6i4c8S2K9h3I4K6i4K6u0r3x3e0l9%4y4e0f1^5x3U0R3$3 这篇文章,表示感谢!!):

创建voc_label.py代码如下,需要注意classes中的列别信息:

分别运行makeTxt.py和voc_label.py。

make_text.py主要是将数据集分类成训练数据集和测试数据集,默认train,val,test按照8:1:1的比例进行随机分类,运行后ImagesSets文件夹中会出现四个文件,主要是生成的训练数据集和测试数据集的图片名称,如下图。同时data目录下也会出现这四个文件,内容是训练数据集和测试数据集的图片路径。
txt
voc_label.py主要是将图片数据集标注后的xml文件中的标注信息读取出来并写入txt文件,运行后在labels文件夹中出现所有图片数据集的标注信息,如下图:
label
到这里,数据资源准备就ok了。
4.修改配置文件
在data目录下创建ads.yml内容如下:

修改网络参数models/yolov5s.yaml(这里取决于你使用了哪个模型就去修改对于的文件,该项目中使用的是yolov5s模型),主要修改nc参数:

train_ads.py 参数修改,主要参数解释如下。我们平时训练的话,主要用到的只有这几个参数而已:–weights,–cfg,–data,–epochs,–batch-size,–img-size,–project:

5.训练模型
环境搭建好,数据准备完毕之后就可以开始进行魔性的训练了。直接执行train_ads.py进行模型训练:

训练结束之后的文件保存在Optimizer stripped from runs/train/exp3/weights/last.pt, 14.4MB Optimizer stripped from runs/train/exp3/weights/best.pt, 14.4MB两个文件中。到这里模型训练就结束了。
在训练中,也可以随时查看每一轮次训练的结果,可利用tensorboard可视化训练过程,训练开始时会在runs/train/exp文件夹中产生一个“events.out.tfevents.1608924773.JWX.5276.0”文件,利用tensorboard打开即可查看训练日志。首先我们通过cmd进去该YOLOv5所在的项目文件夹,然后激活所用的虚拟环境,输入如下命令行:

命令行输入信息的整体显示如下所示:

到这一步后,我们就可打开 http://localhost:6006/ 网页查看每一轮次训练的结果,如图所示。
board
6.实现检查
修改detect_ads.py中的参数主要用到的只有这几个参数:–weights,–source,–conf-thres,–project:

通过下面的命令进行检测:

检测回显:

如果不修改detect.py文件这可以通过下面的命令进行检测:

检测效果,由于样本太少,导致检测到的概率太低,为了显示出来这里把parser.add_argument('--conf-thres', type=float, default=0.1,)--conf-thres调成了0.1否则直接检测不到跳过按钮,调低之后检测到的跳过按钮有的并不是跳过按钮(后一张图)。
ok
下图检测到的按钮是有问题的:
error
为了提高检测准确度,下一步会加大样本量再次训练,等待看效果吧 ~~

安卓apk开屏广告跳过按钮识别项目,地址:322K9s2c8@1M7s2y4Q4x3@1q4Q4x3V1k6Q4x3V1k6Y4K9i4c8Z5N6h3u0Q4x3X3g2U0L8$3#2Q4x3V1k6G2j5X3q4T1P5g2)9J5c8Y4y4C8K9i4m8Q4y4h3k6S2k6s2y4Q4y4h3k6&6L8$3I4G2N6U0f1`.

obaby@mars
a55K9s2c8@1M7q4)9K6b7g2)9J5c8W2)9J5c8Y4N6%4N6#2)9J5k6h3R3@1j5$3E0Q4x3X3g2G2M7X3N6Q4x3X3g2U0L8R3`.`.
8a4K9s2c8@1M7q4)9K6b7g2)9J5c8W2)9J5c8Y4N6%4N6#2)9J5k6h3!0T1j5h3u0&6i4K6u0W2L8%4u0Y4i4K6u0W2j5$3^5`.

参考链接:
c0eK9s2c8@1M7s2y4Q4x3@1q4Q4x3V1k6Q4x3V1k6Y4K9i4c8Z5N6h3u0Q4x3X3g2U0L8$3#2Q4x3V1k6q4N6X3N6W2L8V1#2W2M7$3S2C8K9h3&6Q4x3V1k6e0j5%4u0W2k6h3&6e0K9r3!0@1i4K6u0r3j5X3I4G2j5W2)9J5c8X3#2S2M7%4c8W2M7W2)9J5c8X3q4H3M7q4)9J5c8Y4y4J5j5#2)9J5c8X3#2S2K9h3&6Q4x3V1k6B7j5i4k6S2i4K6u0r3j5Y4W2Q4x3V1k6S2L8X3c8J5L8$3W2V1i4K6u0r3k6i4k6Y4k6h3&6Q4x3V1k6K6j5%4u0W2k6h3&6K6K9r3!0@1i4K6u0r3f1$3y4J5k6h3g2F1b7h3y4@1K9i4k6A6N6s2W2Q4x3X3g2B7j5i4k6S2
4ecK9s2c8@1M7s2y4Q4x3@1q4Q4x3V1k6Q4x3V1k6T1L8r3!0Y4i4K6u0W2j5%4y4V1L8W2)9J5k6h3&6W2N6q4)9J5c8Y4q4I4i4K6g2X3x3K6R3@1z5e0V1^5y4e0W2Q4x3V1k6S2M7Y4c8A6j5$3I4W2i4K6u0r3k6r3g2@1j5h3W2D9M7#2)9J5c8U0V1H3y4e0t1K6x3U0R3K6
228K9s2c8@1M7s2y4Q4x3@1q4Q4x3V1k6Q4x3V1k6B7N6h3g2B7K9h3&6Q4x3X3g2U0L8W2)9J5c8Y4m8G2M7%4c8Q4x3V1j5$3z5o6b7@1z5e0l9K6y4e0R3&6x3e0t1%4y4U0f1I4x3K6x3#2
872K9s2c8@1M7s2y4Q4x3@1q4Q4x3V1k6Q4x3V1k6K6N6r3q4U0K9$3!0$3k6i4u0X3L8r3!0%4i4K6u0W2j5$3!0E0i4K6u0r3M7i4g2W2M7%4c8A6L8$3&6K6i4K6u0r3x3U0j5$3x3e0f1K6y4W2)9J5c8X3S2G2N6#2)9J5k6s2c8G2i4K6u0V1M7s2u0G2k6%4u0S2L8h3#2S2N6r3W2U0j5h3I4D9P5g2)9J5k6s2c8S2K9$3g2Q4x3X3c8S2i4K6u0V1M7$3y4J5k6h3g2F1M7$3S2G2N6q4)9J5k6r3!0F1i4K6u0V1j5h3&6V1M7X3!0A6k6l9`.`.
39fK9s2c8@1M7s2y4Q4x3@1q4Q4x3V1k6Q4x3V1k6H3P5i4c8G2M7X3y4Z5i4K6u0W2L8%4u0Y4
15eK9s2c8@1M7s2y4Q4x3@1q4Q4x3V1k6Q4x3V1k6V1k6i4k6W2L8r3!0H3k6i4u0Q4x3X3g2F1N6X3W2V1K9h3q4Q4x3X3g2U0L8$3#2Q4x3V1k6U0N6h3c8S2i4K6u0V1k6r3!0%4L8X3I4G2j5h3c8K6i4K6y4r3N6r3q4J5k6$3g2@1i4K6g2X3L8%4y4Q4x3@1c8i4K9h3&6V1L8%4N6K6i4K6t1$3j5h3#2H3i4K6y4n7N6r3q4J5k6$3g2@1i4K6g2X3j5i4u0U0K9q4)9K6c8s2R3^5y4W2)9#2k6U0j5@1i4K6t1$3j5h3#2H3i4K6y4n7N6r3q4J5k6$3g2@1i4K6g2X3N6X3g2J5M7$3W2G2L8W2)9K6c8o6p5H3i4K6t1$3j5h3#2H3i4K6y4n7N6r3q4J5k6$3g2@1i4K6g2X3N6s2W2H3k6g2)9K6c8r3g2^5k6g2)9#2k6X3&6W2N6s2N6G2M7X3D9`.

 
 
 
# 1. conda 环境地址:117K9s2c8@1M7s2y4Q4x3@1q4Q4x3V1k6Q4x3V1k6S2L8X3q4U0L8$3&6V1j5g2)9J5k6h3!0J5k6#2)9J5c8X3!0T1j5h3u0&6i4K6u0r3P5h3!0D9L8%4j5#2
# 2. 下载对应操作系统的环境yml脚本
# 3. 在Terminal 或者 an Anaconda Prompt内执行
conda env create user/my-environment
source activate my-environment
# 1. conda 环境地址:117K9s2c8@1M7s2y4Q4x3@1q4Q4x3V1k6Q4x3V1k6S2L8X3q4U0L8$3&6V1j5g2)9J5k6h3!0J5k6#2)9J5c8X3!0T1j5h3u0&6i4K6u0r3P5h3!0D9L8%4j5#2
# 2. 下载对应操作系统的环境yml脚本
# 3. 在Terminal 或者 an Anaconda Prompt内执行
conda env create user/my-environment
source activate my-environment
 
import os
import random
 
# b1eK9s2c8@1M7s2y4Q4x3@1q4Q4x3V1k6Q4x3V1k6T1L8r3!0Y4i4K6u0W2j5%4y4V1L8W2)9J5k6h3&6W2N6q4)9J5c8X3!0v1K9g2N6#2h3s2g2S2L8W2)9J5c8X3q4J5N6r3W2U0L8r3g2Q4x3V1k6V1k6i4c8S2K9h3I4K6i4K6u0r3x3e0l9%4y4e0f1^5x3U0R3$3
 
trainval_percent = 0.9
train_percent = 0.9
xmlfilepath = 'xmls'
txtsavepath = 'Screenshots'
total_xml = os.listdir(xmlfilepath)
 
num = len(total_xml)
list = range(num)
tv = int(num * trainval_percent)
tr = int(tv * train_percent)
trainval = random.sample(list, tv)
train = random.sample(trainval, tr)
 
ftrainval = open('data/ImageSets/trainval.txt', 'w')
ftest = open('data/ImageSets/test.txt', 'w')
ftrain = open('data/ImageSets/train.txt', 'w')
fval = open('data/ImageSets/val.txt', 'w')
 
for i in list:
    name = total_xml[i][:-4] + '\n'
    if i in trainval:
        ftrainval.write(name)
        if i in train:
            ftrain.write(name)
        else:
            fval.write(name)
    else:
        ftest.write(name)
 
ftrainval.close()
ftrain.close()
fval.close()
ftest.close()
import os
import random
 
# b1eK9s2c8@1M7s2y4Q4x3@1q4Q4x3V1k6Q4x3V1k6T1L8r3!0Y4i4K6u0W2j5%4y4V1L8W2)9J5k6h3&6W2N6q4)9J5c8X3!0v1K9g2N6#2h3s2g2S2L8W2)9J5c8X3q4J5N6r3W2U0L8r3g2Q4x3V1k6V1k6i4c8S2K9h3I4K6i4K6u0r3x3e0l9%4y4e0f1^5x3U0R3$3
 
trainval_percent = 0.9
train_percent = 0.9
xmlfilepath = 'xmls'
txtsavepath = 'Screenshots'
total_xml = os.listdir(xmlfilepath)
 
num = len(total_xml)
list = range(num)
tv = int(num * trainval_percent)
tr = int(tv * train_percent)
trainval = random.sample(list, tv)
train = random.sample(trainval, tr)
 
ftrainval = open('data/ImageSets/trainval.txt', 'w')
ftest = open('data/ImageSets/test.txt', 'w')
ftrain = open('data/ImageSets/train.txt', 'w')
fval = open('data/ImageSets/val.txt', 'w')
 
for i in list:
    name = total_xml[i][:-4] + '\n'
    if i in trainval:
        ftrainval.write(name)
        if i in train:
            ftrain.write(name)
        else:
            fval.write(name)
    else:
        ftest.write(name)
 
ftrainval.close()
ftrain.close()
fval.close()
ftest.close()
# xml解析包
import xml.etree.ElementTree as ET
import pickle
import os
# os.listdir() 方法用于返回指定的文件夹包含的文件或文件夹的名字的列表
from os import listdir, getcwd
from os.path import join
 
 
sets = ['train', 'test', 'val']
classes = ['skip']
 
 
# 进行归一化操作
def convert(size, box): # size:(原图w,原图h) , box:(xmin,xmax,ymin,ymax)
    dw = 1./size[0]     # 1/w
    dh = 1./size[1]     # 1/h
    x = (box[0] + box[1])/2.0   # 物体在图中的中心点x坐标
    y = (box[2] + box[3])/2.0   # 物体在图中的中心点y坐标
    w = box[1] - box[0]         # 物体实际像素宽度
    h = box[3] - box[2]         # 物体实际像素高度
    x = x*dw    # 物体中心点x的坐标比(相当于 x/原图w)
    w = w*dw    # 物体宽度的宽度比(相当于 w/原图w)
    y = y*dh    # 物体中心点y的坐标比(相当于 y/原图h)
    h = h*dh    # 物体宽度的宽度比(相当于 h/原图h)
    return (x, y, w, h)    # 返回 相对于原图的物体中心点的x坐标比,y坐标比,宽度比,高度比,取值范围[0-1]
 
 
# year ='2012', 对应图片的id(文件名)
def convert_annotation(image_id):
    '''
    将对应文件名的xml文件转化为label文件,xml文件包含了对应的bunding框以及图片长款大小等信息,
    通过对其解析,然后进行归一化最终读到label文件中去,也就是说
    一张图片文件对应一个xml文件,然后通过解析和归一化,能够将对应的信息保存到唯一一个label文件中去
    labal文件中的格式:calss x y w h  同时,一张图片对应的类别有多个,所以对应的bunding的信息也有多个
    '''
    # 对应的通过year 找到相应的文件夹,并且打开相应image_id的xml文件,其对应bund文件
    in_file = open('train/%s.xml' % (image_id), encoding='utf-8')
    # 准备在对应的image_id 中写入对应的label,分别为
    # <object-class> <x> <y> <width> <height>
    out_file = open('data/labels/%s.txt' % (image_id), 'w', encoding='utf-8')
    # 解析xml文件
    tree = ET.parse(in_file)
    # 获得对应的键值对
    root = tree.getroot()
    # 获得图片的尺寸大小
    size = root.find('size')
    # 如果xml内的标记为空,增加判断条件
    if size != None:
        # 获得宽
        w = int(size.find('width').text)
        # 获得高
        h = int(size.find('height').text)
        # 遍历目标obj
        for obj in root.iter('object'):
            # 获得difficult ??
            difficult = obj.find('difficult').text
            # 获得类别 =string 类型
            cls = obj.find('name').text
            # 如果类别不是对应在我们预定好的class文件中,或difficult==1则跳过
            if cls not in classes or int(difficult) == 1:
                continue
            # 通过类别名称找到id
            cls_id = classes.index(cls)
            # 找到bndbox 对象
            xmlbox = obj.find('bndbox')
            # 获取对应的bndbox的数组 = ['xmin','xmax','ymin','ymax']
            b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),
                 float(xmlbox.find('ymax').text))
            print(image_id, cls, b)
            # 带入进行归一化操作
            # w = 宽, h = 高, b= bndbox的数组 = ['xmin','xmax','ymin','ymax']
            bb = convert((w, h), b)
            # bb 对应的是归一化后的(x,y,w,h)
            # 生成 calss x y w h 在label文件中
            out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')
 
 
# 返回当前工作目录
wd = getcwd()
print(wd)
 
 
for image_set in sets:
    '''
    对所有的文件数据集进行遍历
    做了两个工作:
    1.将所有图片文件都遍历一遍,并且将其所有的全路径都写在对应的txt文件中去,方便定位
    2.同时对所有的图片文件进行解析和转化,将其对应的bundingbox 以及类别的信息全部解析写到label 文件中去
         最后再通过直接读取文件,就能找到对应的label 信息
    '''
    # 先找labels文件夹如果不存在则创建
    if not os.path.exists('data/labels/'):
        os.makedirs('data/labels/')
    # 读取在ImageSets/Main 中的train、test..等文件的内容
    # 包含对应的文件名称
    image_ids = open('data/ImageSets/%s.txt' % (image_set)).read().strip().split()
    # 打开对应的2012_train.txt 文件对其进行写入准备
    list_file = open('data/%s.txt' % (image_set), 'w')
    # 将对应的文件_id以及全路径写进去并换行
    for image_id in image_ids:
        list_file.write('data/images/%s.jpg\n' % (image_id))
        # 调用  year = 年份  image_id = 对应的文件名_id
        convert_annotation(image_id)
    # 关闭文件
    list_file.close()
 
# os.system(‘comand’) 会执行括号中的命令,如果命令成功执行,这条语句返回0,否则返回1
# os.system("cat 2007_train.txt 2007_val.txt 2012_train.txt 2012_val.txt > train.txt")
# os.system("cat 2007_train.txt 2007_val.txt 2007_test.txt 2012_train.txt 2012_val.txt > train.all.txt")
# xml解析包
import xml.etree.ElementTree as ET
import pickle
import os
# os.listdir() 方法用于返回指定的文件夹包含的文件或文件夹的名字的列表
from os import listdir, getcwd
from os.path import join
 
 
sets = ['train', 'test', 'val']
classes = ['skip']
 
 
# 进行归一化操作
def convert(size, box): # size:(原图w,原图h) , box:(xmin,xmax,ymin,ymax)
    dw = 1./size[0]     # 1/w
    dh = 1./size[1]     # 1/h
    x = (box[0] + box[1])/2.0   # 物体在图中的中心点x坐标
    y = (box[2] + box[3])/2.0   # 物体在图中的中心点y坐标
    w = box[1] - box[0]         # 物体实际像素宽度
    h = box[3] - box[2]         # 物体实际像素高度
    x = x*dw    # 物体中心点x的坐标比(相当于 x/原图w)
    w = w*dw    # 物体宽度的宽度比(相当于 w/原图w)
    y = y*dh    # 物体中心点y的坐标比(相当于 y/原图h)
    h = h*dh    # 物体宽度的宽度比(相当于 h/原图h)
    return (x, y, w, h)    # 返回 相对于原图的物体中心点的x坐标比,y坐标比,宽度比,高度比,取值范围[0-1]
 
 
# year ='2012', 对应图片的id(文件名)
def convert_annotation(image_id):
    '''
    将对应文件名的xml文件转化为label文件,xml文件包含了对应的bunding框以及图片长款大小等信息,
    通过对其解析,然后进行归一化最终读到label文件中去,也就是说
    一张图片文件对应一个xml文件,然后通过解析和归一化,能够将对应的信息保存到唯一一个label文件中去
    labal文件中的格式:calss x y w h  同时,一张图片对应的类别有多个,所以对应的bunding的信息也有多个
    '''
    # 对应的通过year 找到相应的文件夹,并且打开相应image_id的xml文件,其对应bund文件
    in_file = open('train/%s.xml' % (image_id), encoding='utf-8')
    # 准备在对应的image_id 中写入对应的label,分别为
    # <object-class> <x> <y> <width> <height>
    out_file = open('data/labels/%s.txt' % (image_id), 'w', encoding='utf-8')
    # 解析xml文件
    tree = ET.parse(in_file)
    # 获得对应的键值对
    root = tree.getroot()
    # 获得图片的尺寸大小
    size = root.find('size')
    # 如果xml内的标记为空,增加判断条件
    if size != None:
        # 获得宽
        w = int(size.find('width').text)
        # 获得高
        h = int(size.find('height').text)
        # 遍历目标obj
        for obj in root.iter('object'):
            # 获得difficult ??
            difficult = obj.find('difficult').text
            # 获得类别 =string 类型
            cls = obj.find('name').text
            # 如果类别不是对应在我们预定好的class文件中,或difficult==1则跳过
            if cls not in classes or int(difficult) == 1:
                continue
            # 通过类别名称找到id
            cls_id = classes.index(cls)
            # 找到bndbox 对象
            xmlbox = obj.find('bndbox')
            # 获取对应的bndbox的数组 = ['xmin','xmax','ymin','ymax']
            b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),
                 float(xmlbox.find('ymax').text))
            print(image_id, cls, b)
            # 带入进行归一化操作
            # w = 宽, h = 高, b= bndbox的数组 = ['xmin','xmax','ymin','ymax']
            bb = convert((w, h), b)
            # bb 对应的是归一化后的(x,y,w,h)
            # 生成 calss x y w h 在label文件中
            out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')
 
 
# 返回当前工作目录
wd = getcwd()
print(wd)
 
 
for image_set in sets:
    '''
    对所有的文件数据集进行遍历
    做了两个工作:
    1.将所有图片文件都遍历一遍,并且将其所有的全路径都写在对应的txt文件中去,方便定位
    2.同时对所有的图片文件进行解析和转化,将其对应的bundingbox 以及类别的信息全部解析写到label 文件中去
         最后再通过直接读取文件,就能找到对应的label 信息
    '''
    # 先找labels文件夹如果不存在则创建
    if not os.path.exists('data/labels/'):
        os.makedirs('data/labels/')
    # 读取在ImageSets/Main 中的train、test..等文件的内容
    # 包含对应的文件名称
    image_ids = open('data/ImageSets/%s.txt' % (image_set)).read().strip().split()
    # 打开对应的2012_train.txt 文件对其进行写入准备
    list_file = open('data/%s.txt' % (image_set), 'w')
    # 将对应的文件_id以及全路径写进去并换行
    for image_id in image_ids:
        list_file.write('data/images/%s.jpg\n' % (image_id))
        # 调用  year = 年份  image_id = 对应的文件名_id
        convert_annotation(image_id)
    # 关闭文件
    list_file.close()
 
# os.system(‘comand’) 会执行括号中的命令,如果命令成功执行,这条语句返回0,否则返回1
# os.system("cat 2007_train.txt 2007_val.txt 2012_train.txt 2012_val.txt > train.txt")
# os.system("cat 2007_train.txt 2007_val.txt 2007_test.txt 2012_train.txt 2012_val.txt > train.all.txt")
 
# COCO 2017 dataset 6a3K9s2c8@1M7q4)9K6b7g2)9J5c8W2)9J5c8X3y4G2j5$3!0V1j5i4c8S2M7$3g2@1i4K6u0W2L8%4u0Y4
# Download command: bash yolov5/data/get_coco2017.sh
# Train command: python train.py --data ./data/coco.yaml
# Dataset should be placed next to yolov5 folder:
#   /parent_folder
#     /coco
#     /yolov5
 
 
# train and val datasets (image directory or *.txt file with image paths)
train: data/train.txt  # 118k images
val: data/val.txt  # 5k images
test: data/test.txt  # 20k images for submission to 2bbK9s2c8@1M7s2y4Q4x3@1q4Q4x3V1k6Q4x3V1k6U0L8$3#2H3k6i4c8A6N6r3W2G2L8Y4y4Q4x3X3g2U0L8$3c8S2L8r3q4T1i4K6u0W2L8%4u0Y4i4K6u0r3j5$3!0E0M7r3g2@1K9i4c8A6L8$3&6K6i4K6u0r3x3U0l9%4z5e0b7`.
 
# number of classes
nc: 1
 
# class names
names: ['skip']
 
# Print classes
# with open('data/coco.yaml') as f:
#   d = yaml.load(f, Loader=yaml.FullLoader)  # dict
#   for i, x in enumerate(d['names']):
#     print(i, x)
# COCO 2017 dataset 6a3K9s2c8@1M7q4)9K6b7g2)9J5c8W2)9J5c8X3y4G2j5$3!0V1j5i4c8S2M7$3g2@1i4K6u0W2L8%4u0Y4
# Download command: bash yolov5/data/get_coco2017.sh
# Train command: python train.py --data ./data/coco.yaml
# Dataset should be placed next to yolov5 folder:
#   /parent_folder
#     /coco
#     /yolov5
 
 
# train and val datasets (image directory or *.txt file with image paths)
train: data/train.txt  # 118k images
val: data/val.txt  # 5k images
test: data/test.txt  # 20k images for submission to 2bbK9s2c8@1M7s2y4Q4x3@1q4Q4x3V1k6Q4x3V1k6U0L8$3#2H3k6i4c8A6N6r3W2G2L8Y4y4Q4x3X3g2U0L8$3c8S2L8r3q4T1i4K6u0W2L8%4u0Y4i4K6u0r3j5$3!0E0M7r3g2@1K9i4c8A6L8$3&6K6i4K6u0r3x3U0l9%4z5e0b7`.
 
# number of classes
nc: 1
 
# class names
names: ['skip']
 
# Print classes
# with open('data/coco.yaml') as f:
#   d = yaml.load(f, Loader=yaml.FullLoader)  # dict
#   for i, x in enumerate(d['names']):
#     print(i, x)
# YOLOv5by Ultralytics, GPL-3.0 license
 
# Parameters
nc: 1  # number of classes
depth_multiple: 0.33  # model depth multiple
width_multiple: 0.50  # layer channel multiple
anchors:
  - [10,13, 16,30, 33,23# P3/8
  - [30,61, 62,45, 59,119# P4/16
  - [116,90, 156,198, 373,326# P5/32
 
# YOLOv5 backbone
backbone:
  # [from, number, module, args]
  [[-1, 1, Focus, [64, 3]],  # 0-P1/2
   [-1, 1, Conv, [128, 3, 2]],  # 1-P2/4
   [-1, 3, C3, [128]],
   [-1, 1, Conv, [256, 3, 2]],  # 3-P3/8
   [-1, 9, C3, [256]],
   [-1, 1, Conv, [512, 3, 2]],  # 5-P4/16
   [-1, 9, C3, [512]],
   [-1, 1, Conv, [1024, 3, 2]],  # 7-P5/32
   [-1, 1, SPP, [1024, [5, 9, 13]]],
   [-1, 3, C3, [1024, False]],  # 9
  ]
 
# YOLOv5 head
head:
  [[-1, 1, Conv, [512, 1, 1]],
   [-1, 1, nn.Upsample, [None, 2, 'nearest']],
   [[-1, 6], 1, Concat, [1]],  # cat backbone P4
   [-1, 3, C3, [512, False]],  # 13
 
   [-1, 1, Conv, [256, 1, 1]],
   [-1, 1, nn.Upsample, [None, 2, 'nearest']],
   [[-1, 4], 1, Concat, [1]],  # cat backbone P3
   [-1, 3, C3, [256, False]],  # 17 (P3/8-small)
 
   [-1, 1, Conv, [256, 3, 2]],
   [[-1, 14], 1, Concat, [1]],  # cat head P4
   [-1, 3, C3, [512, False]],  # 20 (P4/16-medium)
 
   [-1, 1, Conv, [512, 3, 2]],
   [[-1, 10], 1, Concat, [1]],  # cat head P5
   [-1, 3, C3, [1024, False]],  # 23 (P5/32-large)
 
   [[17, 20, 23], 1, Detect, [nc, anchors]],  # Detect(P3, P4, P5)
  ]
# YOLOv5by Ultralytics, GPL-3.0 license
 
# Parameters
nc: 1  # number of classes
depth_multiple: 0.33  # model depth multiple
width_multiple: 0.50  # layer channel multiple
anchors:
  - [10,13, 16,30, 33,23# P3/8
  - [30,61, 62,45, 59,119# P4/16
  - [116,90, 156,198, 373,326# P5/32
 
# YOLOv5 backbone
backbone:
  # [from, number, module, args]
  [[-1, 1, Focus, [64, 3]],  # 0-P1/2
   [-1, 1, Conv, [128, 3, 2]],  # 1-P2/4
   [-1, 3, C3, [128]],
   [-1, 1, Conv, [256, 3, 2]],  # 3-P3/8
   [-1, 9, C3, [256]],
   [-1, 1, Conv, [512, 3, 2]],  # 5-P4/16
   [-1, 9, C3, [512]],
   [-1, 1, Conv, [1024, 3, 2]],  # 7-P5/32
   [-1, 1, SPP, [1024, [5, 9, 13]]],
   [-1, 3, C3, [1024, False]],  # 9
  ]
 
# YOLOv5 head
head:
  [[-1, 1, Conv, [512, 1, 1]],
   [-1, 1, nn.Upsample, [None, 2, 'nearest']],
   [[-1, 6], 1, Concat, [1]],  # cat backbone P4
   [-1, 3, C3, [512, False]],  # 13
 
   [-1, 1, Conv, [256, 1, 1]],
   [-1, 1, nn.Upsample, [None, 2, 'nearest']],
   [[-1, 4], 1, Concat, [1]],  # cat backbone P3
   [-1, 3, C3, [256, False]],  # 17 (P3/8-small)
 

[注意]看雪招聘,专注安全领域的专业人才平台!

最后于 2021-9-16 09:37 被obaby编辑 ,原因: 文档内容有问题,编辑器不支持火箭
收藏
免费 3
支持
分享
最新回复 (6)
雪    币: 14983
活跃值: (5300)
能力值: ( LV15,RANK:880 )
在线值:
发帖
回帖
粉丝
2

经过增加样本之后,目前训练模型已经能够基本识别到这些跳过按钮了。后续会继续进行安卓工程开发~~

帖子没人回复,看来大家对这个都不感兴趣~~


2021-9-23 21:24
0
雪    币: 3278
活跃值: (3169)
能力值: ( LV2,RANK:10 )
在线值:
发帖
回帖
粉丝
3
 用过3款跳过的软件, 自动跳过,轻启动,李跳跳.感觉速度都很快.假如用识别的话速度是多大呢。不过识别确实大有可为
2021-9-23 22:35
0
雪    币: 3212
活跃值: (883)
能力值: ( LV2,RANK:10 )
在线值:
发帖
回帖
粉丝
4
上网鱼 [em_13] 用过3款跳过的软件, 自动跳过,轻启动,李跳跳.感觉速度都很快.假如用识别的话速度是多大呢。不过识别确实大有可为
李跳跳识别跳过,如果输入框是跳过他也会点击
2021-9-26 08:51
0
雪    币: 864
活跃值: (5144)
能力值: ( LV2,RANK:10 )
在线值:
发帖
回帖
粉丝
5
感觉在杀鸡用牛刀
2021-9-26 10:00
0
雪    币:
能力值: ( LV1,RANK:0 )
在线值:
发帖
回帖
粉丝
6
楼主这个目前准确率能达到多少?识别速率上呢
2021-12-20 19:03
0
雪    币: 14983
活跃值: (5300)
能力值: ( LV15,RANK:880 )
在线值:
发帖
回帖
粉丝
7
albre 楼主这个目前准确率能达到多少?识别速率上呢
我整理了一下大概的效果对比:268K9s2c8@1M7q4)9K6b7g2)9J5c8W2)9J5c8X3R3@1j5$3E0Q4x3X3g2G2M7X3N6Q4x3X3g2U0L8W2)9J5c8U0t1H3x3U0q4Q4x3V1j5I4x3q4)9J5c8Y4W2G2L8r3!0$3y4g2)9J5k6q4)9J5y4f1f1@1i4K6t1#2b7U0S2Q4x3U0f1^5c8q4)9J5y4f1f1#2i4K6t1#2z5e0m8Q4x3U0f1^5b7#2)9J5y4f1f1&6i4K6t1#2z5f1u0Q4x3U0f1^5y4W2)9J5y4f1f1$3i4K6t1#2z5o6S2Q4x3U0f1&6x3q4)9J5y4f1f1$3i4K6t1#2z5e0k6Q4x3U0g2n7z5g2)9J5y4f1f1#2i4K6t1#2b7V1y4Q4x3U0f1^5c8W2)9J5k6q4)9J5y4f1f1$3i4K6t1#2z5e0g2Q4x3U0f1^5z5q4)9J5y4f1f1$3i4K6t1#2z5f1g2Q4x3U0f1&6b7#2)9J5y4f1f1#2i4K6t1#2b7f1k6Q4x3U0g2n7z5g2)9J5y4f1f1$3i4K6t1#2b7f1k6Q4x3U0f1&6y4q4)9J5c8W2)9J5y4X3&6T1M7%4m8Q4x3@1u0Q4c8f1k6Q4b7V1y4Q4z5p5y4Q4c8e0N6Q4z5f1u0Q4b7f1g2Q4c8e0g2Q4z5o6W2Q4z5p5c8Q4c8e0k6Q4b7e0S2Q4b7e0q4Q4c8e0g2Q4z5f1g2Q4z5p5u0Q4c8e0S2Q4b7V1c8Q4b7f1y4Q4c8e0k6Q4z5p5c8Q4b7e0u0Q4c8e0c8Q4b7U0W2Q4z5p5u0Q4c8e0g2Q4z5e0m8Q4z5p5g2Q4c8e0W2Q4z5o6y4Q4b7V1c8Q4c8e0g2Q4b7f1c8Q4z5e0S2Q4c8e0g2Q4z5f1y4Q4b7e0S2Q4c8e0c8Q4b7U0S2Q4z5o6m8Q4c8e0g2Q4b7f1g2Q4z5f1q4Q4c8e0N6Q4z5f1q4Q4z5o6c8Q4c8e0N6Q4b7U0u0Q4b7V1g2Q4c8e0g2Q4b7V1q4Q4b7e0k6Q4c8e0k6Q4z5p5c8Q4z5f1k6Q4c8e0g2Q4b7e0c8Q4b7U0q4Q4c8f1k6Q4b7V1y4Q4z5p5y4Q4c8e0k6Q4z5o6W2Q4z5o6m8Q4c8e0c8Q4b7V1u0Q4b7e0g2Q4c8e0N6Q4z5f1u0Q4b7f1g2Q4c8e0g2Q4z5o6W2Q4z5p5c8Q4c8e0S2Q4b7V1k6Q4z5e0S2Q4c8e0k6Q4b7U0u0Q4b7e0q4Q4c8e0k6Q4z5f1y4Q4z5o6W2Q4c8e0S2Q4b7V1k6Q4z5f1u0Q4c8e0S2Q4b7e0q4Q4z5p5y4Q4c8e0k6Q4z5f1y4Q4z5o6m8Q4c8e0N6Q4b7V1u0Q4z5o6S2Q4c8e0N6Q4z5f1q4Q4z5o6c8Q4c8e0W2Q4z5f1u0Q4z5o6k6Q4c8e0k6Q4z5o6S2Q4z5e0m8Q4c8e0y4Q4z5o6m8Q4z5o6t1`.
2021-12-22 09:21
0
游客
登录 | 注册 方可回帖
返回