基于机器视觉的垃圾自动分类系统设计

发布时间:2025-01-04 22:44

部分地方设有垃圾分类积分兑换系统。 #生活常识# #垃圾分类知识#

随着经济的快速发展,人们生活水平不断提高,在消费与生产的大循环里,垃圾数量随之激增.《国际联合早报》研究报告显示,到2050年,全球垃圾量将增加70%,将从2016年的20.1亿t增至2050年的34亿t,垃圾分类任务十分艰巨,研究一种有效的垃圾分类方法已经十分紧迫. 国内外学者针对垃圾分类作了大量分析[1-2],但提出的方案多为末端回收方法的创新[3-4]. 前端收集依赖于人们的自觉性,垃圾分类效率很低,研究一个有效的前端收集方法对于垃圾分类现状具有重要意义.

针对垃圾的前端收集,国外市场开始出现智能垃圾桶,如美国纳士达、德国ccko(cckoing)、泽顿和日本体感智能垃圾桶等,大多基于红外感应器、液晶显示屏进行设计. 国内也进行了相关研究,潘鹏等[5-7]分别设计基于NB-IOT技术、GPRS通讯和STC89C52的家用智能垃圾桶,使得垃圾桶具有自动分类、报警和监测可用容量等功能,但尚无法满足自动识别分类的需求.

随着人工智能技术的快速发展,机器视觉技术逐渐成熟,基于深度学习的图像分类方法逐步多样化,为本文垃圾识别的研究提供了新的方向,在垃圾识别[8-12]与图像分类[13-15]方面,学者作出了大量研究,并取得了一定效果. Zeng等[16]基于MSCNN进行大面积监测研究,对高光谱图像(hyperspectral imagery,HSI)具有很好的分类效果. Rabano等[17]使用轻量级MobiLeNet网络进行垃圾识别,精确度高达89.34%,能够很好地区分纸板材料. Xiong等[18]使用YOLOv3网络进行垃圾识别,对干湿垃圾达到了94.8%的检测精度,在复杂检测环境可以达到90.0%以上的正确率. 向伟等[19]通过改进CaffeNet模型,将水面垃圾识别率提高到95.75%. 这些方法虽然在检测精度上达到了很不错的效果,但需要大量数据,训练参数繁多. 近年来,得益于迁移学习,不依赖大数据能够获得优秀的分类效果. 廖祥文等[20]基于迁移学习和文本表示学习,对跨领域情感进行分类,该方法的均方根误差在IMDB和Yelp数据集中分别降低了1.5%和1.0%,具有良好的分类性能. 张野等[21]基于Inception v3神经网络模型,运用迁移学习方法对岩石图像进行自动识别与分类,所得模型对花岗岩、千枚岩和角砾岩的图像成像距离、像素大小的要求较低,具有良好的鲁棒性和泛化能力. 李冠东等[22]基于Inception v3模型,利用迁移学习的方法对高分影像场景进行分类,在UC Merced、AID和Wuhan7类场景影像这3类数据集上分别实现了99.0%、93.3%和96.6%的高准确率. 鉴于迁移学习在图像分类中的突出表现,该系统选用迁移学习方法,基于Inception v3模型对垃圾进行分类识别的研究.

本文提出基于机器视觉的垃圾自动分类系统. 设计垃圾分类的硬件系统,该系统可以满足可回收和不可回收垃圾分类的要求;利用迁移学习对Inception v3模型进行重新设计,利用预训练模型在本文的垃圾数据集上重新训练得到垃圾识别模型,与LeNet、AlexNet、Vgg和ResNet网络模型进行对比,验证模型的准确性,将模型部署在树莓派开发板上,完成整套的垃圾分类系统.

1. 硬件设计

1.1. 结构设计

采用UG软件对垃圾桶进行建模,整体结构见图1,系统高915 cm,内径为390 cm,本系统结构分为上、中、下3层,上层安装太阳能板、蓄电池、灯带、树莓派开发板和摄像头;中层安装机械传动装置,包括2个舵机、定轴拨板和半圆式挡板,其中挡板下方设有滚珠,与圆形轨道减少摩擦;下层安装双箱体,包括可回收与不可回收箱体,方便垃圾分类.

图 1

图 1  垃圾桶整体结构图

Fig.1  Structure of trash bin


太阳能发电装置:见图1(a). 该系统利用太阳能供电,节能环保.

舵机:舵机型号均为DS3218,扭矩为20 kg·cm,质量只有60 g,工作电压为5.0~6.5 V.

半圆式挡板:与舵机1相连,如图1(b)所示,垂直于定轴拨板,旋转时将识别为不可回收的垃圾正确归箱. 底部设有轴承座,通过滚珠与圆形轨道相连减小摩擦,如图1(d)所示,直径为384 cm.

定轴拨板:与舵机2相连,如图1(c)所示,固定于中心轴柱,旋转时将识别为可回收的垃圾正确归箱. 底部置有排刷,避免硬件摩擦损耗,如图1(e)所示,高150 cm,宽380 cm.

双箱体:位于筒身下方,分为可回收与不可回收2个箱体,如图1(f)所示,高为150 cm,直径为384 cm.

根据垃圾桶的建模结构设计图,进行实物制作,如图2所示.

图 2

图 2  垃圾桶实物图

Fig.2  Production of trash bin


1.2. 控制电路1.2.1. 开发板选取

依据系统的设计需要,所用开发板须包含图像接收单元,可连接摄像头获取由摄像头采集的图片;须包含图像处理单元,可处理采集的图像,对其进行种类识别;须包含舵机控制单元,连接1号舵机与2号舵机,用于根据图像处理单元所识别的种类驱动舵机,使得半圆式挡板与定轴拨板进行旋转,将垃圾落入正确箱体. 选取树莓派作为系统的开发板,树莓派是一种搭载Linux内核的单片微型计算机,应用广泛,可以灵活多变实现强大智能需求[23-25]. 树莓派3B+具有64位、1.4 GHz四核CPU,且搭载了集成博通Videocore-IV型GPU,拥有摄像机串行接口,契合该系统中对开发板的要求,故作为系统的开发板.

1.2.2. 控制电路设计

通过树莓派控制2个舵机实现对半圆式挡板与定轴拨板的控制,舵机1连接树莓派的3、2号引脚,舵机2连接树莓派的1、2号引脚,同时在11、30号引脚间连接指示灯,作为系统的状态指示,如图3所示.

图 3

图 3  舵机控制电路

Fig.3  Servo control circuit


在上述控制电路图中,树莓派通过摄像头采集丢入的垃圾图片进行识别,判断是否可回收,产生对应的PWM信号,驱动舵机进行相应动作. 当识别为不可回收时,舵机1动作,驱动半圆式挡板进行旋转,将垃圾投入不可回收箱中;当识别为可回收时,舵机2动作,使得定轴拨板进行旋转,将垃圾投入可回收箱中,完成自动分类的过程.

1.3. 手机APP

实现了对垃圾桶的地理位置信息和容量信息的监测与反馈,地理位置信息的检测用北斗GPS-ATK1218-BD模块;垃圾桶容量信息的检测用HY-SRF05超声波模块. 将采集的地理位置信息与容量信息数据通过无线网络上传至数据库,通过开发的APP调用查看,方便工作人员进行相应的管理与处理. 具体的开发流程如图4所示.

图 4

图 4  垃圾桶信息监测APP开发流程图

Fig.4  Development flow chart of information monitoring APP for garbage bin


2. 算法设计

2.1. 数据集

数据集来源于网上和现实生活拍照,共14种物体4 168张图片. 结合设计的垃圾分类硬件系统,将所有垃圾分为两大类,即可回收和不可回收,具体分类及每种垃圾数量见表1,其中训练样本占60%,即2 500张;验证样本数量占20%,即834张;测试样本占20%,即834张.

表 1  垃圾数据集

Tab.1  Garbage dataset

可回收数据集 不可回收数据集 分类 数量 分类 数量 书 217 塑料袋 425 水瓶 417 灯泡 206 毛巾 340 打包盒 296 纸盒 205 电池 276 金属 278 香蕉皮 343 碎玻璃 376 树叶 209 纸团 286 橘子皮 294

新窗口打开|下载CSV


2.2. 垃圾分类算法设计

以Inception v3为特征提取网络,网络结构见图5,Inception v3网络将较大的卷积分为若干个较小的卷积,在保证效果相同的前提下降低参数量,提升泛化能力. 该模型中有以下关键技术.

图 5

图 5  Inception v3的网络结构图

Fig.5  Network structure of Inception v3


2)使用LSR方法降低过拟合,采用独热编码的形式进行模型训练,输出为概率分布:

$p\left( {{k}/{x}} \right) = \frac{{\exp \; {z_k}} }{{\sum\limits_{i=1}^{ k} {\exp \; {{z_i}} } }}.$

(1)

为了解决过拟合问题,Inception v3采取以权重加入某一概率分布构成新的标签的方式进行处理,具体方式如下:

$q'\left( {\frac{y}{x}} \right){\rm{ = }}\left( {{\rm{1 - }}\alpha } \right)q\left( {\frac{y}{x}} \right){\rm{ + }}\alpha u\left(y \right).$

(2)

式中: $ \alpha \in \left( {{\rm{0,1.0}}} \right) $,使用均匀分布

$q'\left( {\frac{y}{x}} \right){\rm{ = }}\left( {{\rm{1 - }}\alpha } \right)q\left( {\frac{y}{x}} \right){\rm{ + }}\alpha K.$

(3)

$\begin{split} H\left( {q',p} \right) =& - \sum\limits_{k = 1}^K {\ln \; \left( {p\left( k \right)q'\left( k \right)} \right)} = \\ & \left( {1 - \alpha } \right)H\left( {q,p} \right) + \alpha H\left( {u,p} \right) \end{split}.$

(4)

3)使用2个1×n和n×1的卷积核取代n×n的卷积核,节省计算量.

Inception v3通过使用不同大小尺寸的过滤器,将得到的矩阵进行拼接,形成更深的矩阵. 该模型共46层,由11个Inception模块组成,结构如表2所示.

表 2  Inception v3结构表

Tab.2  Inception v3 model structure

类型 Kernel尺寸/步长 输入尺寸 卷积 3×3/2 299×299×3 卷积 3×3/1 149×149×32 卷积 3×3/1 147×147×32 池化 3×3/2 147×147×64 卷积 3×3/1 73×73×64 卷积 3×3/2 71×71×80 卷积 3×3/1 35×35×192 Inception模块组 3个Inception 模块 35×35×288 Inception模块组 5个Inception 模块 17×17×768 Inception模块组 3个Inception 模块 8×8×1280 池化 8×8 8×8×2048 线性 Logits 1×1×2048 Softmax 分类输出 1×1×1000

新窗口打开|下载CSV


从表2可以看出,Inception v3模型具有较深的网络结构,这使得网络具有一定的缺点,即网络深度和复杂度一般与错误率成反比. 为了降低网络深度带来的错误率,需要大量的数据作为训练样本;在实际生活中,收集规模巨大的数据样本并进行训练,将耗费大量的人力物力,且模型参数巨大,训练模型十分费时.

迁移学习的方法对于学习模型的成本较低,可以减少对数据的依赖性,加快训练速度,采用迁移学习方法对Inception v3模型进行重训练. 基于ImageNet数据集进行预训练,得到预训练模型;将Inception v3全连接层前的所有卷积层参数保留不变,将最后的全连接层的输出由原来的1 000变为14,因为本文识别14种垃圾种类;在本文的垃圾数据集上继续训练,得到垃圾识别分类模型.

3. 实验与结果

3.1. 实验环境和特征提取模型的准确性验证

选用的实验平台电脑配置如下:i5-6500 CPU,8 GRAM,64位window7操作系统,GPU配置为2颗Tesla-P100.

为了评估当前垃圾种类识别特征提取模型的性能,开展对比实验的设计. 在公共数据集cifar-10上进行验证,将Inception v3模型与当下较流行的LeNet、AlexNet、Vgg和ResNet模型进行对比,进行105次迭代训练. 训练完成后,各模型的准确率A和损失值L比较结果如图6所示.图中,N为训练次数.

图 6

图 6  5种模型训练的准确率和损失值

Fig.6  Accuracy and loss of five models


从图6可以看出,Inception v3的准确率比LeNet、AlexNet、Vgg和ResNet高,损失值比其他四者低. 为了更精确地证实本文的结论,将105次训练的准确率和损失值分为10组取平均值,结果见表3、4所示.表中,ALeNet、AAlexNet、AVgg、AResNet和AInv3分别为各对应模型的训练平均准确率,LLeNet、LAlexNet、LVgg、LResNet和LInv3分别为各对应模型的训练平均损失值. 可见,Inception v3的识别效果比LeNet、AlexNet、Vgg和ResNet好. 在105次训练中,LeNet的平均准确率最高达0.640,AlexNet达到0.859,VGG达到0.879,ResNet达到0.907,Inception v3达到0.957,平均准确率最高;LeNet平均损失值最低为1.031,AlexNet为0.389,VGG为0.338,ResNet为0.278,Inception v3低至0.154,平均损失值最低.

表 3  5种模型训练的平均准确率比较

Tab.3  Comparison of average accuracy of five models

组别 ALeNet AAlexNet AVgg AResNet AInv3 0~10 0.508 0.632 0.655 0.683 0.689 10~20 0.569 0.747 0.785 0.813 0.839 20~30 0.589 0.784 0.820 0.848 0.900 30~40 0.603 0.806 0.841 0.869 0.926 40~50 0.614 0.821 0.853 0.881 0.939 50~60 0.622 0.830 0.860 0.888 0.945 60~70 0.628 0.841 0.868 0.896 0.950 70~80 0.633 0.847 0.874 0.902 0.953 80~90 0.637 0.854 0.877 0.905 0.955 90~100 0.640 0.859 0.879 0.907 0.957

新窗口打开|下载CSV


表 4  5种模型训练的平均损失值比较

Tab.4  Comparison of average loss of five models

组别 LLeNet LAlexNet LVgg LResNet LInv3 0~10 1.400 1.046 0.971 0.911 0.874 10~20 1.234 0.723 0.615 0.555 0.456 20~30 1.176 0.616 0.509 0.449 0.283 30~40 1.137 0.551 0.449 0.389 0.212 40~50 1.108 0.507 0.414 0.354 0.180 50~60 1.086 0.473 0.392 0.332 0.169 60~70 1.069 0.447 0.370 0.310 0.160 70~80 1.053 0.424 0.355 0.295 0.155 80~90 1.041 0.406 0.343 0.283 0.153 90~100 1.031 0.389 0.338 0.278 0.154

新窗口打开|下载CSV


3.2. 垃圾分类模型的训练与分析

实验训练参数配置如下:训练批次大小为32,激活函数选择ReLU函数,学习率为0.001. 基于ImageNet数据集进行预训练,得到预训练模型;将Inception v3全连接层的输出由原来的1 000变为14,在本文的垃圾数据集上进行重新训练,训练后的正确率与损失率如图7所示. 图中,E为训练轮次. 可见,重训练后的模型准确率高达0.99,损失值低至0.01,在200轮训练中体现出很好的识别效果,精度能够达到垃圾识别分类的要求.

图 7

图 7  改进Inception v3模型训练结果图

Fig.7  Train results of improved Inception v3


为了验证所提方法的适应性,对Inception v3模型与结合迁移学习的方法进行对比. 在垃圾数据集上进行训练,2种模型的训练准确率如图8所示.

图 8

图 8  2种模型训练准确率对比图

Fig.8  Comparison of training accuracy of two models


如图8所示,未结合迁移学习的方法准确率只有0.96,结合了迁移学习的方法准确率达到了0.99,提高了3%,说明了该模型的适应性;对2种模型训练的参数量进行了对比,如表5所示. 表中,Pall为总参数量,Ptr为训练参数量,Pnt为未训练参数量,Rtr为训练参数比例.

表 5  2种模型的训练参数量

Tab.5  Training parameters of two models

模型 Pall Ptr Pnt Rtr/% Inception v3 23 915 310 23 880 878 34 432 99.86 迁移学习 23 915 310 2 112 526 21 802 784 8.83

新窗口打开|下载CSV


如表5所示,未结合迁移学习的Inception v3模型的训练参数量占整个模型参数的99.86%,几乎所有参数参与训练,结合迁移学习方法的训练参数量只占所有参数的8.83%,大大缩减了训练参数,提高了训练效率.

3.3. 模型识别测试与优化

在完成垃圾分类模型的训练后,对模型进行分类功能与识别速度的测试. 根据识别结果对垃圾分类模型进行优化,将采集到的垃圾图片作为模型的输入,测试100次,模型输出结果与真实结果的比较如表6所示. 可见,测试的14种垃圾都能够精确识别,准确可靠.

表 6  改进Inception v3模型的测试结果

Tab.6  Test results of improved Inception v3

可回收数据集 不可回收数据集 预测值 真实值 预测值 真实值 书 书 塑料袋 塑料袋 水瓶 水瓶 灯泡 灯泡 毛巾 毛巾 打包盒 打包盒 纸盒 纸盒 电池 电池 金属 金属 香蕉皮 香蕉皮 碎玻璃 碎玻璃 树叶 树叶 纸团 纸团 橘子皮 橘子皮

新窗口打开|下载CSV


测试对应的识别速度如图9所示. 图中,tr为识别时间, Ne为实验次数. 可见,系统运行稳定后,每完成一次垃圾分类识别的时间约为0.95 s,具有良好的识别速度.

图 9

图 9  系统稳定工作时垃圾种类识别速度图

Fig.9  Identification speed when the system works stably


为了避免垃圾桶在空载时发生误动作,通过实验随机模拟不同光照和干扰物等环境因素,进行100次测试. 每次空载测试时误识别为各物体的准确率不同,为了防止空载时的误动作,对14种垃圾分别设定识别阈值. 取100次空载误识别为每种垃圾的最大值作为垃圾桶拨板与挡板动作的控制基准值,可以有效地避免空载时发生误动作.

4. 系统测试

4.1. 驱动装置测试和照明装备测试

依次对14种垃圾进行识别,对驱动装置进行测试,舵机能够很好地驱动挡板与拨板的动作,实现垃圾的正确分类.

将太阳能板放置于太阳下给蓄电池充电,蓄电池给系统供电,使系统正常稳定工作,供灯带夜晚照明. 结果显示,太阳能板能够正常吸收太阳光,完成能源的收集;蓄电池有良好的性能,能够高效地进行充放电,能源损耗低,结果如图10所示.

图 10

图 10  照明装置测试结果图

Fig.10  Lighting equipment test result


4.2. APP测试

对开发的手机APP进行测试,结果如图11所示. 如图11(a)所示为APP主控界面,有“DATA”和“MAP”2个按钮;如图11(b)所示为“DATA”界面;如图11(c)所示为“MAP”界面,能够定位当前垃圾桶的位置,查看不同ID垃圾桶的经纬度,显示当前可回收与不可回收箱的可用容量. 经测试可知,手机APP能够稳定显示实时信息.

图 11

图 11  手机APP截图

Fig.11  Screenshot of APP


4.3. 物体识别测试

对模型的物体识别功能进行测试,训练好分类模型后,将生成的模型文件调用进行识别测试,具体测试结果如图12所示. 分别对14种垃圾进行测试,图12左上角有物体的标签和对应的正确率. 可以看出,图片中物体识别无误,效果良好,能够满足智能垃圾桶的工作要求,高效完成对垃圾种类的自动分类工作.

图 12

图 12  垃圾图片识别测试结果图

Fig.12  Recognition and test results of garbage pictures


4.4. 系统综合测试

对系统进行综合测试,结果如表7所示. 可见,系统对垃圾种类能够做到精确识别,系统的机械结构能够正常并正确地运行,驱动装置能够有效动作,该系统性能良好,能够很好地完成垃圾分类任务.

表 7  垃圾分类系统综合测试结果

Tab.7  Test results of garbage classfication system

种类 识别分类结果 半圆式挡板 定轴拨板 分类箱体 Book 可回收 不动作 动作 可回收 Plastic 不可回收 动作 不动作 不可回收 Bottle 可回收 不动作 动作 可回收 Bulb 不可回收 动作 不动作 不可回收 Towel 可回收 不动作 动作 可回收 Packing bag 不可回收 动作 不动作 不可回收 Carton 可回收 不动作 动作 可回收 Battery 不可回收 动作 不动作 不可回收 Metal 可回收 不动作 动作 可回收 Banana peel 不可回收 动作 不动作 不可回收 Broken glass 可回收 不动作 动作 可回收 Leaf 不可回收 动作 不动作 不可回收 Paper ball 可回收 不动作 动作 可回收 Orange peel 不可回收 动作 不动作 不可回收

新窗口打开|下载CSV


5. 结 语

本文针对垃圾分类问题,提出基于Inception v3特征提取网络模型和迁移学习相结合的图像分类方法;设计垃圾自动分类硬件系统,实现了对生活中常见垃圾的自动分类回收. 经测试可知,该分类方法有效,软硬件系统工作稳定,平均完成一次分类回收的时间为0.95 s,识别精度达到0.99;系统开发的APP信息监测实时、准确,展示了本文研究成果在垃圾分类和环境保护方面的广阔应用前景.

本文在研究过程中发现有一些问题值得进一步深入挖掘,首先可以在检测算法上作出更大的改进,提高对小垃圾的识别精度. 其次,可以研究设计多箱体垃圾桶或者其他结构的垃圾回收装置,满足更多目标类别的分拣需求.

参考文献

[2]

李文瀚, 马增益, 杨恩权, 等

循环流化床垃圾焚烧系统电除尘飞灰和布袋飞灰特性研究

[J]. 中国电机工程学报, 2019, 39 (5): 1397- 1405

[本文引用: 1]

LI Wen-han, MA Zeng-yi, YANG En-quan, et al

Study on characteristics of electric dust removal fly ash and bag fly ash in circulating fluidized bed waste incineration system

[J]. Chinese Journal of Electrical Engineering, 2019, 39 (5): 1397- 1405

[本文引用: 1]

[3]

任越, 杨俊杰, 曹洪军, 等

农村生活垃圾全自动全组分分类处理技术与应用

[J]. 农业工程学报, 2019, 35 (4): 248- 254

DOI:10.11975/j.issn.1002-6819.2019.04.031     [本文引用: 1]

REN Yue, YANG Jun-jie, CAO Hong-jun, et al

All components resourcing system of rural garbage based on post-gather automatic sorting and disposal technology and its application

[J]. Transactions of the Chinese Society of Agricultural Engineering, 2019, 35 (4): 248- 254

DOI:10.11975/j.issn.1002-6819.2019.04.031     [本文引用: 1]

[4]

赵冬娥, 吴瑞, 赵宝国, 等

高光谱成像的垃圾分类识别研究

[J]. 光谱学与光谱分析, 2019, 39 (3): 921- 926

[本文引用: 1]

ZHAO Dong-e, WU Rui, ZHAO Bao-guo, et al

Research on garbage classification and recognition of hyperspectral imaging

[J]. Spectroscopy and Spectral Analysis, 2019, 39 (3): 921- 926

[本文引用: 1]

[5]

潘鹏, 胡运峰, 秦金志, 等

一种基于NB-IOT的智能垃圾桶

[J]. 科技风, 2019, (1): 11

[本文引用: 1]

PAN Peng, HU Yun-feng, QIN Jin-zhi, et al

A smart trash can based on NB-IOT

[J]. Science and Technology, 2019, (1): 11

[本文引用: 1]

[6]

陈景翼, 李春燕, 盛宇彪, 等

基于GPRS通讯的智能垃圾桶硬件电路设计

[J]. 电工技术, 2019, (2): 18- 20

DOI:10.3969/j.issn.1002-1388.2019.02.008    

CHEN Jing-yi, LI Chun-yan, SHENG Yu-biao, et al

Intelligent hardware design of intelligent trash can based on GPRS communication

[J]. Electric Engineering, 2019, (2): 18- 20

DOI:10.3969/j.issn.1002-1388.2019.02.008    

[7]

白桂峰

基于STC89C52的家用智能垃圾桶设计

[J]. 自动化与仪表, 2019, 34 (3): 97- 100

[本文引用: 1]

BAI Gui-feng

Design of household intelligent wastebin based on STC89C52

[J]. Automation and Instrumentation, 2019, 34 (3): 97- 100

[本文引用: 1]

[8]

SALIMI I, DEWANTARA B S B, WIBOWO I K. Visual-based trash detection and classification system for smart trash bin robot [C]//2018 International Electronics Symposium on Knowledge Creation and Intelligent Computing. Bali: IEEE, 2018: 378-383.

[本文引用: 1]

[9]

SUDHA S, VIDHYALAKSHMI M, PAVITHRA K, et al. An automatic classification method for environment: friendly waste segregation using deep learning [C]//2016 IEEE Technological Innovations in ICT for Agriculture and Rural Development. Chennai: IEEE, 2016: 65-70.

[10]

SETIAWAN W, WAHYUDIN A, WIDIANTO G R. The use of scale invariant feature transform (SIFT) algorithms to identification garbage images based on product label [C]//2017 3rd International Conference on Science in Information Technology. Bandung: IEEE, 2017: 336-341.

[11]

PAPALITSAS C, ANDRONIKOS T

Unconventional GVNS for solving the garbage collection problem with time windows

[J]. Technologies, 2019, 7 (3): 61

DOI:10.3390/technologies7030061    

[12]

JAID JIM A A, KADIR R, MAMUN M A A, et al

A noble proposal for Internet of garbage bins (IoGB)

[J]. Smart Citie, 2019, 2 (2): 214- 229

DOI:10.3390/smartcities2020014     [本文引用: 1]

[13]

党宇, 张继贤, 邓喀中, 等

基于深度学习AlexNet的遥感影像地表覆盖分类评价研究

[J]. 地球信息科学学报, 2017, 19 (11): 1530- 1537

[本文引用: 1]

DANG Yu, ZHANG Ji-xian, DENG Ka-zhong, et al

Study on the evaluation of land cover classification using remote sensing images based on AlexNet

[J]. Journal of Geo Information Science, 2017, 19 (11): 1530- 1537

[本文引用: 1]

[14]

李余兴, 李亚安, 陈晓, 等

基于VMD和SVM的舰船辐射噪声特征提取及分类识别

[J]. 国防科技大学学报, 2019, 41 (1): 89- 94

DOI:10.11887/j.cn.201901013    

LI Yu-xing, LI Ya-an, CHEN Xiao, et al

Feature extraction and classification identification of ship radiated noise based on VMD and SVM

[J]. Journal of National University of Defense Technology, 2019, 41 (1): 89- 94

DOI:10.11887/j.cn.201901013    

[15]

周玉阳, 秦科. 改进的VGG网络可提升年龄与性别预测准确率[J/OL]. 计算机工程与应用, 2019, 55(18): 173-179. [2019-08-08]. http://kns.cnki.net/kcms/detail/11.2127.TP.20181108.1712.009.html.

[本文引用: 1]

ZHOU Yu-yang, QIN Ke. Improved VGG network can improve the accuracy of age and gender predicttion [J/OL]. Computer Engineering and Application, 2019, 55(18): 173-179. [2019-08-08]. http://kns.cnki.net/kcms/detail/11.2127.TP.20181108.1712.009.html.

[本文引用: 1]

[16]

ZENG D, ZHANG S, CHEN F, et al

Multi-scale CNN based garbage detection of airborne hyperspectral data

[J]. IEEE Access, 2019, (7): 104514- 104527

[本文引用: 1]

[17]

RABANO S L, CABATUAN M K, SYBINGCO E, et al. Common garbage classification using mobilenet [C]//2018 IEEE 10th International Conference on Humanoid, Nanotechnology, Information Technology, Communication and Control, Environment and Management. Baguio City, Philippines: IEEE, 2018: 1-4.

[本文引用: 1]

[18]

XIONG J, CUI W, ZHANG W, et al. YOLOv3-darknet with adaptive clustering anchor box for intelligent dry and wet garbage identification and classification [C]//2019 11th International Conference on Intelligent Human-Machine Systems and Cybernetics. Hangzhou: IEEE, 2019: 80-84.

[本文引用: 1]

[19]

向伟, 史晋芳, 刘桂华, 等

改进CaffeNet模型在水面垃圾识别中的应用

[J]. 传感器与微系统, 2019, 38 (8): 150- 152

[本文引用: 1]

XIANG Wei, SHI Jin-fang, LIU Gui-hua, et al

Application of improved CaffeNet model in water surface garbage identification

[J]. Transducer and Microsystem Technologies, 2019, 38 (8): 150- 152

[本文引用: 1]

[20]

廖祥文, 吴晓静, 桂林, 等

结合表示学习和迁移学习的跨领域情感分类

[J]. 北京大学学报: 自然科学版, 2019, 55 (1): 37- 46

[本文引用: 1]

LIAO Xiang-wen, WU Xiao-jing, GUI Lin, et al

Cross-domain sentiment classification combined with learning and migration learning

[J]. Journal of Peking University: Natural Science, 2019, 55 (1): 37- 46

[本文引用: 1]

[21]

张野, 李明超, 韩帅

基于岩石图像深度学习的岩性自动识别与分类方法

[J]. 岩石学报, 2018, 34 (2): 333- 342

[本文引用: 1]

ZHANG Ye, LI Ming-chao, HAN Shuai

Automatic identification and classification in lithology based on deep learning in rock images

[J]. Acta Petrologica Sinica, 2018, 34 (2): 333- 342

[本文引用: 1]

[22]

李冠东, 张春菊, 王铭恺

卷积神经网络迁移的高分影像场景分类学习

[J]. 测绘科学, 2019, 44 (4): 116- 123

[本文引用: 1]

LI Guan-dong, ZHANG Chun-ju, WANG Ming-kai

Classification learning of high score image scenes based on convolutional neural network migration

[J]. Science and Mapping Science, 2019, 44 (4): 116- 123

[本文引用: 1]

[23]

GUO W, LI W, YANG B, et al

A novel noninvasive and cost-effective handheld detector on soluble solids content of fruits

[J]. Journal of Food Engineering, 2019, 257: 1- 9

DOI:10.1016/j.jfoodeng.2019.03.022     [本文引用: 1]

[24]

BEASON R D, RIESCH R, KORICHEVA J

AURITA: an affo-rdable, autonomous recording device for acoustic monitoring of audible and ultrasonic frequencies

[J]. Bioacoustics, 2018, 28: 381- 396

[25]

LAI X, YANG T, WANG Z, et al

IoT implementation of Kalman filter to improve accuracy of air quality monitoring and prediction

[J]. Applied Sciences, 2019, 9: 1- 23

[本文引用: 1]

网址:基于机器视觉的垃圾自动分类系统设计 https://www.yuejiaxmz.com/news/view/644789

相关内容

毕业设计:基于机器学习的生活垃圾智能分类系统
基于单片机的语音识别智能垃圾桶垃圾分类的设计与实现
基于单片机的智能垃圾桶设计(51基础版)
基于机器视觉的清洁机器人控制系统分析(65页)
Springboot生活垃圾分类回收系统设计与实现
生活垃圾处理设备的垃圾分类流程垃圾中转系统, 环保机械设备, 垃圾分拣系统
46城强制垃圾分类 计划建成生活垃圾分类处理系统
基于opencv的家居智能安防机器视觉系统
基于深度学习的垃圾分类识别系统
一种智能分类垃圾桶系统的设计

随便看看