博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
Google开源Inception-ResNet-v2,提升图像分类水准
阅读量:6515 次
发布时间:2019-06-24

本文共 1189 字,大约阅读时间需要 3 分钟。

2016年8月31日,Google团队宣布针对TensorFlow开源了最新发布的TF-slim资料库,它是一个可以定义、训练和评估模型的轻量级的软件包,也能对图像分类领域中几个主要有竞争力的网络进行检验和定义模型。

为了进一步推进这个领域的进步,今天Google团队宣布发布Inception-ResNet-v2(一种卷积神经网络——CNN),它在ILSVRC图像分类基准测试中实现了当下最好的成绩。Inception-ResNet-v2是早期Inception V3模型变化而来,从微软的残差网络(ResNet)论文中得到了一些灵感。相关论文信息可以参看我们的论文Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning(Inception-v4, Inception-ResNet以及残差连接在学习上的影响):

image

残差连接(Residual connections )允许模型中存在shortcuts,可以让研究学者成功地训练更深的神经网络(能够获得更好的表现),这样也能明显地简化Inception块。将两种模型架构对比,见下图:

image

image

在第二幅Inception-ResNet-v2图中最上部分,你能看到整个网络扩展了。注意该网络被认为比先前的Inception V3还要深一些。在图中主要部分重复的残差区块已经被压缩了,所以整个网络看起来更加直观。另外注意到图中inception区块被简化了,比先前的Inception V3种要包含更少的并行塔 (parallel towers)。

如下方图表所示,Inception-ResNet-v2架构的精确度比之前的最优模型更高,图表中所示为基于单个图像的ILSVRC 2012图像分类标准得出的排行第一与排行第五的有效精确度。此外,该新模型仅仅要求两倍于Inception v3的容量与计算能力。

image

例如,尽管Inception v3与Inception-ResNet-v2都很擅长识别每一条狗所属的类别,这种新模型的性能更为显著。例如,旧模型可能会错误地将右边的图片识别为阿拉斯加雪橇犬,新模型Inception-ResNet-v2能够准确地识别两个图片中狗的类别。

image

阿拉斯加雪橇犬(左)和西伯利亚雪橇犬(右)。图片来源:维基百科。

为了使人们理解开始试验,我们也将要发布新型Inception-ResNet-v2预训练实例,作为TF-Slim 图像模型库的组成部分。

看到本研究领域关于这一经过改进的模型所取得的进展,而且人们开始采用这种新模型,并将其性能在多种任务作对比,我们为此感到非常兴奋。你也想要开始使用这种新模型吗?让我们一起来看看附带的操作指示,学会如何训练,评估或微调一个网络。

文章转载自 开源中国社区[

你可能感兴趣的文章
生成器与迭代器
查看>>
方法(method)和函数(function)区别
查看>>
mysql数据库学习——3,表的创建,删除和变更
查看>>
express
查看>>
渐进式的脚本加载
查看>>
Python参数传递(传值&传引用)
查看>>
在windows上如何安装python web引擎jinja2
查看>>
移动短信网关模拟器
查看>>
Python爬虫学习笔记之微信宫格验证码的识别(存在问题)
查看>>
Linux下的进程间通信(三)
查看>>
dva框架的下拉菜单的父子关系
查看>>
mysql 创建用户,授权
查看>>
基于Redis实现分布式锁
查看>>
ubuntu14.04+FSL5.0 安装
查看>>
maven mirror
查看>>
NewSQL 介绍
查看>>
9.2ArrayList 集合 案例,学生管理系统
查看>>
修改版的echojs支持iScroll
查看>>
20181023-2 贡献分配
查看>>
CentOS 7 关闭启动防火墙
查看>>