图像情境下的数字序列逻辑学习

2019-02-27 08:55梁慧曹峰钱宇华郭倩梁新彦
智能系统学报 2019年6期
关键词:逻辑神经网络维度

梁慧,曹峰,钱宇华,郭倩,梁新彦

(1.山西大学 大数据科学与产业研究院,山西 太原 030006; 2.山西大学 计算智能与中文信息处理教育部重点实验室,山西 太原 030006; 3.山西大学 计算机与信息技术学院,山西 太原 030006)

数字序列逻辑学习的发展可以说是经历了漫长的岁月,其可以追溯到人类早期历史。例如,古时满月的预测[1],并且其仍然是当今研究的活跃领域,在股市中,我们经常会听到有神奇数字时间之窗这一说法,其用到的波浪理论的数字基础就是一系列的数列,此数列称为fibonacci 序列。大自然中还有很多与fibonacci 序列有关的奇妙现象,如蜘蛛网、水流的旋涡、蜗牛壳的螺纹以及星系内星球的分布等。

数字序列逻辑学习问题是归纳推理和模式发现的经典问题之一[2-3],这些问题在哲学和数学领域中已经研究了数千年,在心理学和计算机科学领域中也已经研究了数十年[4]。近些年来随着机器学习和深度学习的不断发展[5-8],序列预测问题更是吸引了大家的广泛研究。数字序列预测问题在各个领域的应用也是相当的广泛。其可以编码渐进矩阵问题[9],该问题是用二维矩阵表示的,科学预测问题包括股票的预测、智商测试等,以及许多归纳推理问题[10-12]。早在1963 年,Simon等[13]就提出了针对一系列字母序列来预测的模式描述程序,并解释了人类如何从记忆中的概念或规则产生连续模式。Sanghi 等[14]提出了一种用于智力测试的程序,该程序还解决了各种数字序列预测问题。且针对数字序列预测问题的解决已有很多方法,例如:反统一算法成功应用于交替序列和斐波纳契序列。Siebers 等[15]提出了一种半分析方法用以解决自然数序列归纳问题,这实则是一种典型的智力测试任务,该方法通过术语结构的启发式枚举来猜测给定数字序列的术语结构,最后利用数字序列评估系统来评估该方法,最终结果精度达到93.2%。然而,其缺点是枚举和搜索受到一种看似合理的偏见的严格限制。Strannegard 等[16]提出了IQ 测试中数字序列预测问题的计算方法。该计算方法是通过开发ASolver 来实现的,ASolver 是一种基于有限工作记忆思想的拟人化认知系统,其利用了人类推理的模型。结果表明,该算法的性能优于Maple 和Wolfram-Alpha 等数学工具。Hofmann 等[17]证明了归纳程序系统IGOR2 可以解决数字序列预测问题,其不同于上述专门用于解决数字序列域中问题的系统,IGOR2 可以解决不同问题解决域中的问题。IGOR2 是一个从小组输入/输出示例中学习功能程序的系统。但不足之处在于其无法很好地处理负数和交替序列。Ragni 等[18-19]提出了一种基于人工神经网络(ANNs)的动态学习方法来解决数字序列的预测问题。其总体结果与人类水平相当,但误差分布差异很大,且无法解决Nested 序列问题(见2.1)。

上述方法都是传统的方法,它是基于已知的数字和规则来构建模式,然后预测数字。然而,传统数字序列逻辑学习也存在一定的不足,它很难解决未知数字和规则的模式构建的数字序列预测问题。例如,每月的天数序列、Nested 序列、交替序列、带负数的序列等。举一个更为具体的例子: 1 )2,4,6,8,10,12,···, 2)1,2,3,5,4,4,2,···, 对于第1 个序列,可以明显地观察到其是一个加2 的规律,这样就可以构建一个满足该规律的模式,传统数字序列技术可以很容易地解决此类预测问题。对于第2 个序列,难以看出其中的规律,且很难用传统方法得到一种满足此序列的模式来预测该序列,实际上该序列是书写汉字如一二三四等需要的笔画数,故而下一个预测结果应为2。

针对传统数字序列逻辑学习的不足,本文提出了图像数字序列逻辑学习任务,以从另一个角度来解决数字序列预测问题,其可以很好地解决传统数字序列难以解决的未知数字和规则的模式构建的序列预测问题。在传统数字序列逻辑学习中,数字的含义及其规则都已被事先定义。而本文提出的图像数字序列逻辑学习是在不知道图像间关系和图像内包含的内容的意义的前提下,仍可以自动学习出其包含的内在逻辑模式。在本文中,图像序列中的所有图像都是15×85 像素的黑白图像,且每张图像包含一个多位数。然后将图像传递给计算机,且并不告诉计算机图像中包含的内容是什么,让计算机自动学习图像之间的内在逻辑模式,并且预测下一张图像中的内容。由此看来,图像数字序列逻辑学习不仅可以解决数字序列预测问题,更是为解决一系列未知逻辑模式构建任务提供了一种可能。

1 研究方法

本节主要介绍了图像数字序列逻辑学习的基本任务,并详细描述了4 种有代表性的深度神经网络的网络结构(MLP、LSTM、CNN_MLP、ResNet)。

1.1 基本任务

图像数字序列逻辑学习是从另一个角度来解决数字序列预测问题,其与传统数字序列解决方案不同。传统数字序列技术是在已知数字和规则的前提下构建模式。而本文的方法是在不知道图像间关系和图像内包含的内容的意义下来预测序列,然后利用深度神经网络来完成数字序列逻辑学习任务,该任务的输入是几张相关的图像序列,其输出仍然是图像,展示的是下一张图像序列预测的结果。

首先将图像序列传送给计算机,让计算机在不知道图像间关系和图像内包含的内容的意义的前提下自动学习出其内在逻辑模式,从而进行数字序列的预测。所有这些图像都是黑白图像,右对齐,大小归一化(15×85),每张图像包含一个多位数,其可以是正数或负数,每张图像中的最大位数设置为10。如图1 所示,其中图1(a)的位数设置为9 位,图1(b)位数设置为10 位,图1(c)位数设置为11 位,原本数字为32 282 246 720,由于超出位数的设定,图像中最左位的数字无法完全显示,图1(d)为负数情形,位数设置为10 位(除符号位)。然后本文使用几种代表性的深度神经网络来完成数字序列逻辑学习任务,并加以比较分析。给出网络结构的详细描述。最后,为了测试本文的网络性能,本文以某种逻辑关系随机生成一批测试样本,每个样本包括k张图像,将前k−1 张图像传入模型中,测试生成的图像是否正确。

图1 图像展示Fig.1 Image display

1.2 网络结构

本文在构造的数据集上比较了几种有代表性的深度神经网络的性能(MLP、LSTM、CNN_MLP、ResNet)。数据集的构造详见2.1。全部模型均使用均方误差(MSE) 损失作为优化函数,ADAM[20]作为优化器,衰减率参数设置为β1=0.9,β2=0.999。每个网络的详细结构和超参数设置如图2。

图2 4 种神经网络结构Fig.2 Four neural network structures.

多层感知机(MLP) 在本文中,使用一个4 层的多层感知机网络来构建模型,该模型包含输入层、隐藏层和输出层。采用一个3 层架构的隐藏层,每个隐藏层将线性整流函数(ReLU)[21]作为激活函数。使用Sigmoid 函数作为网络的输出层。网络结构如图2(a)所示。

长短期记忆网络(LSTM) 本文采用标准的LSTM 网络结构,它是一种特殊的RNN,主要是为了解决长序列训练过程中的梯度消失等问题[22]。而且由于LSTM 是按顺序地接收输入数据,这非常适合于本文的序列预测问题。本文将图像特征向 量ϕ(xi) 按 顺 序 地 传 入LSTM 中 以 编 码 隐 藏 状态hi, 其输出ht依赖于以前的状态ht-1,当前的观察ϕ(xt) 以及上一时刻的单元状态ct-1。其单元状态和隐藏状态公式如下:

式中:ct是t时刻的单元状态;f、i和o分别表示遗忘门、输入门和输出门;表示当前输入的单元状态。结构如图2(b)所示。

卷积-全连接神经网络(CNN-MLP)本文使用一个标准的4层卷积神经网络[23-24],并将ReLU非线性函数作为卷积层的激活函数,在卷积输出层后连接一个2层的全连接层(MLP)。为防止过拟合在第一个全连接层上使用丢失率为0.5 的dropout[25]技术。结构及其超参数设置如图2(c)所示。

深度残差网络(ResNet)深度残差网络有很多不同的结构[26],包括ResNet18、34、50、101、152 等,在本文实验中,这几种网络的实验效果相差无几,所以在这里仅展示了ResNet18 的实验结果。其结构如图2(d)所示。

本文的具体步骤如下:在训练阶段,传递给计算机N张图像,每张图像包含一个多位数,如图3所示(假设N=4),而且并不告知计算机每张图像中包含的内容是什么,然后使用以上所提及的深度神经网络来完成数字序列逻辑学习任务,以便计算机可以从前3 张图像间的逻辑模式自动学习第4 张图像。在测试阶段,以某种逻辑关系随机生成一批测试样本,每个样本包括4 张图像,将前3 张图像放入模型中,以查看是否可以生成正确的预测图像。

图3 计算机不知道给定图像中所包含的内容是什么Fig.3 The computer doesn't know what the content in the given image is

对于数据分析,本文系统地改变学习速率、批量大小、隐藏节点的数量和训练迭代等。这些变化应该允许将不同的神经网络模型与经验结果进行比较。此外,本文将在所构造的数据集上对比分析不同的深度神经网络模型的性能,进一步验证本文所提出的图像数字序列逻辑学习对未知数字和规则的模式构建的序列预测的有效性。

2 实验及分析

本节详细介绍了图像序列数据集的构造过程及原则,并在所构造数据集上利用深度神经网络对各维度的图像数字序列的预测加以分析比较。

2.1 数据集

正如本文前面所提及,图像数字序列预测问题的解决方法与传统数字序列的解决方法不同,它从另一种角度来解决数字序列预测问题。传统数字序列是在已知数字的意义下,然后根据序列背景知识、结构复杂性等进行模式的构建,从而求解数字序列,而本文的方法是计算机在不知道如图3 所示的a、b、c、d以及A、B、C、D间关系的前提下自动地学习出其中所包含的内在逻辑模式,进而预测出所要求解的图像。

本文构造了4 个大的数据集,其包含各种图像序列,在本文中,根据其解决方案的不同将数据集分为4 种不同的类型,分别为:Linear、Multiplication、Fio 和Nested。各类型图像序列的详细描述如下:1)Linear 序列下一张图像的生成仅与前一张图像内容相关联,与其他项内容无关,其仅涉及“+”和“−”两种数学运算,例如等差序列就是Linear 序列的一个特例;2)Multiplication 序列仅包含“×”运算符,并且其每张图像的生成原理与Linear 序列的生成原理相同,即仅与前一张图像内容相关;3)Fio 序列不仅与前一张图像的内容相关联,而且与前2 张图像的内容相关联,所涉及的运算符包括“+”和“−”。例如Fibonacci 序列就是Fio 序列的一个特例;4)对于Nested 序列而言,其包含更多的操作运算符:“+”、“−”和“×”,并且其运算不仅仅与前2 项相关,还与任意的随机常数项相关联。用数学公式可以表述为:

式中:f(n) 表示当前图像;f(n-1) 表示前一张图像。式 (3) ~ (4) 均是Nested 序列的数学表述。从另一层面来讲,它可以说是Multiplication 序列、Linear 序列和Fio 序列的复杂混合序列。

本文整个数据集的构造原则:1)为方便构造数据集,本文只考虑整数图像序列,图像序列可以包含正数或负数;2)每张图像都包含一个多位数,且每张图像中的最大位数设置为10。所有这些图像均是黑白图像,对齐和尺寸标准化(15×85);3)每张图像位数的设置最大为10 位,本文选择的数据集仅是一个小样本集,其在总集(即我们数据的变动范围[−999 999 999 9, 999 999 999])中的占比很小,也就是说,本文确保训练集、测试集互不相交。本文为每种类型的数据集均选择了60 000 的图像数字序列,其中50 000 用于训练,10 000 用于测试。Linear 序列、Multiplication 序列、Fio 序列和Nested 序列的部分数据集如图4~7 所示(以4 维的图像数字序列为例)。

图4 Linear 序列Fig.4 Linear sequences

图5 Multiplication 序列Fig.5 Multiplication sequences

图6 Fio 序列Fig.6 Fio sequences

图7 Nested 序列Fig.7 Nested sequences

2.2 实验结果及分析

到目前为止,解决数字序列预测的方法几乎都是在基于给定数字的含义下,通过归纳序列的潜在规律,构建出满足该数字序列规律的模式,从而预测数字。而且,对于传统数字序列而言,其模式的长度与最终的预测结果有很大的关系,即输入节点的数量对最终预测结果的准确率有极大的影响。Ragni 等[18]提出了一种基于人工神经网络的动态学习方法来解决数字序列预测问题,该实验结果表明:输入节点的最佳配置为4 个节点。因此,本文对输入维度,即输入的图像数进行了实验并加以分析比较。

本文对已构建的4 个数据集进行了维度上的扩展,分别扩展为4 维图像序列、5 维图像序列和6 维图像序列,这里并没有扩展3 维图像序列,因为它的不确定性太大,例如本文的Fio 序列,其并非简单地与最后一个数字有关,而是与最后2 个数字相关联。关于数据集及其分类部分在3.1 节中已有详细介绍,此处将不再赘述。

对于实验1,首先给定计算机4 张图像,与此同时并不告知计算机每张图像中包含的内容是什么,在学习过程中,本文利用4 种代表性的深度神经网络(MLP、LSTM、CNN_MLP、ResNet)来完成数字序列逻辑学习任务,以便计算机可以从前3 张图像间的逻辑模式自动学习出第4 张图像。在测试阶段,本文任意输入4 维图像序列,并将前3 张图像放入模型中进行测试,使用OCR 工具[27]来识别得到的预测图像,将OCR 的结果与期望输出进行比较,并计算预测正确的百分比。

对于实验2,其步骤与实验1 几乎相同。区别之处在于:在学习阶段,本文给计算机提供5 张图像,让计算机自动学习每张图像间的内在逻辑模式。在测试阶段,输入5 维图像序列,并将前4 张图像传递到模型中以预测结果的正确性。

对于实验3,步骤与前2 个实验几乎相同。不同的是,在学习阶段,本文给计算机提供6 张图像,让计算机自动学习出每张图像间的逻辑模式。在测试阶段,本文输入6 维图像序列,并将前5 张图像传入模型进行测试,以检测本文是否可以生成具有正确结果的图像。

本文利用上述提及的4 种深度神经网络模型对每个实验进行了准确度的测试,实验结果如表1所示,从表1 可以看到4 种神经网络模型可以很好地预测Linear 序列和Fio 序列,且维度越高,预测准确率越高。对Multiplication 序列和Nested 序列而言,MLP 模型和LSTM 模型对这2 种序列的预测均呈现一种维度越高准确率越低的趋势。相反,CNN_MLP 模型和ResNet 模型呈现一种维度越高,预测的准确率越高的情形,且ResNet 模型对于这2 种序列的预测结果总体而言要优于其他的模型。

表1 4 种神经网络模型在本文数据集上的实验结果Table 1 Experimental results on the our own dataset for the four neural network models

本文对4 种深度神经网络模型在4 维、5 维和6 维图像序列的性能比较见图8~10。从各个维度图像序列的折线图中可以明显观察到,4 种模型可以很好地预测Linear 序列和Fio 序列的结果,无论它们是4 维、5 维还是6 维图像序列,且维度越高,准确率越高。这可能是由于Linear 序列和Fio 序列自身规律较为简单,例如,给定Linear 图像序列5、7、9,预测结果11,计算机可以很明显知道是一个加2 的规律,进而可以很容易地学到内在逻辑模式,从而进行序列的预测。

4 种深度神经网络模型在4 维图像序列的性能比较见图8,LSTM 对Multiplication 序列的预测准确率明显高于其它模型,但当维度升高时,如图9~10 所示,可以看到LSTM 模型对该序列的预测下降了,而ResNet 和CNN_MLP 模型对于该序列的预测效果呈现越来越好的趋势,这可能是由于ResNet 和CNN_MLP 网络模型较为复杂,当维度越高其获得的信息就会越多,越是可以较为准确的学到该图像序列的逻辑模式。而LSTM 模型可能由于维度越高,其更易受到其子序列的影响。例如6 维图像序列:1、2、4、8、16,预测32,该图像序列中包含子序列1、4、16 和2、8 等。在LSTM 模型中其极易受到子序列的影响,从而致使预测结果有误,如子序列1、4、16,其是一个乘4 的规律,有可能下一个数预测为64,而当只给定4 维图像序列时,如2、4、8,预测结果16,其反而较易进行该序列的预测。

图8 4 种深度神经网络模型在4 维图像序列中的性能比较Fig.8 A comparison on performance of four kinds of deep neural network models in 4-dimensional image sequences

图9 4 种深度神经网络模型在5 维图像序列中的性能比较Fig.9 A comparison on performance of four kinds of deep neural network models in 5-dimensional image sequences

图10 4 种深度神经网络模型在6 维图像序列中的性能比较Fig.10 A comparison on performance of four kinds of deep neural network models in 6-dimensional image sequences

对4 维和5 维图像序列的性能比较见图8~9,各模型对于Nested 序列的预测均集中在一定的范围,这可能是由于Nested 序列较为复杂,所有模型在该序列上的性能没有太大区别,但随着维度增高,从图10 可以发现ResNet 和CNN_MLP 模型对于该序列的预测稍有提升,而MLP和LSTM 模型对于此序列的预测又有所下降,这可能是由于MLP 和LSTM 模型较为简单,而Res-Net 和CNN_MLP 模型较为复杂,对于这种复杂序列,随着维数增高,复杂模型在图像序列的预测上其准确率极有可能上升,而简单模型的准确率极易下降。

此外,本文分析比较4 种深度神经网络模型在Linear 序列、Fio 序列、Multiplication 序列和Nested 序列上的性能,如图11~14。从图11可以发现:随着维数的增高,各模型对于Linear 序列预测的准确率提升并不明显,这可能是与Linear 序列自身的规律有关,其规则是仅与前一项内容相关联,而与其他项无关,所以当维数增高时,计算机所获得的序列的内在逻辑模式的信息实则是没有太大的变化,例如,给定序列2、3、4,预测结果5,计算机可以很明显知道其是一个加1 的规律,当再给定序列1、2、3、4 预测下一个内容时,计算机并没有从中得到更多的信息,故而维度虽然增高了,但其准确率的变化并没有很大改变。

图11 4 种深度神经网络模型在Linear 序列上的性能比较Fig.11 A comparison on performance of four kinds of deep neural network models in Linear sequences

图12 4 种深度神经网络模型在Fio 序列上的性能比较Fig.12 A comparison on performance of four kinds of deep neural network models in Fio sequences

图13 4 种深度神经网络模型在Multiplication 序列上的性能比较Fig.13 A comparison on performance of four kinds of deep neural network models in Multiplication sequences

图14 4 种深度神经网络模型在Nested 序列上的性能比较Fig.14 A comparison on performance of four kinds of deep neural network models in Nested sequences

对比图12 的Fio 序列,其规则是不仅仅与前一项内容相关联,而且与前两项的内容相关,这就使得当维数越高,即给定的图像数越多,计算机得到的图像间的信息就会越多,就越易预测该序列,可以很明显地看到图12 中准确率的提升随着维数的增高越来越明显。

Multiplication 序列和Nested 序列的性能比较见图13~14,从图中可以看出维度越高,对于CNN_MLP 和ResNet 模型而言预测的准确率越高。相反,MLP 和LSTM 模型对于这2 种序列的预测均呈现一种维度越高准确率越低的趋势。这可能是由于CNN_MLP 和ResNet 模型自身较为复杂,其对于这种复杂序列来说,其预测精度反而是易于随着维数增高而增大。而对于MLP 和LSTM 模型而言,其模型自身较为简单,加之Multiplication 序列和Nested 序列又较为复杂,相当于是个模型简单任务难的问题,其对于此序列的预测难度就会加大,容易导致维度越高准确率越低的情况。

2.3 结果分析

本小节从视觉效果的角度展示了每种类型图像序列在不同维度上的实验结果,如图15~17所示(其中包括正确的预测和错误的预测)。

图15 4 维图像序列Fig.15 4-dimensional image sequences

图16 5 维图像序列Fig.16 5-dimensional image sequences

本文仅展示了4 维、5 维、6 维图像序列的部分实验结果。从这些实验结果发现预测误差的原因可能如下:1) 当输出图像模糊时,很容易引起OCR 工具识别错误,例如图15 中的Fio 序列,观察错误的那一栏,当输出图像模糊时,图像中输出结果的第2 位(从右往左)有可能是6 或8,这就极易导致OCR 的识别出错,再如,图15~16中的Multiplication 序列,图16 中的Linear 序列和Fio 序列等。2) 其对负号的图像预测有时是不准确的,例如图17 中的Multiplication 序列和Nested 序列等。3) 结果输出中的位数越大,其预测出错的可能性就会越大,因为计算位数越大,相对而言,其难度就会越大,预测错误的可能性就会加大。

图17 6 维图像序列Fig.17 6-dimensional image sequences

3 结束语

数字序列逻辑学习任务一直以来都是人工智能的一个研究热点。而且未知的数字和规则的模型构建数字序列问题的预测始终是一个具有挑战性的任务。传统的数字序列技术是基于已知数字的含义下,并根据序列本身的规律特征构造满足该规律的模式,以便进行数字序列的预测。本文的方法是在不知道图像间关系和图像内包含的内容的意义的情况下利用深度学习的方法完成数字序列逻辑学习任务来预测下一张图像内容。同时,人类对于这种未知的数字和规则的模型构建的数字序列极易限制其中,无法快速计算出结果甚至无法得到正确结果。而本文所提出的方法为解决此类序列问题提供了一种可能。

在未来的工作中,我们将进一步探索如何提高精度及对缺失数据的预测,同时期望可以对任意位置的图像内容进行预测,而非单一地对下一张的图像内容进行预测,特别地,下一步希望可以提出更适用于数字预测逻辑学习任务的模型以求精度上面的突破。

参考文献::

[1]BOGOSHI J.The oldest mathematical artefact[J].The mathematical gazette, 1987, 71(458): 294-294.

[2]SCHMID U, KITZELMANN E.Inductive rule learning on the knowledge level[J].Cognitive systems research, 2011,12(3/4): 237-248.

[4]COLTON S, BUNDY A, WALSH T.Automatic Invention of Integer Sequences[M]// The fertility of the soil /.Cambridge University Press AAAI/IAAI, 2000: 558-563.

[5]QIAN Y, LI F J, LIANG J Y, et al.Space structure and clustering of categorical data[J].IEEE transactions on neural networks and learning systems, 2016, 27(10):2047-2059.

[6]QIAN Y, XU H, LIANG J Y, et al.Fusing monotonic decision trees[J].IEEE transactions on knowledge and data engineering, 2015, 27(10): 2717-2728.

[7]QIAN Y, LI Y, LIANG J, et al.Fuzzy granular structure distance[J].IEEE transactions on fuzzy systems, 2015,23(6): 2245-2259.

[8]QIAN Y, LIANG J, PEDRYCZ W, et al.Positive approximation: An accelerator for attribute reduction in rough set theory[J].Artificial intelligence, 2010, 174(9/10):597-618.

[9]RAVEN J, et al.Raven progressive matrices[M].Handbook of Nonverbal Assessment, 2003, 223-237.

[10]MUGGLETON S, CHEN J.Guest editorial: special issue on inductive logic programming (ILP 2011)[J].Machine learning, 2012, 89(3): 213-214.

[11]HOLZMAN T G, PELLIGRINO J W, GLASER R.Cognitive dimensions of numerical rule induction[J].Journal of educational psychology, 1982, 74(3): 360-373.

[12]STERNBERG R.J.Handbook of Intelligence[M].Cambridge University Press, 2000.

1) 城乡规划学走向计量化的过程中,以计算的基础为数据,而在大数据时代,该学科具有海量的数据,可在数据分析和数据挖掘等技术的配合作用下,提升城乡规划计量水平,并实现对数据资源的高效利用[1];

[13]SIMON H A, KOTOVSKY K.Human acquisition of concepts for sequential patterns[J].Psychological review,1963, 70(6): 534-546.

[14]SANGHI P, DOWE D.L, A computer program capable of passing I.Q.tests[C]//4th Int.Conf.on Cognitive Science(ICCS'03), Sydney, 2003: 570−575.

[15]SIEBERS M, SCHMID U.Semi-analytic natural number series induction[J].Advances in artificial intelligence,2012, 7526: 249-252.

[16]STRANNEGARD C, AMIRGHASEMI M, ULFSBACKER S.An anthropomorphic method for number sequence problems[J].Cognitive systems research, 2013, 22-23:27-34.

[17]HOFMANN J, KITZELMANN E, SCHMID U.Applying inductive program synthesis to induction of number series a case study with IGOR2[J].Joint german/austrian conference on artificial intelligence(Künstliche Intelligenz).Springer, Cham, 2014: 25-36.

[18]RAGNI M, KLEIN A.Predicting numbers: An AI approach to solving number series[C]// German Conference on Advances in Artificial Intelligence.Springer, Berlin,Heidelberg, 2011:255−259.

[19]RAGNI M, KLEIN A.Solving number series - architectural properties of successful artificial neural networks[C]// NCTA 2011- Proceedings of the International Conference on Neural Computation Theory and Applications, 2011: 224-229.

[20]KINGMA D P, BA J.Adam: A method for stochastic optimization.[C]//Proceedings of the 3rd International Comference on Learning Representations, San Diego, arXiv prerint arXiv: 1412.6980, 2014.

[21]LECUN Y, BENGIO Y, Hinton G.Deep learning[M].Nature, 2015, 521(7553):436.

[22]HOCHREITER S, SCHMIDHUBER, JÜRGEN.Long short-term memory[J].Neural computation, 1997, 9(8):1735-1780.

[23]CHUMERIN N.Convolutional neural network[J].Neurocomputing, 2015, 148: 136-142.

[24]KRIZHEVSKY A, SUTSKEVER I, HINTON G E.Imagenet classification with deep convolutional neural networks[J].In: advances in neural information processing systems, 2012: 1097-1105.

[25]SRIVASTAVA N, HINTON G, KRIZHEVSKY A, et al.Dropout: a simple way to prevent neural networks from overfitting[J].Journal of machine learning research, 2014,15(1): 1929-1958.

[26]HE K, ZHANG X, REN S, et al.Deep residual learning for image recognition[J].In proceedings of the IEEE conference on computer vision and pattern recognition, 2016:770-778.

[27]SMITH R.An overview of the tesseract OCR engine[C]//icdar.IEEE Computer Society, 2007, 2: 629-633.

猜你喜欢
逻辑神经网络维度
刑事印证证明准确达成的逻辑反思
基于递归模糊神经网络的风电平滑控制策略
理解“第三次理论飞跃”的三个维度
逻辑
创新的逻辑
认识党性的五个重要维度
浅论诗中“史”识的四个维度
神经网络抑制无线通信干扰探究
基于神经网络的中小学生情感分析
女人买买买的神逻辑