英语论文网

留学生硕士论文 英国论文 日语论文 澳洲论文 Turnitin剽窃检测 英语论文发表 留学中国 欧美文学特区 论文寄售中心 论文翻译中心 我要定制

Bussiness ManagementMBAstrategyHuman ResourceMarketingHospitalityE-commerceInternational Tradingproject managementmedia managementLogisticsFinanceAccountingadvertisingLawBusiness LawEducationEconomicsBusiness Reportbusiness planresearch proposal

英语论文题目英语教学英语论文商务英语英语论文格式商务英语翻译广告英语商务英语商务英语教学英语翻译论文英美文学英语语言学文化交流中西方文化差异英语论文范文英语论文开题报告初中英语教学英语论文文献综述英语论文参考文献

ResumeRecommendation LetterMotivation LetterPSapplication letterMBA essayBusiness Letteradmission letter Offer letter

澳大利亚论文英国论文加拿大论文芬兰论文瑞典论文澳洲论文新西兰论文法国论文香港论文挪威论文美国论文泰国论文马来西亚论文台湾论文新加坡论文荷兰论文南非论文西班牙论文爱尔兰论文

小学英语教学初中英语教学英语语法高中英语教学大学英语教学听力口语英语阅读英语词汇学英语素质教育英语教育毕业英语教学法

英语论文开题报告英语毕业论文写作指导英语论文写作笔记handbook英语论文提纲英语论文参考文献英语论文文献综述Research Proposal代写留学论文代写留学作业代写Essay论文英语摘要英语论文任务书英语论文格式专业名词turnitin抄袭检查

temcet听力雅思考试托福考试GMATGRE职称英语理工卫生职称英语综合职称英语职称英语

经贸英语论文题目旅游英语论文题目大学英语论文题目中学英语论文题目小学英语论文题目英语文学论文题目英语教学论文题目英语语言学论文题目委婉语论文题目商务英语论文题目最新英语论文题目英语翻译论文题目英语跨文化论文题目

日本文学日本语言学商务日语日本历史日本经济怎样写日语论文日语论文写作格式日语教学日本社会文化日语开题报告日语论文选题

职称英语理工完形填空历年试题模拟试题补全短文概括大意词汇指导阅读理解例题习题卫生职称英语词汇指导完形填空概括大意历年试题阅读理解补全短文模拟试题例题习题综合职称英语完形填空历年试题模拟试题例题习题词汇指导阅读理解补全短文概括大意

商务英语翻译论文广告英语商务英语商务英语教学

无忧论文网

联系方式

神经网络进行空白题识别技术技术在CET主观题阅卷中的应用

论文作者:www.51lunwen.org论文属性:硕士毕业论文 thesis登出时间:2013-08-28编辑:hynh1021点击率:2670

论文字数:4578论文编号:org201308272107533890语种:中文 Chinese地区:中国价格:$ 33

关键词:神经网络空白题识别技术CET主观题阅卷

摘要:通过对神经网络隐藏层神经元数目的调整来优化网络,使得网络能够以较少的运算消耗获得较好的识别效果。初步实验结果表明,该技术可以较好地识别出空白题。本研究成功的关键是提取出区别空白题与非空白题的特征参数。

1.引言

 

随着计算机技术的发展,一些大规模考试(如CET)的阅卷方式已由传统的纸笔阅卷过渡到计算机甚至网上阅卷。其中,主观题的阅卷一般是将原始试卷扫描成灰度图像,再将图像输出到显示器上供阅卷员评阅。以CET为例,先是将主观题答题卡扫描成灰度图像,再按题目将图像分割成一个个小块,每道题目为一个图像文件,最后把一个个图像文件依次输出到显示器。我们自身的CET阅卷经历以及对部分CET阅卷员的访谈表明,每次CET主观题阅卷都会有一定数量的空白题。如果这些空白题不必由阅卷员评分,而是由计算机自动识别并赋分,无疑能减轻阅卷员的工作量,提高阅卷效率,降低阅卷成本,节约人力、物力和财力。从扫描后的图像来看,空白题和非空白题的主要区别在于像素灰度值,作答部分的灰度值接近0,空白部分接近255。但由于作答笔迹有轻有重,扫描清晰度不高,很难直接用像素灰度值加以区分(贾志先2009),需采用一定的技术进行识别。实现空白题自动识别的技术路线较多,如神经网络、支持向量机等。其中神经网络较为简单实用。本研究将尝试利用神经网络进行空白题识别技术的开发,并讨论该作者简介:肖巍,南京师范大学外国语学院在读博士。主要研究方向为神经认知语言学、语言测试。电子邮箱:xiaowei_will@163.com辜向东,重庆大学外国语学院教授。主要研究方向为语言测试、语言教学与教师发展。电子邮箱:xiangdonggu@263.net*本文得到重庆大学中央高校基金科研专项人文社科重大项目(编号CDJSK11001)和国家留学基金委全额奖学金资助。技术在CET主观题阅卷中的应用。利用神经网络进行空白题识别,最关键的是要保证识别的准确性与稳定性,即保证未作答的空白题一定赋0分,而考生作答了的一定不赋0分,留待人工评阅。如何确保空白题识别技术具有较高的准确性与稳定性是本研究需解决的主要问题。

 

2.理论基础

 

神经网络是一种能够模拟人脑结构及功能的信息处理系统。其基本单位是神经元,这一点与人脑相似。神经网络并不依赖事先编好的程序去运行,而是通过训练去调整自身权值,具有自组织、自学习、非线性逼近的能力(Shi et al.2004)。由于神经网络具有这些能力,它能够反映人脑功能的许多基本特征,近年来在人工智能、自动控制、信息处理等方面取得了广泛应用(董长虹2005;韩力群2006)。在教育考试领域,神经网络被应用于试卷等值、空白题识别等方面,如贾志先(2009)曾使用神经网络识别HSK(汉语水平考试)的空白题,取得了较好的识别效果。通过学习空白题和非空白题的特征,不断调整自身权值,神经网络可以像人脑一样把空白题准确识别出来。然而,HSK用汉语答题,CET用英语答题,书写文字的不同可能导致不同的识别效果。此外,若特征参数、实验模型、训练函数、学习函数、传递函数和隐藏层神经元数目等设置不同,识别效果可能也不同,需通过实证加以探究。我们的思路如下:首先提取可靠的特征参数,其次选取合适的网络模型、函数及神经元数目,最后通过对网络的训练调试达到最佳识别效果。

 

2.1 空白题特征参数的提取

对空白题进行识别,首先要提取出能区分空白题和非空白题的特征参数。我们发现,空白题由于没有任何作答记号,扫描后图像各像素的灰度值均接近255,其标准差较小。非空白题由于有作答记号,扫描后这些作答部分的像素灰度值接近0,而其它部分的像素灰度值接近255,从而导致其标准差很大。因此,我们拟使用标准差作为区分空白题和非空白题的特征参数。假设一幅图像大小为m×n像素,则其像素灰度值矩阵为:A=a1,1a1,2…a1,na2,1a2,2…a2,n… … … …am,1am,2…am,熿燀燄n燅图像像素灰度值矩阵A的行向量的标准差为熿燀:∑ni=1(a1,i-u1)2槡 n,∑ni=1(a2,i-u2)2槡 n,…,∑ni=1(am,i-um)2槡燄燅n其中u1,u2,…,um为图像灰度值矩阵A的各行向量的平均值。A的列向量的标准差为熿燀:∑mj=1(aj,1-v1)2槡 m,∑mj=1(aj,2-v2)2槡 m,…,∑mj=1(aj,n-vm)2槡燄燅m其中v1,v2,…,vn为图像灰度值矩阵A的各行向量的平均值。然而,直接以这些向量作为神经网络的输入,数据量太大,且由于m和n的取值不确定,神经网络输入层的神经元数目也无法确定。因此,我们对行向量和列向量的标准差继续求标准差,得到一个二维数组[x1,x2],其中x1为行向量标准差的标准差,x2为列向量标准差的标准差。这样,我们就可以用x1和x2两个参数作为区分空白题和非空白题的特征参数。

 

2.2 神经网络模型的构建使用

神经网络需根据研究自身特点选取合适的网络模型。本研究选取Elman神经网络模型。Elman网络由Elman于1990年提出,并由Pham和Liu于1992年加以改进,是一种动态的反馈网络。该模型在前馈网络的隐藏层中增加一个反馈层作为延时算子,以达到记忆的目的,从而使系统具有适应时变特性的能力,能直接反映动态过程系统的特性(Elman1990;Pham & Liu 1992;Shi et al.2004)。其优点是对目标函数的逼近度高、自学习能力强;不足之处是需要的神经元数目可能较多,可能导致网络结构庞大、学习时间较长。Elman网络由输入层、隐藏层、反馈层和输出层组成。输入层用于输入信号,隐藏层对来自输入层的信号进行一定处理,反馈层用于记忆隐藏层前一时刻的输出值并返回给输入,即一步延时。输出层的作用为对隐藏层传来的信号进行加权输出。这种特殊的网络结构可以任意精度逼近任意函数(董长虹2005),具有较强的自学习能力,因此能够较容易地学会对空白题的识别。结构图可由图1表示。图1 Elman神经网络结构图该网络的数学表达式如下:设网络信号输入为x(k),隐藏层输出为x’(k),反馈层输出为xc(k),信号输出为y(k);W1、W2、W3分别为输入层至隐藏层、反馈层至隐藏层、隐藏层至输出层的连接权值;f(*)、g(*)分别为隐藏层和输出层的传递函数;α(0≤α<1)为反馈层的自反馈增益因子,则该网络的数学表达式为:xc(k)=x’(k-1)+αxc(k-1) (1)x’(k)=f[W1 x(k)+W2 xc(k)] (2)y(k)=g[W3 x’(k)] (3)  选定网络模型后,还需选取网络的训练函数、学习函数、以及隐藏层和输出层的传递函数。我们选取traindx函数作为训练函数。该函数基于Levenberg-Marquardts优化算法,结合了梯度下降法和高斯—牛顿法的优点,其训练速度较快且准确度高(王建梅、覃文忠2005;曹红杏等2008)。以梯度下降动量函数learngdm为学习函数。该函数利用神经元的输入和误差、权值或阈值的学习速率和动量常数来计算权值或阈值的变化率(董春娇等2010)。分别以tansig函数、logsig函数作为隐藏层和输出层的传递函数。tansig函数为S型正切函数1-e-x1+e-x,logsig函数为S型对数函数11+e-x。在本研究中,输入接近0(空白题)时需输出0,输入不接近0(非空白题)时需输出1,输入与输出之间并非线性关系,故采用tangis和logsig两类非线性函数比purelin等线性函数更满足本研究的需要。选定函数后,还需根据实际需要设定神经网络各层的神经元数目。本研究中,输入层神经元设为2个,分别接收行向量标准差的标准差x1以及列向量标准差的标准差x2。隐藏层的神经元数目过多会导致学习时间、可推广性差,过少则难以保证学习精度和输出的正确率(Suzuki & Mitsukura 2010)。一般情况下,隐藏层的神经元数目根据公式n’=(n+m)1/2+t来确定,其中n’为隐藏层神经元数目,n为输入层神经元数目,m为输出神经元数目,t∈{x|1<x<10,x∈N}(周开利和康耀红2007;党小超和郝占军2010)。反馈层神经元数目与隐藏层相同。输出层神经元设为1个,输出对空白论文英语论文网提供整理,提供论文代写英语论文代写代写论文代写英语论文代写留学生论文代写英文论文留学生论文代写相关核心关键词搜索。

共 1/2 页首页上一页12下一页尾页

英国英国 澳大利亚澳大利亚 美国美国 加拿大加拿大 新西兰新西兰 新加坡新加坡 香港香港 日本日本 韩国韩国 法国法国 德国德国 爱尔兰爱尔兰 瑞士瑞士 荷兰荷兰 俄罗斯俄罗斯 西班牙西班牙 马来西亚马来西亚 南非南非