Please wait a minute...
Advanced Search
数据分析与知识发现  2023, Vol. 7 Issue (6): 123-133     https://doi.org/10.11925/infotech.2096-3467.2022.0485
  研究论文 本期目录 | 过刊浏览 | 高级检索 |
基于深度学习的学生课堂专注度测评方法*
王楠1,2,王淇1()
1吉林财经大学管理科学与信息工程学院 长春 130117
2吉林省商务大数据研究中心 长春 130117
Evaluating Student Engagement with Deep Learning
Wang Nan1,2,Wang Qi1()
1School of Management Science and Information Engineering, Jilin University of Finance and Economics, Changchun 130117, China
2Business Big Data Research Center of Jilin Province, Changchun 130117, China
全文: PDF (2928 KB)   HTML ( 18
输出: BibTeX | EndNote (RIS)      
摘要 

【目的】 通过构建有效的专注度表情数据集及设计学生课堂专注度联合评价模型,解决现有学生专注度测评方法存在的缺乏相关表情数据集及模型准确率不高的问题。【方法】 基于真实的在线课堂场景进行数据采集,构建适合专注度识别的表情数据集W-AttLe,设计改良的VGG模型对数据集进行评估及专注度表情识别;将表情得分与正脸得分结合构建学生课堂专注度的联合评价模型,计算被检测学生的实际课堂专注度水平得分。【结果】 在专注度表情识别上,通过调参优化步骤对识别表情的网络结构进行调整和验证,结果表明所构建的VGG16+Dense+Dropout(lr=1e-5)改良模型在4种对比模型架构中的准确率最高,达到92%以上;在专注度评价上,联合专注度得分较专注度表情单一指标得分对学生专注度的评测更为精准。【局限】 在训练模型的过程中没有设计更多的消融研究,未探究更深层次的神经网络。【结论】 构建的W-AttLe人脸数据集适用于判别学生课堂专注度;提出的联合专注度评价模型弥补了单一指标模型的不足;提出的知识点测试与理解度自测结合的加权测试方案对联合专注度模型进行了有效验证。

服务
把本文推荐给朋友
加入引用管理器
E-mail Alert
RSS
作者相关文章
王楠
王淇
关键词 深度学习专注度测评人脸识别    
Abstract

[Objective] This paper constructs an expression data set of engagement degrees and designs a joint evaluation model for students’ class engagement. It addresses the issues of lacking relevant expression data sets and the low accuracy of the existing models. [Methods] We collected data based on actual online classes and constructed an expression dataset suitable for engagement recognition. Then, we designed an improved VGG model to evaluate the dataset and recognize student engagement. Third, we combined the expression and face scores to establish a joint evaluation model for students’ engagement and calculated the tested students’ actual class engagement scores. [Results] We adjusted and verified the network structure through parameter tuning optimization for engagement expression recognition. The improved model VGG16+Dense+Dropout(lr=1e-5) had the highest accuracy among the four compared model architectures, reaching over 92%. The joint engagement score is more accurate for engagement evaluation than the single expression engagement score. [Limitations] We did not include more ablation studies in training the model; more research is needed to explore the deeper neural networks. [Conclusions] The dataset of W-AttLe is suitable for evaluating students’ class engagement. The proposed joint engagement evaluation model outperforms the single index model. The proposed weighted test scheme combining knowledge point test and self-test of comprehension degree validates the joint engagement degree model.

Key wordsDeep Learning    Engagement Evaluation    Face Recognition
收稿日期: 2022-05-14      出版日期: 2023-08-09
ZTFLH:  TP393  
基金资助:* 吉林省高等教育教学改革研究重点课题(JLJY202269718747);国家社会科学基金项目(22BTQ048);吉林省教育厅“十三五”社会科学研究项目(JJKH20230195SK)
通讯作者: 王淇,ORCID:0000-0003-1058-5068,E-mail:feelikesummer0108@163.com。   
引用本文:   
王楠, 王淇. 基于深度学习的学生课堂专注度测评方法*[J]. 数据分析与知识发现, 2023, 7(6): 123-133.
Wang Nan, Wang Qi. Evaluating Student Engagement with Deep Learning. Data Analysis and Knowledge Discovery, 2023, 7(6): 123-133.
链接本文:  
https://manu44.magtech.com.cn/Jwk_infotech_wk3/CN/10.11925/infotech.2096-3467.2022.0485      或      https://manu44.magtech.com.cn/Jwk_infotech_wk3/CN/Y2023/V7/I6/123
Fig.1  研究路线
Fig.2  模型架构
Fig.3  VGG16+Dense+Dropout(lr=1e-5)模型准确率
模型架构 在测试集上
的准确率
在验证集上
的准确率
VGG16(lr=1e-8) 0.78 0.83
VGG16+Dense+Dropout 0.80 0.85
VGG16+Dense 0.83 0.86
VGG16+Dense+Dropout(lr=1e-5) 0.93 0.92
Table 1  不同模型架构的准确率情况
面部表情 学生表情描述 权重(释义)
倦怠 下眼睑上扬,眉峰偏低,
嘴角向下
-2(较为不满情绪的
表情)
困惑 微微咧嘴,眉头出现
皱纹上扬
-1(稍微不满情绪的
表情)
表情不可见 无法看到面部器官及
神态
0(与课堂环境无关的
表情)
无表情 整体肌肉松弛,瞳孔
正常放大
1(稍微满意情绪的
表情,因其可以表示
学生在思考)
轻松 嘴唇上扬,眼睛眯起 2(较为满意情绪的
表情)
Table 2  学生课堂情绪权重划分
专注水平 分数
低水平 [0,0.50)
中水平 [0.50,0.75)
高水平 [0.75,1)
Table 3  学生课堂专注度水平情况
Fig.4  网络层数及参数情况
Fig.5  训练网络损失值情况
Fig.6  预测图像情况
Fig.7  student21表情指标专注度检测折线图
Fig.8  student21联合指标专注度检测折线图
幻灯片结束的秒数 幻灯片对应知识点序号 幻灯片编号
18.72 1 1
50.85 1 2
93.82 2 3
183.96 3 4
281.96 4 5
309.77 5 6
387.52 5 7
418.90 6 8
449.84 6 9
615.46 7 10
822.78 7 11
852.20 8 12
1 018.70 8 13
1 063.50 8 14
1 091.80 8 15
1 199.70 8 16
Table 4  授课视频知识点与视频时间的对应
知识点序号 得分 知识点序号 得分
1 1 5 1
2 1 6 1
3 1 7 0.5
4 1 8 0.5
Table 5  知识点得分
图片文件名 图片所在视频时间点/s 对应知识点序号 对应幻灯片编号 知识点加权分 自测水平 测试总分
stu4660 37 1 2 0.368142 1 0.620885
stu4661 42 1 2 0.368142 1 0.620885
stu4662 47 1 2 0.368142 1 0.620885
stu4663 52 2 3 1 1 1
stu4664 57 2 3 1 1 1
stu4665 62 2 3 1 1 1
stu4666 67 2 3 1 1 1
stu4667 72 2 3 1 1 1
stu4668 77 2 3 1 1 1
stu4669 82 2 3 1 1 1
stu4670 87 2 3 1 1 1
stu4671 92 2 3 1 1 1
stu4672 97 3 4 0 0.6 0.24
Table 6  student21的测试加权分(部分)
Fig.9  student21在各个时间点的加权测试得分
[1] Howard W R. Pattern Recognition and Machine Learning[J]. Kybernetes, 2007, 36(2): 275.
doi: 10.1108/03684920710743466
[2] LeCun Y, Bengio Y, Hinton G. Deep Learning[J]. Nature, 2015, 521(7553): 436-444.
doi: 10.1038/nature14539
[3] Coan J A, Allen J J B. Frontal EEG Asymmetry as a Moderator and Mediator of Emotion[J]. Biological Psychology, 2004, 67(1-2):7-50.
doi: 10.1016/j.biopsycho.2004.03.002 pmid: 15130524
[4] Day M. Exploiting Facial Landmarks for Emotion Recognition in the Wild[OL]. arXiv Preprint, arXiv: 1603.09129.
[5] LeCun Y, Bottou L, Bengio Y, et al. Gradient-Based Learning Applied to Document Recognition[J]. Proceedings of the IEEE, 1998, 86(11): 2278-2324.
doi: 10.1109/5.726791
[6] Dinesh D, S. A N, Bijlani K. Student Analytics for Productive Teaching/Learning[C]// Proceedings of International Conference on Information Science. 2017: 97-102.
[7] Butko N J, Theocharous G, Philipose M, et al. Automated Facial Affect Analysis for One-on-One Tutoring Applications[C]// Proceedings of 2011 IEEE International Conference on Automatic Face & Gesture Recognition. 2011: 382-387.
[8] Hedges J H, Adolph K E, Amso D, et al. Play, Attention, and Learning: How Do Play and Timing Shape the Development of Attention and Influence Classroom Learning?[J]. Annals of the New York Academy of Sciences, 2013, 1292(1): 1-20.
doi: 10.1111/nyas.2013.1292.issue-1
[9] Smith L B, Colunga E, Yoshida H. Knowledge as Process: Contextually Cued Attention and Early Word Learning[J]. Cognitive Science, 2010, 34(7): 1287-1314.
doi: 10.1111/j.1551-6709.2010.01130.x
[10] Steinmayr R, Ziegler M, Träuble B. Do Intelligence and Sustained Attention Interact in Predicting Academic Achievement?[J]. Learning and Individual Differences, 2010, 20(1): 14-18.
doi: 10.1016/j.lindif.2009.10.009
[11] Chen C M, Huang S H. Web-Based Reading Annotation System with an Attention-Based Self-Regulated Learning Mechanism for Promoting Reading Performance[J]. British Journal of Educational Technology, 2014, 45(5): 959-980.
doi: 10.1111/bjet.2014.45.issue-5
[12] 伍万杰. 基于姿态分析的学生学习状态监测方法研究与实现[D]. 重庆: 西南大学, 2021.
[12] (Wu Wanjie. Research and Implementation of Students’ Learning State Monitoring Method Based on Posture Analysis[D]. Chongqing: Southwest University, 2021.)
[13] Zaletelj J, Košir A. Predicting Students’ Attention in the Classroom from Kinect Facial and Body Features[J]. EURASIP Journal on Image and Video Processing, 2017, 2017: 80.
doi: 10.1186/s13640-017-0228-8
[14] 段巨力. 基于机器视觉的学生上课专注度的分析评测系统[D]. 杭州: 浙江工商大学, 2018.
[14] (Duan Juli. Evaluation and Evaluation System of Students’ Attentiveness Based on Machine Vision[D]. Hangzhou: Zhejiang Gongshang University, 2018.)
[15] 左国才, 王海东, 陈林书, 等. 基于人脸识别技术的现代学徒制学习效果评价研究[J]. 智能计算机与应用, 2019, 9(2): 116-118.
[15] (Zuo Guocai, Wang Haidong, Chen Linshu, et al. Evaluation of Modern Apprenticeship Learning Effect Based on Face Recognition Technology[J]. Intelligent Computer and Applications, 2019, 9(2): 116-118.)
[16] 钟马驰, 张俊朗, 蓝扬波, 等. 基于人脸检测和模糊综合评判的在线教育专注度研究[J]. 计算机科学, 2020, 47(S2): 196-203.
[16] (Zhong Machi, Zhang Junlang, Lan Yangbo, et al. Study on Online Education Focus Degree Based on Face Detection and Fuzzy Comprehensive Evaluation[J]. Computer Science, 2020, 47(S2): 196-203.)
[17] 何秀玲, 高倩, 李洋洋, 等. 基于深度学习模型的自发学习表情识别方法研究[J]. 计算机应用与软件, 2019, 36(3): 180-186.
[17] (He Xiuling, Gao Qian, Li Yangyang, et al. Spontaneous Learning Facial Expression Recognition Based on Deep Learning[J]. Computer Applications and Software, 2019, 36(3): 180-186.)
[18] Soloviev V. Machine Learning Approach for Student Engagement Automatic Recognition from Facial Expressions[J]. Scientific Publications of the State University of Novi Pazar Series A: Applied Mathematics Informatics and Mechanics, 2018, 10(2): 79-86.
doi: 10.5937/SPSUNP1802079S
[19] Mehrabian A. Communication Without Words[A]//Communication Theory[M]. London: Routledge, 2017: 193-200.
[20] Cowen A S, Keltner D. Self-Report Captures 27 Distinct Categories of Emotion Bridged by Continuous Gradients[J]. Proceedings of the National Academy of Sciences of the United States of America, 2017, 114(38): E7900-E7909.
[21] 郭晓旭. 基于微表情识别的学生课堂专注度分析系统研究[D]. 昆明: 云南师范大学, 2019.
[21] (Guo Xiaoxu. Research on the Analysis System of Students’ Classroom Attention Analysis Based on Micro-expression Recognition[D]. Kunming: Yunnan Normal University, 2019.)
[1] 吴佳伦, 张若楠, 康武林, 袁普卫. 基于患者相似性分析的药物推荐深度学习模型研究*[J]. 数据分析与知识发现, 2023, 7(6): 148-160.
[2] 汪晓凤, 孙雨洁, 王华珍, 张恒彰. 融合深度学习和知识图谱的类型可控问句生成模型构建及验证*[J]. 数据分析与知识发现, 2023, 7(6): 26-37.
[3] 刘洋, 张雯, 胡毅, 毛进, 黄菲. 基于多模态深度学习的酒店股票预测*[J]. 数据分析与知识发现, 2023, 7(5): 21-32.
[4] 黄学坚, 马廷淮, 王根生. 基于分层语义特征学习模型的微博谣言事件检测*[J]. 数据分析与知识发现, 2023, 7(5): 81-91.
[5] 王寅秋, 虞为, 陈俊鹏. 融合知识图谱的中文医疗问答社区自动问答研究*[J]. 数据分析与知识发现, 2023, 7(3): 97-109.
[6] 张贞港, 余传明. 基于实体与关系融合的知识图谱补全模型研究*[J]. 数据分析与知识发现, 2023, 7(2): 15-25.
[7] 沈丽宁, 杨佳艺, 裴家旋, 曹广, 陈功正. 基于OCC模型和情绪诱因事件抽取的细颗粒度情绪识别方法研究*[J]. 数据分析与知识发现, 2023, 7(2): 72-85.
[8] 王卫军, 宁致远, 杜一, 周园春. 基于多标签分类的科技文献学科交叉研究性质识别*[J]. 数据分析与知识发现, 2023, 7(1): 102-112.
[9] 肖宇晗, 林慧苹. 基于CWSA方面词提取模型的差异化需求挖掘方法研究——以京东手机评论为例*[J]. 数据分析与知识发现, 2023, 7(1): 63-75.
[10] 成全, 佘德昕. 融合患者体征与用药数据的图神经网络药物推荐方法研究*[J]. 数据分析与知识发现, 2022, 6(9): 113-124.
[11] 王露, 乐小虬. 科技论文引用内容分析研究进展[J]. 数据分析与知识发现, 2022, 6(4): 1-15.
[12] 郑潇, 李树青, 张志旺. 基于评分数值分析的用户项目质量测度及其在深度推荐模型中的应用*[J]. 数据分析与知识发现, 2022, 6(4): 39-48.
[13] 余传明, 林虹君, 张贞港. 基于多任务深度学习的实体和事件联合抽取模型*[J]. 数据分析与知识发现, 2022, 6(2/3): 117-128.
[14] 张云秋, 李博诚, 陈妍. 面向不平衡数据的电子病历自动分类研究*[J]. 数据分析与知识发现, 2022, 6(2/3): 233-241.
[15] 张芳丛, 秦秋莉, 姜勇, 庄润涛. 基于RoBERTa-WWM-BiLSTM-CRF的中文电子病历命名实体识别研究[J]. 数据分析与知识发现, 2022, 6(2/3): 251-262.
Viewed
Full text


Abstract

Cited

  Shared   
  Discussed   
版权所有 © 2015 《数据分析与知识发现》编辑部
地址:北京市海淀区中关村北四环西路33号 邮编:100190
电话/传真:(010)82626611-6626,82624938
E-mail:jishu@mail.las.ac.cn