Deep-IRT: Make Deep Learning Based Knowledge Tracing Explainable Using Item Response Theory
Student Ability and Difficulty Networks
DKVMN
\text{DKVMN}
DKVMN的模型架构可以被很容易的增强,进一步提供其他的有意义的信息。首先,每个潜在知识点的状态可以被拓展为学生能力。具体而言,当
DKVMN
\text{DKVMN}
DKVMN模型接收一个知识点
q
t
q_t
qt时,会形成特征向量
f
t
f_t
ft。由于特征向量
f
t
f_t
ft是由读向量
r
t
r_t
rt和知识点嵌入向量
k
t
k_t
kt拼接而成,它包含了学生知识点状态在
q
t
q_t
qt的信息和
q
t
q_t
qt的嵌入信息。我们相信
f
t
f_t
ft可以用于推断学生能力通过神经网络进一步处理
f
t
f_t
ft。类似的,
q
t
q_t
qt的难度信息也可以被提取通过把知识点嵌入向量
k
t
k_t
kt送入神经网络。
根据神经网络的作用,我们称这两个网络分别叫做学生能力网络和难度网络。使用单一的全连接层,表达为:
θ
t
j
=
tanh
(
W
θ
f
t
+
b
θ
)
β
j
=
tanh
(
W
β
q
t
+
b
β
)
\theta_{tj}=\text{tanh}(W_{\theta}f_t+b_{\theta}) \\ \beta_{j}=\text{tanh}(W_{\beta}q_t+b_{\beta})
θtj=tanh(Wθft+bθ)βj=tanh(Wβqt+bβ)
其中
θ
t
j
,
β
j
\theta_{tj},\beta_{j}
θtj,βj被分别解释为在知识点
j
j
j在时间
t
t
t的学生能力,知识点
j
j
j的难度。对于两个网络,我们使用
tanh
\text{tanh}
tanh作为激活函数,使得输出介于
(
−
1
,
1
)
(-1, 1)
(−1,1)。之后,两个传入项目反映理论计算学生在知识点
j
j
j上作答的正确概率:
p
t
=
σ
(
3.0
∗
θ
t
j
−
β
j
)
p_t = \sigma(3.0 * \theta{tj}-\beta_{j})
pt=σ(3.0∗θtj−βj)
因为实践的原因,学生能力网络输出乘放缩因子3,以便值域为
(
0
,
1
)
(0, 1)
(0,1)
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)