CD-CAT刚刚兴起,它还有一些技术问题尚未得到很好的解决,这严重影响了它的实际运用。本节将对其中最具有代表性的技术问题进行介绍。
一、CD-CAT的选题方法
与基于IRT的CAT一样,在CD-CAT里也要考虑选题方法问题。选题方法关系到所选题目是否真的“适配”被试当前的认知状态和能力,以及“适配”的“程度”,进而关系到测试效率。如果选出的题不“适配”被试,那么错误诊断的概率就会增大,而诊断评估的准确性将降低;或者,为了保证诊断评估的准确性,就需要使用更多的试题进行测试,而测试效率就降低了。只有每次都选出最适配于被试认知状态和能力的题目,才能用最少的题目、最少的时间达到预定的诊断精度,才能充分发挥CD-CAT的高效、快速的特点。开发CD-CAT的选题技术,首先可以借鉴传统CAT的选题技术研究,将其推广到CD-CAT(毛秀珍,辛涛,2011)。但是,传统CAT选题的自适应体现在对被试总体水平(或能力)的自适应,是一种对单维连续特质的自适应,而CD-CAT选题的自适应体现在对被试KS的自适应,这是一种对多维离散认知状态诊断的自适应(涂冬波等,2013)。因此,CD-CAT的选题技术研究更富有挑战性,且需从认知诊断本身的特点出发,开辟新的思路。
根据测量的目标,可以将CD-CAT选题分为“基于认知状态的选题”和“兼顾认知状态与能力的选题”两大类。以下分别介绍这两类选题的技术。
(一)基于认知状态的选题
1.依据多维离散变量分布的信息量选题
只考虑认知状态的CD-CAT,是认知诊断与CAT两种测验在原理上的嫁接,将传统CAT自适应化被试能力的目标嫁接到了被试认知状态估计上。依据香农熵(Shannon Entropy,SHE)和Kullback-Leibler信息量(KL)的选题方法及其改进方法,在这类CD-CAT的选题研究中占据了重要地位。对于基于认知状态的选题,Tatsuoka(2002)以及Tatsuoka和Ferguson(2003)率先开发了最小化被试认知状态后验分布的期望香农熵算法,随后Xu和Douglas(2003)提出了最大化KL信息量算法。
从广义上说,KL信息量和香农熵都是信息量指标,在CD-CAT选题中用它们来计算每一试题对当前被试施测所能提供的信息量,以选出最适应于被试的试题来施测。以下依次介绍它们的算法。
(1)期望香农熵的算法。
香农熵是随机变量不确定性的测度,它的定义公式如下(Shannon,2001):
其中,pi是第i种情况发生的概率。当随机变量为必然事件或不可能事件的时候,不存在不确定性,此时香农熵为0。所以,在选题的时候,我们希望香农熵越小越好。
假设在贝叶斯情境中,KS向量α的先验分布已经设定。α是一个长度为k的向量,其中k是属性数量。α中每个属性元素的取值都是0或1,代表了被试掌握或未掌握该属性。在做了n个题之后,通过让α后验分布的香农熵最小化来选出下一题,就可以让不确定性最小化,让估计出的KS向量更接近于KS向量的真值。一共有L=2K种可能的KS。假设这些KS是单维的,它们的先验分布为P(α=αl)=λl,其中l=1,2,…,2K。用πj,n-1(αl)表示被试j在做完n-1个题目以后KS为αl的后验概率。
其中Plt=P(Yjt=1|αj=αl),表示KS为αl的被试答对他所做的第T题的概率。
如果各种KS的先验分布都相等,也就是各λl都相等,则这个公式可以简化为
根据香农熵的定义公式(6.3.1),后验分布πj,n-1(αl)的香农熵可以表示为
假设被试j在已经做完n-1个题以后,再做的下一题是第i题,做完第i题后的作答模式为Ynj=(Yj1,Yj2,…,Yj,n-1,Yji),其中Yji的值可能是0或1,于是期望香农熵可以计算为
其中
是πj,n(αl)的香农熵。
πj,n(αl)是被试j做完第n个项目(该项目在题库中编号为i)后的KS为αl的后验概率,它的计算公式为
且
另外,由于已经假设KS的先验分布为均匀分布,故所有的λl都相等。
于是有
另外,由全概率公式可知
先算式(6.3.9),再将式(6.3.9)代入式(6.3.6),然后将式(6.3.6)和式(6.3.10)代入式(6.3.5),由此可计算出SHEi(πj,n)。
然后选取SHEi(πj,n)最小的题。
(2)KL法及其改进方法的计算。
与SHE选题法“选指标值最小的题”不同,KL法及其改进方法都是选相应指标值最大的题。
KL指标又叫全局区分度指标(Global Discrimination Index,GDI)(Cheng,2010)。此后有很多学者对KL法提出了各种改进。Cheng(2009)提出了后验加权的KL指标(Posterior-Weighted KL,PWKL)以及混合加权的KL信息量指标(Hybrid KL,HKL)。其中,当先验分布是均匀分布时,PWKL可以简化为似然加权的KL指标(Likelihood-Weighted KL,LWKL)。
用KS的估计值与其他可能的KS之间的欧氏距离的倒数对PWKL进一步加权,就得到了HKL。当KS的先验分布为均匀分布时,公式如下:
在有的文献里(如涂冬波,蔡艳,戴海琦,2013),LWKL法又叫似然函数加权GDI(L_GDI)法,HKL法又叫相似性和似然函数加权GDI(SL_GDI)法。
Cheng(2010)还将属性平衡目标与KL信息量相结合,提出了改进的GDI指标(Modified GDI,MGDI),并将其方法命名为改进的极大化GDI法(Modified Maximum GDI,MMGDI)。MGDI的计算公式如下:
Dai,Zhang和Li(2016)基于RRUM模型,以PCCR为评判指标,在各KS的先验分布为均匀分布的条件下,在不同属性数量和不同测验长度的条件下比较了随机、SHE、KL、LWKL、HKL、MMGDI这六种选题方法的效率。结果发现:SHE法的效果最好,其次是HKL法和LWKL法,再次是MMGDI法和KL法,而随机法最差。这与陈平、李珍和辛涛(2011)基于DINA模型得到的结果一致,唯一的差别在于他们的研究设计里没有考虑MMGDI法。
2.其他选题方法
对于基于认知状态的选题,除了用信息量指标的方法之外,还有学者使用贝叶斯网、偏序集、图论等方法。例如,林海菁和丁树良(2007)用状态转换图描述特定认知领域中所有知识状态及这些状态之间的联系,以图的深度优先搜索方法为基础设计选题策略。
(二)兼顾认知状态与能力的选题
只考虑认知状态KS的CD-CAT,能实现对个体微观内部加工过程的评估,却未能在同时实现对个体宏观能力水平的评估。但是,新一代测验理论强调对这二者的评估并重。在这种思想的指导下,学者们又开发了兼顾认知状态α和能力θ的CD-CAT,即“双目标的CD-CAT”。这类CD-CAT选题研究的重要问题是“认知诊断与能力估计如何同时自适应化”:在测试过程中不断地同时估计被试的认知状态α与能力θ,选择更能同时精细辨认当前被试认知状态与能力的试题进一步施测。这是在认知诊断测试中更深入地贯彻“自适应”思想,是CAT与认知诊断两个测验目标统筹兼顾式的结合。已经有研究表明,宏观能力θ与微观认知状态α之间存在着本质上的相关,但这个相关离完全正相关还有很大差别(Budescu,Karelitz & Douglas,2004)。所以,在双目标的CD-CAT这里不宜完全照搬单目标的CD-CAT的选题方法,而需要开拓新的选题方法。针对双目标的CD-CAT,学者们已经提出的选题方法如下。
1.使用影子测验的算法
McGlohen和Chang(2008)使用融合模型和IRT三参数Logistic模型开发的CD-CAT,就是认知诊断与能力估计同时自适应化的CD-CAT。他们提出的选题法是:先按估计的能力来选若干道适应当前被试能力的试题,构建一个影子测验(Shadow Test,又名影子题库、备选题组);再用SHE法或KL法,按估计的认知状态从影子测验中选出最适应当前被试认知状态的一道试题;如此反复进行。杜宣宣(2010)则基于DINA模型和IRT模型提出了另一种与McGlohen和Chang(2008)的步骤相反的选题法:先用SHE法,按估计的认知状态选出若干道题构建影子测验;再用IRT里的最大Fisher信息量法,按估计的能力从影子测验中选出最适应当前被试能力的一道试题;如此反复进行。
McGlohen和Chang(2008)及杜宣宣(2010)提出的两种兼顾认知状态与能力的选题方法,都采用影子测验,其实是交替地依照能力和认知状态来选题,每选一道题都要经过两个步骤。在分步追求被试认知状态精度与能力精度的过程中,会选择“局部最优”的结果。显然,“局部最优”未必是“共同最优”。更理想的选题是能够真正同时考虑能力和认知状态的精度需求并且一步到位。要做到这一点,需要设计出兼顾认知状态与能力的“综合指标”算法。
2.兼顾认知状态与能力的“综合指标”算法
(1)双信息选题法。
Cheng(2007)提出的双信息选题法(Dual Information Method),简称DI法,它就是一种这样的综合算法。这种方法里的双信息指标(Dual Information Index),是由θ的KL信息量和KS的KL信息量加权相加而来。其中,θ的KL信息量的计算公式如下:
将θ的KL信息量和KS的KL信息量加权相加,就得到了双信息指标:
研究结果表明,只要二者的权重相对不是太极端,权重对估计精度的影响就很小。
(2)基于最大信息量的方法。
Wang,Chang和Boughton(2012)也提出了几种这样的综合算法。根据他们的研究,这几种算法当中,KS和能力估计精度最高的方法是“基于最大信息量的方法”(Maximum Information Based Method),简称MIinfor法,它的算法如下:首先,把Henson和Douglas(2005)提出的认知诊断指标(Cognitive Diagnostic Index,CDI)分解成属性水平的信息量指标,这代表了一道题对各个属性正确分类的贡献。然后,提出一个优先指标(priority index):
其中,Pi是第i题的优先指标;dik是第i题在属性k上的信息量指标,表示第i题对是否掌握了属性k的被试的区分能力;uk是属性k的信息量的上界,xk是对某被试已经测过的题目中的属性k的信息量之和。uk-xk是属性水平的信息量的权重,它表示了属性k的信息量的重要性。最后,把这个优先指标与项目反应理论里的Fisher信息量相乘,并将剩余题库中具有最大相乘结果的那道题选出来给被试作答。
(3)综合指标DWI法。
对基于认知状态的选题,前文已经提到有研究表明最小化SHE是最佳选题方法(Dai,Zhang & Li,2016;陈平,李珍,辛涛,2011)。而在基于能力的选题中,学者们常用Fisher信息量指标,选出Fisher信息量最大的题。由此Dai,Zhang和Li(2016)假设,如果将Fisher信息量除以SHE所得的商作为“兼顾认知状态与能力”的CD-CAT的综合选题指标,或许会有更好的效果。由此,他们提出了带有信息量的有序度(Dapperness With Information)指标,缩写为DWI。它的计算公式就是
随后,Dai,Zhang和Li(2016)基于RRUM模型和IRT两参数逻辑模型,在属性数量分别为4个、6个、8个的条件下,比较了McGlohen法、杜宣宣法、DI法、MIinfor法与本文给出的综合指标DWI选题法对被试认知状态和被试能力估计的准确性。结果发现:综合考虑认知状态和能力估计的精度时,DWI法与MIinfor法优于其他三种方法;DWI法在认知状态估计方面略优于MIinfor法,而后者在能力估计方面略优于前者。如果在实际工作中对认知状态估计的需求高于能力估计,则DWI法更值得使用。但是这个研究也发现,当测验所测认知属性较多(如k=8)时,五种兼顾认知状态与能力的CD-CAT选题法的能力估计误差都较大,因此这些方法都不适用于属性数量较多的测验。
二、CD-CAT的参数估计
对于认知诊断的参数估计,学者们已经开发了马尔科夫链-蒙特卡洛模拟(Markov Chain Monte Carlo,MCMC)、EM、最大后验概率(Maximum A Posteriori,MAP)、期望后验概率(Expected A Posteriori,EAP)、判别分析等算法。
CD-CAT测验需要反复估计被试认知状态(或许还包括能力值),因此计算量很大;而且CD-CAT是在线测验,不能让被试做完一道题之后等待太久。以上两点决定了,CD-CAT要求系统能快速选出适合被试的题目,由此它的参数估计算法必须快速、高效。那么,像MCMC这样的烦琐算法就不适用于CD-CAT。相比之下,最大后验概率法和期望后验概率法都是常用于估计被试认知状态KS的较简便方法。以下是Feng,Habing和Huebner(2014)对这几种算法的介绍。
(一)最大后验概率法
令Yj为被试j的作答向量(Response Vector)。使用MAP法估计被试的KS,就是在给定Yj的条件下,用具有最大后验概率的αl作为被试j的KS的估计值。
令λl为随机选出的一个被试的KS为αl的概率,而各λl在所有可能的KS上的概率之和为1。令P(αj=αl|Yj)为被试j的KS为αl的后验概率。根据贝叶斯定理得
然后,选出具有最大后验概率的KS作为该被试KS的估计值为
(二)期望后验概率法
EAP法的计算步骤,只有最后一步与MAP法不同。它的最后一步不是选出具有最大后验概率的KS,而是将所有可能的KS与其对应的概率相乘后求期望值:
然后对这个向量里的每个元素进行“四舍五入”式取整,由此将各元素都转化为二分取值。转化后的向量就是该被试KS的估计值。
(三)极大似然估计法
在CD-CAT里,MLE法是将所有可能KS代入似然函数中,看哪个KS对应的似然函数值最大,就将该KS作为该被试的KS估计值。这种方法较为常用,也较为简单。当先验信息为均匀分布的时候,MLE法和MAP法是等价的。
三、CD-CAT的终止规则
与IRT-CAT一样,CD-CAT测验也需要精心设计测验长度,太长或者太短都不合适。这就是设定测验终止规则的问题。可以事先固定测验长度,让所有被试做的题数都相等,这就是定长测验;也可以让不同被试所做的题数各不相同,待达到一定条件时就终止,这就是变长测验。
(一)定长测验
定长测验是事先固定测验长度,当被试做的题数达到预设数值的时候就终止。这样,每个被试做的题数都相等。在模拟研究中,定长测验比变长测验要简便一些;在实证研究中,定长测验在操作上也要方便一些。而且,在外界看来,定长测验似乎更公平一些。
定长测验到底要设定为多长,也是值得探究的。很多CD-CAT研究是基于经验而设定了长度。也有学者建议,CD-CAT的测验长度可以与测验所考查的属性数量成正比(Dai,Zhang & Li,2016)。
(二)变长测验
在IRT-CAT中,变长测验的思想是,当能力估计精度达到预设精度时就终止。由此类推,在CD-CAT中,变长测验的思想就是,当KS估计精度达到预设精度时就终止。从“自适应”的观点看,变长测验更符合CAT的思想。以下是CD-CAT中,学者们对变长测验提出的一些终止规则。
1.基于被试KS的后验概率的终止规则
Tatsuoka(2002)提出的终止规则是:当一个被试属于某类KS的最大后验概率达到0.8时,终止测验。
Hsu,Wang和Chen(2013)基于Tatsuoka(2002)的思想,进一步提出了双重标准的CD-CAT终止规则,即当被试属于某个KS的最大后验概率不低于某个预设水平(如0.7),并且第二大后验概率不高于某个预设水平(如0.1)时,测验终止。
2.Cheng(2008)提出的三种终止规则
(1)KL法。
当邻近两次后验分布的KL距离小于预设水平时,测验终止。
(2)香农熵法。
当后验分布的香农熵小于预设水平时,测验终止。
(3)香农熵差法(Difference of the Shannon Entropy,D_SHE)。
当邻近两次后验分布的香农熵之差小于预设水平时,测验终止。
3.郭磊、郑蝉金和边玉芳(2015)提出的四种终止规则
(1)属性标准误法(Standard Error of Attribute Method,SEA)。
先计算出属性k的标准误SE(αk),其中k=1,2,…,k。
pk为掌握属性k的后验概率。当所有属性的标准误都小于某个预设水平(如0.2)时,测验终止。
(2)二等分法(Halving Algorithm,HA)。
当剩余题库中所有项目的HA值均小于预设水平(如0.1)时,测验终止。
(3)临近后验概率之差法(Difference of the Adjacent Posterior Probability Method,DAPP)。
当前后两次邻近的并且是从属于同一种KS的最大后验概率之差的绝对值小于预设水平时,测验终止。
(4)混合法(Hybrid Method,HM)。
这是Hsu,Wang和Chen(2013)的方法与DAPP法的混合。当被试属于某个KS的最大后验概率不低于某个预设水平,且DAPP法的终止条件达到时,测验终止。
四、CD-CAT的在线标定
对认知诊断测验的属性进行标定,是认知诊断工作的一个大难题。比如,Tatsuoka(1990)的分数减法认知诊断测验,经过20年至少五批专家的争论,仍然不能保证属性标定正确(DeCarlo,2011)。由此可见属性标定有多困难,工作量有多大。如果能在专家精心标定部分题目的属性之后,用统计的方法让CD-CAT自动标定另一些题目的属性,就可以大大减轻专家的工作量并消除专家的分歧。所以,在线标定就成为CD-CAT里的一项重要内容。
在线标定的概念在传统CAT里就已经存在,它是指在被试作答旧题的测验过程中将新题(又称为原始题)呈现给被试作答并估计新题项目参数的过程。不过,与传统CAT相比,CD-CAT的在线标定需要标定的内容可能包括新题的项目参数和认知属性两部分。由此,CD-CAT的在线标定有三种类型:项目参数已知,对属性进行标定;属性已知,对项目参数进行标定;属性和项目参数都要进行标定。
(一)在线标定的算法
1.只考虑属性标定的算法
汪文义、丁树良和游晓锋(2011)基于非补偿模型,提出了一种标定项目属性的方法,由于它使用了集合的交运算和差运算,故命名为“交差”法。
“交差”法的思想是:设新题i所包含的所有属性为s。一批被试在新题i上作答,有些被试答对,有些被试答错。答对该题的被试所掌握的属性集应包含s,故所有答对该题的被试所掌握的属性集的交集(记为s1)应包含s。答错该题的被试,没有掌握该题所考查的全部属性,所以那些KS包含于s1中且答错该题的被试所掌握的属性集的并集(记为s1)应包含于s。因此,新题i所考查的属性集s可以被s1和s2“夹逼”出来,即S2??S??S1。
不过,以上是对理想反应情况的讨论。在实际反应中,存在猜测和失误,故设定一个指标:如果具有某类KS的被试(他们的KS为αl)对某题的答对比例超过一半,就认为这类被试掌握了该题所考查的全部属性,他们应该答对该题,若答错则只是因为失误。
汪文义和丁树良(2012)讨论了题库缺少可达阵对应的某些项目类对原始题的属性向量在线标定的准确性的影响。对含6个属性的独立型结构进行模拟试验的结果显示:如果题库不包含可达阵的所有列对应的项目类,新题的属性标定准确性受到影响,题库中非可达阵中项目对标定有一定的弥补作用。这间接印证了可达阵在认知诊断题库建设中起到了非常重要的作用。
2.只考虑项目参数标定的算法
有学者(陈平,辛涛,2011;Chen,Xin,Wang & Chang,2012)将传统CAT中的三种在线标定方法——方法A(Method A)、一次EM 估计法(One EM Cycle,OEM)和多重迭代EM估计法(Multiple EM Cycles,MEM)推广至基于DINA模型的CD-CAT,分别命名为CD-Method A法、CD-OEM法和CD-MEM法。
CD-Method A法:先估计被试的KS,然后把被试的KS估计值视为真值,在此基础上用极大似然估计方法(MLE)估计出新题的项目参数。
CD-OEM法:仅基于EM算法的单个循环。对于一个新题,首先标识出作答该题的各被试,并使用一个E步,E步中要用到各被试使用各KS的后验概率分布。然后,基于被试在该新题上的作答,使用一个M步估计该新题的项目参数。CD-OEM法不需要迭代,允许独立地估计各新题的项目参数。
CD-MEM法:用了多个EM循环。其中,第一个EM循环等同于CD-OEM法,而第一个EM循环得到的新题的项目参数估计值作为下一个EM循环的项目参数初始值。待达到预设的迭代精度时,循环停止。CD-MEM法的一大优点是它可以充分使用来自旧题和新题的信息。
对这三种方法的比较研究(Chen,Xin,Wang & Chang,2012)发现:当DINA模型的项目参数g和s较小时,CD-Method A法的效果要优于CD-OEM法和CD-MEM法;而当g和s较大时,CD-OEM法的效果更好。奇怪的是,使用了多个EM循环的CD-MEM法的效果反而不如只使用了一个EM循环的CD-OEM法。研究者给出的解释是:一些不好的新题可能会影响到从第二个E 步开始的后验分布计算,从而影响新题的项目参数标定。
3.兼顾属性标定和项目参数标定的算法
陈平和辛涛(2011)借鉴单维IRT中联合极大似然估计法的思路,在DINA模型里提出了联合估计算法(Joint Estimation Algorithm,JEA)。这种方法仅依赖被试在旧题和新题上的作答反应而联合地、自动地估计新题的属性向量和项目参数。JEA算法的步骤如下:①给出新题i的属性向量初值q(0)i和项目参数初值g(0)i、s(0)i。其中q(0)i以及g(0)i、s(0)i可以根据一定的分布而随机生成。然后,基于被试们在新题i上的作答反应,用MLE属性向量估计方法而估计出q(1)i。②基于q(1)i和被试们在新题i上的作答反应,用只考虑项目参数标定的算法(如CD-Method A法)去估计该题的项目参数g(1)i、s(1)i。③将以上两个步骤循环进行,直到达到收敛。由此,可以将所有新题的属性和项目参数全部估计出来。
研究表明,当项目参数g和s较小且样本较大时,JEA算法在新题属性向量和新题项目参数估计精度方面表现不错;样本大小、项目参数大小以及项目参数初值都影响着JEA算法的表现。
在陈平和辛涛(2011)的基础上,有学者(Chen,liu & Ying,2015)进一步提出了基于极大似然估计和贝叶斯算法的在线标定方法。
(二)随机标定设计和自适应标定设计
根据将新题分配给被试作答的方式,可以将在线标定设计分为随机标定设计和自适应标定设计两种。随机标定设计是指,在研究CD-CAT新题属性标定的实验过程中,将随机选择的新题植入CD-CAT的随机位置。随机标定设计便于实施,但未体现出“自适应”的特点。
汪文义等人(2011)的研究表明:当KS估计精度较高时,自适应标定设计比随机标定设计更有优势;当KS估计精度较低时,自适应标定设计的效果不佳。陈平和辛涛(2011)的模拟研究表明:若项目参数g和s都较小且每个被试掌握每个属性的概率都相等,此时自适应标定设计比随机标定设计的项目参数的返真性更好。Chen,Xin,Wang和Chang(2012)的进一步研究发现,在绝大多数模拟条件下,尤其是当项目参数较大时,自适应分配的效果并不比随机分配更好;而对实际研究的数据分析也发现了同样的结果。
迄今为止,所有关于CD-CAT在线标定的研究,都是基于DINA模型的。(有些研究者声称自己的研究适用于非补偿模型,但是只有DINA模型是完全的非补偿模型,故这些研究依然属于“基于DINA模型的研究”。)这与DINA模型较为简单有关系,同时也说明需要在其他模型下加强此类探讨。
另外,CD-CAT在线标定的研究还存着一些共同局限:仅考虑了所有属性相互独立的情况,仅考虑了属性数不多于6的情况。
五、CD-CAT的总结与展望
认知诊断是一项较为专业的工作,涉及心理测量和计算机编程两大领域的知识,这在实践中的应用推广较为困难(张敏强,简小珠,陈秋梅,2011)。而CAT也存在无法评估开放性的主观题、研发较为复杂、前期阶段需要大量试题的试测和等值工作等局限。作为认知诊断与CAT的结合,CD-CAT经过了十几年的研究,已经取得了一定的理论成果,但它依然存在很多尚未解决的问题,主要体现在:①绝大多数研究都是模拟研究,目前很少见到实际研究,不知道实际情况和模拟情况相差有多大;②绝大多数研究都是在DINA等少数几个模型的基础上做的;③绝大多数研究都是基于0-1计分,而在多级计分上的研究很少;④绝大多数研究都假设所测属性之间是无结构关系,但实际工作中各属性之间很可能有一定的结构。这些都是CD-CAT研究所面临的机遇与挑战,有待进一步探索。
因此,未来的CD-CAT研究需要:①更多地开展实际测试研究;②在DINA模型之外的其他认知诊断模型下进行更多探索;③更多地考虑多级计分的情况;④更多地考虑认知属性非独立的情况。
思考题:
1.认知诊断测验与传统测验有什么不同?
2.认知诊断中常用的模型有哪些?各有什么特点?
3.CD-CAT的选题方法有哪些类型及其特点如何?
4.CD-CAT的参数估计与CAT的参数估计有什么异同?
5.CD-CAT不定长终止规则有哪些?