142 Journal of Mood Disorders Volume: 5, Number: 3, 2015 - www.jmood.org Kappa testi iki veya daha fazla gözlemci arasındaki uyumun güvenilirliğini ölçen bir istatistik yöntemidir (1,2). “Cohen’in kappa katsayısı” sadece iki gözlemci ara- sındaki uyumu ele alırken, uyumun ölçüldüğü gözlemci sayısı ikiden fazla ise “Fleiss’in kappa katsayısı” kullanıl- malıdır (3). Eğer sonuç sadece “Kappa katsayısı” olarak ifade edilmiş ise bu değer “Cohen’in kappa katsayısı”dır. Uyumun değerlendirildiği değişken kategorik (nominal) değişken olduğu için uygulanan istatistik parametrik olmayan istatistik türüdür. “Cohen’in kappa testinin” gözlemciler arasındaki uyumun şans eseri olabileceğini de dikkate aldığı için, iki gözlemci arasındaki yüzde oran- tı olarak bulunan uyumdan daha güçlü bir sonuç verdiği kabul edilir (1-3). Kappa katsayısı hesaplanırken iki farklı olasılık hesap- lanır. Bunlar Pr(a) ve Pr(e)’dir. Pr(a) iki değerlendirici için gözlemlenen uyumların toplam orantısı iken, Pr(e) bu uyumun şansa bağlı ortaya çıkma olasılığıdır. Bu iki olası- lık üzerinden “Cohen’in kappa katsayısı” için kullanılacak formül şu olur: κ= Pr (a) – Pr (e) 1 - Pr (e) İstatistikî İfadeyle... / Statistically Speaking... DOI: 10.5455/jmood.20150920115439 ÖZET: Kappa testi Kappa katsayısı kategorik maddelerin değerlendirilmesinde iki gözlemci arasındaki uyumu ölçen istatistiktir. Kappa testi gözlemciler arasındaki uyumun şans eseri olabileceğini de dikkate aldığı için, iki gözlemci arasındaki yüzde orantı olarak bulunan uyumdan daha güçlü bir sonuç olarak değerlendirilir. “Cohen’in kappa katsayısı” sadece iki gözlemci arasındaki uyumu ele alırken, uyumun ölçüldüğü gözlemci sayısı ikiden fazla ise “Fleiss’in kappa katsayısı” kullanılır. κ (Kappa) -1 ile +1 arasında bir değer alabilir. Kappa değeri +1 olduğunda iki gözlemci arasında mükemmel uyum olduğunu göste- rirken, -1 değeri iki gözlemci arasındaki uyumsuzluğun mükemmel olduğunu belirtir. Eğer kappa değeri 0 bulunursa, bu iki gözlemci arasındaki uyumun şansa bağlı olabilecek uyumdan farklı olmadığını belirtir. Anahtar sözcükler: gözlemci, uyum, şansa bağlı ABSTRACT: Kappa test Kappa coefficient is a statistic which measures inter-rater agreement for categorical items. It is generally thought to be a more robust measure than simple percent agreement calculation, since κ takes into account the agreement occurring by chance. Cohen’s kappa measures agreement between two raters only but Fleiss’ kappa is used when there are more than two raters. κ may have a value between -1 and +1. A value of kappa equal to +1 implies perfect agreement between the two raters, while that of -1 implies perfect disagreement. If kappa assumes the value 0, then this implies that there is no relationship between the ratings of the two observers, and any agreement or disagreement is due to chance alone. Key words: observer, agreement, due to chance Journal of Mood Disorders 2015;5(3):142-4 Kappa Testi Selim Kılıç 1 1 MD, Gülhane Askeri Tıp Fakültesi, Ankara-Türkiye Yazışma Adresi / Address reprint requests to: Selim Kılıç, Gülhane Askeri Tıp Fakültesi, Ankara-Türkiye Elektronik posta adresi / E-mail address: drselimkilic@gmail.com Kabul tarihi / Date of acceptance: 21 Eylül 2015 /September 21, 2015 Bağıntı beyanı: S.K.: Yazar bu makale ile ilgili olarak herhangi bir çıkar çatışması bildirmemiştir. Declaration of interest: S.K.: The author declare that they have no conflict of interests regarding the content of this article.