Objetivos. Conocer la variabilidad (y sus determinantes) en la interpretación (normal/patológica) de la radiografía posteoanterior de tórax entre una comunidad médica de atención primaria y un diagnóstico patrón oro (DPO) procedente de 3 radiólogos de referencia.
Diseño. Estudio transversal.
Emplazamiento. Atención primaria. Centros de salud docentes de Elche.
Participantes. 39 participantes: 7 médicos de cabecera (MC) vía MIR, 11 MC no MIR, 9 residentes de tercero de medicina de familia y 12 estudiantes de sexto de medicina.
Mediciones. Mediante la concordancia simple (CS) y el índice kappa (K) se analiza el acuerdo interobservador entre el DPO y la lectura de cada participante en la interpretación de 100 radiografías. El acuerdo intraobservador se estudia mediante una segunda lectura. Mediante análisis uni y multivariante se estudian los factores potencialmente asociados.
Resultados. La CS y el K interobservadores globales son 71,3% (IC 95%, 69,2-73,3) y 0,41 (IC 95%, 0,36-0,46), respectivamente. El tiempo empleado en la lectura y el tiempo en la profesión se encuentran significativa e independientemente asociados a la obtención de un mayor y menor acuerdo interobservador, respectivamente, mientras que la experiencia profesional reciente, la plaza en propiedad y la edad no se asocian. La formación es la variable que independientemente más explica el acuerdo intra e interobservador.
Conclusiones. Aunque el acuerdo global sea aceptable y el observado en los médicos formados vía MIR sea bueno, el obtenido por los otros grupos no sobrepasa un umbral mínimo de aceptabilidad. Es necesaria una formación que eleve la competencia clínica, tal y como lo hace el período MIR.
Objective. To know the variability in the interpretation (normal/pathological) of posteroanterior view chest radiograph and the associated factors between a medical primary care community and a Gold Standard (GS) from 3 reference radiologists.
Design. Crossover study.
Setting. Primary care. Teaching health centers of Elche.
Methods. Interobserver percentage agreement (IPA) and Kappa statistic (K) were used to analyse the interobserver agreement (IA) between the GS and every of the participants in interpretation of 100 radiographs. Intraobserver variability was assessed with a second review. Using uni and multivariant analysis some possibly associated factors were studied.
Results. Overall IPA and K were 71.3% (CI 95%: 69.2-73.3) and 0.41 (CI 95%: 0.36-0.46) respectively. Time employed in radiographs reading and time passed after medicine studies finished were independently and significantly associated to higher and lower interobserver agreement results rspectively, whereas recent professional experience, permanent job and age were not associated. Professional training is the variable that most explain the inter and intraobserver variability.
Conclusions. Overall IA is acceptable. The IA showed by the participants trained under the MIR system is good but the IA achieved by the rest of participants is not acceptable. It is necessary a training which increase the clinical competence, as it does MIR training.