2021, Número 3
Intervención educativa sobre habilidades clínicas de pediatras en formación en un laboratorio de simulación: estudio aleatorizado y controlado
Idioma: Español
Referencias bibliográficas: 24
Paginas: 85-93
Archivo PDF: 262.12 Kb.
RESUMEN
La investigación sobre el uso de simulación como estrategia educativa en los postgrados está en aumento. Las particularidades de los pacientes pediátricos justifican el desarrollo de conocimiento específico. Se llevó a cabo un estudio aleatorizado y controlado para evaluar la eficacia de una intervención educativa para entrenamiento en habilidades clínicas. Treinta y ocho pediatras en formación participaron en forma voluntaria de un programa en el que recibieron de manera aleatorizada una capacitación y posterior evaluación en dos habilidades combinando escenarios de procedimientos y de habilidades de comunicación. Dos evaluadores independientes calificaron el desempeño pre y postintervención mediante listas de cotejo y otorgaron calificación considerando el puntaje global y los errores graves cometidos. Se observó una mejora significativa en el desempeño luego de un periodo de lavado de dos meses. La presencia de controles permitió relacionar el desempeño al entrenamiento. Se encontraron diferencias significativas en las habilidades procedimentales y una mejoría tanto en las calificaciones, como en los errores graves de los participantes. Las habilidades de consejería reportaron una mejoría marcada en ambos grupos.INTRODUCCIóN
La formación de postgrado está pasando de un modelo tradicional de maestro y aprendiz a un enfoque por competencias. La simulación se define como una herramienta, dispositivo o entorno con el que un sujeto interactúa para imitar un aspecto de la atención clínica. Es una herramienta integral en la formación de los profesionales de la salud que permite el aprendizaje de dominio mediante la práctica deliberada y supervisada tanto de procedimientos cotidianos, como de eventos de alto riesgo y/o baja frecuencia sin comprometer la seguridad del paciente ni la del profesional. Se pueden evaluar habilidades de liderazgo y de trabajo en equipo en forma estandarizada, promover la autocrítica y utilizar el error como medio de aprendizaje. Este ambiente controlado y supervisado se integra como una instancia complementaria al trabajo con pacientes reales de forma estandarizada, reproducible y segura.1-9
El campo de la simulación pediátrica ha crecido rápidamente, tanto como intervención educativa como foco de investigación.1 Asimismo, la bibliografía sobre experiencias con simulación ha mostrado un crecimiento exponencial.10 Numerosos trabajos describen el diseño y la implementación de centros de simulación médica,6,11 en especialidades internistas, quirúrgicas y también en pediatría9,12,13 rescatando la aceptación por parte de alumnos y docentes y la posibilidad de aplicar conocimientos teóricos y desarrollar habilidades y razonamiento crítico.3,5,8,14,15
La simulación está ganando popularidad como una modalidad para la enseñanza de diversos procedimientos y maniobras de reanimación.16 Hay evidencia acerca de la falta de capacitación suficiente tanto en programas de grado como de postgrado.17,18 Esto ha sido reportado tanto por los estudiantes como por quienes están a cargo de su formación. Suele darse por sentado que la exposición a distintas situaciones clínicas a través del contacto con los pacientes garantiza la adquisición de habilidades clínicas, asociando experiencia con competencia.19,20
El debriefing que forma parte de la simulación es fundamental, ya que el desempeño se analiza no sólo desde el punto de vista técnico, sino también desde el de las habilidades relacionales, comunicacionales, etcétera.21
La decisión de incorporar la simulación a los programas de formación responde a factores complejos; aspectos éticos de entrenamiento con pacientes reales, igualdad de exposición a situaciones clínicas, disminución de errores, impacto educativo y factores económicos.22
Aunque la cantidad de investigación basada en simulación va en aumento, la calidad es variable. En una revisión sistemática reciente sobre investigación educativa basada en simulación, sólo 22.5% de los estudios tenían un diseño controlado aleatorizado, 15.1% fueron multicéntricos, y 5.3% informó los resultados del impacto sobre la atención médica.1 El tipo de diseño que predomina en la mayoría de los trabajos disponibles es descriptivo.
Hay consenso en la necesidad de llevar adelante más investigaciones para evaluar la eficacia de la simulación como herramienta educativa, incluyendo el análisis de la confiabilidad y validez de los instrumentos utilizados y el impacto de los aprendizajes sobre la atención de pacientes.1,16
Los niños difieren de los adultos en tamaño, fisiología y patologías prevalentes, a la vez que aparece un elemento fundamental en el aspecto comunicacional que es la relación del pediatra con la familia. Estas diferencias y particularidades justifican la necesidad de tener evidencia del uso de simulación en pediatría, evitando extrapolar resultados obtenidos en adultos.2
El objetivo de este trabajo es analizar la eficacia de una intervención educativa sobre el desempeño en cuatro procedimientos clínicos básicos: punción lumbar, ventilación a presión positiva con bolsa y máscara (VPBM), asesoramiento en lactancia e inmunizaciones.
MATERIAL Y MéTODOS
Este estudio se llevó a cabo en el contexto de la Carrera de Especialista en Pediatría de la Universidad Maimónides de Buenos Aires. Se incorporó un centro de simulación médica (CSM) como espacio de enseñanza y aprendizaje para complementar los escenarios tradicionales. El CSM cuenta con 15 estaciones, para el presente estudio se seleccionaron cuatro, considerando que, siendo claves en la práctica de un pediatra en formación, presentarán además otras dos características que hacen posible una mejor evaluación: 1) existen normas claras en cuanto a cómo deben realizarse; y 2) constan de una serie de pasos que facilitan su evaluación mediante listas de cotejo.6
Los escenarios utilizados para la simulación se construyeron tomando en cuenta habilidades comunicacionales, cognitivas y procedimentales, a modo de incluir diversos aspectos y entornos cotidianos de la práctica clínica (consultorios equipados, sala de procedimientos). Los participantes contaban con los elementos necesarios para la realización de los procedimientos (guantes, camisolín, antiparras, campos estériles, antisépticos, agujas de punción, tubos para recolección, etcétera).
Se invitó a participar en este estudio a todos los estudiantes en condición de regularidad de primero y segundo año de la Carrera de Especialista en Pediatría (n = 38). La participación fue voluntaria. Los participantes fueron divididos en dos grupos mediante aleatorización simple y se distribuyeron en grupos intervención y control. De esta manera, los participantes actuaron como grupo intervención en dos habilidades y formaron parte del grupo control en las otras dos.
Para la evaluación del desempeño, se utilizaron listas de cotejo estandarizadas y objetivas para cada habilidad, que se confeccionaron a partir de la consulta de literatura pertinente y el consenso de expertos. Las guías de procedimientos y las listas de evaluación utilizadas se basaron en la práctica clínica habitual. Se usó una escala dicotómica (sí/no) para minimizar la subjetividad y se representaron las dimensiones relacionadas con la preparación previa (ambiente, material, seguridad), la destreza a la hora de realizar los procedimientos y las habilidades de relación y comunicación con otros miembros del equipo si los hubiere o los padres del paciente simulado. Se dispuso de actores entrenados para hacer el rol de padres utilizando un guión elaborado especialmente. Para cada habilidad se seleccionaron cinco ítems de la lista de cotejo que se denominaron "errores graves" por implicar un riesgo para el paciente o para la seguridad del médico.
Para la ponderación del desempeño se utilizaron dos indicadores:
- 1. Calificación numérica con base en el porcentaje de ítems realizados correctamente con un rango de 0 a 100 en el que todos los ítems tenían el mismo peso.
- 2. Número de errores graves cometidos.
Estos dos indicadores se combinaron generando tres posibles categorías de desempeño:
- 1. Categoría A: sin errores graves y con más de 80 puntos.
- 2. Categoría B: con no más de un error grave o puntaje entre 60 y 79.
- 3. Categoría C: más de un error grave o menos de 60 puntos.
De esta manera, si bien el puntaje es determinado por la cantidad de ítems realizados en forma correcta, la presencia de errores adquiere relevancia ya que influye sobre la categoría final. Los dos evaluadores que participaron del estudio eran instructores de simulación del CSM. Fueron entrenados a través de cuatro talleres, en los cuales se trabajó la concordancia interobservador y se definieron criterios de evaluación. Se llevó a cabo una prueba piloto en un grupo de alumnos avanzados de medicina que no participó del estudio.
La confiabilidad de las listas de cotejo se determinó mediante la prueba de Kuder-Richardson. Los evaluadores fueron ciegos a la calificación inicial y se cruzaron para la segunda medición con listas de cotejo de modo que ningún evaluador corrigiera a cada participante en más de una oportunidad.
Análisis estadístico: las variables continuas se describieron mediante medianas y rangos. Las variables discretas mediante porcentajes. Se consideró significativo un valor de p menor de 0.05. La evaluación de la eficacia de la intervención se midió evaluando la diferencia entre los resultados basales y postintervención en ambos grupos (control e intervención) y entre ambos grupos en relación a: 1) la calificación global basal; 2) la cantidad de errores graves cometidos; 3) la proporción de sujetos en la categoría A para comparar las calificaciones obtenidas antes y después de la intervención dentro de cada grupo (intervención o control), se utilizó el test de los rangos con signo de Wilcoxon para mediciones pareadas; mientras que para la comparación dentro de cada grupo del número de estudiantes con errores graves antes y después se utilizó el test de McNemar. Para comparar la diferencia (delta) antes y después de la intervención en la calificación numérica y el número de errores entre los grupos se utilizó el test de suma de rangos de Wilcoxon para muestras independientes. Para reportar los porcentajes de errores graves se utilizó el test exacto de Fisher. Todos los parámetros incluidos en las variables de resultado fueron volcados a una base de datos diseñada para tal fin (planilla Microsoft® Excel® 2013).
IMPLEMENTACIóN
Fase inicial: los participantes concurrieron al CSM en tres sesiones de seis horas de duración pasando en forma individual y en orden aleatorio por las 15 estaciones, sin saber en cuáles serían evaluados. Los participantes asistieron por primera vez al CSM y resolvieron las situaciones presentadas utilizando sus conocimientos previos. Al ingreso al CSM debieron firmar un contrato de confidencialidad, en el que asumían el compromiso de no divulgar lo que sucedería en sus actividades. A los candidatos a participar en el estudio se les solicitó firmar un consentimiento informado para el uso de datos. El CSM cuenta con un sistema de circuito cerrado de grabación audiovisual con cámaras en diferentes ángulos. Luego de la recolección de los videos de la primera medición en las cuatro estaciones, los observadores evaluaron el desempeño para cada habilidad utilizando las listas de cotejo. Otorgaron una calificación global de 0 a 100, identificando los errores graves y clasificaron en categorías A, B o C.
Fase de intervención: esta fase tuvo lugar, luego de evaluar el desempeño de los 37 participantes en las cuatro estaciones. Los participantes se dividieron en dos grupos mediante aleatorización simple. La intervención educativa que recibieron los participantes asignados al grupo intervención consistió en un debriefing individual (devolución constructiva con revisión de videos y listas de cotejo) y por otro, de un entrenamiento mediante videos, mostraciones y práctica supervisada. Aquellos que no participaron de ésta intervención constituyeron el grupo control. En el flujograma (Figura 1) se visualiza la distribución de los participantes en los grupos intervención y control. Cada participante recibió la intervención educativa solo en dos de las habilidades, ya que funcionó como control para las otras dos. Para cada habilidad existió un grupo control que no recibió.
Periodo de lavado: una vez que todos los participantes completaron la intervención educativa, se dejó pasar un periodo de dos meses. Este periodo de lavado (washout) tuvo como objetivo disminuir el efecto del paso por cada estación. Durante este tiempo, ni los investigadores ni los participantes tuvieron contacto con el CSM ni con la atención de pacientes.
Fase final: luego de dos meses se midió nuevamente el desempeño de todos los participantes en las estaciones utilizando las mismas listas de cotejo, con escenarios diseñados a manera de requerir las mismas habilidades en contextos diferentes para generar la percepción de una nueva situación clínica.
RESULTADOS
Treinta y ocho participantes cumplieron con los criterios de inclusión y 37 completaron el estudio. Todos aceptaron en forma voluntaria participar y otorgaron su consentimiento para el uso de los datos, 4% de los participantes tuvo sólo una medición del desempeño (por ausencia o problemas técnicos). No hubo intercambio entre grupos. En la Tabla 1 se presentan las características de los participantes del estudio según el grupo asignado. Del paso de los participantes por las cuatro estaciones en las fases inicial y final de medición del desempeño, se obtuvieron un total de 363 archivos de video (185 y 179 respectivamente). La Figura 2 muestra el desempeño inicial de todos los participantes por categorías (A, B o C) y por estaciones.
Antes de llevar adelante el análisis de la eficacia de la intervención educativa, se evaluó si al inicio del estudio los grupos eran comparables. Para ello se analizó si existían diferencias significativas entre alumnos de primero y segundo año en la calificación global y se evaluó si en la primera medición del desempeño existían diferencias entre el grupo control e intervención (Tabla 2). No se encontraron diferencias significativas.
Se analizó cómo se modificó el desempeño entre mediciones en cada grupo (control e intervención). El análisis se llevó a cabo tanto para la calificación global, como para el número de errores graves cometidos y el porcentaje de participantes en la categoría A (Tablas 3 y 4). Asimismo, se analizó y comparó el desempeño final entre ambos grupos en función de la calificación global, el número de errores graves cometidos y el porcentaje de participantes en la categoría A (Tabla 5).
Para evaluar la magnitud del cambio en la calificación global y el número de errores entre el inicio y el final del estudio, se analizó el delta de cambio en cada grupo y comparando ambos grupos entre sí (Figura 3).
DISCUSIóN
La participación fue elevada y las escasas deserciones y participantes que no completaron las dos mediciones fueron por motivos ajenos al estudio. Los dos grupos estaban balanceados en cuanto a edad, género y año de cursada. El desempeño inicial (calificación global, número de errores graves y porcentaje de participantes en categoría A) resultó similar en ambos grupos.
Al analizar el desempeño antes y después de la intervención, se encontró que todos los grupos mejoraron significativamente en todas las habilidades evaluadas. Sin embargo, los grupos que recibieron la intervención tuvieron una mejoría significativamente mayor, salvo en la estación de lactancia, donde se evidenció una mejoría marginal. Si bien por las características del estudio no es posible atribuir los resultados de la mejoría exclusivamente a la intervención, hay varios puntos que cabe destacar. Se descarta que las diferencias se deban a un sesgo de selección dado que ambos grupos estaban balanceados en cuanto a su conocimiento inicial. Se demostró que no se debía al paso del tiempo porque no se encontraron diferencias significativas entre participantes de primero y segundo año de la carrera. Por último, todos los participantes expuestos a la capacitación mejoraron su desempeño.
Al analizar en forma conjunta las estaciones de promoción de la salud se observa que, por un lado, el delta de cambio para el grupo que recibió la intervención fue menor que el observado en las estaciones VPBM y punción lumbar, y por otro lado, también fue menor la diferencia entre el grupo control y el grupo intervención. El primer hallazgo indica que el impacto de la intervención no fue tan evidente y podría explicarse si tenemos en cuenta que las calificaciones preintervención de los participantes fueron más altas en las habilidades de promoción de salud (más cerca de la meseta de la curva de aprendizaje). La menor diferencia entre los grupos control e intervención (al comparar con las estaciones procedimentales) podría deberse a una dificultad del instrumento para discriminar entre ambas estaciones que tenían puntos en común.
El mayor impacto se obtuvo sobre las estaciones de punción lumbar y VPBM. Una de las posibles explicaciones tiene que ver con la naturaleza misma de la habilidad, que requiere la aplicación secuencial de una serie de pasos. Por otro lado, fueron las estaciones donde se encontraron las calificaciones iniciales más bajas, lo que llevaría a pensar que los cambios son más evidentes.
La mejora que presentaron los controles en las estaciones podría deberse a un efecto de "derrame" mediante el cual el paso por la actividad educativa tuvo un efecto sobre la percepción de las propias habilidades y detección de necesidad de realizar ajustes. La posibilidad de observar la mejoría en los grupos controles se logró gracias al diseño controlado, y esto constituyó una fortaleza del estudio. Si solo se hubiesen tomado mediciones pre y postintervención (sin controles) posiblemente se hubiese sobreestimado la eficacia de la intervención.
De todas formas, sabiendo que las competencias son áreas específicas, no sería suficiente con realizar entrenamiento en algunas habilidades esperando que los aprendizajes se "trasladen" a otras áreas, por más similares que sean.
Si observamos lo sucedido con la variable de resultado o outcome (porcentaje de participantes en categoría A sin errores graves y con más de 80 puntos de calificación global), observamos valores muy satisfactorios en las estaciones de punción lumbar y lactancia materna (84 y 77%), intermedios en vacunación (72%) y todavía mejorables en VPBM (55%).
Si bien se encontraron similitudes con otras investigaciones que hallaron mejoras en el desempeño luego de una intervención educativa, todas estaban focalizadas en evaluación de habilidades prácticas y tenían un diseño pre y postintervención aleatorizado, pero no controlado. No se encontraron otras experiencias que analizaran también habilidades de promoción de la salud en entornos simulados.
Brinkman23 y colaboradores estudiaron el efecto del feedback sobre habilidades de comunicación y profesionalismo en residentes de pediatría y encontraron que el grupo intervenido mejoraba al ser reevaluado a cinco meses de la intervención.
Barnsley y colaboradores hallaron que 90% de los egresados referían no poseer las competencias necesarias para la residencia y omitían pasos clave al realizar procedimientos en un ambiente simulado.24 El estudio de Vassallo y su equipo en el Hospital Garrahan reportó sobre una muestra de 112 residentes de distinto año, con bajos niveles de confianza para realizar una punción lumbar, que mejoraron luego de la intervención educativa. Asimismo, los autores reportaron un nivel de desempeño inicial y falta de diferencia en los grupos según la experiencia previa similar a nuestros hallazgos.5
Enríquez y su grupo realizaron un estudio para evaluar la resolución de un escenario de anafilaxia en 72 residentes de pediatría. Luego de una capacitación inicial y un periodo de lavado de seis meses, observaron una franca mejora en el desempeño de 12 participantes seleccionados al azar ante un nuevo caso simulado. Esta mejoría ocurrió no sólo en aquellos participantes que no habían resuelto el caso favorablemente en la primera etapa, sino en aquéllos que lo habían hecho bien. Atribuyeron esto al impacto del refrescamiento, en donde nuevas exposiciones breves mejoran el desempeño profesional en otras emergencias afines.15
Limitaciones: dado que no hay un estándar de oro para la evaluación de la competencia clínica, la validez de cualquier instrumento debe determinarse por métodos que no implican la comparación con un estándar. Los instrumentos tienen validez aparente, establecida por la consulta con expertos y con bibliografía disponible. El presente estudio no fue diseñado para evaluar resultados clínicos relacionados con el impacto en la atención de pacientes reales, sino con el grado de cumplimiento de los ítems evaluados en la lista de cotejo de los casos simulados. Si bien se utilizaron estrategias para maximizar la posterior transferencia de los aprendizajes, no puede inferirse que los participantes se comporten de igual manera ante casos reales. El hecho de haber trabajado con una muestra perteneciente a un único programa de formación implica una limitación a la hora de generalizar los resultados. Sin embargo, el análisis detallado de la metodología y los resultados permitirá replicar el estudio.
CONCLUSIóN
Se encontraron errores graves cometidos por los pediatras en formación en sus tareas cotidianas y oportunidades de mejora. Esta característica es compartida por programas de formación similares. La intervención fue eficaz ya que se demostró una mejoría significativa en todos los grupos en todas las estaciones. Se encontraron diferencias significativas en las habilidades procedimentales y una mejoría tanto en las calificaciones como en los errores graves de los participantes. Las habilidades de consejería reportaron una mejoría marcada en ambos grupos. Los participantes mejoraron en una serie de habilidades clave y los referentes del postgrado tuvieron una retroalimentación cuantificable y objetiva sobre los resultados del trabajo en el CSM que permitió realizar ajustes y mejoras en el programa. Los resultados de este primer estudio controlado y aleatorizado realizado en el ámbito de un CSM arrojan resultados útiles para el diseño de programas de formación pediátrica de postgrado que incluyan la certificación de competencias, alineada con los conceptos de calidad de atención y seguridad del paciente.
REFERENCIAS (EN ESTE ARTÍCULO)
AFILIACIONES
1 Magister. Departamento de Salud Materno Infantil de la Universidad Maimónides de Buenos Aires, Argentina.
2 Profesor. Departamento de Salud Materno Infantil de la Universidad Maimónides de Buenos Aires, Argentina.
3 Profesor, PhD. Departamento de Salud Materno Infantil de la Universidad Maimónides de Buenos Aires, Argentina.
Conflicto de intereses: No hubo conflicto de intereses por parte de los autores, ni financiación externa para el presente proyecto. Los participantes otorgaron su consentimiento para el estudio y filmación de la actividad. Los datos fueron manejados de modo que la identidad de los participantes estuviese protegida.
CORRESPONDENCIA
Gabriela Urman. E-mail: urman.gabriela@maimonides.eduRecibido: 08/12/2020. Aceptado: 17/11/2021