2023, Número 3
Inteligencia artificial como copiloto en el diseño de casos, experiencias en dos centros de simulación latinoamericanos
Idioma: Español
Referencias bibliográficas: 13
Paginas: 91-95
Archivo PDF: 264.99 Kb.
RESUMEN
El avance de la inteligencia artificial (IA), incluido el modelo GPT4, ha llegado para quedarse al campo de la educación general y al de la educación en ciencias de la salud en particular, y la educación basada en simulación no es la excepción. En el presente trabajo mostramos la aplicación de GPT4 en la construcción de casos de simulación desde la experiencia de dos centros de simulación latinoamericanos. Proponemos algunas recomendaciones para realizar instrucciones eficientes, mostramos algunos resultados a manera de ejemplo y planteamos algunas dificultades y limitaciones en su uso.INTRODUCCIóN
Dentro del grupo de las tecnologías con aplicación en educación, el avance e incorporación de la inteligencia artificial (IA) ha sido vertiginoso en los últimos años,1-3 mostrando nuevas posibilidades de aplicación en la práctica; sin embargo, lo que conocemos sobre su aplicación real en el campo educativo de la educación basada en simulación (EBS) es aún incipiente.
En el presente artículo, trabajamos sobre algunos conceptos clave que permitirán a la comunidad de educadores en simulación conocer y comprender las posibles aplicaciones de algunas IA en la práctica de la educación basada en simulación (EBS), así como los retos que se presentan en el diseño de casos simulados usando esta herramienta a manera de asistente o copiloto, desde la experiencia de dos centros de simulación clínica de Colombia y Chile.
INTELIGENCIA ARTIFICIAL Y PROCESAMIENTO DE LENGUAJE NATURAL
La inteligencia artificial (IA) es un área de estudio delimitada dentro de las ciencias de la computación. Su objetivo es desarrollar sistemas capaces de desempeñar tareas similares a las que puede realizar la inteligencia humana (aprendizaje, resolución de problemas, toma de decisiones, comprensión del lenguaje natural, etcétera).2
En el marco de la Segunda Guerra Mundial se trabajó sobre programas de aprendizaje automático y construcción de redes neuronales con los desarrollos de Alan Turing. En los años 70-80, el avance fue menor; tomó fuerza nuevamente a finales del siglo XX con investigación en diferentes áreas como en la programación de lenguaje natural (NPL), aprendizaje automático (machine learning) y aprendizaje profundo (deep learning), teniendo aplicación en múltiples campos prácticos.2,4,5
El NPL es uno de los elementos más importantes de las IA que se usan en la vida cotidiana; se centra en la manera en que pueden comunicarse las computadoras con los humanos de una manera fluida y coherente, bien sea mediante texto o voz. Los sistemas de NPL funcionan a través de la introducción de información, realizan análisis semántico, sintáctico y de contexto, regresando una respuesta similar a la que le daría un ser humano, con un margen de error variable (SIRI, Alexa, chatbots de atención al cliente, etcétera).
Un chatbot es un programa de computación que entiende uno o más lenguajes humanos, usa NPL y aprendizaje automático para interactuar con el usuario en función de los estímulos y el contexto.6,7 Actualmente, diferentes plataformas han desarrollado chatbots interesantes como ChatGPT de OpenAI, Bard de Google, Bing de Microsoft, entre otros.
ChatGPT es el modelo más popular de asistente virtual impulsado por IA. Está basado en GPT (Generative Pre-trained Transformer), que está desarrollado sobre una red neuronal que se entrena sin necesidad de supervisión; es capaz de generar textos de muy alta calidad y precisión en segundos a partir de entradas escritas; es capaz de tomar en cuenta el contexto previo, lo que lo hace ser muy eficiente y útil en múltiples campos, pero que también ha sido objeto de un fuerte debate.8-12
Bard de Google es un modelo impulsado por IA más reciente y que está aún en desarrollo; tiene como ventaja que, además de recibir la entrada en texto, puede recibir información a partir de voz.
CHATBOT,
En la práctica cotidiana dedicamos tiempo (variable) a construir los casos de simulación en función del público al que dirigiremos la instrucción, los objetivos de aprendizaje, el nivel de dificultad, los recursos que disponemos, la fidelidad que requerimos, etcétera. Con la llegada de los asistentes electrónicos hemos empezado a utilizarlos en los centros de simulación para distintas tareas; una de ellas es el diseño de casos de simulación.
Los chatbot no son perfectos, pueden ser imprecisos, dar respuestas incoherentes o erradas conocidas como alucinaciones artificiales.13 Mucho de esto va a depender de la calidad de los prompt utilizados y, por supuesto, del entrenamiento previo de la IA y el acceso a fuentes de información actualizadas y confiables. Prompt es una palabra en inglés que posiblemente su mejor traducción sea introducción o entrada; se refiere a un conjunto de datos escritos o dictados por voz que le indican a la IA el contenido que debe generar.
En la Tabla 1 ofrecemos algunas recomendaciones para redactar instrucciones de buena calidad y así obtener mejores resultados.
A continuación, mostraremos algunos ejemplos prácticos de construcción de casos utilizando ChatGPT-4 y Bard con el mismo prompt (en español para ChatGPT y en inglés para Bard) (Figuras 1, 2, 3, 4, 5 y 6).
DESAFíOS Y LIMITACIONES
Las aplicaciones de inteligencia artificial generativa pueden ser de utilidad en simulación clínica en la redacción de casos simulados; sin embargo, a pesar de sus aportes, es importante reconocer que existen desafíos y limitaciones inherentes a estas tecnologías.
Las IA tienen una fecha de corte en su conocimiento y entrenamiento, no están al día con los avances clínicos y descubrimientos más recientes. Adicionalmente, aunque estas herramientas emplean tecnologías de procesamiento de lenguaje natural avanzadas, aún pueden presentar dificultades para interpretar instrucciones ambiguas o mal formuladas, limitando su capacidad para proporcionar respuestas apropiadas y precisas, incluso, pueden generar resultados falsos, escritos de una manera coherente, por lo tanto, puede ser erróneamente tomada como verdad por el usuario.
Otra limitación muy importante es que las IA, a pesar de poder generar respuestas basadas en su entrenamiento, no pueden realizar juicios clínicos de la misma manera en que un profesional de la salud lo haría, lo que deja interrogantes sobre su fiabilidad y precisión en escenarios clínicos complejos. Además, existen problemas relacionados con la confidencialidad y privacidad de los datos, así como cuestiones de aceptación y confianza del usuario. Por último, es importante considerar el riesgo de una dependencia excesiva de la tecnología, que puede comprometer el desarrollo de habilidades de pensamiento crítico de los educadores que hacen uso de esta herramienta.
Con base en las limitaciones, es fundamental que estas IA se utilicen como herramientas de apoyo en la educación médica, no como sustitutos del juicio y la interacción humana. Los educadores deben desempeñar un papel activo en la revisión y validación de la información proporcionada por estas IA. A medida que la tecnología continúa evolucionando, es imprescindible abordar estos desafíos para maximizar el potencial de las IA en la simulación clínica y la educación médica en general.
CONCLUSIONES
Las aplicaciones impulsadas por inteligencia artificial generativa, como ChatGPT-4 y Bard, son herramientas de gran utilidad en el ámbito educativo. Es fundamental que los docentes aprendan a utilizarlas para aprovechar al máximo sus beneficios.
En la redacción de casos de simulación, se requiere prestar especial atención a los prompt utilizados. Éstos deben ser específicos, claros, bien delimitados, se debe utilizar un lenguaje apropiado y garantizar la seguridad de los contenidos generados por la inteligencia artificial.
Aunque contar con un chatbot avanzado puede ser beneficioso, es importante recordar que no puede reemplazar por completo el razonamiento y la interacción humana de un educador en simulación. La experiencia práctica y la capacidad para adaptarse a situaciones inesperadas son aspectos cruciales que sólo un educador puede brindar. Por lo tanto, se debe evitar caer en una dependencia tecnológica excesiva y asegurar que la presencia del chatbot se utilice como un apoyo y complemento al trabajo docente en lugar de ser su único sustento.
REFERENCIAS (EN ESTE ARTÍCULO)
AFILIACIONES
1 Unidad de Simulación e Innovación, Universidad San Sebastián. Chile.
2 Innovación Educativa, Grupo de Investigación en Educación y Simulación Clínica, VitalCare Centro de Simulación Clínica. Armenia, Colombia.
3 Facultad de Medicina, Unidad de Simulación e Innovación en Salud. Universidad San Sebastián. Chile. ORCID: 0000-0003-4940-9870
CORRESPONDENCIA
Diego Andrés Díaz-Guio. E-mail: andres.diaz@uss.clRecibido: 07/08/2023. Aceptado: 19/10/2023