2023, Número 2
Uso de ChatGPT en los manuscritos científicos
Idioma: Español/Inglés [English version]
Referencias bibliográficas: 5
Paginas: 65-66
Archivo PDF: 95.39 Kb.
El GPT es un tipo de inteligencia artificial desarrollada por la compañía OpenAI en noviembre de 2022 y está diseñado para generar texto similar al humano. Es un modelo de lenguaje y se usa frecuentemente en chatbots que son programas de computadora capaces de sostener una conversación por texto o voz con un humano.1,2
El uso de chatbot y de procesamiento del lenguaje natural, incluido el ChatGPT, tienen el potencial de revolucionar el campo de las publicaciones médicas al automatizar algunas tareas y hacer más eficiente el proceso de escribir. Se ha mencionado que pueden ayudar a extraer información de expedientes electrónicos, asistir en búsquedas de la literatura médica o ser una guía en el estilo y formato de escribir.
Varios expertos y revistas médicas rechazan el uso de ChatGPT, ya que no tiene pensamiento crítico y presenta información redundante e irracional; su uso hace que no se tengan ideas originales y no se pueden argumentar los puntos, en el caso de utilizarlo en un manuscrito científico el contenido será del bot, con esto vienen problemas médico-legales y de propiedad intelectual o autoría.2
El ChatGPT no tiene acceso a PubMed ni a Cochrane, por lo tanto, hay carencias en la información que da, además de que no es capaz de elaborar una discusión estructurada.2 Se puede utilizar para revisar material, hacer un escrito constructivo, pero no para hacer un anteproyecto original. Se requiere de una mente intelectual humana, así como de políticas que verifiquen los datos que se generan por los sistemas de inteligencia artificial.
El ChatGPT ya se ha enlistado como autor en algunos artículos científicos, algunos editores piensan que no es una buena decisión. La autoría de un artículo le confiere: créditos por la contribución y responsabilidad por el contenido del trabajo, como lo dice el Comité en Ética y Publicaciones (COPE) y el Comité Internacional de Editores de Revistas Médicas (ICMJE), este último recomienda que para que alguien pueda ser autor debe tener contribución sustancial, diseño del trabajo, interpretación de los datos, al hacer el borrador o la revisión crítica, además de tener la aprobación final de la versión que saldrá a publicación; de acuerdo a esto un chatbot no debería aparecer como autor, sino únicamente tener un reconocimiento en el artículo.3
Las empresas editoriales quieren crear políticas para el uso de chatbots, pero todavía es un tema controversial que no está claro. Podría ser una herramienta para detectar plagio, se haría cargo del lenguaje y la sintaxis en los artículos, la verificación de la estadística sería fácil. El ChatGPT debería ser capaz de saber si el manuscrito fue hecho por un humano o por un programa de computo.4
Se debe sugerir a las revistas que el autor declare si utilizó inteligencia artificial para complementar el manuscrito, esto logrará una mejor transparencia.5 La Asociación Mundial de Editores (WAME), ha sacado recomendaciones respecto del ChatGPT.
Los chatbots no pueden ser autores, los autores deben ser claros y expresar cómo usaron los chatbots, los autores son responsables del uso de chatbots en su manuscrito, los editores van a necesitar de herramientas para detectar contenido generado por inteligencia artificial.
Mientras no existan reglas claras, las revistas médicas no deben autorizar el uso de chatbots o inteligencia artificial para la elaboración de manuscritos y, sobre todo, se debe aclarar todo lo relacionado a la autoría.
REFERENCIAS (EN ESTE ARTÍCULO)
AFILIACIONES
1 Editora, Cirujano General. orcid.org/0000-0001-5635-5845
CORRESPONDENCIA
Abilene Cirenia Escamilla Ortiz. E-mail: escamillaoa@amcg.org.mx