InicioNoticias¿Cómo está afectando ChatGPT al mundo académico y la producción de artículos?

¿Cómo está afectando ChatGPT al mundo académico y la producción de artículos?

El campo de la odontología, al igual que muchas otras áreas científicas, está evolucionando rápidamente debido a las muy necesarias innovaciones y el refinamiento de las últimas técnicas y armamento para el mejoramiento de los que tratan (los dentistas) y los tratados (los pacientes). 

Entre estos, explica la Asociación de Dentistas Americana (ADA) en su artículo ‘Chat GPT, ¿Innovación disruptiva o disruptiva innovación en el mundo académico?’, quizás la inteligencia artificial (IA) sea un componente crítico o un principio rector para la mayoría de estas tecnologías, como diagnósticos, tratamientos, predicción de enfermedades y pronósticos automatizados

La teoría de la innovación disruptiva, atribuida a Bower y Clayton, inicialmente se refería al lanzamiento, en un negocio o comercio ortodoxo, de un servicio o un producto que provocase un rendimiento mejor y más rentabilidad que los existentes hasta el momento de forma predominante. 

Sin embargo, continúa ADA, el término innovación disruptiva no se limita solo a negocios, sino que se ha extendido a diversos mercados en los que las nuevas tecnologías pueden potencialmente alterar el status quo de los productos, servicios o procesos existentes

La disrupción de ChatGPT

Es aquí donde entra en juego el transformador preentrenado generativo de chat (ChatGPT), una aplicación de software presentada en noviembre de 2022 basada en un gran modelo de lenguaje que interactúa de manera conversacional con los usuarios y que tiene la capacidad de responder consultas de seguimiento; reconocer errores, malas interpretaciones y errores de cálculo; y desafiar escenarios contrafácticos, hipotéticos o ficticios. 

Con su interfaz dinámica y en evolución, la ADA advierte que ChatGPT tiene la capacidad de escribir ensayos académicos e incluso trabajos de investigación académica que pueden estar a la par con la calidad de los ensayos escritos por humanos.

De hecho, en el poco tiempo desde que se presentó, ChatGPT ha sido coautor de al menos 1 artículo indexado en PubMed y ha escrito un artículo en su totalidad casi completamente solo.

Un investigador contemplativo, explica ADA, podría debatir la originalidad, la autenticidad y el plagio en el contenido de un manuscrito de ChatGPT; sin embargo, no se sabe con claridad si el software comercial utilizado por las revistas puede (o podrá) detectar eso en función de la puntuación de similitud que genera. 

El artículo menciona que casi todas las revistas requieren que los autores que envían un estudio o texto confirmen la originalidad de la presentación; sin embargo, ChatGPT podría redefinir los límites entre originalidad y falsedad

Los 4 criterios para los autores y colaboradores de artículos científicos

Otro tema a ponderar, informan, está relacionado con el criterio de coautoría, que es más objetivo y fácilmente discernible. En este sentido, el Comité Internacional de Editores de Revistas Médicas define claramente que el papel de los autores y colaboradores debe cumplir 4 criterios:

  1. Contribuciones sustanciales a la concepción o diseño del trabajo; o la adquisición, análisis o interpretación de datos para el trabajo.
  2. Redactar el trabajo o revisarlo críticamente para contenido intelectual importante.
  3. Aprobación final de la versión a publicar.
  4. Acuerdo de ser responsable de todos los aspectos del trabajo para garantizar que las preguntas relacionadas con la precisión o integridad de cualquier parte del trabajo se investiguen y resuelvan adecuadamente.

Por otro lado, el año pasado, Nature informó que algunos científicos ya estaban usando chatbots como asistentes de investigación, para ayudarlos a organizar su pensamiento, generar comentarios sobre su trabajo, ayudarlos a escribir código y resumir la literatura de investigación

En su artículo ‘Herramientas como ChatGPT amenazan la ciencia transparente; aquí están nuestras reglas básicas para su uso’, expone que ChatGPT puede escribir ensayos de estudiantes presentables, resumir trabajos de investigación, responder preguntas lo suficientemente bien como para aprobar exámenes médicos y ha producido resúmenes de investigación tan buenos que a los científicos les resultó difícil darse cuenta de que los había escrito un ordenador

La gran preocupación en la comunidad de investigación, explica Nature, es que los estudiantes y los científicos puedan hacer pasar engañosamente el texto escrito por el LLM como propio, o usar los LLM de manera simplista (como para realizar una revisión bibliográfica incompleta) y producir un trabajo que no sea confiable. Varios preprints y artículos publicados ya han acreditado ChatGPT con autoría formal

Dos nuevos principios a la hora de publicar

Advierten que por este motivo es hora de que los investigadores y editores establezcan reglas básicas sobre el uso ético de los LLM. Por lo que concretamente la propia Nature, junto con todas las revistas de Springer Nature, han formulado dos principios que han agregado a su guía existente para autores. Que además consideran probable que otras editoriales científicas adopten una postura similar.

  1. En primer lugar, no se aceptará ninguna herramienta LLM como autor acreditado en un trabajo de investigación. Esto se debe a que cualquier atribución de autoría conlleva responsabilidad por el trabajo, y las herramientas de IA no pueden asumir tal responsabilidad.
  2. En segundo lugar, los investigadores que utilizan herramientas LLM deben documentar este uso en las secciones de métodos o agradecimientos. Si un artículo no incluye estas secciones, se puede usar la introducción u otra sección apropiada para documentar el uso del LLM.

Y es que, tal como concluye su artículo, “en última instancia, la investigación debe tener transparencia en los métodos e integridad y veracidad de los autores. Esta es, después de todo, la base en la que se basa la ciencia para avanzar”.

artículos relacionados