Criterios para el uso de Inteligencia Artificial
De acuerdo al Código de Ética del International Committee of Medical Journal Editors (ICJME) al que adhiere la Revista FOUBA, se establecen los siguientes criterios para el uso de la Inteligencia Artificial en el proceso editorial.
EN GENERAL
Indistintamente del rol que se ejerza, como autores, revisores o editores de revistas científicas, se debe asumir una postura ética y moral frente al uso de la IA que mitigue sesgos y desinformación.
El uso de la IA en las decisiones científicas debe ser empleado para beneficio de la humanidad salvaguardando principios éticos, el desarrollo y el bien común. El uso incorrecto o inadecuado puede provocar riesgos que atenten contra la vida humana y contra derechos fundamentales como el acceso a la información, la salud, la educación, la privacidad de los datos personales, la protección del medio ambiente, la dignidad humana, entre otros.
Omitir declarar el uso o la asistencia de IA en las diferentes fases de la producción científica, incluyendo los prompts (enunciados/instrucciones), así como el tipo de asistencia solicitada, implicaría una falta de transparencia en la aplicación de los procesos científicos y lesionaría el derecho y autonomía de los lectores para decidir el uso de los hallazgos reportados por los autores.
Asimismo la omisión del reconocimiento de la propiedad intelectual de las partes o fuentes involucradas puede dificultar la identificación o reconocimiento de autorías y la asignación de responsabilidades legales en caso de daños producto del uso del IA.
AUTORES
En ejercicio de transparencia, los autores deben indicar si utilizaron tecnologías asistidas por inteligencia artificial (IA), como Grandes Modelos de Lenguaje (LLM), chatbots o creadores de imágenes, en la producción del trabajo enviado indicando tanto el modelo de IA, su versión y la fecha de uso.
Los autores que utilicen dicha tecnología deben describir su uso en la sección correspondiente y cómo la utilizaron. Por ejemplo: si se utilizó IA para la asistencia en la escritura, deben mencionarlo en la sección de agradecimientos y si se utilizó IA para la recopilación de datos, el análisis o la generación de figuras, deben describir este uso en los métodos.
Los chatbots (como ChatGPT) no deben figurar como autores, ya que no pueden responsabilizarse de la precisión, integridad y originalidad del trabajo, y estas responsabilidades son necesarias para la autoría. Por lo tanto, las personas son responsables de cualquier material enviado que incluya el uso de tecnologías asistidas por IA.
Los autores deben revisar y editar cuidadosamente el resultado, ya que la IA puede generar resultados aparentemente fidedignos que pueden ser incorrectos, incompletos o sesgados. Los autores no deben mencionar la IA ni las tecnologías asistidas por IA como autor o coautor, ni citar a la IA como autor.
Los autores deben poder afirmar que no hay plagio en su artículo, ni en el texto ni en las imágenes producidas por la IA. Los autores deben garantizar la correcta atribución de todo el material citado, incluyendo las citas completas. El uso no filtrado de IA no será aceptado o considerado válido.
REVISORES
Los revisores deben mantener la confidencialidad del manuscrito, lo que puede impedir la carga del mismo en softwares u otras tecnologías de IA donde no se pueda garantizar la confidencialidad.
Los revisores deben solicitar permiso a la revista antes de utilizar tecnología de IA para facilitar su revisión.
Los revisores deben ser conscientes de que la IA puede generar resultados aparentemente fiables que pueden ser incorrectos, incompletos o sesgados.
EDITORES
Los editores no deben compartir información sobre los manuscritos, incluyendo si han sido recibidos y están en revisión, su contenido y estado en el proceso de revisión, las críticas de los revisores y su destino final, con nadie más que los autores y revisores. Los editores deben ser conscientes de que el uso de tecnología de inteligencia artificial en el procesamiento de manuscritos puede violar esta confidencialidad. La IA no debe sustituir o reemplazar las responsabilidades de los editores.
En ejercicio de transparencia, los editores notificarán a los autores el uso de IA en la evaluación de sus artículos y durante el procesamiento editorial.
El uso no filtrado de IA no debe ser aceptado o considerado válido.