Política sobre IA

Política sobre el Uso de Inteligencia Artificial (IA) y Herramientas Automatizadas en la Publicación Académica

Alineada con las directrices del Committee on Publication Ethics (COPE)

1. Introducción y alcance
Revista Inclusiones y Editorial reconoce que las herramientas de inteligencia artificial (IA), incluidos los modelos de lenguaje de gran tamaño (LLM, por sus siglas en inglés) y otras tecnologías generativas, están transformando los procesos de investigación y publicación académica. Si bien estas herramientas pueden ofrecer oportunidades legítimas para optimizar ciertos aspectos del trabajo académico, no sustituyen el pensamiento crítico, la creatividad intelectual ni la responsabilidad ética que caracterizan la producción científica.

La presente política establece las normas que rigen el uso de herramientas de IA generativa y automatizada por parte de autores, evaluadores y editores en todos los procesos editoriales de Revista Inclusiones. Esta política se fundamenta en la Declaración de Posición del Committee on Publication Ethics (COPE) sobre Autoría e IA (2023) y los principios de transparencia e integridad que guían nuestra labor editorial.

A los efectos de esta política, se entiende por "herramientas de IA generativa" aquellas tecnologías que crean contenido nuevo (texto, imágenes, código, datos) a partir de datos de entrenamiento, tales como ChatGPT, Gemini, Claude, Copilot, DALL-E, Midjourney y similares. Se distinguen de las herramientas asistenciales convencionales (correctores ortográficos integrados, gestores de referencias como Zotero o Mendeley), las cuales no requieren declaración.

2. Política para autores

2.1. Principio fundamental: la autoría es exclusivamente humana
En concordancia con la posición del COPE, las herramientas de IA no pueden ser acreditadas como autoras ni coautoras de ningún manuscrito enviado a Revista Inclusiones. Las herramientas de IA no pueden asumir responsabilidad por el trabajo presentado, no son entidades legales y, por tanto, no pueden declarar conflictos de interés, otorgar consentimiento ni gestionar derechos de autor y acuerdos de licencia.
Asimismo, la IA generativa no puede ser citada como fuente en las referencias bibliográficas, dado que no produce conocimiento original verificable ni puede garantizar la exactitud o fiabilidad de su contenido.

2.2. Usos permitidos sin necesidad de declaración
Los siguientes usos de herramientas automatizadas se consideran asistenciales y no requieren declaración:
a) Corrección ortográfica y gramatical básica (correctores integrados en procesadores de texto).
b) Gestión y organización de referencias bibliográficas mediante software especializado (Zotero, Mendeley, EndNote).
c) Ajustes menores de formato y estilo de citación.

2.3. Usos permitidos con declaración obligatoria
Los autores deben declarar el uso de IA generativa cuando esta se emplee para fines que van más allá de la simple corrección lingüística, edición y formato. Estos usos incluyen, entre otros:
d) Mejora sustancial de la redacción, reestructuración de párrafos o reformulación de argumentos.
e) Traducción de textos o secciones del manuscrito.
f) Generación o edición de imágenes, gráficos o elementos visuales.
g) Asistencia en la escritura o generación de código para análisis de datos.
h) Apoyo en la revisión o compilación de fuentes bibliográficas.
i) Cualquier otro uso que genere contenido nuevo o modifique sustancialmente el contenido existente del manuscrito.

2.4. Usos no permitidos
Las herramientas de IA generativa no deben utilizarse para:
j) Interpretar datos o formular conclusiones científicas. La interpretación de resultados y la formulación de hallazgos son responsabilidades intelectuales exclusivas de los autores humanos.
k) Generar artículos completos o sustancialmente elaborados por IA sin supervisión humana significativa.
l) Fabricar datos, resultados o referencias bibliográficas.
m) Producir contenido que introduzca sesgo, información falsa o interpretaciones erróneas en la investigación.

2.5. Responsabilidad del autor
Los autores son plenamente responsables del contenido íntegro de su manuscrito, incluyendo aquellas secciones en cuya elaboración hayan participado herramientas de IA. Esta responsabilidad abarca la verificación de la exactitud, originalidad y pertinencia de todo el contenido, y se extiende a cualquier incumplimiento de las normas éticas de publicación. Los autores deben asegurarse de que el contenido asistido por IA no contenga:
- Referencias alucinadas o inexistentes.
- Afirmaciones científicas incorrectas.
- Interpretaciones sesgadas.
- Material plagiado o no atribuido.

2.6. Declaración de uso de IA
Al enviar un manuscrito, los autores deberán incluir una Declaración de Uso de IA ubicada inmediatamente antes de la sección de Referencias/Bibliografía. Esta declaración debe especificar:
- El nombre y la versión de la herramienta de IA utilizada.
- El propósito específico para el cual fue empleada.
- Las secciones del manuscrito en las que se utilizó.
- La confirmación de que el autor revisó y verificó todo el contenido generado o asistido por IA.
Si no se utilizó IA generativa, los autores deberán incluir la siguiente declaración: "Los autores declaran que no se utilizaron herramientas de inteligencia artificial generativa en la preparación de este manuscrito."

Ejemplo de declaración:
"El/los autor(es) utilizó/utilizaron ChatGPT (OpenAI, versión GPT-4, enero de 2025) para mejorar la claridad y la gramática de la sección de Introducción y Marco Teórico. Todo el contenido fue revisado y verificado por el/los autor(es), quienes asumen plena responsabilidad por la exactitud del manuscrito."

3. Política para evaluadores (revisores por pares)
La revisión por pares constituye un pilar fundamental de la integridad académica y se sustenta en la confidencialidad, la competencia disciplinar y el juicio humano. En consecuencia, Revista Inclusiones establece las siguientes directrices:

Prohibición de uso generativo
Los evaluadores no deben utilizar herramientas de IA generativa para elaborar sus informes de evaluación. Las evaluaciones generadas por IA presentan riesgos significativos, tales como: violación de la confidencialidad del manuscrito, retroalimentación superficial o genérica, introducción de sesgo, información falsa (incluyendo referencias inexistentes) e instrucciones ocultas (prompt injection).

Protección de la confidencialidad
Está estrictamente prohibido introducir el contenido de manuscritos en evaluación en herramientas de IA públicas (como ChatGPT, Gemini u otros servicios basados en la nube), ya que esto puede comprometer la confidencialidad del proceso de revisión y exponer información inédita a plataformas de terceros.

Uso asistencial limitado
Se permite el uso de herramientas de IA exclusivamente para la corrección lingüística del propio texto de la evaluación (por ejemplo, gramática o estilo), siempre que no se comparta información confidencial del manuscrito y se declare dicho uso al editor. La edición y reescritura mediante IA podrán ser aceptables si se declaran al editor.

Detección de uso de IA en manuscritos
Si un evaluador sospecha del uso no declarado de IA generativa en un manuscrito bajo revisión, deberá informar sus inquietudes al editor, quien procederá conforme a los procedimientos establecidos.

4. Política para editores y equipo editorial
Supervisión humana
Todas las decisiones editoriales (aceptación, rechazo, solicitud de revisiones) son tomadas exclusivamente por editores humanos cualificados. Las herramientas de IA no participan en la toma de decisiones editoriales sobre los manuscritos.

Uso editorial de herramientas automatizadas
El equipo editorial podrá utilizar herramientas automatizadas para tareas de apoyo no decisorias, tales como la detección de similitud mediante Similarity Check de Crossref (powered by iThenticate), verificación de formato, procesamiento de metadatos e identificación de posibles problemas de integridad. Los resultados de estas herramientas serán siempre verificados por un editor o miembro del equipo editorial antes de tomar cualquier acción.

Prohibiciones para editores
Los editores no deben utilizar herramientas de IA generativa para redactar cartas de decisión editorial, resúmenes de investigaciones no publicadas ni evaluaciones de manuscritos.

5. Consecuencias del incumplimiento
La falta de declaración del uso de IA o el uso indebido de herramientas de IA generativa podrá considerarse una infracción a las normas éticas de publicación. Revista Inclusiones se reserva el derecho de:
n) Rechazar el manuscrito en cualquier etapa del proceso editorial.
o) Solicitar la inclusión o corrección de la declaración de uso de IA antes de continuar con la evaluación.
p) Proceder a la retractación del artículo si el incumplimiento se detecta tras la publicación, siguiendo las directrices del COPE.
q) Notificar a las instituciones afiliadas de los autores en casos graves.
r) No volver a invitar a evaluadores que utilicen IA generativa de manera inapropiada para elaborar sus informes de revisión.

Todos los casos se investigarán conforme a las directrices del COPE sobre conductas inapropiadas en la publicación académica.

6. Compromiso de transparencia y apoyo a los autores
Revista Inclusiones está comprometida con la educación y el acompañamiento de sus autores. Durante la evaluación inicial de idoneidad, nuestro equipo editorial proporcionará orientación clara sobre los requisitos de esta política y asistirá a los autores en la correcta formulación de su declaración de uso de IA cuando sea necesario.

Reconocemos que el uso de IA no es, en sí mismo, un factor de rechazo. Un manuscrito no será rechazado únicamente por el uso declarado de herramientas de IA, siempre que dicho uso sea transparente, responsable y conforme a la presente política. La decisión final dependerá siempre del mérito académico evaluado mediante la revisión por pares y el Comité Editorial.

7. Revisión y actualización de esta política
Esta política será revisada periódicamente y actualizada según sea necesario para reflejar los avances tecnológicos, las nuevas directrices del COPE y otras organizaciones relevantes, así como la evolución de las mejores prácticas en la publicación académica.

Referencias normativas
Committee on Publication Ethics (COPE). "COPE Position Statement: Authorship and AI Tools" (2023). https://publicationethics.org/guidance/cope-position/authorship-and-ai-tools

Committee on Publication Ethics (COPE). "Guidance on AI in Peer Review" (2024). https://publicationethics.org/news/cope-publishes-guidance-on-ai-in-peer-review