Política de uso de Inteligencia Artificial

La revista Cuestiones de Género está comprometida con la integridad científica y la transparencia en el uso de la inteligencia artificial (IA). Esta política establece directrices claras sobre el uso adecuado de herramientas de IA para autores/as, revisores/as y editores/as.

1. Principios generales

De acuerdo con las directrices de la Declaración de COPE y las mejores prácticas en la comunidad científica:

- Las herramientas de IA no pueden cumplir con los criterios de autoría, ya que no pueden asumir la responsabilidad del contenido científico.

- No pueden gestionar conflictos de intereses, derechos de autor ni tomar decisiones éticas por su propia cuenta.

2. Uso de IA por parte de la autoría

2.1. Declaración de uso:

Las autoras y autores deben declarar explícitamente el uso de cualquier herramienta de IA en la redacción o análisis de sus manuscritos. Se debe especificar el software utilizado, las funciones aplicadas y las secciones del manuscrito donde se ha empleado.

2.2. Responsabilidad de la originalidad

La autoría es responsable de la originalidad del contenido generado o asistido por IA. El material generado no debe infringir derechos de terceros ni plagiar contenidos existentes.

2.3. Revisión de contenido asistido por IA

La autoría es responsable de revisar y verificar cuidadosamente cualquier contenido generado por IA para evitar sesgos, errores o inexactitudes.

3. Uso de IA en la revisión por pares

3.1. Declaración del uso de IA por las personas revisoras

Si las revisoras y revisores utilizan IA para ayudar en la evaluación de un manuscrito, deben declarar este uso. La IA puede servir como apoyo, pero el juicio crítico y la evaluación final deben ser realizados por seres humanos.

3.2. Evaluación de manuscritos

La IA no debe reemplazar la responsabilidad de los revisores y revisoras en la evaluación de los artículos científicos. El proceso debe ser realizado principalmente por humanos, y el uso de IA debe ser complementario.

4. Uso de IA por parte del equipo editorial

El equipo editorial puede emplear IA en tareas administrativas y de edición, como el formateo de manuscritos o la detección de plagio, siempre bajo una supervisión humana rigurosa para asegurar la coherencia y calidad.

5. Ética en el uso de IA

El uso de IA no debe, bajo ninguna circunstancia, llevar a la manipulación de datos, plagio o violaciones de propiedad intelectual. Cualquier mal uso de la IA, intencional o no, será tratado de acuerdo con las políticas de COPE y otras normativas éticas de la editorial.

6. Evaluación y actualización de la política

Esta política será revisada regularmente para adaptarse a los avances tecnológicos en IA y para garantizar las mejores prácticas dentro de la publicación científica.

7. Consecuencias del incumplimiento

El incumplimiento de esta política puede conllevar sanciones como la retirada del manuscrito o la prohibición de enviar futuros trabajos a la revista Cuestiones de Género.