Política de uso de Inteligencia Artificial

La revista Cuestiones de Género está comprometida con la integridad científica y la transparencia en el uso de la inteligencia artificial (IA). Esta política establece directrices claras sobre el uso adecuado de herramientas de IA para autores/as, revisores/as y editores/as.

PRINCIPIOS GENERALES

De acuerdo con las directrices de la Declaración de COPE y las mejores prácticas en la comunidad científica:

- Las herramientas de IA no pueden cumplir con los criterios de autoría, ya que no pueden asumir la responsabilidad del contenido científico.

- No pueden gestionar conflictos de intereses, derechos de autor ni tomar decisiones éticas por su propia cuenta.

USO DE IA POR PARTE DE LA AUTORÍA

1. Declaración de uso:

Las autoras y autores deben declarar explícitamente el uso de cualquier herramienta de IA en la redacción o análisis de sus manuscritos. Se debe especificar el software utilizado, las funciones aplicadas y las secciones del manuscrito donde se ha empleado.

2. Responsabilidad de la originalidad

La autoría es responsable de la originalidad del contenido generado o asistido por IA. El material generado no debe infringir derechos de terceros ni plagiar contenidos existentes.

3. Revisión de contenido asistido por IA

La autoría es responsable de revisar y verificar cuidadosamente cualquier contenido generado por IA para evitar sesgos, errores o inexactitudes.

USO DE IA EN LA REVISIÓN POR PARES

1. Declaración del uso de IA por las personas revisoras

Si las revisoras y revisores utilizan IA para ayudar en la evaluación de un manuscrito, deben declarar este uso. La IA puede servir como apoyo, pero el juicio crítico y la evaluación final deben ser realizados por seres humanos.

2. Evaluación de manuscritos

La IA no debe reemplazar la responsabilidad de los revisores y revisoras en la evaluación de los artículos científicos. El proceso debe ser realizado principalmente por humanos, y el uso de IA debe ser complementario.

USO DE IA POR PARTE DEL EQUIPO EDITORIAL

El equipo editorial puede emplear IA en tareas administrativas y de edición, como el formateo de manuscritos o la detección de plagio, siempre bajo una supervisión humana rigurosa para asegurar la coherencia y calidad.

ÉTICA EN EL USO DE IA

El uso de IA no debe, bajo ninguna circunstancia, llevar a la manipulación de datos, plagio o violaciones de propiedad intelectual. Cualquier mal uso de la IA, intencional o no, será tratado de acuerdo con las políticas de COPE y otras normativas éticas de la editorial.

EVALUACIÓN Y ACTUALIZACIÓN DE LA POLÍTICA

Esta política será revisada regularmente para adaptarse a los avances tecnológicos en IA y para garantizar las mejores prácticas dentro de la publicación científica.

CONSECUENCIAS DEL INCUMPLIMIENTO

El incumplimiento de esta política puede conllevar sanciones como la retirada del manuscrito o la prohibición de enviar futuros trabajos a la revista Cuestiones de Género.