La Revista de Investigación en Ciencias Administrativas y Sociales (Ñeque) reconoce que las herramientas de inteligencia artificial generativa (IA-Gen) representan un recurso emergente en la producción académica contemporánea. Su uso puede aportar eficiencia y apoyo técnico en diversas etapas del trabajo científico; no obstante, también introduce desafíos relacionados con la autoría, la integridad académica y la transparencia.

Con el fin de preservar la confianza en los procesos editoriales y garantizar la trazabilidad de los contenidos publicados, la revista establece las siguientes directrices para el uso responsable de estas tecnologías.

Declaración obligatoria de uso

Si los autores emplean herramientas de IA generativa en cualquier fase de la elaboración del manuscrito, ya sea para redacción, traducción, reformulación de textos, análisis de datos o generación de ideas, deberán incluir una declaración explícita en la sección de Metodología o en un apartado específico titulado “Declaración sobre el uso de IA”, indicando:

  • Nombre de la herramienta utilizada (por ejemplo: ChatGPT, Claude, Gemini, DeepL Write).
  • Propósito y alcance del uso (por ejemplo: apoyo en redacción preliminar, traducción de secciones, organización de referencias, análisis estadístico asistido).
  • Mecanismos aplicados por los autores para verificar, validar o corregir la información generada por la IA, asegurando la precisión y originalidad del contenido.

Responsabilidad y autoría

La responsabilidad final del manuscrito recae exclusivamente en los autores humanos.
Las herramientas de IA no pueden ser consideradas coautores ni aparecer como colaboradores formales, ya que no poseen capacidad ética ni jurídica para asumir responsabilidad sobre los resultados. Cualquier uso indebido o contenido inexacto generado mediante IA será imputable a los autores firmantes.

Uso de IA en la revisión por pares

Editores y revisores pueden emplear herramientas de IA como apoyo técnico, por ejemplo, para detección de similitud textual o para mejorar la redacción de informes, siempre que se cumplan estas condiciones:

  • Mantener en todo momento la confidencialidad del manuscrito.
  • No cargar el contenido completo en plataformas que no aseguren protección de datos.
  • Declarar su uso si la herramienta ha influido significativamente en la decisión editorial.

Esta política podrá actualizarse conforme evolucionen los estándares éticos internacionales, particularmente los propuestos por COPE y el Comité de Ética en Publicaciones. La revista promueve un uso responsable e informado de la inteligencia artificial, entendida como herramienta de apoyo, nunca como sustituto del pensamiento crítico ni de la autoría académica.