Política sobre uso de Inteligencia Artificial

La Revista Científica Universitaria Ad Hoc se compromete con la integridad científica, las prácticas responsables y transparentes. Entendiendo que el uso de IA puede traer novedad y retos a la gestión editorial, esta política establece directrices claras sobre el uso adecuado de herramientas de IA para autores, revisores y editores.


Principios generales:
En correspondencia con las directrices de la Declaración COPE y las mejores prácticas de la comunidad científica, nuestra revista acuerda que:
- Las herramientas de IA no pueden cumplir con los criterios de autoría, puesto que no pueden asumir la responsabilidad del contenido científico publicado.
- No pueden gestionar conflictos de intereses, derechos de autor ni tomar decisiones éticas por su cuenta.


Uso de IA por los autores:


Declaración de uso:
las personas autoras deben notificar al equipo editorial o a la jefatura de edición, el uso de IA en los manuscritos enviados. Se debe especificar el software utilizado, las funciones aplicadas y las secciones del manuscrito donde se ha empleado. Deben declarar, explícitamente, los enunciados dados para obtener el producto y los criterios empleados para validar la veracidad de la información generada por la IA.


Responsabilidad de la originalidad:
El autor es responsable final de la originalidad del contenido generado o asistido por IA. El material generado no debe infringir derechos de terceros ni plagiar contenidos existentes. 
Debe citarse la herramienta utilizada según la séptima edición de la norma APA.


Revisión de contenido asistido por IA:
Los autores son responsables de revisar y verificar cuidadosamente cualquier contenido generado por IA para evitar sesgos, errores o inexactitudes.


Uso de IA en la revisión por pares:


Declaración de uso de IA por los revisores:
Los editores notificarán a las personas autoras el uso de IA en la evaluación de sus artículos y durante el procesamiento editorial. La IA será considerada como una herramienta de apoyo para hacer más eficiente la gestión, pero el juicio crítico y la evaluación final deben ser realizados por los seres humanos.


Evaluación de manuscritos:
La IA no debe sustituir las responsabilidades de las personas editoras. El proceso debe ser realizado principalmente por humanos, y el uso de IA debe ser complementario.


Uso de IA por parte del equipo editorial:
El equipo editorial puede emplear IA en tareas administrativas y de edición, como el formateo de manuscritos o la detección de plagio, siempre bajo una supervisión humana rigurosa para asegurar la coherencia y la calidad. 
Los manuscritos postulados a la Revista Ad Hoc serán verificados por los editores en herramientas disponibles para la detección de IA, dígase ZeroGPT, GPTZero, Originality, entre otros. 


Ética en el uso de la IA:
El uso de la IA no debe, bajo ninguna circunstancia, llevar a la manipulación de datos, plagio o violaciones de propiedad intelectual. Cualquier mal uso de la IA, intencional o no, será tratado de acuerdo con las políticas de COPE y otras normativas éticas de la editorial.


Evaluación y actualización de la política:
Esta política será revisada regularmente para adaptarse a los avances tecnológicos de la IA y para garantizar las mejores prácticas dentro de la publicación científica. 


Consecuencias del incumplimiento:
El incumplimiento de esta política puede conllevar sanciones como el rechazo del manuscrito, su retirada o la prohibición de enviar futuros trabajos a la Revista Científica Universitaria Ad Hoc.