- Actual
- Publicaciones
- Revista
- Autores
- Revisores
-
Políticas
Objetivo y alcance Declaración de acceso abierto Exención de responsabilidad -------------------------------------------- Políticas para estudios en humanos Políticas para estudios en animales Políticas para estudios en plantas Políticas para el uso de materiales químicos Políticas de equidad de sexo y género – Sager Políticas para el consentimiento informado Políticas de integridad científica Políticas de quejas y apelaciones Política de correcciones y retractaciones Políticas sobre el conflicto de intereses Políticas sobre el manejo de ChatGPT y la IA generativa Política sobre los idiomas de publicación
- Contacto
- Buscar
- Registrarse
- Entrar
Políticas sobre el manejo de ChatGPT y la IA generativa
-
Sobre el uso de modelos de lenguaje grandes y herramientas de inteligencia artificial generativa al escribir su presentación. La revista reconoce el valor de los grandes modelos lingüísticos (LLM) (por ejemplo, ChatGPT) y la inteligencia artificial generativa como herramientas de productividad que pueden ayudar a los autores a preparar sus artículos para su envío; a generar ideas iniciales para una estructura, por ejemplo, o al resumir, parafrasear, pulir el lenguaje, etc.
Sin embargo, es importante señalar que todos los modelos lingüísticos tienen limitaciones y no pueden replicar el pensamiento creativo y crítico humano. La intervención humana con estas herramientas es esencial para garantizar que el contenido presentado sea preciso y apropiado para el lector. Por lo tanto, la revista requiere que los autores sean conscientes de las limitaciones de los modelos lingüísticos y las consideren en cualquier uso de los LLM en sus envíos:
-
Objetividad: en los textos generados por LLM puede haber contenido publicado previamente que contenga prejuicios racistas, sexistas o de otro tipo, y es posible que no se representen los puntos de vista de las minorías.
El uso de LLM tiene el potencial de perpetuar estos prejuicios porque la información está descontextualizada y es más difícil de detectar.
-
Precisión: Los LLM pueden "alucinar", es decir, generar contenido falso, especialmente cuando se utilizan fuera de su dominio o cuando tratan temas complejos o ambiguos.
Pueden generar contenido que es lingüísticamente plausible pero no científicamente, pueden equivocarse en los hechos y se ha demostrado que generan citas que no existen.
Algunos LLM solo están capacitados para trabajar con contenido publicado antes de una fecha determinada y, por lo tanto, presentan una imagen incompleta.
-
Comprensión contextual: los LLM no pueden aplicar la comprensión humana al contexto de un texto, especialmente cuando se trata de expresiones idiomáticas, sarcasmo, humor o lenguaje metafórico. Esto puede dar lugar a errores o malas interpretaciones en el contenido generado.
-
Datos de entrenamiento: los LLM requieren una gran cantidad de datos de entrenamiento de alta calidad para lograr un rendimiento óptimo.
Sin embargo, en algunos dominios o lenguajes, dichos datos pueden no estar fácilmente disponibles, lo que limita la utilidad del modelo.
-
-
Orientación para autores. Los autores deberán:
-
Indicar claramente el uso de modelos lingüísticos en el manuscrito, incluido cuál se utilizó y con qué propósito. Utilice la sección de métodos o agradecimientos, según corresponda.
-
Verificar la exactitud, validez e idoneidad del contenido y de las citas generadas por los modelos de lenguaje y corregir cualquier error o inconsistencia.
-
Proporcionar una lista de las fuentes utilizadas para generar contenido y citas, incluidas las generadas por modelos de lenguaje. Verifique las citas para asegurarse de que sean precisas y estén debidamente referenciadas.
-
Verificar las fuentes originales para asegurarse de no estar plagiando el trabajo de otra persona.
-
Reconocer las limitaciones de los modelos de lenguaje en el manuscrito, incluido el potencial de sesgo, errores y lagunas en el conocimiento.
-
Tenga en cuenta que los bots de IA como ChatGPT no deben figurar como autores en su envío.
Tomaremos las medidas correctivas apropiadas cuando identifiquemos artículos publicados con un uso no revelado de dichas herramientas.
-
-
Orientación para editores y revisores. Los editores y revisores deben evaluar la idoneidad del uso de los LLM y asegurarse de que el contenido generado sea preciso y válido.
Los editores y revisores deben respetar la confidencialidad del proceso de revisión por pares. Los editores no deben compartir información sobre los manuscritos enviados ni los informes de revisión por pares con inteligencia artificial generativa o LLM como ChatGPT. Los revisores no deben utilizar herramientas de inteligencia artificial para generar informes de revisión, incluido, entre otros, ChatGPT.
-
Directrices internacionales
-
Recomendaciones de la Asociación Mundial de Editores Médicos (WAME) sobre bots de chat, ChatGPT y manuscritos académicos. [Enlace a sitio web informativo]
-
Declaración de posición del Comité de Ética de Publicaciones (COPE) sobre autoría y herramientas de inteligencia artificial. [Enlace a sitio web informativo]
-
Esta política puede evolucionar a medida que trabajamos con nuestros socios editoriales para comprender cómo las tecnologías emergentes pueden ayudar o dificultar el proceso de preparación de investigaciones para su publicación. Vuelva a consultar esta página para obtener la información más reciente.
-