La IA Generativa va a cambiar las Publicaciones Científicas

Aunque los comentarios más abundantes e incisivos, que han circulado recientemente sobre la irrupción de la Inteligencia Artificial (IA), se han referido sobre todo al periodismo (fake news) y la educación (trabajos de alumnos hechos por ChatGPT), estas herramientas están aplicándose también en muchos otros campos y en concreto en las publicaciones científicas. Un reciente artículo de Gemma Conroy, titulado: Cómo la IA Generativa podría Alterar las Publicaciones Científicas, que aparece en la prestigiosa revista Nature (https://www.nature.com/articles/d41586-023-03144-w), ha estudiado el estado presente y futuro de la IA entre investigadores y editores científicos, y cree que puede revolucionar el mundo de las Publicaciones Científicas. Os la resumo a continuación

Algunos ven la IA generativa como una forma de ayudar a los científicos a organizar, interpretar y resumir los resultados experimentales en su conjunto. También sería particularmente útil para sugerir formas más claras de transmitir sus ideas. Así, podrían usar IA para hacer gran parte del trabajo de redacción de las publicaciones, lo que significa menos tiempo escribiendo artículos y más tiempo haciendo experimentos. En concreto, los no nativos en inglés serían los que más se podrían beneficiar de estas herramientas.

«En realidad, ningún científico tuvo nunca como objetivo escribir artículos: sino hacer ciencia».

Aunque una encuesta de Nature sugiere que los científicos que utilizan la IA con regularidad todavía son una minoría, muchos creen que las herramientas de IA generativa se convertirán en asistentes habituales para escribir artículos, informes de revisión por pares y solicitudes de subvenciones. Las herramientas de IA generativa podrían cambiar incluso la forma en que los investigadores realizan meta-análisis y revisiones, aunque sólo si se consigue eliminar la tendencia de estas herramientas a inventar información y referencias. La revisión más amplia generada por humanos incluyó alrededor de 1.600 artículos, una cantidad gigantesca, pero solamente una porción muy pequeña de toda la literatura científica en el campo. Trabajando con IA generativa se podría haber utilizado mucha más información.

¿Una avalancha de falsificaciones?

Los editores científicos están preocupados por el posible impacto de la IA generativa, que podría facilitar la elaboración de artículos de mala calidad y, en el peor de los casos, comprometer la integridad de la investigación. Algunos investigadores han admitido haber utilizado ChatGPT como ayuda para escribir artículos, sin revelarlo, pero fueron descubiertos, porque olvidaron eliminar signos de su uso, como las referencias falsas. Idealmente, los editores podrían detectar el texto generado por IA, pero, hasta ahora, las herramientas de detección han sido incapaces de distinguir, de manera fiable, esos textos de los escritos por humanos. Algunos editores están prohibiendo por completo el uso de IA (Science). En la mayoría de los casos, sin embargo, insisten en la transparencia sobre su uso (Nature y muchas otras revistas). Un estudio que examinó a 100 editoriales y revistas encontró que el 17% de las editoriales y el 70% de las revistas ya han publicado directrices sobre cómo utilizar la IA generativa, aunque variaban en cómo permitían aplicar las herramientas.

La revisión de artículos y proyectos por “pares” (otros científicos del mismo tema sin conexión con los autores) es el método más extendido de comprobar la calidad de los trabajos para admitir (o no) su publicación o su financiación. Los revisores, que trabajan de manera gratuita, están a menudo sobrecargados y no pueden dedicar toda la atención que merece la emisión de sus informes. La IA también podrían ser de gran ayuda para las revisiones por pares. Los revisores podrían confiar en ChatGPT para preparar directamente los informes que les solicitan, sin dedicarle mucha atención al proceso, aunque la AI, probablemente, solamente sea capaz de producir resúmenes y sugerencias de edición. Con todo, un revisor entrevistado dice que al usar ChatGPT como asistente, ha podido aceptar más solicitudes de revisión. Aunque, para preservar la confidencialidad, no carga los manuscritos ni ninguna información sobre ellos en la herramienta en línea, la usa para pulir sus comentarios. «Cuando ya tengo un borrado del informe, puedo perfeccionarlo en unas pocas horas en lugar de tardar varios días», afirma. La mayoría de las preocupaciones sobre la IA en la revisión por pares se refieren a la confidencialidad. Varias editoriales han prohibido a los investigadores cargar manuscritos y secciones de texto en plataformas de IA generativa para producir informes de revisión por pares, por temor a que el trabajo o sus datos puedan volver a utilizarse, lo que violaría la confidencialidad del proceso. Recientemente los Institutos Nacionales de Salud de EE. UU. Y el Consejo Australiano de Investigación prohibieron el uso de ChatGPT y otras herramientas de IA generativa para producir revisiones por pares de subvenciones, debido a preocupaciones de confidencialidad. Una forma de sortear el obstáculo de la confidencialidad es utilizar IAs alojadas de forma privada. Con esto, se puede estar seguro de que los datos no se envían a la nube.

“Es inevitable que la IA sea parte de nuestro conjunto de herramientas”, dice un científico, «y esto va a transformar de manera drástica la naturaleza de la publicación científica«.

La IA podría transformar también la publicación científica por el lado de las editoriales. Los editores han estado utilizando herramientas de IA de aprendizaje automático y procesamiento de lenguaje natural para ayudar en la revisión de artículos durante los últimos años, y la IA generativa podría aumentar las capacidades actuales. La editorial Wiley dice que está experimentando con IA generativa para ayudar a filtrar manuscritos, seleccionar revisores y verificar la identidad de los autores. Otros editores científicos ya están experimentando con la IA generativa en búsquedas científica y para editar y resumir rápidamente artículos. Pero a muchos editores les preocupa que la IA generativa pueda usarse para producir más fácilmente artículos falsos pero convincentes. Las empresas conocidas como “fábricas de artículos” (paper-mills), que crean y venden manuscritos o incluyen la firma como autores de investigadores que quieran aumentar su Curriculum, podrían obtener grandes ganancias con estas herramientas. Un portavoz de Science dijo que las IA como ChatGPT podrían exacerbar el problema de las fábricas de artículos. Pero también podría suceder al revés, y tales “fábricas” se quedarían sin clientes, pues estos mismos pueden usar directamente la IA para generar sus propios artículos sin pagar a las “fábricas”, con lo que “todo queda en casa”. En todo caso, esto va a obligar a las revistas serias a reforzaran sus métodos para verificar que los autores son genuinos y que han realmente han llevado a cabo la investigación que presentan. El panorama, pues, está cambiando.

Publicado por Manu Barandiaran

Profesor emérito de la Universidad de País Vasco

Deja un comentario