Edición científica e IA: Entrevista a Juan D. Machin Mastromatteo
Con la llegada de la inteligencia artificial generativa el ecosistema académico enfrenta una transformación en la forma de producir y validar conocimiento. En esta ocasión, conversamos con el Dr. Juan D. Machin-Mastromatteo, profesor de la Universidad Autónoma de Chihuahua (UACH) e investigador del SNI (Nivel II). Con más de 20 años de experiencia y tras haber editado y evaluado cientos de manuscritos, Juan nos ofrece una mirada crítica sobre cómo la integridad de la investigación se ve afectada por estas nuevas herramientas.
Su proyecto de divulgación en YouTube se llama Juantífico. En esta entrevista analiza la urgencia de establecer políticas editoriales de IA claras y el desafío que representa la trazabilidad científica en un mundo donde el contenido automatizado o “AI slop” amenaza con saturar las revistas.
Edición científica e IA: El nuevo paradigma
Desde tu experiencia, ¿cómo está impactando la IA en la edición científica? ¿Estamos ante una transformación radical del modelo o solo ante una aceleración de procesos ya existentes?
Me parece que todavía no podemos hablar de una transformación radical. Más bien, lo que observo es una fase de normalización con “barandales”; es decir, ya se está generalizando que las revistas y editoriales científicas estén desarrollando y publicando sus políticas sobre el uso de la IA, pero aún me parece que hay una baja estandarización y brechas de capacidades para aplicarlas de manera consistente. El tema es que, en buena parte, las revistas y editoriales están abordando el tema de la IA con cautela.
Por ejemplo, ya se ha determinado que una IA no puede ser autor de un texto y, en la mayoría de los casos, se prohíbe incluir contenido generado por IA, porque es difícil establecer la trazabilidad y las fuentes utilizadas para su generación. El uso de la IA en la investigación nos crea demasiadas preocupaciones relacionadas con la ética y la integridad de la investigación. Esto no solo es una postura normativa, ya que hay evidencia de que los chatbots pueden producir textos científicamente verosímiles y difíciles de detectar para los evaluadores humanos, por lo que la discusión incluye desde “cazar el uso de la IA” hasta la transparencia, el acotamiento de usos y la rendición de cuentas.
Además, sabemos que la IA puede sufrir alucinaciones, algo que hace muy a menudo, sobre todo si se usan las versiones gratuitas y por defecto de los chatbots tipo ChatGPT, Gemini, Claude y otros parecidos. Además, tienden a inventar fuentes que no existen. Esto no es un problema anecdótico, ya que es un patrón que se repite en distintos contextos, pues presenta referencias plausibles, pero que en realidad son inexistentes, y también presenta atribuciones de ideas a las fuentes incorrectas, lo cual es particularmente corrosivo para la escritura científica.
Si yo le pido una respuesta a la IA bajo el uso más rudimentario o básico, es decir, le pregunto a un chatbot sin establecer un contexto y a menudo utilizando las funciones gratuitas, es muy difícil e incluso imposible determinar de dónde obtuvo la respuesta. Puede ser de los documentos que se usaron para entrenar a la IA o de búsquedas web que haya realizado para recuperar ciertas afirmaciones. Pero, aunque la IA cite, si verificamos las fuentes que indica, puede ocurrir que en esas fuentes no estén las afirmaciones que la IA está atribuyendo a dichas fuentes.
Este es uno de los grandes problemas en la escritura científica, en la que trabajamos con ideas y hallazgos de otros. Esto hace muy importante que siempre podamos citar la fuente correcta; eso es básico en la escritura científica. Entonces, esto representa un gran reto.
Por supuesto, hay herramientas más avanzadas que permiten otros usos más especializados y que buscan evitar estos problemas por medio de la recuperación aumentada por generación, en la cual limito la base de conocimiento con la que va a trabajar la IA. Le subo unos pocos documentos y puedo desarrollar procesos y prompts más sofisticados para analizar la literatura.
En la práctica, esto puede reducir alucinaciones al obligar a la herramienta a trabajar sobre un corpus acotado, pero no elimina la obligación humana de verificar y citar correctamente.
Todo lo anterior es en cuanto a los autores. Por mi parte, como editor de una revista, me preocupo mucho al ver documentos que claramente están siendo generados por IA y otros que, por tener una presentación demasiado prolija, pueden generarme sospechas. Me preocupa que sea una posibilidad que publiquemos documentos que podrían haber sido generados íntegramente o en gran medida por una IA, lo cual podría traer problemas más adelante.
Esto se agrava, ya que ni la revisión humana ni los detectores automáticos son plenamente confiables y pueden llevarnos a falsos negativos o falsos positivos, por lo que basarse solo en “señales estilísticas” (típicas de aquello en lo que se fijaría una revisión humana para determinar si el texto fue generado por IA) o en un porcentaje de probabilidad de uso de IA (softwares de detección) es metodológicamente frágil.
Por otro lado, tenemos a los editores. En la edición científica, las políticas editoriales, al menos las de las grandes editoriales comerciales, especifican que uno como editor no debe subir manuscritos a un servicio de IA para su evaluación, por preocupaciones de confidencialidad, ya que los editores gestionamos documentos inéditos y no sabemos qué hará la IA con esos documentos.
Aunque los acuerdos de usuario digan que los documentos que le subamos no serán usados para entrenamiento, yo no confiaría totalmente en que las grandes tecnológicas mantengan la privacidad ni en que olviden los documentos que les subimos. Este punto se ha vuelto un consenso práctico en muchas guías, ya que representa un riesgo no solo técnico, sino también de derechos, confidencialidad y potencial “contaminación” de manuscritos en servicios externos.
Si yo como editor quisiera usar la IA para evaluar manuscritos enviados a la revista, primero debería pedir autorización a los autores en el momento del envío y explicar de qué manera se usaría la IA para procesar sus manuscritos. Además, idealmente debería tratarse de un entorno controlado por la revista (o por la institución), es decir, una implementación propia o incluso de instalación local, que garantice la confidencialidad y la trazabilidad de procedimientos con límites claros, en lugar de hacer un uso improvisado de las plataformas comerciales.
De cualquier manera, como editor la situación es complicada. Me enfrento a una demanda enorme de manuscritos, y esto será el problema de muchos editores, ya que mientras más exitosa sea la revista en indicadores, mayor será la demanda. Eso significa que podemos estar inundados de manuscritos y, gracias a la IA, muchos de estos pueden estar parcial o totalmente escritos con ella.
Estas discusiones me hacen preguntarme: ¿cuál es el sentido de publicar un documento totalmente generado por IA? Dado que cualquier usuario con acceso a Internet podría pedir a un chatbot prácticamente la misma información. Si llegamos al extremo de que todo manuscrito es intervenido por IA, entonces estaría dejando de ser necesario el aporte humano. Además, parece que estamos llegando a ese extremo, ya que la sobreabundancia de contenido con intervención de IA que exhibe ciertas falencias ya se ha denominado “AI slop”, habiéndose detectado también en la publicación científica.
En términos sistémicos, esto incrementa el “ruido” y aumenta la carga de los editores y revisores al requerir una mayor verificación de estilo, integridad, datos y referencias, lo cual ejerce más presión sobre el proceso de revisión por pares, que ya se encontraba sobrecargado antes de esta era de la IA generativa. Podrían usarse alternativas, como las instalaciones propias, pero requieren infraestructura y conocimiento más profundo, incluyendo el uso de modelos de lenguaje libres instalados localmente para no violar la confidencialidad. Aun así, habría que pedir el consentimiento a los autores para someter sus manuscritos a cualquier procedimiento con IA.
Podría ser útil configurar un asistente de IA que evaluara manuscritos con criterios editoriales supervisados por mí, pero todavía hay demasiadas preocupaciones y falta de directrices institucionales y editoriales claras. Aun cuando existan directrices, el gran reto es operacionalizarlas, es decir, convertir las “políticas que están en texto” en listas de verificación, campos estructurados en el sistema de envío y protocolos de auditoría selectiva.
Las revistas, poco a poco, sobre todo en Latinoamérica, han ido generando sus políticas acerca del uso de IA para autores, editores y revisores. Pero, al menos por lo que se observa en análisis regionales recientes, la proporción de revistas con políticas explícitas sigue siendo baja, lo que apunta a una brecha entre la conversación global y la implementación en nuestra región.
Luego está el tema de los revisores. Ya se han detectado casos de abuso en investigaciones que han analizado las frecuencias de palabras en los informes de procesos de revisión por pares en abierto, en los cuales se ha encontrado un incremento exponencial en los últimos años en cuanto al uso de adjetivos muy pintorescos, más típicos de la IA que del discurso científico, en el cual procuramos evitar adjetivos porque representan juicios de valor subjetivos. También está otra preocupación relacionada con un tema de justicia, ya que la revisión por pares implica ser evaluado precisamente por pares humanos. Una IA no es par de nadie, quizás solo de otras IA; no ha tenido formación ni participa en una comunidad científica que le permita comprender las tradiciones, debates y tensiones propias de un campo.
Un revisor humano no solo evalúa coherencia metodológica o redacción, sino relevancia, originalidad y plausibilidad disciplinar, además de asumir una responsabilidad académica y reputacional por su dictamen. Aunque la IA se supervise y se use como auxiliar, muchas objeciones pueden ser sutilezas que no detectará: intenciones del autor, contribuciones incipientes pero valiosas, inconsistencias conceptuales o señales de resultados poco plausibles que suelen reconocerse más por experiencia que por patrones textuales. Como modelos probabilísticos, sus evaluaciones pueden variar: un documento podría ser aceptable en un momento y no en otro.
Además, estas tecnologías requieren mucha energía y capacidad de procesamiento, por lo que tienden a ahorrar recursos, lo cual puede derivar en menor exhaustividad, cuando precisamente la exhaustividad es un elemento esencial en la escritura científica y la revisión por pares. Aun así, puedo aceptar que estas herramientas podrían acelerar ciertos procesos de investigación bajo directrices claras institucionales y editoriales. No acelerarán todo, ya que habrá que definir cuáles etapas se pueden acelerar sin comprometer la integridad de la investigación.
Aquí me parece clave adoptar un criterio de materialidad. Es decir, podemos estar de acuerdo en su capacidad para acelerar tareas de apoyo (por ejemplo, la organización de la información, claridad, correcciones de forma, ortografía y estilo), pero es muy complicado delegarle decisiones interpretativas o metodológicas, ya que exigen un juicio experto. Probablemente emerjan revistas que permitan usos más liberales o experimentales. Estas podrían requerir que los autores adjunten como apéndices toda la documentación e interacciones con IA utilizadas para elaborar el manuscrito.
En ese escenario, no bastaría con una declaración estructurada del uso de la herramienta, lo cual ya comienza a consolidarse como un estándar mínimo que usualmente incluye declarar cuál herramienta se usó, cuál versión, para qué parte del proceso de investigación o redacción, cuál fue el contenido generado y cuál fue el propósito de usar la IA. Más bien, una revista más experimental respecto al uso de la IA podría exigir los elementos necesarios para permitir una trazabilidad completa del proceso: desde los prompts empleados hasta las conversaciones íntegramente sostenidas con la IA, incluyendo iteraciones, instrucciones, decisiones y comentarios realizados por los propios autores durante la elaboración del trabajo. Esto sería algo análogo a ciertas áreas del conocimiento donde no sería inusual incluir cuadernos de laboratorio, scripts de análisis, flujos de trabajo reproducibles y demás material suplementario metodológico.
En el contexto de revistas científicas, ¿qué usos de la IA son legítimos y cuáles deberían regularse con mayor claridad?
La mayoría de las políticas de revistas científicas señalan que los usos aceptables son la corrección de ortografía, gramática y estilo, la edición del manuscrito y, en algunos casos, la traducción. Esto se debe a algo razonable: estos procesos se realizan sobre contenido ya generado por los autores y no se trata de contenido producido totalmente por la IA (claro, siempre y cuando sea así). Ese es el razonamiento que justifica estos usos aceptables.
En otras palabras, son usos de apoyo lingüístico que, si se declaran cuando corresponde, pueden incluso reducir barreras para los autores no angloparlantes sin alterar la responsabilidad intelectual. Los usos que deberían regularse incluirían prácticamente todo lo demás: revisión de literatura, elaboración de instrumentos o análisis de datos. Considero demasiado delicado delegar, especialmente este último, a la IA, por la falta de exhaustividad mencionada.
Además, la frontera entre “ayuda” y “sustitución” se vuelve difusa, por lo que conviene clasificar los usos (por ejemplo, lingüístico, metodológico, generación sustantiva, imágenes o figuras, y apoyo a la revisión por pares) y asignarles las reglas correspondientes a cada actividad. También deberían regularse la síntesis de temas principales o la elaboración de conclusiones. El problema sigue siendo qué tan exhaustiva puede ser la IA y cómo podemos confiar en que los autores hayan verificado cada afirmación. Este es uno de los grandes temas: la confiabilidad. ¿Cómo evitar perderla cuando sabemos que los autores usaron IA, sea que la hayan declarado o no? Me temo que no tengo una respuesta. Quizás por esto la tendencia internacional parece moverse hacia un enfoque multinivel de control y verificación “en capas”: política, formación, evaluación preliminar editorial (que incluye revisión de integridad), revisión por pares, auditoría selectiva y corrección postpublicación (menos deseable), según sea necesario.
¿Cómo deberían posicionarse los equipos editoriales frente al uso de herramientas como ChatGPT por parte de autores y revisores?
En una de mis publicaciones recientes propuse tres escenarios posibles para desarrollar políticas sobre el uso de IA en revistas científicas. El primero sería el escenario prohibitivo; el segundo permitiría algunos usos aceptables, como la revisión de gramática, ortografía y estilo; y el tercero sería experimental, en el que se permitiría el uso de IA en cualquier parte del proceso de investigación y elaboración del manuscrito.
Estos escenarios también aplicarían a revisores. En el escenario prohibitivo nadie podría usar IA; en el permisivo, tanto el autor como el revisor podrían usarla para mejorar cuestiones de redacción; y en el experimental ambos podrían apoyarse libremente en la herramienta. Sin embargo, una revista experimental enfrentaría el reto de justificar por qué valdría la pena leer sus artículos si estos fueran generados con una alta intervención de IA o incluso si la totalidad de los contenidos fuera generada por IA. En ese caso, cualquiera que tenga acceso a las herramientas podría obtener información muy similar.
Esto también nos llevaría a replantear el rol del investigador que utilice estas tecnologías, especialmente en relación con qué debe hacer para seguir siendo considerado autor. En ese contexto, el prestigio de los autores podría funcionar como sello de calidad, aunque esto ampliaría brechas con investigadores en formación o con poca experiencia. Esto se conecta con una discusión más amplia sobre inequidad y localización: si la adopción de IA se vuelve un “capital” diferencial, corremos el riesgo de reproducir dependencias y ampliar desigualdades, especialmente en contextos del Sur Global.
Ética, Integridad y el desafío del "AI Slop"
Desde tu perspectiva, ¿qué riesgos éticos emergen con la incorporación de IA en la escritura y evaluación de artículos científicos?
Principalmente aparece el problema de la falta de trazabilidad respecto de los procesos que llevaron a ciertas afirmaciones o resultados, así como la presencia de alucinaciones y referencias inventadas. También podría existir una interpretación sesgada introducida por la propia IA. Obviamente, los humanos siempre hemos tenido sesgos, pero aquí se añadiría un posible sesgo algorítmico difícil de evaluar y que incluso podría ser más sutil. Además, sería muy difícil auditar cuál fue la contribución real de los autores frente a la de la IA.
Esto no ocurre en el vacío: el ecosistema de integridad ya venía tensionado por fraude sistemático a gran escala (paper mills, brokers, manipulación de imágenes y procesos editoriales), y la IA reduce el costo marginal de producir manuscritos plausibles, lo que hace que el riesgo de que estas modalidades de fraude se expandan se vea potenciado.
En la evaluación surge el problema de justicia, que ya mencioné anteriormente: una IA puede evaluar un documento científico, pero no es par de ningún investigador. La revisión por pares tradicionalmente es humana y no está claro si estamos preparados para delegarla. La falta de exhaustividad también puede llevar a una falta de transparencia en los dictámenes. Aunque el sistema de revisión por pares humano está en crisis, no creo que la IA sea necesariamente la solución.
En “Juantífico” abordas temas de alfabetización informacional y comunicación científica. ¿Notas confusión entre investigadores sobre cómo usar IA de manera responsable?
Totalmente. Se ha creado una falsa expectativa, especialmente entre investigadores en formación o con poca o nula experiencia en publicación científica, así como entre otros actores, respecto de que la IA nos va a producir contenidos publicables con poca o nula intervención humana.
¿De dónde viene esto? Hagamos un paréntesis para echar un vistazo a la web en general. Podemos ver muchas páginas de distinta índole que ofrecen contenidos claramente generados por IA. Seamos sinceros: son básicamente basura, elaborados para provocar clics, llamar la atención y tener potencial de viralizarse, lo que en inglés conocemos como “clickbait”. Supongo que quienes generan estos contenidos han entrenado mínimamente a alguna IA para producirlos, pero no aplican ningún control de calidad posterior y posiblemente los parámetros o prompts que han establecido sean muy pobres. Es así como en estos contenidos tenemos los clásicos encabezados muy llamativos, pero al llegar al documento encontramos una introducción gigantesca y un desarrollo extremadamente redundantes que no llevan a ninguna parte. Solo hacia el medio o el final aparece la respuesta prometida por el título, e incluso habrá ocasiones en las que en ninguna parte del texto se ofrece la respuesta a su pauta. Pareciera que muchos líderes en distintas industrias tienen la falsa impresión de que podrán sustituir al personal humano por la IA. En algunos casos podría lograrse con implementaciones muy sofisticadas que requieren grandes inversiones, capacitación y un mínimo de personal especializado. Pero me parece que existe la dañina idea de que basta con suscribir una versión de ChatGPT por 20 USD (o similares) para despedir a quienes escriben contenidos web, cuando lo que se termina publicando de esta manera es simplemente contenido basura.
Algo parecido ocurre en el ecosistema de la publicación científica. Quienes no tienen experiencia en la investigación y publicación científica tienden a no conocer los fundamentos y preocupaciones de ética e integridad de la investigación. Por ende, pueden creer que con la IA podrán publicar una gran cantidad de artículos y convertirse en investigadores reconocidos. Además, en muchos países existen sistemas de reconocimiento con estímulos o bonificaciones que llevan a docentes u otros profesionales a incursionar en la investigación sin suficiente formación, creyendo que la IA les facilitará el proceso y elaborará los productos de investigación que necesitan.
Esto nos lleva nuevamente al “AI slop”, es decir, contenido basura generado por IA. Por ello, abordar el uso de IA desde la alfabetización informacional resulta fundamental, ya que tiene como objetivo acercar los recursos y tecnologías que las personas necesitan, a la vez que desarrollan las competencias de acceso, evaluación, uso y comunicación de la información a través de medios analógicos o digitales (incluida la IA). Además de requerir aspectos básicos acerca de fuentes de información y metodología de la investigación, la enseñanza de un buen uso de la IA incluiría conocer sus fortalezas y debilidades, comprender sus posibles consecuencias sobre la ética y la integridad de la investigación y, a partir de ello, determinar cuáles herramientas y usos son apropiados. En mis trabajos sobre alfabetización informacional he insistido en que la alfabetización que hace falta no es solo técnica (aprender a “promptear”), sino también crítica y ética: evaluar, verificar, citar y entender las opacidades, sesgos y límites de estas herramientas.
¿Crees que las revistas deberían exigir declaraciones explícitas sobre el uso de IA en la redacción de manuscritos?
Lo más importante es que toda revista o editorial tenga una política clara sobre el uso de la IA. Sí, también deberían exigirse declaraciones, pero serían tan útiles como las declaraciones de autoría tipo CRediT. Nunca he conocido al primer “policía de CRediT”, es decir, alguien que verifique que los roles declarados sean ciertos y aplique sanciones si no lo son. Esa sería también la debilidad de las declaraciones sobre el uso de IA. El autor puede decir que no la usó o que la usó poco, y queda en manos de los evaluadores creerle de buena fe o mantener cierto escepticismo al evaluar el manuscrito. Es una buena práctica, aunque soy escéptico respecto de que garantice algo.
Lo que se está empezando a observar es un paradigma de adopción silenciosa: aunque existan políticas, la adopción de las declaraciones por parte de los autores tiende a ser baja debido a incentivos reputacionales, al miedo a que el manuscrito sea rechazado por usar la IA (aunque sea un uso limitado y permitido) y a la ambigüedad sobre qué se considera “uso trivial” frente a “uso sustantivo”. Por eso, además de pedir una declaración, conviene que esta sea lo más útil posible: qué herramienta se utilizó, qué versión, para qué se empleó y qué verificaciones realizaron los autores.
Innovación asistida y el futuro del ecosistema académico
¿Podría la IA contribuir a mejorar procesos como la revisión por pares, la detección de malas prácticas o la evaluación de calidad editorial?
Podría hacerlo en la revisión por pares si se usa como tecnología de asistencia. El escenario ideal sería un revisor que primero realiza una revisión minuciosa del manuscrito para detectar debilidades y que, en paralelo, haya entrenado un asistente de IA para fijarse en los elementos que tradicionalmente evalúa. Luego confrontaría sus hallazgos con los de la IA. Esto encaja con lo que hoy se discute como “automatización asistiva”, es decir, apoyo a tareas acotadas, con supervisión humana y no la sustitución del juicio editorial. Esto ocurre porque muchas veces estamos sobresaturados y solemos señalar exclusivamente problemas críticos, sin necesariamente proponer soluciones a los autores.
En ese sentido, la IA podría ayudar a hacer revisiones más constructivas, especialmente cuando los manuscritos provienen de investigadores con poca experiencia. Igualmente, podría apoyar en la correcta redacción y presentación de la evaluación. Sin embargo, habría que superar todas las preocupaciones éticas ya mencionadas. Para la detección de malas prácticas, como el uso indiscriminado de IA para la redacción de manuscritos, actualmente se requiere una IA para detectar otra IA. Existen estos sistemas de detección, pero nuevamente es imprescindible el juicio y la supervisión humana.
Los porcentajes, igual que en plagio, son problemáticos: un número arbitrario no debería determinar una decisión si no se revisa con cuidado el contenido que eleva dicho número. En lo personal, considero que un documento con más del 70 % de probabilidad de uso de IA ya genera preocupación, y un 100 % indicaría muy probablemente un uso indiscriminado. Dicho esto, prefiero que el porcentaje funcione como una señal para auditoría, no como veredicto: la decisión debe basarse en evidencia verificable (por ejemplo, citas inexistentes, inconsistencias entre método y resultados, patrones de duplicación o problemas en figuras).
Pero el problema es que el contenido generado por IA es prácticamente no auditable, y es casi imposible tener la completa certidumbre de que ha sido generado. En cuanto a otras malas prácticas, la IA generativa aún tiene limitaciones, especialmente en análisis matemático o estadístico. Sin embargo, podría verificar elementos formales; por ejemplo, si en investigaciones con personas se incluye claramente el consentimiento informado, la privacidad y la ausencia de riesgos.
Algo similar ocurriría con la evaluación de la calidad editorial, siempre que se establezcan parámetros claros que la IA pueda utilizar en sus evaluaciones. Incluso podría evaluarse la calidad pospublicación, pero sin perder de vista que las acciones preventivas son más importantes. Un ejemplo claro del nivel y la escala de análisis a los que se puede llegar es el sistema Scite, que utiliza IA para evaluar el contexto de las citaciones con el fin de identificar si una cita es una mera mención o si, por el contrario, confirma o contradice estudios previos. Este tipo de análisis sería prácticamente imposible de realizar manualmente a gran escala. En este tipo de tareas, la IA puede funcionar muy bien, especialmente si los modelos continúan mejorando. Es probable que el futuro inmediato combine estas herramientas con infraestructura compartida de integridad (como señales intereditoriales, metadatos de correcciones o retractaciones y detección colaborativa), más que depender de soluciones aisladas por revista.
Como investigador y divulgador, ¿cómo equilibras el entusiasmo tecnológico con una mirada crítica sobre sus implicancias en la producción de conocimiento?
¡Quizás por no ser demasiado entusiasta no tenga tantos seguidores como otros creadores de contenido similares! Siempre abordo estas tecnologías poco a poco. Mis contenidos requieren trabajo por parte de quien los consume. Aunque ofrezco guías y explicaciones claras y sencillas, no ofrezco atajos. Cada persona debe desarrollar sus competencias mediante el trabajo, el estudio y el aprendizaje práctico. Yo solamente busco reducir la barrera de entrada a los temas que enseño y procuro ampliar las posibilidades de adopción y aprovechamiento.
Siempre me ha entusiasmado la tecnología, pero esta es la que observo con mayor cautela y escepticismo. Reconozco su potencial disruptivo y el impacto que ha tenido, y no creo que eso cambie pronto. El reto es analizar qué rodea estos desarrollos tecnológicos y cómo aprovecharlos con una mirada crítica y ética. En ese equilibrio, para mí la clave es separar “productividad” de “conocimiento”: la IA puede acelerar tareas, pero la validación, la atribución y la responsabilidad siguen siendo humanas.
Pensando a futuro, ¿cómo imaginas el ecosistema de edición científica en cinco o diez años si la integración de IA continúa al ritmo actual?
Quizás en cinco o diez años algunas revistas se rindan y ya no revisen si un manuscrito fue intervenido por IA. Quizás todavía no hayan terminado algunas de las discusiones que he reflejado acá. Quizás su uso podría normalizarse hasta el punto en que todos sepamos (de forma implícita o explícita) que autores, editores y revisores la utilizan. Podría parecer una visión cínica, pero también realista: acuerdos implícitos donde cada quien la usa como mejor entienda, porque cualquier alternativa se ha vuelto demasiado compleja, especialmente si los modelos de lenguaje terminan escribiendo de manera indistinguible de un humano y ya ni vale la pena usar software de detección.
Esto también podría generar nuevos actores o parámetros de evaluación a nivel de artículos o revistas más rigurosos, y que la comunidad científica esté todavía más atenta a detectar y denunciar malas prácticas, como ya ocurre actualmente con casos de plagio o problemas de integridad. Sin embargo, la publicación científica tiene tradiciones muy arraigadas y poco flexibles en algunos casos como para que ocurran cambios profundos en cinco o diez años (ver, por ejemplo, el propio desarrollo de la revista científica, la primacía de la estructura IMRyD, o el tiempo que duró la hegemonía del factor de impacto, si es que acaso ya terminó).
Aun así, podrían surgir estándares similares a PRISMA, que establezcan parámetros para la preparación de documentos asistidos por IA, definiendo herramientas válidas y procedimientos aceptables. Podría ser que pasemos de declaraciones en “texto plano” a sistemas más estructurados, como taxonomías, metadatos y campos estructurados, para que el uso de IA sea auditable e interoperable a gran escala. Por lo pronto, si vamos a usar la IA en la investigación, conviene que su uso sea cuidadoso y significativo, ya que un uso indiscriminado nos devuelve a la pregunta: ¿cuál es la utilidad de publicar algo así en una revista?
Datos de interés sobre el autor
Redes sociales y Blog: