Habermas y el último argumento de la democracia liberal
La muerte de Jürgen Habermas (1929-2026), ocurrida este 14 de marzo a los 96 años, no es solo la desaparición […]
Publicado en El Líbero, 16.03.2026
Publicado en El Líbero, 16.03.2026 La investigación académica y la publicación de papers están entrando en una era de transformación profunda impulsada por la inteligencia artificial (AI). Según Jukka Sihvonen, autor de The Most Likely Reader of Your Next Paper Is an AI, el paisaje de la investigación está, en estos instantes, experimentando un cambio radical. Hoy, los sistemas de AI como GPT 5.2 y Claude 4.6 ya no son «herramientas auxiliares» que los académicos usan de vez en cuando, sino que son actores centrales en todo el ciclo de la generación de conocimiento (por ejemplo, gran parte de esta columna fue escrita en Claude 4.6 bajo mi supervisión). Sihvonen y otros ya han observado que, después de los avances exponenciales que ha logrado la AI en el 2025, dichos sistemas pueden hoy incluso escribir papers completos casi sin supervisión humana y con prompts cada vez más generales. De hecho, el académico chileno César Hidalgo, junto a Claude Sonnet, acaba de lanzar el Journal for AI Generated Papers (JAIGP), en el que los académicos pueden publicar papers creados y escritos por AI, donde el ser humano juega un rol de copiloto (actuar de prompters y poseer la idea original).
Resulta claro que hoy la adopción de AI en la investigación ya no se limita únicamente a la lectura y clasificación de papers o a la búsqueda de citaciones y bibliografía (como lo fue en 2023-2024), sino que también está reinventando cómo se generan los propios trabajos científicos (así de rápido ha sido el avance entre 2024 y 2026). En la columna Something Big Is Happening, Matt Shumer sostiene que la AI ya está cambiando la forma en que se realiza el trabajo intelectual: desde escribir código complejo hasta sintetizar datos y depurar data sets, pasando por hacer modelos de inferencia causal o formalizaciones matemáticas en los ensayos escritos por la misma máquina. Hoy parece que la AI es capaz de hacer algo así como el 60% del trabajo de investigación que antes consumía nuestro tiempo (probablemente en las humanidades y en las ciencias sociales, este número es mayor).
«La velocidad del cambio tecnológico en los últimos dos años obliga a investigadores y estudiantes a cultivar desde ahora competencias avanzadas de IA aplicadas a la investigación».
Personalmente acabo de testear estas afirmaciones: fui a Claude 4.6, con un par de ideas en la mente y un par de intuiciones y conceptualizaciones, le di un prompt a la máquina y me escribió un borrador de paper académico de 10.000 palabras, con citas, con título, con abstract, con bibliografía y con el modelo matemático que representaba mis intuiciones. La máquina tardó menos de 10 minutos en escribirme todo el paper; posteriormente, con un par de iteraciones y revisiones entre la máquina y yo, resultó un borrador bastante decente (ver el borrador en este link). ¡Todo esto en menos de una hora de trabajo! No quiero utilizar este espacio para elucubrar sobre la parte ética, moral o legal de este tema (para eso están los filósofos, juristas y paladines de lo «correcto»), sino que me gustaría reflexionar sobre las implicancias reales que esto podría tener en la academia.
¿Qué significa todo esto? ¿Seremos los académicos reemplazados? Yo creo que la respuesta es parcialmente sí. Algunos académicos sí serán reemplazados por AI, pero no todos. Ese 60% de automatización significa que gran parte del esfuerzo rutinario y mundano (como escribir texto) puede automatizarse—desde la búsqueda de citas, resúmenes de la literatura, reseñas de libros, generación de todo un borrador, análisis empírico y estadístico, y corrección y normalización de datos, etc. Lo que va a marcar la diferencia entre investigadores reemplazables y no reemplazables será un conjunto de habilidades relacionales como: i) saber usar bien la AI para automatizar de forma correcta gran parte del trabajo, ii) saber formular preguntas interesantes y originales al unir conceptos de forma creativa y atrevida, iii) saber discernir entre aquello que es interesante o novedoso para la comunidad científica y aquello que no lo es, y v) construir comunidades epistémicas y relaciones intelectuales cercanas a través de mentorías o liderar grupos de investigación. Es decir, cada vez más, los académicos nos dedicaremos menos a escribir y más a pensar ideas, a conceptualizar y a «conversar con la AI» para afinar nuestras intuiciones y descubrir espacios interesantes donde aportar. Aquella parte del trabajo, que es creativa, de visión conceptual, interpretativa-crítica y estratégica, probablemente seguirá siendo humana, y aquellos académicos que sepan manejar esta transición serán los que no serán reemplazados.
Creo que una de las implicancias más importantes para la investigación es que la barrera de entrada y los costos de producir resultados académicos de buen nivel se reducirán sustancialmente hasta casi cero; y, en consecuencia, la productividad puede crecer exponencialmente al integrar AI en cada paso del proceso de publicación. Si hoy un académico en las ciencias sociales es considerado bastante productivo si publica uno o dos papers al año, con el uso perspicaz de AI ese mismo académico podrá publicar cuatro o cinco papers (o quizás más si publica sus trabajos en revistas de baja reputación o en revistas semipredatorias). Claramente, este cambio también plantea interrogantes sobre la autoría, la originalidad y la responsabilidad científica: si la AI contribuye de forma significativa a escribir, analizar o sintetizar hallazgos, ¿cómo debe reconocerse la autoría? ¿Es esta columna que usted está leyendo de mi autoría o de Claude? ¿Es realmente relevante esta pregunta si lo que nos interesa es avanzar el conocimiento y la conversación? ¿Qué criterios deberían usar las revistas para aceptar trabajos generados con AI? Estas preguntas ya forman parte de la discusión y no creo que haya una respuesta definitiva o satisfactoria. Lo que sí es probable es que todo esto lleve a que la cantidad o el número de publicaciones se convierta en un parámetro inútil para medir y juzgar el «valor agregado» de los académicos. Cuando máquinas capaces de leer, evaluar e incluso generar papers se generalicen (probablemente en uno o dos años), las universidades y organismos financiadores estatales tendrán que redefinir roles y métricas de evaluación. La contribución de un académico ya no podrá medirse por métricas como el número de ensayos publicados, el factor de impacto o el número de citaciones si la producción se vuelve masiva y en gran parte asistida por AI.
Así las cosas, el problema de la «inflación de papers» es real y probablemente inevitable. La publicación académica ya sufre de lo que podríamos llamar una epidemia de publicaciones: el número de artículos publicados a nivel global ha crecido exponencialmente, en parte porque las universidades utilizan el recuento de publicaciones (la simple cantidad) como un indicador legible y cuantificable de la calidad de la investigación. El problema es conocido: la Ley de Goodhart aplicada a la academia. Una vez que el «número de publicaciones» se convierte en la métrica, las personas optimizan por volumen en lugar de por relevancia o calidad (originalidad). La AI potencia esta dinámica a niveles exorbitantes. Ya estamos viendo señales alarmantes: un aumento descontrolado de envíos a revistas indexadas, con editores preocupados por artículos generados o asistidos por AI que inundan el proceso editorial y en el que los revisores no dan abasto para procesar la marea de papers.
El resultado es lo que uno esperaría de cualquier proceso inflacionario: la unidad adicional pierde valor rápidamente. Si todos pueden producir cinco artículos en el tiempo que antes tomaba producir uno, entonces cinco artículos señalan lo que antes señalaba uno, es decir, no mucho. Los comités de titularidad, los paneles de contratación y los evaluadores académicos, que dependían del recuento de publicaciones como señal, encontrarán que esta es cada vez más inútil. Pero el problema es más profundo aún: la AI altera la señal de información que hacía que la publicación fuese significativa en primer lugar. La publicación funcionaba como señal precisamente porque era costosa de producir: requería experiencia genuina, meses de trabajo y la navegación exitosa del proceso de revisión por pares. Dicho costo es lo que la hacía informativa, pero cuando la AI reduce drásticamente el costo de producir un artículo, la publicación deja de funcionar como una señal creíble de capacidad intelectual. Es la misma lógica que la inflación de títulos en la educación: cuando todos tienen un título universitario, ese título deja de diferenciar y no vale nada.
Esto genera una crisis potencial, porque toda la arquitectura de evaluación de la academia moderna—contratación, titularidad, promoción, financiamiento de la investigación—está construida sobre el concepto de que la publicación es el principal producto confiable. Si esa señal se degrada, ¿qué la reemplazará? Podemos pensar en algunas opciones:
En síntesis, es posible que se empiece a valorar más la capacidad de formular preguntas novedosas, de diseñar marcos conceptuales sólidos y de aportar contexto crítico que no pueda replicarse simplemente por una máquina. Además, como advierte Shumer, la velocidad del cambio tecnológico en los últimos dos años obliga a investigadores y estudiantes a cultivar desde ahora competencias avanzadas de AI aplicadas a la investigación: la alfabetización en herramientas de AI pasará de ser una ventaja hoy a ser una necesidad básica en el 2027 para competir en cualquier campo académico. La combinación de estas fuerzas sugiere que la investigación científica y el ser académico están en el umbral de una nueva era en la que la colaboración entre humanos y máquinas redefinirá no solo qué descubrimos, sino también cómo producimos y comunicamos dicho conocimiento. Es posible que los investigadores que prosperarán sean aquellos que integren seriamente estas herramientas en su flujo de trabajo y utilicen las ganancias de productividad para realizar un trabajo más ambicioso, más creativo y más atrevido desde el punto de vista conceptual. El riesgo no es que la AI sustituya al buen profesor, sino que sustituya las partes del trabajo del profesor que eran fáciles de cuantificar y acreditar, dejando un papel más difícil y ambiguo que las universidades pueden o no saber manejar. Sin duda, nos encontramos en aguas turbulentas, pero, como bien dice el dicho, a río revuelto, ganancia de pescadores.
Las opiniones expresadas en esta publicación son de exclusiva responsabilidad del autor y no necesariamente representan las de Fundación para el Progreso, ni las de su Directorio, Senior Fellows u otros miembros.
La muerte de Jürgen Habermas (1929-2026), ocurrida este 14 de marzo a los 96 años, no es solo la desaparición […]
Publicado en El Líbero, 16.03.2026Isabel II de España, hija de Fernando VII, gracias a la derogación de la ley sálica, reinó su país desde […]
Publicado en El Líbero, 16.03.2026Este mes se cumplieron 250 años de la publicación de La riqueza de las naciones de Adam Smith, la obra […]
Publicado en El Líbero, 16.03.2026«La libertad es un derecho humano fundamental,
sin él no hay vida digna»