top of page

Pensar en IA, Pensar en Democracia

  • Foto del escritor: Matías Leibovich
    Matías Leibovich
  • 6 nov 2025
  • 8 Min. de lectura

por Matias Leibovich


Introducción


Decir que “la IA ya está con nosotros” ya quedó trillado. Todos los días usamos herramientas de Inteligencia Artificial, lo sepamos o no: ya sea resumiendo un informe con ChatGPT, siguiendo las recomendaciones de YouTube, o interactuando con un chatbot que pasa el Test de Turing con un Sobresaliente. La IA es parte de nuestra vida diaria. Y más allá de lo cotidiano, todo el tiempo aparecen noticias casi escalofriantes: desde inteligencias que desarrollan valores propios, o que controlan swarms de drones en Ucrania, hasta las que generan videos falsos de políticos en plena veda electoral.


Es fácil ver todo esto y sentirse abrumado – como si la marea de la historia se alzase y uno no supiera nadar –. No ayuda que sea una tecnología algo misteriosa, sacada casi de una peli de ciencia ficción. Y el último caso, el de los deepfakes de Macri y Taiana, es particularmente acuciante. De entre todos los problemas que parece traer la IA, ya se están viendo señales de que puede ser una amenaza genuina para nuestra democracia. 


Pero la historia no es tan sencilla. Un informe publicado hace poco en la revista Nature llegó a la conclusión de que la IA puede tener efectos tanto anti- como pro-democráticos. ¿Por qué importa esto? Estamos viviendo un momento global de “retroceso democrático”, en el que figuras iliberales, usualmente de corte populista, tensionan y quiebran los mecanismos democráticos. En este contexto, importa más que nunca plantearnos seriamente cómo posicionarnos ante una tecnología que muchos marcan como una “amenaza para la democracia”. El proceso de incorporar estas tecnologías a nuestra sociedad merece ser analizado y, sobre todo, debatido; si “la IA ya está con nosotros”, entonces tenemos que preguntarnos qué rol queremos que tenga en nuestras vidas. Así, este ensayo busca explorar algunos de los riesgos y beneficios que podrían presentar las tecnologías de IA para nuestra democracia, y abrir un poco el debate sobre qué podemos hacer, como sociedad, para adoptar responsablemente estas tecnologías.


Pero, ¿qué es la IA?


Para dar pie a este debate, primero tenemos que entender qué es la Inteligencia Artificial. Ahora, explicar el proceso de diseñar y entrenar un modelo de IA excede ampliamente a este ensayo. Aún así, establezcamos un glosario, para entender un poco cómo interactúa esta tecnología con la democracia. 


Lo cierto es que “IA” es, en realidad, un paraguas de tecnologías con propósitos y principios subyacentes diferentes. Pero enfoquémonos en una de estas tecnologías, quizás la más conocida: las Inteligencias Artificiales Generativas conocidas como Modelos de Lenguaje Grandes (“LLMs” por sus siglas en inglés). Los LLMs son modelos como ChatGPT o Gemini, capaces de interpretar y generar texto. Un LLM es una herramienta que “aprende” leyendo una enorme cantidad de datos (miles de terabytes en el caso de ChatGPT), adquiriendo la habilidad de reconocer patrones complejos del lenguaje humano. 


Ahora, si bien los LLM no “entienden” lo que dicen (solamente son muy buenos prediciendo las palabras correctas), igual pueden producir texto con cierta verosimilitud humana. Así, si le preguntás a ChatGPT “Cuál es la capital de Argentina?”, te puede responder “La capital de Argentina es Buenos Aires :)” con un humor que parece casi humano. Y algo parecido pasa al generar audio y video: entrenando con horas y horas de contenido, el modelo “aprende” a reconocer patrones, y generar los propios fehacientemente. 


¿De qué nos sirve saber esto? Es importante establecer qué capacidades y limitaciones tiene (por ahora) un LLM. Si bien esta tecnología puede parecer relativamente sencilla (nada más que un algoritmo que identifica patrones y predice las palabras correctas), no deja de ser una herramienta poderosa. Al fin y al cabo, los LLMs generan lenguaje. Y claro, el lenguaje es la base de la comunicación, de la transmisión de información, y por ende, de la democracia. Un régimen en el que los ciudadanos no pueden informarse libremente no es democrático (siguiendo, palabra más palabra menos, al influyente politólogo Robert Dahl). Y como sabe cualquiera que haya charlado con ChatGPT, el texto que generan los LLMs se siente muy real – incluso cuando alucinan. Como apunta el estudio de Nature, los LLMs fundamentalmente pueden crear lenguaje – por lo que tocan un nervio muy sensible de la democracia.

Y a diferencia de los medios tradicionales, hoy en día, cualquiera con una computadora, un par de tutoriales, y algo de tiempo, puede generar discursos dignos de un orador griego, o videos que muestran hechos fabricados. Entonces, ¿qué ocurre en la práctica cuando interactúan estas nuevas tecnologías y nuestro sistema democrático?


IA y Democracia

Si hemos de hablar de IA y Democracia, lo primero que nos viene a la cabeza es “desinformación”. Lo vimos en el ciclo electoral 2025 con los famosos deepfakes que buscaron influir en el proceso electoral. Un deepfake es un tipo de video falso, el cual se crea tomando un video “base” y modificando las palabras que dice la persona del video. Como sabemos, se pueden usar para esparcir noticias falsas, como anunciar que un candidato se había bajado de la contienda electoral. Si bien estos deepfakes no son creados con modelos LLM per se, los LLM modernos pueden acceder a otras tecnologías de IA para generarlos. 


Pero la desinformación generada por IA va más allá de videos. Un estudio reciente mostró que en tan solo dos rondas de diálogo, un LLM pudo generar contenido lo suficientemente persuasivo para alterar las perspectivas políticas de los individuos que interactuaban con él. Esto no ha de sorprender – si estas tecnologías pueden generar texto, evidentemente podrán generar texto altamente persuasivo. Sumado a la generación de hordas de cuentas falsas en redes, esto podría representar nuevas formas de influencia política, repartiendo masivamente mensajes políticos, abrumando las formas de campañas tradicionales.

Un punto algo más sutil: la desinformación es nociva a la democracia, no solo porque tuerce los hechos e impide que el votante tome una decisión informada, sino también porque genera un cierto “escepticismo epistémico”. A medida que la gente se empieza a dar cuenta de la facilidad con la que se esparce la desinformación en internet, se extiende un escepticismo respecto de toda información, legítima e ilegítima. Esto puede alimentar el actual clima de cuestionamiento a ciertos valores democráticos, y la preponderancia de “hechos alternativos” en redes, lo que degradaría aún más el sostén democrático.


Existen también riesgos de una eventual “algocracia”, un escenario donde decisiones claves quedan delegada a algoritmos. A medida que las capacidades de los LLMs crecen, estos empiezan a ser usados no solo por ciudadanos privados sino también por gobiernos. Sin ir más lejos, el Ministerio Público de la Provincia de Buenos Aires ya dictó regulaciones para el uso de IA Generativa en procesos judiciales. Existe un riesgo, sin embargo, de que se empiece a delegar tareas en estas tecnologías de manera irresponsable. “Dejá que te lo escriba el Chat” ya pasó a ser parte del vernáculo cotidiano. Y a futuro, podríamos ver ciertas responsabilidades siendo delegadas totalmente en modelos inteligentes. Existe el riesgo de una “algocracia”, en la que, en pos de la eficiencia, el acceso de los ciudadanos al mecanismo burocrático del Estado queda “trabado” detrás de un algoritmo.

Ahora bien, puede parecer que la IA es una herramienta letal a la democracia, y lo único que podemos hacer es construir una máquina del tiempo y volver a 2021. Pero hay evidencia de que la historia no es tan sencilla; de hecho, existen usos pro-democráticos de estas tecnologías. 


Al igual que los LLMs pueden esparcir desinformación, también pueden ayudarnos a verificar la calidad de la información en línea. Un LLM puede chequear los comentarios de una publicación para analizar la veracidad de estos y encontrar fuentes para respaldar o refutarlos (el ejemplo más conocido de esta herramienta siendo Grok de X). Pero más en las fronteras de la tecnología, los “agentes” de IA (modelos diseñados para llevar a cabo tareas sin una instrucción humana directa para cada acción) podrían constantemente chequear la veracidad de los hechos que uno busca en línea, minimizando los costos del fact checking – que a un humano le puede tardar varias horas. A este poder de fact checking se le suman las capacidades persuasivas de los LLMs. Por ejemplo, un grupo dedicado a la transparencia podría generar contenido que disminuya la creencia en teorías conspirativas extremistas – como ya se ha probado en ambientes controlados.


A su vez, los LLMs pueden ayudar a generar espacios de concertación ciudadana. Hoy en día estamos mal acostumbrados a un espacio online tóxico, que no fomenta el consenso sino la polarización. Sin embargo, un LLM puede ser usado en espacios de discusión para intervenir en debates online, reformulando contenido para que sea menos agresivo. Esto, de más está decir, no se debería usar en espacios de comentarios libres como las redes, salvo previo consentimiento de los usuarios. En cualquier caso, se ha mostrado que este uso logra aumentar la confianza interpersonal en cuestiones políticas, algo que parece cada vez más lejano en nuestra actual erosión democrática. 

Y en contraste con el riesgo de una “algocracia”, una adopción inteligente de la IA en el mecanismo estatal podría mejorar la comunicación entre Estado y ciudadano. La capacidad de los LLMs para analizar información de manera masiva podría ayudar a un gobierno a leer mejor las necesidades de sus ciudadanos, y a los propios ciudadanos a comprender cómo acceder a servicios estatales – reduciendo enormemente ciertas necesidades burocráticas. 



Debatir y Deliberar


Entonces, si hay usos tanto positivos como negativos de la IA para la democracia, ¿qué podemos hacer para canalizar esta tecnología de manera que refuerce nuestro sistema democrático? Este es un debate complejo, sobre todo dado que estamos hablando de una tecnología emergente. Pero una posible respuesta viene de la recientemente publicada “Encuesta Nacional sobre Adopción de IA”: la principal barrera a la adopción de IA para la mayoría de la gente es la comprensión. En particular, la alfabetización digital y la confianza institucional. En otras palabras, hay una falta de conocimiento (o tal vez, una sobreabundancia de este), que es la verdadera causa de sentirse abrumados por esta tecnología. Pero el conocimiento que necesitamos no es meramente técnico, sino social. Como todo en democracia, la solución arranca con nosotros: tenemos que dar lugar a un debate público sobre la IA.


Hoy en día, estamos adoptando IA en todos los sectores de la sociedad – privado, público, personal; pero lo hacemos de manera esporádica. Uno usa ChatGPT u otra tecnología en base a su experiencia limitada, en una suerte de “difusión atomizada” de la tecnología. Y eso fomenta la adopción acrítica; no por alguna falla individual, sino porque la falta de guías, de ideas formadas y aceptadas por la sociedad, lleva a que aquellos que desean usar IA tengan que depender de sí mismos. Si este estado de las cosas continúa, entonces bien podríamos empezar a ver los efectos más nocivos de la IA esparciéndose. Esta adopción nociva solo puede producirse en un contexto de falta de conocimiento, donde aún no tenemos, como sociedad, opiniones maduradas y tradiciones de conocimiento respecto a la IA. Pero si queremos preservar nuestro sistema democrático, debemos volver a las bases de nuestra democracia. 


Solamente mediante un debate público, en el que la cuestión de la adopción de la IA en nuestra sociedad sea debatida y discutida, es que podemos canalizar los efectos positivos de esta tecnología. Sustantivamente, tenemos que decidir qué marcos regulatorios adoptar, y cómo educarnos sobre las capacidades, riesgos y usos de estas tecnologías. Pero esa decisión no puede, ni debe, ser tomada por un solo individuo o gobierno. Tenemos el deber, como ciudadanos de una república, de plantearnos seria y colectivamente qué camino queremos seguir. Es solo mediante un debate público, que genere las opiniones y el conocimiento social necesario, que podemos asegurarnos de que esta tecnología será usada de manera responsable y en línea con nuestros valores democráticos. 


Cerremos recordando lo que decía el gran teórico de la democracia Joshua Cohen respecto del proceso deliberativo: “[este] es el único que presta atención explícita al bien común… y forma los deseos de los participantes”. En otras palabras, el debate colectivo tiene un rol crucial en la democracia, permitiéndonos encontrar un camino a seguir como sociedad al adentrarnos en aguas desconocidas. Y si la marea de la historia se alza, más nos vale aprender a nadar juntos. 



_______________________


Matias Leibovich está terminando la Licenciatura en Estudios Internacionales de la Universidad Torcuato di Tella. Es miembro del Young AI Leaders Hub de Buenos Aires, y voluntario en la Secretaría de Coordinación del Consejo Argentino para las Relaciones Internacionales, donde escribe para el Boletín de Asuntos Euroasiáticos.



 
 
 

Comentarios


Suscribite a nuestro newsletter

  • Instagram
  • Twitter
  • TikTok
bottom of page