top of page

¿Qué hacemos con la IA?

  • Foto del escritor: Santiago Nicolas Cainzos
    Santiago Nicolas Cainzos
  • hace 1 día
  • 4 Min. de lectura

por Santiago Nicolás Caínzos


La implementación de marcos regulatorios de la inteligencia artificial se ha convertido en una de las áreas de mayor preocupación en los campos del derecho y la ciencia política. La expansión acelerada de estas tecnologías plantea interrogantes que combinan debates históricos sobre la relación entre Estado, empresas y sociedad con nuevos desafíos derivados del desarrollo tecnológico contemporáneo. Entre las principales preguntas que estructuran esta discusión se encuentran: ¿Cómo garantizar que los sistemas de inteligencia artificial respeten estándares de derechos humanos? ¿De qué manera puede asegurarse la transparencia algorítmica? ¿Cómo evitar que regulaciones excesivas limiten el desarrollo tecnológico y la innovación?


En el mundo occidental pueden identificarse tres modelos regulatorios principales: el desarrollado por la Unión Europea, el del Reino Unido y el de los Estados Unidos. Cada uno refleja tradiciones regulatorias distintas y concepciones diferentes sobre el rol del Estado en la gobernanza de tecnologías emergentes.


El modelo europeo, plasmado en el EU AI Act, se caracteriza por un enfoque basado en riesgos. Este marco clasifica los sistemas de inteligencia artificial según el nivel de riesgo que representan para la sociedad y establece obligaciones proporcionales. En particular, los sistemas considerados de alto riesgo deben cumplir con requisitos vinculados a la gestión de riesgos, la mitigación de posibles daños, el monitoreo continuo y la realización de evaluaciones formales de impacto.


El modelo británico adopta una estrategia más flexible. En lugar de establecer una legislación única, el Reino Unido optó por un sistema descentralizado en el cual distintas autoridades regulatorias supervisan el uso de inteligencia artificial en sus sectores. Este enfoque privilegia la evaluación ex post de los riesgos y busca incentivar el desarrollo tecnológico y la innovación.


El modelo estadounidense presenta un enfoque con ausencia de regulación a nivel nacional. Históricamente, el desarrollo de inteligencia artificial en Estados Unidos ha estado impulsado principalmente por el sector privado, con una presencia regulatoria limitada a nivel subnacional.


Los países latinoamericanos, en términos generales, han tendido a inspirarse en el modelo europeo al discutir marcos regulatorios sobre inteligencia artificial. Sin embargo, esta adopción plantea desafíos importantes. Desde la ciencia política se ha estudiado la debilidad institucional de muchos Estados latinoamericanos, su limitada capacidad de enforcement y su escasa penetración territorial. Al mismo tiempo, América Latina representa una región con potencial para el desarrollo de tecnologías de inteligencia artificial, particularmente en sectores vinculados a servicios digitales, fintech y aplicaciones basadas en datos. En este contexto, la adopción de marcos regulatorios muy exigentes podría generar efectos contraproducentes si solo las grandes empresas tecnológicas cuentan con los recursos necesarios para cumplir con los requisitos impuestos por la ley.


Este problema adquiere relevancia si se considera que el mercado global de empresas tecnológicas presenta tendencias hacia practicas oligopolísticas. En este contexto, barreras regulatorias demasiado elevadas podrían reforzar estas tendencias al dificultar las barreras de entrada de startups y empresas tecnológicas medianas.


A la hora de hablar de regulaciones, es necesario tener en cuenta las percepciones sociales sobre estas tecnologías. Existe un nivel considerable de desconfianza por parte de la opinión pública respecto del impacto de la inteligencia artificial en ámbitos como el empleo, la privacidad o el funcionamiento de las instituciones democráticas. En América Latina, distintos actores reconocen el potencial de estas herramientas para mejorar la eficiencia institucional y el acceso a servicios, pero también persisten preocupaciones vinculadas a la opacidad algorítmica, los sesgos discriminatorios y la falta de claridad regulatoria.


En este contexto, resulta fundamental promover diálogo entre los actores del ecosistema digital: el Estado, las empresas tecnológicas y las organizaciones de la sociedad civil. La cooperación entre estos actores puede mejorar la calidad de los marcos regulatorios y reducir desconfianzas. Además, son muchos los actores políticos que no creen deseoso incorporarla, lo que tendrá por consecuencia la baja capacidad organizativa y de ejecución del mismo. Sin embargo, la implementación de la IA en organizaciones políticas supone una gran oportunidad, especialmente en aquellas que cuentan con menos recursos y financiamiento, tal como los partidos políticos minoritarios y organizaciones de la sociedad civil pequeñas y medianas.


El fortalecimiento de las capacidades estatales constituye otro elemento central. Si los Estados no desarrollan capacidades propias en materia de inteligencia artificial, el sector privado podría adquirir una ventaja significativa en términos de capacidad de “delivery”. Esta asimetría podría afectar la legitimidad de las instituciones públicas y debilitar la capacidad del Estado, reduciendo aún más los índices de legitimidad democrática.


A pesar de la creciente relevancia de estos debates, América Latina aún se encuentra lejos de contar con marcos regulatorios consolidados que combinen protección de derechos humanos, transparencia algorítmica y tenga en cuenta la promoción del desarrollo tecnológico. Es nuestro deber, como cientistas sociales en unos ambitos, y sujetos políticos en otros, comprender los incentivos de cada actor político, desarrollar metodologías de evaluación y mitigación de riesgos para con los derechos humanos y la democracia e intentar bajar la desconfianza existente para con la IA, en especial en aquellos actores políticos con menos recursos. Solo de esa manera, es posible que la IA fortalezca la democracia.


____________________________________________________________________________________________


Santiago Nicolás Caínzos es estudiante avanzado de Ciencia Política en la Universidad de Buenos Aires. Participa activamente en la Coalición Cívica. Se desempeña como pasante de investigación en una organización de la sociedad civil, donde trabaja en temas vinculados a política y tecnología. Además, es ayudante de cátedra en la Universidad de Buenos Aires. Es cofundador de Ágora Argentina, un espacio orientado a promover el debate público plural y de calidad.

 
 
 

Suscribite a nuestro newsletter

  • Instagram
  • Twitter
  • TikTok
bottom of page