El control de la IA está en manos de unos pocos y eso es un riesgo, advierte una especialista de la Universidad de Harvard
El Foro DemocracIA, celebrado en Buenos Aires, reunió a más de 20 especialistas internacionales para debatir los efectos de la inteligencia artificial en las democracias de América Latina. Organizado por Luminate, Civic Compass y el International Fund for Public Interest Media (IFPIM), el evento abordó temas cruciales como la regulación tecnológica, la protección de los derechos humanos y los riesgos de la IA en procesos electorales.
Maroussia Lévesque, profesora de la Universidad de Harvard, fue una de las voces más destacadas, advirtiendo sobre los peligros de la concentración de poder en manos de las grandes tecnológicas y la urgencia de actuar para evitar que estas innovaciones profundicen las desigualdades en la región.
Además, en diálogo con Infotechnology, Lévesque compartió sus reflexiones sobre el impacto de la inteligencia artificial (IA) en las democracias y la necesidad urgente de regular con responsabilidad.
(Pobres) perspectivas de regulación
En un panel donde se discutieron las perspectivas de regulación entre el Norte y el Sur Global, Lévesque destacó los desafíos que enfrenta América latina al intentar implementar marcos regulatorios que no perpetúen las desigualdades tecnológicas preexistentes.
Lévesque argumentó que, en la carrera por la innovación, las grandes corporaciones están priorizando la velocidad por encima de la seguridad. "Estamos viendo cómo las empresas tecnológicas compiten ferozmente por asegurar el dominio del mercado de la IA, sacrificando la seguridad en el proceso", advirtió.
Policentrismo en la gobernanza de IA
Durante la entrevista, Lévesque explicó su apoyo a un modelo de gobernanza policéntrica para la IA, donde se redistribuyen las responsabilidades entre múltiples actores y se evita concentrar el poder regulatorio en un solo organismo. Según Lévesque, este modelo resulta más efectivo que una regulación centralizada. "El poder desmesurado de unas pocas empresas de tecnología crea un oligopolio que controla el desarrollo de IA", señaló. Además, enfatizó que este sistema promueve la participación de grupos afectados en la toma de decisiones, quienes hasta ahora tienen poca o nula influencia en cómo se desarrollan estas leyes.
En su intervención, mencionó el peligro de la falta de seguridad en el desarrollo de la IA, particularmente cuando empresas como Microsoft o Amazon aceleran sus productos para no perder ventaja competitiva, aun cuando estos no estén completamente listos. Lévesque abogó por un sistema donde se utilicen tensiones competitivas entre compañías para supervisar mutuamente sus desarrollos de IA, en lugar de depender únicamente de la intervención gubernamental.
Desafíos para América latina
Cuando se le consultó sobre cómo los países más pequeños pueden implementar este tipo de gobernanza, Lévesque subrayó la importancia de las alianzas regionales. En su opinión, los países con menor poder de mercado, como la Argentina o Chile, pueden enfrentar grandes dificultades al negociar con gigantes tecnológicos. Sin embargo, destacó que la colaboración entre países del Sur Global podría ser una solución viable para aumentar su influencia en las decisiones internacionales sobre la regulación de la IA.
"Los márgenes de ganancia de estas corporaciones a menudo superan el PIB de algunos países pequeños, lo que hace que sea difícil imponer reglas locales. Sin embargo, las naciones aún tienen el monopolio del poder coercitivo y pueden optar por cortar servicios como hizo Brasil recientemente", comentó.
Estándares de justicia algorítmica
Lévesque también ha contribuido al desarrollo de estándares para mitigar los sesgos algorítmicos, uno de los temas más discutidos en la actualidad. Afirmó que uno de los mayores desafíos es desarrollar estándares específicos que puedan aplicarse de manera efectiva en diferentes contextos y jurisdicciones. "Los estándares deben ser altamente detallados para ser útiles y aplicables, pero al mismo tiempo, es importante que los desarrolladores y la sociedad civil participen activamente en su creación", concluyó.
Este enfoque crítico y estructurado de la regulación de la IA y su aplicación en distintos países pone de manifiesto los riesgos de no abordar la gobernanza tecnológica con la urgencia necesaria, en especial en regiones donde las desigualdades estructurales siguen marcando las agendas políticas y tecnológicas.