ru24.pro
World News in Spanish
Сентябрь
2024

Las grandes tecnológicas quieren manejar la regulación de la IA

0

En octubre pasado, la Comisión Europea aprobó una nueva hoja de ruta para combatir el narcotráfico y el crimen organizado, una de las amenazas a la seguridad más serias que enfrenta el bloque.

Por razones obvias, los responsables de las políticas de la Unión Europea no invitaron a miembros de los carteles para que los ayuden a diseñar y desarrollar esta estrategia; pedir la opinión de las redes criminales solo habría servido para que a estas les resultara más fácil seguir operando con total impunidad.

Pero cuando se trata de regular la transformación digital y la inteligencia artificial, que plantean infinidad de riesgos, los responsables de las políticas están haciendo lo contrario. Están colaborando con grandes tecnológicas como Meta (Facebook), Alphabet (Google), Amazon, Apple y Microsoft, aunque sus ejecutivos hayan demostrado un deseo descarado de crear herramientas peligrosas y perjudicar a los usuarios en nombre de una maximización de las ganancias.

Por ejemplo, “grupos de trabajo” nacionales, regionales e internacionales, “grupos de expertos” y “juntas asesoras” que incluyen a representantes de las grandes tecnológicas están preparando propuestas para regular la transformación digital y la IA. Más allá de esto, algunas iniciativas y conferencias sobre este tema están financiadas por las mismas empresas que esos empeños pretenden regular.

Consumo de energía y datos personales

Las amenazas que plantean los sistemas digitales son complejas y de amplio alcance. Las nuevas tecnologías están incrementando drásticamente la desigualdad global y los gigantes tecnológicos se han convertido en consumidores gigantescos de energía, con serias implicaciones para el cambio climático y el medio ambiente.

Quizá lo más preocupante sean las violaciones casi constantes del derecho a la privacidad, debido a la falta de seguridad de los datos y de protecciones contra la vigilancia. Es una práctica estándar de la industria recopilar cantidades gigantescas de datos y venderlos al mejor postor. Como resultado de ello, las plataformas digitales parecen conocernos mejor de lo que nos conocemos a nosotros mismos, y la vida online está plagada de manipulación económica y política.

Por otra parte, ya se ha visto que la manipulación algorítmica y la desinformación amenazan el correcto funcionamiento de la democracia. Antes de la elección presidencial del 2016 en Estados Unidos, por ejemplo, la consultora política Cambridge Analytica recopiló información de unos 87 millones de usuarios de Facebook en un intento por influir en los votantes. La empresa y sus afiliados ya habían utilizado datos de manera inapropiada para intentar influir en la votación por el brexit del Reino Unido.

La IA y las redes sociales

Más recientemente, el desarrollo acelerado de los grandes modelos de lenguaje (LLM) como ChatGPT de OpenAI ha habilitado nuevas vías de fraude, inclusive a través de falsedades profundas en audio y video que pueden destruir reputaciones.

Los LLM también han facilitado la propagación de noticias falsas, un flagelo que se siente de manera más aguda en las democracias, donde una marea de contenido generado por IA amenaza con ahogar nuestro periodismo de calidad y desestabilizar a países enteros en cuestión de horas (como sucedió con los recientes disturbios de la extrema derecha en el Reino Unido). Asimismo, las mismas estrategias se pueden utilizar para engañar a los consumidores.

Pero eso no es todo: el uso de las redes sociales ha estado asociado a perjuicios considerables a la salud mental de los jóvenes. Y muchos en el campo han manifestado preocupación por el impacto disruptivo que podrían tener los ciberataques sustentados en IA y las armas autónomas en la paz y la seguridad internacional, para no mencionar los riesgos existenciales que plantean estas armas.

Las grandes tecnológicas han venido manifestando poca preocupación por el daño que se le causa a la gente y por la violación de sus derechos. Esto es especialmente cierto en el caso de las empresas de redes sociales, que por lo general ganan más en ingresos publicitarios cuanto más tiempo los usuarios permanezcan en sus plataformas.

En el 2021, un informante entregó documentación que mostraba que Facebook sabía que sus algoritmos y plataformas promocionaban contenido nocivo, pero la empresa no tomó contramedidas significativas. Esto no debería sorprendernos: hay estudios que han determinado que los usuarios pasan más tiempo en línea cuando expresan odio, enojo y furia.

Debemos impedirlo

A pesar de su falta de voluntad para autocontrolarse, las grandes tecnológicas quieren ayudar a diseñar las regulaciones para la esfera digital y la IA. Sentar a estas empresas a la mesa es irónico y, a la vez, trágico. Los gobiernos y la comunidad internacional están permitiendo que estos gigantes dominen el proceso de creación de un nuevo marco regulatorio y mecanismos de supervisión. Pero confiar en quienes sacan rédito de los problemas fundamentales del sector es un error peligroso.

La buena noticia es que existen infinidad de expertos independientes y académicos que pueden proporcionar información valiosa sobre la mejor manera de regular el desarrollo y el uso de la IA y otras tecnologías digitales. Por supuesto, el sector privado debe participar en estos procesos de formulación de políticas, pero no más que otras partes interesadas, entre ellas las organizaciones de la sociedad civil.

La innovación tecnológica ya no debería servir solo a los intereses de unas pocas corporaciones multinacionales. Para garantizar un futuro sostenible en el que todos podamos llevar una vida digna y próspera, los responsables de las políticas no deben permitir que los gigantes tecnológicos manejen la regulación de las plataformas digitales y las aplicaciones de IA que vayan surgiendo.

Peter G. Kirchschläger, profesor de Ética y director del Instituto de Ética Social de la Universidad de Lucerna, es profesor visitante en ETH Zurich.

© Project Syndicate 1995–2024