Derecho y tecnología: los deepfakes preocupan a los responsables de impartir justicia
El rápido avance de la inteligencia artificial trascendió los confines de Silicon Valley, permeando cada rincón de la sociedad; incluyendo los sistemas judiciales, donde las judicaturas, los servicios de fiscalía y otros órganos judiciales están explorando las últimas tecnologías para brindar asistencia en investigación y automatizar los procesos de toma de decisiones, a nivel mundial.
Pero como toda tecnología emergente, la IA no sólo presenta beneficios, sino que trae aparejada una serie de desafíos que los expertos en derecho están comenzando a destramar. Entre ellos, la generación de evidencia falsificada para presentar ante los tribunales; algo que si bien ya existía desde antes, ahora alcanzaría niveles de sofisticación sin precedentes gracias a las herramientas de IA generativa que con una sóla indicación pueden crear videos e imágenes hiperrealistas de cualquier situación hipotética que se presente.
"Sin dudas, hoy podríamos generar contenido falso o manipulado, como a través de los conocidos deep fakes", comentó la abogada especialista en tecnología Paula Arenzo, y agregó: "El desarrollo y la proliferación de tecnologías deep fake generaron preocupaciones significativas sobre su potencial uso para fines malintencionados, incluyendo la creación de evidencia falsa".
Inventar una situación con pruebas es más fácil
Lo que una vez fue el dominio de rumores infundados y falsedades propagadas a través de medios escritos evolucionó a representaciones visuales hiperrealistas de situaciones que nunca sucedieron; todo esto gracias a las aplicaciones y plataformas de IA generativa (algunas de acceso gratuito) que con sólo una instrucción por parte del usuario pueden elaborar videos e imágenes de lo que sea. Lo hemos visto cuando trascendieron fotos de un supuesto arresto de Donald Trump o de una explosión cerca del Pentágono que hasta provocó una breve caída de la bolsa.
En el ámbito de la justicia, los contenidos manipulados ya son un problema desde antes y para nada surgieron a raíz de la IA. Sin embargo, los avances en dicha tecnología sí colaboraron en que "ahora se da de manera más rápida o de mejor calidad", comentó Ezequiel Braun Pellegrini, CEO de la plataforma digital para abogados Brevity.
"El trabajo de los peritos será un poco más profundo ya que deberán hacer, en ciertos casos, un análisis forense de la prueba presentada para determinar la artificialidad de las pruebas", agregó el ejecutivo.
A pesar de que se volvió más difícil distinguir lo falso de lo real, existen ciertas limitaciones y rastros que pueden ser de utilidad en el campo judicial de acuerdo a Isabel Manjarrez, investigadora de seguridad del Equipo Global de Investigación y Análisis de Kaspersky.
En esta línea, la experta soltó algunas recomendaciones a la hora de analizar una pieza audiovisual como por ejemplo buscar incoherencias en los movimientos faciales, expresiones o movimientos corporales que parezcan poco naturales; detectar desalineaciones en los ojos, la boca u otras partes de la cara; comprobar que las palabras correspondan correctamente con los movimientos de los labios y evaluar si la iluminación del rostro corresponde con el entorno.
Arenzo, por su parte, señaló que se fueron desarrollando sistemas que utilizan la tecnología blockchain con el fin de asegurar la autenticidad e integridad de los contenidos generados por IA. "Iniciativas como la de ContentSign, con el respaldo de Adobe y Linux Foundation, buscan demostrar la autenticidad del contenido del mundo real capturado por los dispositivos, combinando IA con tecnología blockchain", explicó la abogada.
A nivel regulatorio, todavía no existe un marco legal específico para la autenticación de contenidos generados por IA en la Argentina, como está sucediendo en otros países. Sin embargo, el CEO de Brevity destacó que hay algunas iniciativas en marcha como la del Colegio de Abogados de la Ciudad de Buenos Aires, que creó una comisión para estudiar el impacto de la IA en la profesión legal.
"Nos encontramos con la necesidad de que el sistema judicial esté preparado para identificar y manejar evidencia que pudo haber sido generada o alterada por IA, a través de la implementación de metodologías forenses digitales y la capacitación de los miembros del poder judicial, peritos y abogados en estas cuestiones", concluyó Arenzo.