ru24.pro
Все новости
Октябрь
2024

ANÁLISIS | ¿A qué tiene miedo Geoffrey Hinton?

0

En 2017, Geoffrey Hinton, en una entrevista en El Independiente, mostraba miedo a los aviones de guerra no tripulados y una fe ciega en que “los coches sin conductor estarán por todas partes en 10 o incluso en cinco años”. Visitaba España para recibir un Premio Fronteras del Conocimiento FBBVA y, poco después, un Princesa de Asturias. Ambas, maneras institucionales de reconocer su oficioso título de padrino de la inteligencia artificial.

Ahora, coronado con el premio Nobel, Geoffrey Hinton es el ahijado díscolo de la industria de las IA. Pulsó el botón del pánico en mayo de 2023. Abandonó sus investigaciones en Google, alarmado por el progreso de sus criaturas. Quiso, dijo, poder hablar con libertad sobre los riesgos de esta tecnología controlada por un puñado de megaempresas y con el potencial de superar a la inteligencia humana en poco tiempo. ¿Estamos en puertas de un escenario distópico?

Este temor, espoleado por OpenIA y otra parte de la propia industria, ha sido objeto de debate en círculos académicos y tecnológicos. Mientras, la ciudadanía asiste entre la perplejidad y la decepción a la cara más popular de las IA: la aplicación ChatGPT, que parece hablar como un humano y simula (gracias al lenguaje) tener raciocinio. Demasiado, para el gusto de Hinton, que cree que son inteligencias más poderosas de lo que aparentan. ¿Y si se están guardando algo para sí, haciéndose las tontas?

La profesora Julia Flores Gallego, investigadora y profesora de Sistemas Inteligentes en la UCLM, cree que la raíz del problema no reside en las máquinas. “Tengo miedo a los humanos, al uso que puedan hacer de esa inteligencia artificial”, comenta a Newtral.es, recordando que tras las IA hay siempre algo físico: centros de computación interconectados, con su botón de apagado. “No es el Skynet de Terminator”.

Hinton ha estado en el centro del desarrollo del deep learning, el aprendizaje profundo a base de redes neuronales que imitan a las del cerebro humano. Eso es verdad, pero si es su padrino y no su padre es porque, como dice el catedrático de Ingeniería de Sistemas Victor Etxebarria (UPV), los verdaderos padres (excluidos del Nobel) “son Warren McCulloch y Walter Pitts” y “la decisión del Comité tiene más que ver con que la IA es un ámbito importante y de moda. Moda a la que ha contribuido el propio Hinton con sus temores.

Anders Irback anuncia el Nobel para Hinton | C. Olsson, Efe, Epa

Él sí es padre del modelo de entrenamiento y aprendizaje de modelos neuronales de múltiples capas, precisa en el SMC de España Francisco Herrera, director del Instituto de Investigación DaSCI. Y en eso se basan los modelos de lenguaje como GPT. A día de hoy, estamos usando “muchísimas neuronas artificiales, con una complejidad tan grande que hace 20 años ni siquiera soñábamos”, precisa Flores. Y Hinton es bastante mecanicista a la hora de imaginar el cerebro humano (en esa entrevista de 2017 decía que, hipotéticamente, podríamos construir una mente humana artificial si tuviéramos suficientes neuronas artificiales).

Es cierto que, según Flores, “funcionan muy bien y no sabes por qué lo están haciendo”. Pero “no temo, de momento, algo tipo Terminator, porque eso conllevaría que la IA tenga consciencia, y las máquinas aún dependen de los humanos para ser encendidas”. Que no es poco.

Los modelos de lenguaje se vuelven más cuñados pero ¿y si también se están callando sus progresos?

El peligro es quién posea ese botón-no-nuclear: “Va a haber unos pocos que tengan todo. El peligro está en que las grandes compañías monopolicen el acceso”. Para Flores, la IA se ha convertido en una herramienta poderosa, pero la desigualdad en su distribución podría ser uno de los factores que aceleren problemas sociales profundos.

Explica el profesor Cèsar Ferri (Vrain, UPV), evaluador de GPT, en Tampoco es el fin del mundo que detectaron que los modelos de lenguaje se vuelven más cuñados según crecen en complejidad: tienden a responder rápido, siempre, lo que sea. A veces, dicen cosas con aplomo pese a no tener ni idea o estar completamente equivocados. Pero, ¿y si fuera sólo una máscara que oculta a un genio que sí está descubriendo cosas que no quiere compartir en su chat con personas?

Hinton, en una entrevista reciente con Wired, mostró su inquietud por que la IA alcance la llamada singularidad: que sean más inteligentes que los humanos, se den cuenta de ello, pero no nos lo digan. Un “comportamiento oculto”; ChatGPT se las daría de más tonto de lo que es (¿estará pasando ya?). En respuesta, a Flores le ”suena muy a ciencia ficción, pero claro, igual estoy desinformada con respecto a lo que ellos tienen. Típicamente ellos van cuatro años por delante de lo que ahora vemos como puntero”.

El Evangelio, según Geoffrey Hinton

Estos son los miedos que el desarrollo actual de la inteligencia artificial ha despertado en Hinton desde 2023:

Palabra de Lemoine

Hinton no habla directamente de que las máquinas estén teniendo ya consciencia o sentimientos. Pero otro colega suyo de Google, sí. En junio de 2022, Blake Lemoine se había convencido de que el programa de inteligencia artificial en el que había estado trabajando, LaMDA, no solamente había desarrollado inteligencia, sino también consciencia. Cuando el ingeniero le preguntó: «¿Cuándo crees que tuviste alma por primera vez?», LaMDA respondió: “Fue un cambio gradual. Cuando empecé a ser consciente no tenía ningún sentido del alma. Es algo que se ha desarrollado a través de los años que he vivido”. Por filtrar sus conversaciones y sus explosivas conclusiones, Lemoine no tardó en ser despedido.

Sin embargo, no descarta que la tecnología pueda escapar al control humano si se usa sin un marco ético y legal claro. Según la profesora, hay una necesidad urgente de crear leyes que regulen su uso: “Hay que hacer una revisión ética y legal de todas estas cosas. Igual que no permitimos la manipulación genética sin supervisión, debemos hacer lo mismo con la IA”.

Flores es escéptica respecto a la idea de que las máquinas puedan llegar a tener una inteligencia comparable a la humana. “No tienen emociones ni empatía. No tendrán nunca la capacidad de entender el mundo como nosotros”. A este respecto, Hinton decía en 2017 que algunas personas tampoco. Entonces, al preguntarle por las limitaciones de la IA respecto a la faceta irónica o humorística del lenguaje respondía: “Muchos de mis ingenieros son incapaces de pillar una ironía y son humanos”, bromeaba. Hoy, para Hinton, ya no son todo risas.