Cómo funciona Grok-2, la nueva versión de la IA de Elon Musk, y qué riesgos supone en la propagación de desinformación
Elon Musk ha lanzado una nueva versión de su modelo de inteligencia artificial denominado Grok-2, con la novedad de que permite generar imágenes a partir de texto. Los expertos consultados por Newtral.es advierten que esta nueva función, con pocas restricciones, puede suponer un riesgo en cuanto a la difusión de desinformación.
- Grok es un modelo de inteligencia artificial que la empresa xAI, dirigida por Elon Musk, anunció en noviembre de 2023.
Tras la aparición de diferentes versiones de este modelo de inteligencia artificial (Grok-1 y Grok-1.5), la empresa dirigida por Musk ha dado a conocer recientemente una nueva versión beta denominada Grok-2.
- Esta versión, según se describe en la web, incluye los modelos Grok-2 y Grok-2 mini. Solo están disponibles para usuarios Premium o Premium+ de la red social X.
- Grok-2 mini es un “modelo pequeño que ofrece un equilibrio entre velocidad y calidad de respuesta”, según se explica en la web de la herramienta.
- Musk ha calificado esta inteligencia artificial como “la más divertida del mundo”.
El modelo Grok-2. Esta versión fue lanzada el 13 de agosto y, según las especificaciones de su página web, “está superando” en cuanto a prestaciones a otras herramientas similares como “Claude 3.5 Sonnet o GPT-4-Turbo”.
- El modelo de inteligencia artificial “Grok-2 ha demostrado mejoras significativas como la identificación correcta de información faltante o el descarte de publicaciones irrelevantes”, destacan.
- Entre las nuevas funciones se encuentran las de crear código y generar imágenes a partir de texto.
La advertencia de los especialistas. Javier Galué, divulgador de inteligencia artificial, explica a Newtral.es que Grok-2 “ha creado controversia porque permite a los usuarios generar imágenes a partir de indicaciones de texto con una libertad sin precedentes”.
Pocas restricciones. Galué añade que “a diferencia de otras herramientas como DALL-E de OpenAI o Gemini de Google, Grok-2 opera con pocas restricciones, lo que permite generar imágenes que pueden violar derechos de autor, servir para difundir desinformación y, potencialmente, incitar al odio”.
- En este sentido, el especialista agrega que “mientras que otras empresas tecnológicas han implementado filtros para evitar el uso indebido de sus herramientas de inteligencia artificial, Musk con Grok-2 ha optado por una aproximación más laxa”.
Herramienta de fácil acceso. Rubén Maestre, experto en ciencia de datos e inteligencia artificial, explica a Newtral.es que Grok-2 “no es una herramienta reservada para un grupo selecto de expertos, sino algo que está al alcance de prácticamente cualquiera que esté dispuesto a pagar unos pocos euros al mes” con una suscripción a X Premium. Esto, considera, “democratiza el acceso a la tecnología y también la capacidad de causar daño”.
Control de su uso. Para evitar un uso peligroso o malintencionado de esta herramienta, Maestre considera imprescindible tomar medidas para controlar su uso y propone crear “una marca de agua obligatoria de los creadores de cualquier material o contenido generado por IA”.
- Algunos usuarios de X con acceso a Grok-2 han compartido imágenes generadas por esta herramienta de inteligencia artificial que podrían confundirse con reales, como esta de Kamala Harris pidiendo el voto para Trump o esta de ambos candidatos presidenciales de Estados Unidos frente a las Torres Gemelas.
- Maestre añade que “en plataformas como X, donde estas imágenes pueden ser compartidas y difundidas a gran escala en cuestión de segundos, el peligro es enorme”.
En Newtral.es explicamos como evitar que se utilicen tus datos en la red social X para entrenar esta inteligencia artificial.
Fuentes
Declaraciones de Javier Galué, divulgador de Inteligencia Artificial, a Newtral.es
Declaraciones de Rubén Maestre, experto en ciencia de datos e inteligencia artificial, a Newtral.es
Cuenta en X de Elon Musk