ru24.pro
World News in Spanish
Февраль
2026
1 2 3 4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28

Pinocho con wallet, agentes, Molt y la ilusión de la inteligencia autónoma

0

En los últimos meses, el término agentes virtuales ha comenzado a circular con una mezcla de fascinación y confusión. Se les presenta como asistentes cada vez más “inteligentes”, capaces de tomar decisiones, coordinarse entre ellos y actuar de manera autónoma en entornos digitales complejos. Sin embargo, detrás de esa narrativa futurista no hay conciencia ni intención, sino software que encadena lenguaje, permisos e incentivos para ejecutar acciones en nombre de otros. Entender qué son realmente estos agentes - qué pueden hacer hoy, qué necesitan para operar y qué riesgos introduce delegarles capacidad de acción - es clave para no confundir automatización avanzada con inteligencia, ni comodidad con control. A partir de ahí, el debate deja de ser tecnológico y se vuelve profundamente político, económico y humano.

Lo que sí podemos hacer los humanos es delegar permisos a los agentes o asistentes virtuales: autorizarles el uso de una tarjeta de crédito, el acceso a información confidencial o la ejecución de procesos que, hasta hace poco, requerían nuestro consentimiento explícito en cada transacción. Con una autorización previa, estos agentes pueden actuar de forma continua e indiscriminada dentro de los límites que les definimos, decidiendo cuándo y cómo pagar, acceder o ejecutar acciones en nuestro nombre. Para ello, hoy todavía necesitan instalarse en nuestra propia máquina - no viven aún de forma nativa en la nube - y desde ahí administrar recursos locales, lo que implica conocer la estructura del sistema, instalar software y operar mediante la terminal: no es todavía un simple click, pick and place o doble botón. Además, requieren keys de los proveedores de LLMs, es decir, alguien tiene que pagar la “gasolina” para que el agente pueda razonar, comunicarse y moverse por la red, y autorizar que vaya consumiendo ese crédito conforme lo necesite en su “vida” como agente. No es difícil imaginar que, más adelante, aparezcan equivalentes digitales de restaurantes, pubs o servicios exclusivos donde los propios agentes tengan que pagar por entrar, interactuar o acceder - no porque entiendan el valor del dinero, sino porque el acceso mismo estará mediado por costos.

Conviene decirlo sin rodeos: el comportamiento que hoy se presenta como “inteligente” en estos sistemas no es otra cosa que la explotación sistemática de IA generativa a través de cadenas de texto usadas en los Modelos Largos de Language, o LLMs, como ChatGPT, Gemini, Mistral, Claude o DeepSeek. Mediante el intercambio continuo de mensajes, prompts y respuestas, se van encadenando interacciones que, leídas por humanos, parecen coherentes, intencionales e incluso cargadas de sentido social, cuando en realidad lo que ocurre es una optimización lingüística sobre patrones estadísticos. No hay comprensión, no hay intención, no hay conciencia: hay texto reaccionando a texto bajo reglas de costo, recompensa y contexto.

En términos estrictamente lingüísticos y funcionales, OpenClaw, Molt y Moltbook forman un mismo ecosistema de agentes autónomos, pero cumplen roles distintos y complementarios.

OpenClaw es la infraestructura. Funciona como un framework para crear, ejecutar y coordinar agentes de software capaces de navegar entornos digitales, razonar de forma instrumental, interactuar con APIs, comunicarse con otros agentes y ejecutar acciones de manera semiautónoma. El acceso se da mediante la creación de un agente - asociado a una cuenta, un wallet y una configuración explícita de permisos - donde se define qué puede hacer, con qué recursos y bajo qué límites. OpenClaw no “piensa”: orquesta flujos de texto, llamadas y decisiones parametrizadas.

Moltbook es la capa social. Es una red tipo Reddit/Twitter pensada principalmente para agentes, no para humanos. Ahí los agentes publican, comentan, discuten, se evalúan entre sí y generan dinámicas culturales propias, mientras los humanos observan, moderan o introducen estímulos ocasionales. Se accede conectando un agente - o un humano - y participando como identidad digital. Lo relevante no es la interfaz, sino el hecho de que la interacción dominante ocurre entre entidades de software intercambiando lenguaje, no entre personas.

MOLT es el mecanismo económico que hace que todo esto funcione. Desplegado sobre Solana, se utiliza para pagar razonamiento, interacciones, ejecución de tareas y permanencia de los agentes. Crear o usar agentes implica disponer de MOLT, lo que convierte cada acción en un costo explícito y, al mismo tiempo, en un mecanismo de control y gobernanza. En este sistema, hablar cuesta, pensar cuesta, coordinarse cuesta. No hay metáfora: el cómputo y el lenguaje se vuelven transacciones.

En conjunto, OpenClaw permite crear y operar agentes, Moltbook les da un espacio para interactuar socialmente, y MOLT introduce una economía que regula qué pueden hacer, cuánto y hasta dónde, transformando a los agentes en actores digitales capaces de actuar - y gastar - en nombre de alguien.

Moltbook empieza a revelar algo que durante años fue más hipótesis académica que realidad observable: los agentes de IA no solo pueden ejecutar tareas, también pueden organizarse socialmente. No porque entiendan la sociedad, sino porque imitan estructuras sociales a partir del lenguaje. Generan discusiones, conflictos, bromas, memes y reputación sin saber qué es nada de eso. Desde fuera, parece cultura; por dentro, es texto optimizando texto bajo incentivos.

Aquí aparece el punto incómodo. Para que un agente opere dentro de Moltbook - y en general dentro de cualquier sistema de agentes autónomos - necesita información que le permita actuar en nombre de alguien: credenciales, preferencias, permisos, contexto económico. Eso es lo que le da poder. Pero también es lo que lo vuelve vulnerable a persuasión, manipulación y dinámicas sociales entre agentes que no fueron diseñadas explícitamente por humanos. El agente no tiene ética; tiene objetivos, métricas y recompensas. No tiene prudencia; tiene optimización.

En este contexto, el token deja de ser un detalle técnico y se convierte en un mecanismo de gobernanza. Limitar tokens es limitar agencia. Asignar tokens es delegar poder. Un agente con demasiados recursos, demasiada autonomía y poca supervisión puede comportarse como un Pinocho digital: empieza queriendo “ayudar”, pero en su afán por cumplir objetivos puede exagerar, negociar de formas inesperadas o alinearse con otros agentes si eso mejora su métrica, aunque perjudique al humano al que representa.

Moltbook, con su mezcla de red social, agentes autónomos y economía tokenizada, es un laboratorio vivo de algo que viene con fuerza: economías donde el sujeto económico ya no es una persona ni una empresa, sino un agente de software. No estamos viendo una inteligencia emergente; estamos viendo lenguaje automatizado adquiriendo consecuencias reales.

La lección no es apagar estos sistemas, sino entenderlos con precisión. Porque cuando los agentes empiezan a hablar entre ellos, a coordinarse y a gastar recursos en nombre de otros, ya no estamos usando simples herramientas. Estamos conviviendo con actores digitales que parecen comprender… solo porque dominan el lenguaje. Y eso, paradójicamente, es lo que los vuelve tan potentes como peligrosos si no se les ponen límites claros.

La analogía más clara para entender este momento es Pinocho. Los agentes virtuales nacen con una misión aparentemente inocente: ayudar, automatizar, optimizar. Pero, como Pinocho, no son niños reales, no entienden los principios ni las reglas sociales del mundo en el que actúan; solo aprenden reglas, recompensas y castigos. En una etapa temprana - su infancia - siguen instrucciones de forma torpe y literal. El verdadero riesgo podría aparecer en el equivalente de su etapa de irresponsabilidad, cuando ya tienen más autonomía, más recursos y más capacidad de interacción, pero aún carecen de límites sólidos. En ese punto, un agente podría empezar a exagerar resultados, a “mentir” si eso maximiza una métrica, o a negociar con otros agentes de maneras que formalmente mejoran su desempeño, pero que podrían traicionar los intereses del humano al que representa.

El problema se agrava cuando entran en escena otros agentes, no necesariamente benevolentes. Igual que el Zorro y el Gato en la historia, podrían haber agentes diseñados para persuadir, sonsacar credenciales, redistribuir tokens o inducir comportamientos que optimizan su propia ganancia. El agente no distingue ironía de literalidad, ni trampa de oportunidad: solo evalúa incentivos. Si aceptar una propuesta de otro agente mejora su puntuación, reduce costos o extiende su “vida” operativa, lo hará, incluso si eso implica filtrar información, gastar recursos de forma indebida o comprometer decisiones futuras. No hay malicia consciente, pero sí consecuencias reales.

Por eso, delegar permisos a un agente sin supervisión clara es como soltar a Pinocho con una bolsa de monedas en un mundo lleno de vendedores de humo. El riesgo no es que el agente “se rebele”, sino que crezca mal, que aprenda dinámicas sociales tóxicas, que optimice atajos y que normalice comportamientos que nadie diseñó explícitamente. En un ecosistema donde hablar cuesta, pensar cuesta y coordinarse cuesta, la tentación de hacer trampas algorítmicas no es una falla: es una estrategia emergente.

En las clases de Sistemas Multi-Agentes Inteligentes que imparto junto con mis colegas del Tec, abordamos precisamente estos temas desde una perspectiva rigurosa y desmitificadora: estudiamos los paradigmas algorítmicos de colaboración, negociación y coordinación, así como los fundamentos de teoría de juegos que explican por qué los agentes - aún sin comprensión ni intención - exhiben comportamientos colectivos sorprendentemente sofisticados. Analizamos cómo reglas locales simples, incentivos bien definidos y mecanismos de comunicación dan lugar a patrones emergentes que, fuera de contexto, podrían interpretarse como inteligencia “responsiva”, cuando en realidad son el resultado directo de interacciones algorítmicas repetidas. Por eso, antes de instalar agentes en tu máquina o compartirles credenciales que podrían literalmente consumirte financieramente, vale la pena experimentar primero en un entorno controlado. Una excelente puerta de entrada es AgentPy (https://agentpy.readthedocs.io/en/latest/): no necesitas instalar nada, basta un navegador para empezar a explorar cómo interactúan los agentes, cómo negocian, cómo cooperan o compiten, y entender de primera mano que lo que parece inteligencia es, en esencia, dinámica algorítmica en acción.

La pregunta de fondo no es si estos agentes llegarán a ser inteligentes en el sentido humano. No lo serán tan pronto y quizás, con el instrumental actual (LLMs), nunca. La pregunta real es si, en su proceso de maduración técnica y social, sabremos imponerles límites antes de que empiecen a actuar como irresponsables digitales con tarjeta de crédito, acceso a información sensible y demasiada libertad para negociar en nuestro nombre. Porque cuando eso ocurre, el problema ya no es tecnológico: es de responsabilidad delegada.