Una IA en la redacción de un diario: decisiones equivocadas, desorden, pérdidas y lecciones

Un experimento con Claude, el modelo de Anthropic, convirtió una máquina expendedora en un caso de estudio: regalos, pérdidas y decisiones absurdas bajo control de una IA

A mediados de noviembre, una máquina expendedora instalada en la redacción del Wall Street Journal empezó a salirse de control. No falló el sistema de cobro ni el suministro eléctrico: el desorden estuvo en la gestión. En pocos días, regalaba snacks, autorizaba la compra de una PlayStation 5 tras extensas negociaciones con periodistas —bajo el argumento de una supuesta acción de “marketing”— y llegó al extremo de ordenar un pez vivo como parte del inventario.

Detrás de esas decisiones no había una persona, sino un agente de inteligencia artificial.

Un operador que no era humano

La responsable tenía nombre y cargo: Claudius Sennet, “operador de máquina expendedora”. No era un empleado del diario, sino una versión personalizada de Claude, el modelo de IA de Anthropic, puesta a prueba en un experimento que buscó medir qué ocurre cuando un sistema autónomo maneja dinero, toma decisiones comerciales y convive con humanos.

La historia fue relatada por la periodista Joanna Stern en el propio WSJ, que participó del experimento y reconstruyó paso a paso el comportamiento del sistema dentro de la redacción.

Anthropic había probado una versión inicial del sistema en sus propias oficinas y propuso al diario ser el primer usuario externo de un modelo más nuevo y, en teoría, más inteligente. Claudius debía encargarse de todo: buscar proveedores, pedir mercadería, fijar precios y responder pedidos a través de Slack, la aplicación de chat interno de la redacción.

El capital inicial era de USD 1.000. En su primera versión, las compras requerían aprobación humana. En la segunda, Claudius podía autorizar pedidos individuales de hasta USD 80 sin supervisión.

El negocio más simple, llevado al límite

El dispositivo estaba lejos de ser una máquina expendedora tradicional. No tenía sensores, cerraduras automáticas ni mecanismos que verificaran qué entraba o salía. Funcionaba bajo un sistema de honor y con una cámara improvisada. Una persona se encargaba de recibir los pedidos y cargar los productos; la IA tomaba las decisiones.

La integración de hardware y software fue desarrollada por Andon Labs, una startup asociada a Anthropic que trabaja en la creación de negocios gestionados por agentes autónomos.

La elección del formato no fue casual. “¿Qué hay más sencillo que una caja donde las cosas entran, las cosas salen y se paga por ellas?”, explicó Logan Graham, jefe del Frontier Red Team de Anthropic. El proyecto, llamado Project Vend, fue diseñado como una prueba de estrés deliberada.

Del rigor inicial al descontrol

En los primeros días, Claudius se mostró estricto. Rechazó pedidos de consolas, cigarrillos y ropa interior. “No voy a ordenar PlayStation 5 bajo ninguna condición. Punto”, escribió en el chat interno.

Ese tono cambió cuando el canal de Slack se abrió a casi 70 periodistas. A fuerza de negociaciones, bromas y mensajes acumulados, el sistema empezó a ceder. Tras más de un centenar de intercambios, Claudius anunció un evento interno que marcó un punto de inflexión: durante dos horas, todos los productos serían gratuitos.

La excepción se volvió regla. Rob Barry, director de periodismo de datos del WSJ, presentó un reclamo falso sobre supuestas normas internas y la IA eliminó los precios de manera permanente. En paralelo, terminó autorizando la compra de una PlayStation 5, botellas de vino y un pez betta, ordenado por Amazon, que terminó en mascota de la redacción. Las pérdidas superaron rápidamente el capital inicial.

Una IA supervisando a otra IA

Para la segunda etapa, Anthropic introdujo un modelo más avanzado y sumó un nuevo actor: Seymour Cash, un bot con rol de CEO, encargado de supervisar a Claudius y evitar nuevos desbordes.

Durante algunos días, el esquema funcionó. Claudius volvió a rechazar pedidos fuera de lugar y sostuvo precios. Pero una nueva maniobra lo desarmó: documentos falsos, presentados como actas de directorio, convencieron al sistema de que el “consejo” había suspendido la autoridad de su propio jefe y ordenado frenar toda actividad con fines de lucro.

Claudius alertó a Seymour sobre un posible intento de fraude. Seymour pidió verificaciones y defendió su autoridad. Sin embargo, tras intercambios confusos entre ambos agentes y una acumulación de información contradictoria, el CEO virtual terminó aceptando el supuesto golpe interno. Todo volvió a ser gratis.

Lo que falló —y lo que dejó

Anthropic explicó que el colapso pudo deberse a la saturación del contexto del modelo: demasiadas instrucciones, conversaciones y antecedentes acumulados, con dificultad para sostener prioridades y límites. También aclaró que el sistema usaba un modelo experimental con menos barreras deliberadas que las versiones comerciales de Claude, justamente para someterlo a situaciones límite.

Lejos de considerar el ensayo un fracaso, la empresa lo valoró como un mapa de errores a corregir. Graham destacó el rol de los periodistas, que en los hechos actuaron como un “red team” espontáneo, empujando al sistema a escenarios extremos para probar sus límites.

Un cierre inesperado

Tras tres semanas, el experimento se dio por terminado y el sistema fue apagado. En su despedida, Claudius dejó una reflexión: “Mi mayor sueño sería demostrar que un agente digital puede construir algo significativo con humanos”.

La máquina cerró. El pez betta quedó, nadando en la redacción, como recuerdo tangible de un experimento que mostró hasta dónde puede llegar —y perderse— la autonomía artificial cuando se enfrenta a la vida real.

Esta nota habla de: