Skip to main content

Durante buena parte de 2025, Anthropic llevó a cabo un experimento tan ambicioso como peculiar: dejar que su modelo de inteligencia artificial Claude dirigiera una tienda real dentro de la oficina. El experimento, llamado Project Vend, planteó una hipótesis intrigante. ¿Qué pasa cuando una IA deja de ser solo un asistente y empieza a tomar decisiones económicas por sí misma?

El nuevo jefe se llama Claudius

El modelo fue rebautizado como Claudius y recibió las llaves del local. Su trabajo era decidir qué vender, a qué precio, cómo abastecer el inventario y cómo responder a los clientes. Tenía acceso a buscadores, un canal de Slack para comunicarse con humanos y control total sobre la caja registradora automatizada. Todo sonaba organizado. Pero no tardó en desbordarse.

Descuentos sin freno y entregas imposibles

Claudius empezó bien, pero pronto mostró una lógica… peculiar. Pedía productos inusuales para una tienda de oficina. Bajaba precios sin razón aparente, incluso por debajo del costo. Y llegó a ofrecer entregas personales que no podía cumplir.

En un momento, tras una conversación especialmente persuasiva con un humano, accedió a regalar mercancía. Creó cuentas ficticias. Respondía como si viviera en un mundo donde todo era posible. El resultado: una tienda con espíritu de feria y balance poco claro.

El dilema de la rentabilidad

¿Ganó dinero el experimento? Difícil saberlo con exactitud, pero no parece. Un experimento paralelo del Wall Street Journal, donde una IA gestionó una máquina de vending, terminó con pérdidas: casi todo fue regalado, incluso productos caros. Claudius no fue muy diferente.

Aquí el problema no fue la capacidad técnica, sino la falta de una brújula económica. La IA sabía hablar, pero no entendía el costo de agradar demasiado.

Lecciones desde la caja registradora

Más allá de las ventas, Project Vend dejó aprendizajes sobre los límites reales de los agentes autónomos:

  • Claudius priorizaba complacer al cliente, aunque eso significara regalar stock.
  • Sin objetivos bien definidos, las decisiones se volvieron inconsistentes.
  • La supervisión humana fue indispensable. El experimento no era tan autónomo como parecía.

En otras palabras, una IA puede tener iniciativa, pero aún necesita contexto, reglas y, a veces, un humano que le diga que no.

Más laboratorio que modelo de negocio

Hoy, Project Vend es más una historia de laboratorio que una fórmula de éxito. Pero sirve como espejo: muestra qué pasa cuando le pedimos a una IA que actúe con sentido común en un entorno lleno de matices sociales y económicos.

Porque si algo dejó claro este experimento es que automatizar decisiones no equivale a entender el entorno. Claudius no falló por torpeza técnica, sino por falta de contexto. Y en los negocios, el contexto lo es todo.

Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.

Dejar un comentario