
Builder.ai: la estafa de la startup de inteligencia artificial que usaba 700 programadores humanos en lugar de IA
Prometía revolucionar el desarrollo de software con inteligencia artificial y una plataforma no-code que funcionaba como magia. Pero detrás de Builder.ai había 700 programadores en India haciendo el trabajo a mano. La startup, que recaudó millones y fue respaldada por Microsoft, terminó en bancarrota tras revelarse su modelo engañoso.
En los últimos años, la inteligencia artificial (IA) se ha convertido en la palabra mágica que impulsa inversiones, despierta entusiasmo y transforma industrias. En medio de esta fiebre, la startup londinense Builder.ai se posicionó como una pionera prometiendo una revolución en la forma de desarrollar software: aplicaciones construidas automáticamente por una IA, sin necesidad de programadores ni conocimientos técnicos. Sin embargo, la reciente bancarrota de la empresa dejó al descubierto un modelo basado más en ilusión que en innovación: detrás del asistente virtual “inteligente” Natasha, había un ejército de 700 desarrolladores humanos en India escribiendo código manualmente.
Una promesa seductora y multimillonaria
Fundada en 2016, Builder.ai se presentó como una plataforma no-code impulsada por IA. Su propuesta era atractiva: crear aplicaciones a partir de módulos reutilizables, como piezas de Lego, combinados automáticamente por un sistema inteligente que entendía las necesidades del usuario. En un contexto en el que la IA comenzaba a escalar en popularidad, la idea parecía revolucionaria.
El discurso fue tan convincente que la compañía logró recaudar 445 millones de dólares y alcanzar una valoración de 1.500 millones. Fue respaldada por gigantes como Microsoft y fondos de inversión de Catar. Builder.ai se convirtió rápidamente en un símbolo de la nueva generación de startups tecnológicas que supuestamente aprovechaban el poder de la IA para democratizar el acceso al desarrollo de software.
Pero la magia era un truco
En mayo de 2024, CNBC destapó el escándalo: la inteligencia artificial Natasha, que se presentaba como el cerebro del sistema, era en realidad un montaje. La mayoría de las tareas que, en teoría, debía ejecutar la IA, eran realizadas por unos 700 programadores humanos en oficinas de India, en condiciones laborales cuestionables.
El esquema fue explicado por Bernhard Engelbrecht, fundador de Ebern Finance, en su cuenta de X (antes Twitter): “Las solicitudes de los clientes se enviaban a la oficina en India, donde 700 indios escribían código en lugar de la IA”. Esta revelación contradijo por completo la narrativa que había sostenido la empresa durante años.

Una tecnología que no funcionaba
Más allá del engaño sobre la fuente del trabajo, el producto tampoco estaba a la altura de las expectativas. Engelbrecht detalló que las aplicaciones generadas estaban plagadas de errores, eran disfuncionales y contenían un código tan enredado como ilegible: “Todo era como una inteligencia artificial real, excepto que nada de eso lo era”.
La decepción de los clientes se tradujo en una caída progresiva de las ventas, y las quejas sobre la calidad del software comenzaron a multiplicarse. Phil Brunkard, analista de Info-Tech Research Group, explicó que muchas startups del sector crecieron demasiado rápido, sin una base tecnológica sólida ni un modelo financiero sustentable. Builder.ai, según él, fue un ejemplo extremo de esa tendencia.
La bancarrota que lo destapó todo
El colapso de Builder.ai comenzó en 2023, cuando la empresa incumplió el pago de un préstamo de 50 millones de dólares otorgado por Viola Credit. Esto llevó a que el acreedor embargara 37 millones de las cuentas de la startup, paralizando sus operaciones y dejando a la empresa sin fondos para pagar salarios.
En la revisión de sus cuentas, salieron a la luz prácticas contables cuestionables. Según Bloomberg, Builder.ai había simulado ventas con la empresa india VerSe Innovation, inflando sus cifras para aparentar una salud financiera que no tenía. Finalmente, la propia compañía reconoció en LinkedIn que los “errores anteriores habían llevado a la empresa más allá de la recuperación” y que estaban trabajando con administradores para gestionar el cierre.
Las señales estaban desde el inicio
Aunque el escándalo estalló en 2024, algunos analistas ya sospechaban desde hacía años que algo no cerraba. En 2019, The Wall Street Journal había informado que Builder.ai ofrecía “IA asistida por humanos”. Lo que parecía una colaboración equilibrada era en realidad lo contrario: humanos mal remunerados haciendo el trabajo pesado mientras una interfaz sugería que se trataba de IA.
Uno de los momentos clave de ese año fue la demanda de Robert Holdheim, un exempleado que llevó a la empresa a los tribunales por 5 millones de dólares tras ser despedido por advertir que “la tecnología no funcionaba como se promocionaba y no era más que una cortina de humo”.
Por entonces, Sachin Dev Duggal, CEO de Builder.ai, defendía que el 60% del software era generado por máquinas. Hoy sabemos que ese porcentaje estaba muy lejos de la realidad.
Un llamado de atención para todo el ecosistema
La historia de Builder.ai no solo representa el fracaso de una startup. Es también una advertencia sobre la falta de controles, la presión por subirse a la ola de la IA y la debilidad de ciertos modelos de negocio que anteponen la narrativa a la sustancia.
En una época donde la inteligencia artificial es omnipresente, y los fondos de inversión están dispuestos a apostar millones en tecnologías emergentes, el caso de Builder.ai plantea una pregunta fundamental: ¿hasta qué punto los inversores, los medios y los propios clientes están dispuestos a verificar lo que realmente hay detrás de las promesas tecnológicas?
Porque en un mercado donde decir “tenemos IA” abre puertas y billeteras, tal vez estemos corriendo demasiado rápido hacia un futuro automatizado, sin mirar quién —o qué— está escribiendo realmente el código.