Une promesse technologique alléchante
Builder.ai a longtemps fasciné le monde de la tech. Présentée comme une révolution dans le domaine du développement d’applications, cette start-up britannique affirmait pouvoir créer des applis aussi facilement que l'on commande une pizza. Grâce à une soi-disant intelligence artificielle, baptisée "Natasha", capable de concevoir et d'assembler en un temps record des modules logiciels personnalisés, la société promettait une automatisation inédite du processus de développement.
Unsplash - Christopher Gower
Portée par des promesses fortes et un discours séduisant, la jeune entreprise a rapidement conquis la confiance des investisseurs. Sa valorisation a atteint 1,5 milliard de dollars, un chiffre impressionnant pour une société qui prétendait n'avoir besoin que de peu d'interventions humaines grâce à son système ultra-performant. De nombreux clients séduits par ce discours ont cru qu'ils bénéficieraient de la puissance de l’intelligence artificielle pour concevoir leurs projets, en évitant les délais et les coûts associés au développement classique.
Une technologie trop belle pour être vraie
La réalité, pourtant, était bien différente. Derrière l’interface de Natasha, ce n’était pas une machine qui codait les applications commandées, mais environ 700 développeurs humains, pour la plupart basés en Inde. Ces ingénieurs travaillaient dans l’ombre, accomplissant manuellement ce que l’IA était censée faire de manière autonome. Depuis huit ans, ils écrivaient le code à la main, en temps réel, pour chaque projet.
Le système, conçu pour masquer cette réalité, reposait sur un savant mélange de logiciels classiques et de processus manuels. Certains développeurs ont révélé avoir été formés à répondre aux clients en se faisant passer pour des assistants virtuels. L'illusion de l'automatisation était entretenue jusque dans les moindres détails, avec des réponses standardisées, des délais volontairement prolongés pour simuler le temps de traitement, et des calculs de tarification programmés pour ressembler à des décisions prises par une machine.
Une fraude à grande échelle
Cette pratique, connue sous le nom d’AI washing, consiste à attribuer à une intelligence artificielle des tâches en réalité effectuées par des humains. Si le phénomène commence à être connu dans le secteur technologique, le cas de Builder.ai est l’un des plus massifs et des plus structurés à ce jour.
Au fil des années, la société aurait levé plus de 480 millions de dollars, notamment grâce à l’appui d’investisseurs séduits par le discours technologique. Mais derrière les levées de fonds, les revenus réels n’ont jamais été à la hauteur. Les projections de chiffre d’affaires pour 2024, fixées à 220 millions de dollars, ont été volontairement surestimées : les revenus réels étaient inférieurs à 50 millions.
Des opérations de "round-tripping" auraient également été mises en place, c’est-à-dire des échanges financiers fictifs entre entreprises amies, dans le but de gonfler artificiellement les revenus. Ces pratiques ont durablement trompé les investisseurs et les partenaires de la société, qui ont continué à croire en un potentiel basé sur une technologie qui n’existait pas réellement.
Un effondrement rapide et brutal
Face à la découverte de cette supercherie, les conséquences ont été immédiates. Le fonds qui avait investi massivement dans Builder.ai a tenté de récupérer ce qu’il pouvait, retirant 37 millions de dollars. Les quelques millions restants ont été gelés à cause de restrictions sur les transferts financiers. Les salaires des employés n’ont pas pu être versés, et près de 1 000 personnes ont été licenciées.
L’entreprise a officiellement déposé le bilan, la plateforme Natasha a été abandonnée, et le site internet a été désactivé. Cette chute brutale a surpris beaucoup d’observateurs, tant la croissance de Builder.ai semblait impressionnante quelques mois plus tôt.
Le fondateur, Sachin Dev Duggal, a lui aussi été rattrapé par les accusations. Il est désormais visé par une enquête pour blanchiment d’argent en Inde. Par ailleurs, des procédures ont été lancées dans d’autres juridictions, notamment au Royaume-Uni, où un administrateur judiciaire a été désigné pour évaluer les actifs et les dettes de la société.
Des salariés sous-payés, une transparence inexistante
Les témoignages d'anciens employés sont accablants. Selon eux, les conditions de travail des développeurs en Inde étaient loin des standards attendus. Beaucoup étaient payés au lance-pierre, sans réelle reconnaissance, et sans comprendre pourquoi leurs efforts devaient être dissimulés derrière une prétendue IA.
Certains affirment que les dirigeants de l’entreprise étaient parfaitement conscients de la situation, mais ont volontairement fermé les yeux. Le choix délibéré de faire passer des humains pour des machines avait pour but unique d’attirer plus d’investissements et de séduire des clients toujours plus nombreux.
Le plus choquant, pour de nombreux observateurs, reste la manière dont les employés ont été tenus à l’écart. Aucune information claire n’était donnée sur leur rôle exact dans le processus. Ils étaient instruits pour suivre des protocoles très précis afin de ne pas révéler qu’ils travaillaient réellement sur les projets.
Un symptôme inquiétant de l’écosystème technologique
Ce scandale soulève de nombreuses questions sur la régulation de l’innovation. Dans un monde où l’intelligence artificielle est devenue un argument marketing puissant, certaines entreprises n’hésitent pas à exagérer, voire à mentir ouvertement sur leurs technologies pour obtenir un avantage concurrentiel.
Le cas Builder.ai illustre un manque criant de transparence dans le secteur. Il démontre aussi combien il est facile, dans l’euphorie autour de l’IA, de détourner les attentes des investisseurs et des clients. Ce genre de pratique remet en question la fiabilité des start-ups dites "révolutionnaires", et appelle à davantage de contrôles.
Aujourd’hui, alors que de nombreuses entreprises se targuent d’utiliser l’IA dans leurs produits ou services, ce cas rappelle l’importance de vérifier ce qui se passe réellement en coulisses. Il met aussi en lumière le besoin urgent de protéger les travailleurs humains qui, bien souvent, restent invisibles alors qu’ils constituent le cœur du système.
Une leçon pour les investisseurs comme pour les consommateurs
Ce naufrage financier et moral est riche d’enseignements. Pour les investisseurs, il s’agit d’un rappel brutal de la nécessité de vérifier les promesses avant de se laisser séduire. La course à l’innovation ne peut justifier le manque d’éthique ou la tromperie délibérée. Pour les consommateurs, c’est une piqûre de rappel : tout ce qui est présenté comme une intelligence artificielle n’en est pas forcément une.
Le développement de l’IA soulève des espoirs immenses, mais aussi de lourdes responsabilités. Lorsqu’elle est utilisée à bon escient, elle peut changer des vies, améliorer des processus, accélérer des progrès. Mais lorsqu’elle est instrumentalisée à des fins de profit, elle devient un outil de manipulation, voire de maltraitance sociale.
Builder.ai est désormais à l’arrêt. Ses bureaux sont vides, ses employés ont été remerciés, son rêve technologique a volé en éclats. Mais l’histoire ne s’arrête pas là. Elle devient un cas d’école, un avertissement, et un révélateur de ce que l’on ne veut plus voir se reproduire dans l’écosystème numérique mondial.
Découvrez maintenant Facebook et Instagram utilisent désormais vos données pour entraîner leur IA : voici comment leur dire non et 20 choses bluffantes que l'on peut faire avec l'IA.
Lire aussi : Voici les métiers qui devraient vite disparaître à cause de l'IA