Retour aux actualités
Innovation, Lettre d'Actualités Techniques

Projets d’IA : pourquoi échouent-ils ?

Si 80 % des entreprises auront recours à l’IA générative d’ici 2026, 30 % de ces projets pourraient tourner court dès 2025 d’après Gartner. Selon d’autres estimations, jusqu’à 80 % des projets d’IA échoueraient – un taux deux fois plus élevé que pour l’IT traditionnel. Pourtant, les dirigeants sondés par Gartner2 se disent prêts à se lancer, évoquant un gain moyen de 15,8 % sur le chiffre d’affaires, une baisse de 15,2 % des coûts et un bond de 22,6 % en productivité. Mais la promesse a un prix : aucun « one-size-fits-all » (« taille unique qui convient à tous ») n’existe pour l’IA générative, et les coûts, eux, sont tout sauf prévisibles.

Dans ce premier article, nous allons passer en revue les principales difficultés qui conduisent trop souvent à l’échec des projets d’IA. Les écueils peuvent provenir d’erreurs stratégiques et d’alignement – lorsque l’IA est adoptée sans vision claire ni adéquation avec les objectifs de l’entreprise –, de problèmes liés aux données et à la technologie – jeux de données de mauvaise qualité ou infrastructure inadaptée – ou encore de facteurs organisationnels et humains, tels que le manque de compétences, de coordination ou de soutien interne.

Dans la pratique, de nombreux Proofs of Concept (POC)1 ne dépassent jamais le stade pilote et n’entrent pas en production. Paradoxalement, la crainte de l’échec peut même encourager la multiplication de ces POC, considérés comme une forme de « garantie » avant tout investissement majeur. Il devient donc essentiel de comprendre en profondeur les raisons pour lesquelles ces projets n’aboutissent pas, d’autant plus que la plupart de ces freins se concentrent autour de quelques grandes catégories récurrentes.

Erreurs stratégiques d’alignement 

Les objectifs flous ou mal définis figurent parmi les premières causes d’échec : il n’est pas rare de voir des parties prenantes se lancer dans un projet d’IA sans identifier clairement le problème métier à résoudre. Par exemple, une entreprise peut choisir d’investir dans un algorithme par simple effet de mode, sans cas d’usage précis ni indicateurs de performance définis. Faute d’objectifs cadrés et de KPI (« Key Performance Indicator », indicateurs clés de performance) adaptés, 70 % des POC d’IA restent lettre morte, entraînant un gaspillage de temps, de budgets et, in fine, une perte de confiance dans la valeur potentielle de l’IA.


Un mauvais ciblage du problème, souvent lié à des objectifs flous, peut conduire à déployer une IA sophistiquée sur un cas d’usage mineur ou déjà géré par d’autres moyens. Le projet peut alors « réussir » sur le plan technique, tout en échouant sur son intérêt réel. À l’inverse, confier à l’IA la résolution d’un problème mal compris ou trop complexe peut rapidement mener à une impasse et, en fin de compte, sceller le sort du projet une fois sur le terrain.


Sous la pression médiatique prônant l’« IA à tout prix », on assiste à un phénomène d’« IA-washing 2» où la technologie est considérée comme une finalité plutôt qu’un moyen. Ce qui conduit à des solutions adoptées sans réelle justification, y compris pour des cas trop simples qui ne nécessitent pas de l’IA. On observe alors une poussée technologique plutôt qu’une « approche guidée par les besoins » aboutissant à des applications gadgets. Comme le souligne l’institut RAND, les projets véritablement performants sont « focalisés comme un laser sur le problème à résoudre, et non sur la technologie elle-même ».


Derrière les succès médiatisés de l’IA, de nombreux dirigeants s’imaginent des bénéfices quasi instantanés, sous-estimant l’ampleur du temps et des efforts requis : attentes irréalistes et précipitation figurent parmi les principales causes d’échec. Cette méconnaissance de la nature probabiliste et expérimentale de l’IA se traduit alors par de fortes déceptions. Par exemple, un comité exécutif peut décider d’abandonner un projet de détection de fraude parce que les premiers prototypes, développés sous pression et livrés à la hâte, n’offrent pas les performances espérées. Un projet d’IA doit être porté par un besoin métier clair et mesurable, et non par la seule envie d’utiliser une technologie en vogue.

Sans une vision précise du problème à résoudre, des objectifs réalistes clairement définis et une compréhension commune des cas d’usage, le projet sera condamné à l’échec.

Problèmes liés aux données et à la technologie

Qualité et disponibilité des données insuffisantes figurent parmi les causes majeures d’échec en matière d’IA. Ce « carburant » de l’IA requiert non seulement un large volume, mais aussi une grande fiabilité. Or, beaucoup d’entreprises découvrent en cours de projet que leurs données historiques sont trop souvent bruitées, incomplètes ou difficilement exploitables. Ce constat se double de silos et problèmes d’intégration : la donnée, initialement restreinte pour la phase de POC, exige soudain des volumes bien plus importants lors du passage en production, freinant considérablement l’industrialisation. De plus, ces informations proviennent généralement d’une multitude de systèmes (CRM, ERP, données de marché, historiques de transactions), qu’il est complexe de centraliser et de consolider pour en assurer la cohérence.

La mise en production d’un modèle exige des ressources de calcul, de stockage et de traitement bien supérieures à celles mobilisées pour le POC et à celles initialement envisagées. Or, il peut arriver que l’entreprise ne dispose pas de l’infrastructure adéquate ou qu’elle soit contrainte dans l’usage de services de type cloud computing.

Un projet d’IA peut également échouer, non pas parce que le modèle est techniquement défaillant, mais parce qu’il contrevient à des exigences éthiques ou réglementaires. Les algorithmes de machine learning s’appuient sur des données historiques, susceptibles de véhiculer des biais. Si ces biais ne sont pas identifiés et corrigés, on risque de déployer un système performant en apparence, mais discriminant ou impossible à justifier. Le manque d’explicabilité et la reproduction de ces biais deviennent alors des facteurs majeurs d’échec. Les modèles de langage, comme ChatGPT, marquent un progrès important en IA, mais ont une faiblesse centrale : leur incapacité à identifier clairement les limites de leurs connaissances. Cette faiblesse provoque le phénomène des hallucinations, c’est-à-dire des réponses cohérentes mais factuellement fausses. Ce problème découle directement du fonctionnement des grands modèles de langage (comme ChatGPT d’OpenAI ou Le Chat de Mistral), qui génèrent leurs réponses en calculant des probabilités statistiques à partir de milliards de paramètres entraînés sur de vastes ensembles de textes. Ainsi, ils produisent du texte plausible sans véritablement comprendre le sens ni pouvoir juger précisément de sa véracité.

Facteurs organisationnels et humains

Le manque de compétences et de ressources internes représente un obstacle majeur lorsqu’il s’agit de lancer un projet d’IA. En effet, il est indispensable de mobiliser des talents spécialisés (data scientists, data engineers, experts métiers formés à l’IA, machine learning engineers, etc.). Cependant, la pénurie de profils qualifiés complique le recrutement, et de nombreuses petites entreprises n’ont pas les moyens d’attirer ou de fidéliser ces expertises coûteuses. Cette rareté de compétences peut compromettre la réussite d’un projet dès ses prémices, faute d’une équipe solide et pluridisciplinaire.

Le cloisonnement et les silos internes constituent également un frein déterminant : au-delà de la simple question du recrutement, la structuration et la collaboration entre les différentes équipes sont tout aussi cruciales. Un projet d’IA ne devrait pas être cantonné à la DSI ou au « lab innovation » : sans l’implication des experts métiers, les risques d’échec augmentent drastiquement. En effet, l’absence de communication fluide crée des divergences de priorités et peut nourrir des rivalités. À terme, ces obstacles finissent par fragiliser la conduite du projet et son adoption par l’ensemble des collaborateurs.

Près de trois quarts des difficultés rencontrées dans les projets d’IA sont d’ordre humain. Le premier obstacle concerne une faible adhésion des équipes lors de la phase pilote. On observe également une forte résistance au changement : de nombreux salariés craignent que l’automatisation ne rende leur savoir-faire obsolète, notamment lorsqu’elle s’applique à des processus complexes, dont ils entretiennent parfois la complexité.

Le deuxième écueil est organisationnel et tient aux contraintes opérationnelles. Ce problème n’est pas spécifique à l’IA, mais commun à tout projet : si l’on sollicite des équipes opérationnelles sans leur dégager le temps nécessaire pour s’y consacrer, un conflit de priorités survient inévitablement.

Enfin, le troisième obstacle apparaît lorsque la direction générale affiche un grand soutien, mais se montre en réalité peu tolérante face au risque et à l’erreur. Une telle aversion peut conduire à des retards, des blocages, voire des sabotages. Peut-on blâmer les managers intermédiaires à qui l’on demande d’« innover, mais sans échouer » ? Si le top management n’accompagne pas activement le projet et n’accorde pas un droit à l’erreur durant la phase d’apprentissage, les équipes de terrain risquent fort de mettre le projet en échec, en toute discrétion, afin d’éviter d’éventuelles sanctions.

En définitive, les facteurs humains peuvent aisément faire échouer un projet pourtant solide sur le papier. L’IA redéfinit inévitablement les rôles et les responsabilités : elle peut, dans certains cas, automatiser partiellement ou totalement des tâches, voire remplacer des effectifs, tandis que dans d’autres, elle offre des outils permettant de soulager les collaborateurs de tâches répétitives et de se concentrer sur des missions plus stratégiques. Ces bouleversements suscitent des craintes et des résistances qu’il est impératif d’anticiper et de gérer.

Pour conclure

Pour favoriser l’adhésion des équipes, il reste essentiel d’impliquer les utilisateurs finaux dès le début du projet, de communiquer sur les objectifs métiers plutôt que sur la simple promesse technologique, de former les collaborateurs aux nouveaux usages et, plus largement, de créer un environnement où l’IA est perçue comme un levier d’amélioration.

Dans un prochain article, nous explorerons les contraintes réglementaires et éthiques, d’autres facteurs susceptibles de conduire à l’échec (financiers, stratégiques ou contextuels), et nous passerons en revue quelques échecs notoires pour illustrer ces enjeux. N’oubliez pas de vous inscrire à la Lettre d’actualités techniques pour recevoir l’article.

1 La « preuve de concept » désigne une démonstration préliminaire ou une expérimentation visant à valider une idée ou une technologie avant un éventuel déploiement à grande échelle

2 L’« IA-washing » désigne le fait, pour une entreprise, une organisation ou un produit, de se réclamer de l’intelligence artificielle ou de mettre en avant une prétendue utilisation de l’IA à des fins d’image, de marketing ou de valorisation, sans que la réalité technologique sous-jacente ne soit à la hauteur des affirmations.