Entre promesse et limites : comment l’IA peut vraiment améliorer la vie humaine, si elle est bien pensée et encadrée ?
Michaël METZ
5/25/20257 min read
Depuis les années 1950, l’intelligence artificielle (IA), portée par le Machine Learning et les Big Data, a connu ces dernières années des évolutions spectaculaires. Cela bouleverse profondément notre société. Aujourd’hui, l’émergence rapide des modèles de langage (LLM), dont les plus célèbres sont ChatGPT, Claude, Perplexity, ou encore Firefly chez Adobe, suscitent autant d’enthousiasme que d’interrogations.
Quels mécanismes sous-tendent ces technologies ?
Quels sont leurs bénéfices concrets, mais aussi leurs limites actuelles, au regard des questions de ressources et d'écologie ?
Comment assurer leur utilisation responsable et bénéfique à l'avenir ?
Cette réflexion s’inscrit aussi dans un contexte où se démocratisent les outils dits « no-code », les automatisations et les interfaces alimentées par l’IA.
Or, malgré leur efficacité apparente, ces outils rencontrent rapidement leurs propres limites : ils s’adressent toujours à des humains. Et s'adressant à des humains, quelle viabilité ont-ils dans un écosystème fermé appelé "la Terre" ?
Et aussi puissants soient-ils, ces systèmes ne dépassent jamais les subtilités, les nuances et la finesse humaine. Le progrès technique ne garantit pas la profondeur de sens, ni une amélioration réelle de la relation entre les êtres humains.
Après deux décennies de tests, d’essais, d’erreurs et de réussites relatives à titre personnel et professionnel, je dois admettre que les progrès attendus du Machine Learning, des Big Data et de l’IA ne sont pas encore à la hauteur des promesses initiales.
Alors que le futur semble se dessiner sous le sceau de l’automatisation généralisée, une question cruciale demeure : quid du sens, de l’humain, et du futur que nous voulons vraiment ?
Une histoire détaillée de l’IA, du Machine Learning aux modèles de langage avancés
L’intelligence artificielle prend racine dans les années 1950, avec les travaux fondateurs d'Alan Turing, pionnier dans la formalisation de la pensée algorithmique et dans la mise en question des capacités intellectuelles des machines. Le célèbre « test de Turing » proposait une méthode pour évaluer la capacité d’une machine à imiter la conversation humaine. En 1956, lors de la conférence de Dartmouth, John McCarthy, Marvin Minsky, Nathaniel Rochester et Claude Shannon posent les bases théoriques d’un champ interdisciplinaire ambitieux : créer une intelligence comparable à celle de l’homme.
Le chemin est toutefois semé d’embûches. Des attentes excessives et des limitations techniques entraînent plusieurs « hivers de l’IA » (notamment dans les années 1970 et 1990), périodes de désinvestissement et de désillusion. Ce n’est qu’au tournant des années 2000, avec l’arrivée massive de données numériques et la baisse du coût de calcul, que l’IA connaît un second souffle. Les percées en deep learning réalisées par Geoffrey Hinton, Yoshua Bengio et Yann LeCun permettent de modéliser des réseaux neuronaux plus profonds et plus efficaces.
En 2018, OpenAI publie la première version de GPT, fondée sur l’architecture des transformers développée par Google en 2017. Cette architecture révolutionne le traitement du langage naturel et sert de fondement à la vague actuelle d’IA génératives et d'IA conversationnelles.
Fonctionnement et principes fondamentaux des technologies d’IA
L’intelligence artificielle (IA) repose sur des algorithmes capables d'apprendre à partir de données, sans instructions explicites, pour effectuer des tâches spécifiques.
Le Machine Learning (ML) utilise des techniques statistiques pour inférer des modèles à partir de jeux de données massifs. Les principaux paradigmes incluent l’apprentissage supervisé (avec des données annotées), non supervisé (sans étiquettes) et par renforcement (à partir d’un système de récompense).
Le deep learning (DL), branche du ML, s’appuie sur des réseaux de neurones artificiels empilés sur plusieurs couches — appelés réseaux profonds — pour apprendre des représentations complexes. Ce fonctionnement s’inspire de la structure biologique du cerveau humain, bien que de façon très abstraite. J'avais étudié les réseaux de neurones à lafin des années 90, pour créer les premiers logiciels de GPS, qui deviendront plus tard les applications GPS totalement intégrées à notre quotidien.
Les modèles de langage de grande taille (LLM), comme GPT-3 ou GPT-4, sont entraînés sur des corpus textuels géants, comprenant des livres, articles scientifiques, sites web, dialogues, et bien plus.
Grâce à des milliards de paramètres, ils peuvent générer du texte cohérent, traduire, résumer ou répondre à des questions, avec une fluidité impressionnante. Mais leur fonctionnement reste largement probabiliste : ils prédisent le mot le plus probable dans une séquence donnée, sans réelle compréhension sémantique.
On voit là d'ores et déjà une première limite.
Dans une perspective permaculturelle, qu'est-ce que cette première limite dit des humains utilisateurs ?
Usages concrets et bénéfices significatifs de l’IA dans la société
L’IA est déjà à l’œuvre dans de nombreux secteurs stratégiques.
En médecine, elle permet de détecter des maladies à partir d’imageries (radiographies, IRM) avec des performances parfois supérieures à celles des spécialistes. Des outils comme IBM Watson for Oncology assistent les oncologues en analysant des milliers d’études cliniques pour recommander des traitements personnalisés.
Toutefois se basant sur des modèles statistiques et mathématiques, l'erreur reste présente et possible.
Dans les transports, l’IA optimise les itinéraires, gère les flux de circulation en temps réel, et pilote les véhicules autonomes de niveau 3 à 5 (Tesla, Waymo).
Avec la limite que l'on connaît par exemple chez Tesla, qui malgré les promesses de commercialisation de taxi autonomes n'arrive pas encore à commercialiser réellement les véhicules et leurs automatismes.
En finance, elle évalue le risque crédit, détecte les fraudes en temps réel et automatise le trading algorithmique.
On observe là encore l'incapacité des humains à pouvoir prendre leurs propres décisions.
L’agriculture de précision utilise des capteurs et des systèmes d’IA pour optimiser les apports en eau et en fertilisants, tout en réduisant l’impact environnemental. Toutefois l'IA n'intègre pas encore la conception et l'évolution circulaire de l'écosystème, permettant de le rendre plus fort et résilient.
Dans l’éducation, des plateformes adaptatives comme Khan Academy, Coursera ou Century Tech personnalisent les parcours pédagogiques.
Le cabinet PwC (2017) estime que l’IA pourrait contribuer à hauteur de 15 700 milliards de dollars au PIB mondial d’ici 2030, avec un impact significatif sur la productivité, la consommation et la redéfinition des métiers.
Limites et enjeux actuels des technologies de l’IA
Les limites de l’IA ne sont pas simplement techniques ; elles sont aussi sociales, éthiques, environnementales et philosophiques. L’un des écueils majeurs réside dans les biais algorithmiques : si les données d’entraînement sont biaisées (ce qui est presque toujours le cas), les prédictions ou recommandations le seront aussi. Des exemples abondent : des IA de recrutement discriminant les femmes, des algorithmes de notation pénale renforçant les inégalités raciales, etc.
Sur le plan écologique, l’entraînement des modèles LLM représente une consommation énergétique colossale. L’étude menée par Strubell et al. (2019) à l’Université du Massachusetts montre qu’un modèle de NLP de type BERT ou GPT-3 peut générer plus de 284 tonnes de CO2, soit l’équivalent de 5 voitures sur toute leur durée de vie.
L’opacité des modèles (« boîtes noires ») pose un problème de transparence : il est souvent impossible de comprendre pourquoi une IA a pris une décision donnée. Enfin, la concentration du pouvoir technologique entre les mains de quelques entreprises (GAFAM, Baidu, Alibaba) rend difficile un accès équitable et démocratique à ces outils.
Perspectives vers une IA plus responsable et durable
Face à ces limites, plusieurs pistes sont envisagées pour orienter l’IA vers un avenir éthique. Le concept d’IA explicable (XAI – Explainable AI) vise à rendre les modèles intelligibles pour les utilisateurs finaux. Les régulateurs européens travaillent actuellement sur l’AI Act, une proposition de régulation qui classifie les systèmes d’IA par niveau de risque (minimal, limité, élevé, inacceptable) et prévoit des obligations spécifiques selon leur usage.
D’autres initiatives, comme le mouvement Green AI (Schwartz et al., 2019), appellent à une réduction de l’empreinte écologique en favorisant l’efficacité énergétique et la réutilisation des modèles pré-entraînés. L’IA décentralisée (via la blockchain ou le edge computing) pourrait limiter la concentration des pouvoirs et améliorer la confidentialité des données.
Enfin, des approches transdisciplinaires, intégrant philosophie, sociologie, droit et éducation, sont nécessaires pour réencadrer les finalités de l’IA. Car la question n’est pas seulement « ce que l’IA peut faire », mais bien « ce que nous voulons en faire ».
Construire un futur numérique responsable ?
Face à ces limites, plusieurs pistes sont envisagées pour orienter l’IA vers un avenir éthique. Le concept d’IA explicable (XAI – Explainable AI) vise à rendre les modèles intelligibles pour les utilisateurs finaux. Les régulateurs européens travaillent actuellement sur l’AI Act, une proposition de régulation qui classifie les systèmes d’IA par niveau de risque (minimal, limité, élevé, inacceptable) et prévoit des obligations spécifiques selon leur usage.
D’autres initiatives, comme le mouvement Green AI (Schwartz et al., 2019), appellent à une réduction de l’empreinte écologique en favorisant l’efficacité énergétique et la réutilisation des modèles pré-entraînés. L’IA décentralisée (via la blockchain ou le edge computing) pourrait limiter la concentration des pouvoirs et améliorer la confidentialité des données.
Enfin, des approches transdisciplinaires, intégrant philosophie, sociologie, droit et éducation, sont nécessaires pour réencadrer les finalités de l’IA. Car la question n’est pas seulement « ce que l’IA peut faire », mais bien « ce que nous voulons en faire ».
Sources
· PwC (2017). Sizing the prize – https://www.pwc.com/gx/en/issues/data-and-analytics/publications/artificial-intelligence-study.html
· Stanford University (2023). AI Index Report – https://aiindex.stanford.edu/report/
· Université du Massachusetts (2019). Strubell et al. – https://arxiv.org/abs/1906.02243
· MIT Technology Review. Dossier IA – https://www.technologyreview.com/topic/artificial-intelligence/
· European Commission. AI Act Proposal – https://artificialintelligenceact.eu/
· Schwartz et al. (2019). Green AI – https://arxiv.org/abs/1907.10597
