Intelligence artificielle : le risque d’une humanité reléguée au second plan

Le développement rapide de l’intelligence artificielle pose une question qui dépasse largement les enjeux technologiques. Il interroge directement notre rapport à l’humain. Pour Patrick Chastenet, professeur émérite à l’université de Bordeaux, le danger principal n’est pas la machine elle-même, mais le statut quasi sacré que nos sociétés lui accordent désormais. En s’appuyant sur la pensée de Jacques Ellul, il rappelle que « ce n’est pas la technique qui nous asservit, mais le sacré transféré à la technique ». L’intelligence artificielle apparaît ainsi comme l’aboutissement d’un monde devenu intégralement technicisé, où l’efficacité tend à s’imposer comme norme absolue.

L’IA ne se limite pas à un ensemble d’outils ou d’algorithmes. Elle incarne une logique globale, celle de la recherche systématique de la méthode jugée la plus performante. Dans ce cadre, l’utilisateur n’est plus maître de la technique, mais tend à en devenir le serviteur. Cette inversion du rapport homme-machine conduit à une forme de dépossession. L’humain est progressivement perçu comme imparfait, faillible, tandis que l’algorithme est présenté comme infaillible. Le constat ancien selon lequel « l’erreur est humaine » se voit vidé de sa portée éthique, au profit de l’idée que le calcul aurait toujours raison.

En soumettant les individus à une succession de signaux numériques, l’intelligence artificielle affaiblit leur capacité d’initiative et de jugement personnel. La spontanéité, l’intuition et la responsabilité individuelle sont reléguées au second plan. Ce mouvement s’accompagne d’un pouvoir d’injonction croissant accordé aux systèmes automatisés, justifié par leur prétendue capacité à appréhender le réel de manière plus fiable que l’humain. Ce pouvoir se renforce à mesure que progressent les technologies, mais aussi à mesure que les sociétés acceptent de s’en remettre à elles.

Cette dynamique s’inscrit dans un processus plus large de technicisation des sociétés. L’obligation permanente de s’adapter, la vitesse du changement et la pression à l’optimisation produisent déjà des effets mesurables sur le plan social et psychologique. Sentiment d’impuissance, stress, découragement et troubles mentaux se multiplient. L’intelligence artificielle, loin d’atténuer ces tensions, risque de les accentuer et de créer de nouvelles fractures sociales.

L’IA investit en priorité des domaines sensibles comme la sécurité et la santé. La reconnaissance faciale progresse dans les usages policiers, parfois en contournant les cadres réglementaires. Dans le champ médical, certains discours transhumanistes promettent d’abolir la maladie, voire la finitude humaine. Cette quête de perfection rappelle l’avertissement de Pascal selon lequel vouloir faire l’ange conduit à faire la bête. La technique, lorsqu’elle prétend résoudre tous les problèmes, tend à produire ses propres dérives.

Pour légitimer son rôle normatif, l’intelligence artificielle adopte des formes anthropomorphiques. Les robots conversationnels imitent le langage et les comportements humains, donnant l’illusion d’une substitution possible. L’IA générative externalise des capacités fondamentales comme l’écriture, la création ou l’imagination. Si ces fonctions sont progressivement déléguées aux machines, la question de la singularité humaine se pose avec acuité.

Parallèlement, une réalité chiffrée et modélisée s’impose à côté du monde concret. Elle prétend en offrir une maîtrise totale, au risque de faire de l’humanité une espèce surnuméraire. Patrick Chastenet voit dans cette évolution la confirmation des analyses formulées par Ellul dès le milieu du XXe siècle, rationalisation de l’existence, automatisation généralisée, auto-accroissement de la technique et domination d’un principe d’efficacité devenu norme universelle.

Face à une intelligence artificielle qui promet un monde sans limites, et à des élites technologiques convaincues que tout est possible, la capacité humaine à se fixer des bornes apparaît fragilisée. Pour éviter que l’IA ne devienne l’expression d’une bêtise collective, Patrick Chastenet plaide pour une désacralisation de la technique. Reprenant une interrogation formulée par George Orwell, il invite à se demander, devant chaque progrès, s’il nous rend plus humains ou moins humains. Et à refuser de devenir l’instrument de nos instruments.

Source : La Croix

******

Du lundi au vendredi, Bruno Guglielminetti vous propose un regard sur l’essentiel de l’actualité numérique avec 120 secondes de Tech.

Ou encore…

Écoutez la plus récente édition de Mon Carnet,
le magazine hebdomadaire de l’actualité numérique.


En savoir plus sur Mon Carnet

Subscribe to get the latest posts sent to your email.

4 commentaires

  1. Merci pour cet article très pertinent qui nomme la principale préoccupation anthropologique que nous devons assumer. Allons nous devenir l’instrument de nos instruments ? J’ai hâte que la bulle explose.

  2. J’aime suis vos chroniques régulièrement. Je les trouve essentielles afin de mieux comprendre l’évolution de l’intelligence artificielle. Je note cependant que pour éveiller l’attention du lecteur vous utilisez apparemment des images générées par l’IA, ce qui à mon avis manque de cohérence face aux idées qui y sont défendues ou exposées.

    • Merci pour votre message et pour votre fidélité.

      La question des images générées par l’IA fait partie intégrante des enjeux que j’aborde dans mes chroniques. Leur utilisation n’est pas décorative, mais volontairement assumée comme un objet d’observation et de questionnement. Elles servent à illustrer un phénomène en cours, pas à le promouvoir ni à le banaliser.

      Mon travail consiste à analyser les usages réels des technologies numériques, y compris lorsqu’ils soulèvent des contradictions, des inconforts ou des débats légitimes. Utiliser ponctuellement des images générées par l’IA permet aussi de montrer concrètement ce que ces outils produisent aujourd’hui et comment ils s’insèrent déjà dans nos pratiques médiatiques.

      Cela dit, votre remarque est pertinente et fait écho aux tensions actuelles entre cohérence éditoriale, pédagogie et choix de représentation. Ce sont précisément ces tensions que j’essaie de rendre visibles.

      Merci d’avoir pris le temps de les soulever.

  3. Merci beaucoup pour votre réponse ça m’aide à comprendre votre impressionnant travail avec vos invités ça m’aide à mon apprentissage. Bonne soirée

Laisser un commentaire