Le post 83 disait en guise d’introduction : Notre intuition spirituelle transcendera toujours ce qu’il est convenu d’appeler l’intelligence artificielle (I.A.). Car notre caractéristique distinctive d’être humain est liée à notre filiation divine. Le Créateur nous a donné la capacité de parler, d’aimer avec notre âme, notre esprit et notre corps, de faire des choix libres. Ces facultés dont les machines sont incapables distinguent la pensée humaine, individuelle et collective.
Certains humains développeront leur âme et leur intelligence spirituelle pour tendre vers le sublime, d’autres se réduiront à un esprit agité et à un corps insatiable, prisonnier de ses convoitises et plaisirs fugaces et oublieront leur qualité transcendante. La masse de l’humanité se situera entre les deux.
Une petite minorité déterminée à accomplir le Bien sera un catalyseur positif pour les générations à venir. Le monde du futur mutera avec des conséquences qu’il nous est difficile d’anticiper. Mais la spécificité humaine persistera et permettra à l’humanité de maîtriser les défis posés par l’outil de l’I.A.
Pour approfondir ce sujet complexe dont j’ignore presque tout, ce post présente un dialogue avec trois X de ma promotion qui se sont intéressés à l’IA sous des angles divers. En cinquante ans, nous avons tous suivi des itinéraires très différents, ce qui rendra notre dialogue enrichissant. Ce post prépare aussi notre réunion de promotion de septembre où votre blogueur espère que pourront être organisés des débats interactifs sur ce sujet d’actualité, l’IA et sur un sujet spirituel (Créateur unique ? Religions multiples !)
1 Intelligences humaines, langage mental et IA forte
AB : L’intelligence humaine est individuelle et collective (post 51). Un QI individuel ne mesure que certaines capacités de l’intellect. Un gros QI peut s’accompagner d’une intuition rabougrie ou d’une faible intelligence émotionnelle, relationnelle et spirituelle, indépendantes l’une de l’autre et développées pendant le parcours de vie de chacun.
JLJ : Il est clair que la « mesure du QI », simple quotient probabiliste, ne peut pas refléter toutes les composantes de l’intelligence humaine. Les tests de QI consistent surtout à « deviner » les termes suivants d’une série de nombres ou de figures, ce qui mobilise un intellect mathématique ou logique. Ces tests mesurent donc surtout l’aptitude basique au raisonnement par déduction, induction ou abduction.
Ceci nous amène tout de suite au thème de l’IA. Pour certains penseurs de cette discipline, l’intelligence, c’est la prédiction. Les programmes d’IA « connexionniste » (basée sur les modèles de réseaux de neurones artificiels) excellent à prédire un mot manquant dans une phrase, la face cachée d’une figure, le comportement d’un piéton par une voiture autonome, etc. Mais l’intelligence humaine comporte beaucoup d’autres composantes.
AB : Nous sommes d’accord. Jean-Loup, peux-tu développer ta pensée ?
JLJ : Pour moi, l’intelligence humaine n’est pas la prédiction, mais la compréhension, et surtout l’intercompréhension. Celle-ci consiste, pour le sujet pensant, à construire grâce à autrui, par imitation non-verbale ou par dialogue verbal, un « théâtre intérieur ». Celui-ci est formé de scènes du monde réel ou d’un monde imaginaire.
Les éléments de ce théâtre intérieur sont des perceptions et des actions, animées en des scènes. Les scènes sont affectées d’un jugement (est-agréable, est-effrayant, etc.). Par abstraction, les scènes deviennent des verbes, des concepts, des personnages. Toutes ces formes mentales sont stockées dans la mémoire individuelle que je nomme « texte mental ». C’est le vrai trésor du sujet : elle définit son individualité propre et son vécu.
Le moteur du théâtre intérieur est constitué par les désirs du sujet pensant. Tous ces mécanismes sont communs à l’humain et à l’animal dit supérieur, mais ils sont étrangers à l’IA connexionniste actuelle.
AB : Tu parles de construire grâce à autrui, donc de l’intelligence collective que les humains peuvent développer bien au-delà des animaux qui doivent se contenter d’échanges non verbaux dans des groupes limités concentrés sur leur survie, nourriture et reproduction. La Parole nous dit “l’homme est corps, esprit et âme”. Ton analyse se situe ici au niveau de l’esprit, mais pas de l’âme. Il est vrai que ce mot a des sens très variables, nous y reviendrons.
Une IA surpuissante puise à une vitesse inaccessible à l’esprit de l’homme dans une quantité illimitée de données. Décalage quantitatif ou saut qualitatif ?
JLJ : Je distinguerai trois degrés dans ce décalage entre l’humain et l’IA.
Le premier degré, l’IA faible, est constitué des programmes qui rivalisent avec l’humain dans certains domaines de l’intellect, parfois prestigieux : jeu d’échecs, jeu de go, programmation d’un algorithme dans un certain langage, etc. On sait que ce stade est atteint et souvent dépassé depuis une vingtaine d’années.
Le second degré, l’IA générative, consiste à regrouper en une entité unique, capable de dialoguer avec l’humain, toutes les capacités de l’IA faible, dans tous les domaines. Cette IA passe aisément le célèbre test de Turing, qui rend indiscernable l’interlocuteur informatique de l’interlocuteur humain. Elle est capable de créer, non seulement des textes (en jonglant avec les langues et les langages), mais aussi des images et des vidéos. J’estime que ce stade est atteint depuis quelques années, grâce aux programmes tels que Chat GPT ou Grok, qui remportent un grand succès auprès du grand public et des entreprises.
Le troisième degré, l’«IA forte », consisterait à modéliser et à simuler l’intellect humain, non seulement dans ses résultats, mais dans son fonctionnement. Ceci comprendrait les mécanismes que j’ai cité précédemment : perceptions/actions, scènes, jugements, abstraction, mémoire individuelle, désirs, personnages. J’estime que nous en sommes encore loin.
Tu as raison de mentionner la quantité illimitée de données représentée par le Web et les réseaux sociaux. C’est cela qui alimente le deep learning qui assure la redoutable efficacité de l’IA générative. Mais le vrai saut qualitatif sera de passer au troisième degré (IA forte).
AB : Donc, au deuxième degré, l’IA propose à l’humain un interlocuteur virtuel (logiciel) ou physique (robot) mais le troisième stade de l’IA est purement spéculatif ?
JLJ : Les outils actuels de l’IA sont-ils capables de réaliser ce saut ? Yann Le Cun, l’un des pontifes de l’IA, pense que non. Il mentionne la nécessité d’explorer de nouvelles approches architecturales, loin de la simple génération de tokens, pour modéliser l’espace, la temporalité, la causalité. Sur la date à laquelle pourrait émerger une intelligence de niveau humain, il pense que cela prendra probablement plusieurs années, voire plus d’une décennie.
Comprendre le monde physique, avoir une mémoire persistante, être capable de raisonner, de planifier et de planifier des actions complexes, en particulier de planifier de manière hiérarchique définit selon lui l’intelligence humaine comme modèle pour l’IA forte.
Ce point de vue qualifié rejoint nos réflexions du post 103 sur le langage mental humain.
AB : Effectivement, la perception sensorielle du monde physique par un robot est très réduite par rapport à celle de nos corps en vie. Notre camarade Michel Galiana, partenaire de dialogue du post 102, a publié un article sur le défi que l’IA pose à l’humanité. Je le cite : l’IA est faite d’algorithmes conçus par l’homme, mais ces algorithmes ne sont plus des suites d’instructions écrites pour programmer mécaniquement des tâches prédéterminées et les mener à bien. Ils font tout autre chose : ils construisent des réseaux neuronaux conçus et entraînés à « penser par eux-mêmes ». Nous risquons d’être pris de vitesse. Qu’en pensez-vous ?
JLJ : Antoine, permets-moi de revenir un instant à ton propos initial : « Le Créateur nous a donné la capacité de parler, d’aimer, de faire des choix libres. Ces facultés dont les machines sont incapables distinguent la pensée humaine, individuelle et collective. » Je ne suis pas tout à fait d’accord, ni avec toi, ni avec Michel.
Pour moi, les machines équipées d’IA « forte », quand elles existeront, seront capables de « parler, d’aimer et de faire des choix libres ». Mais ce n’est pas le cas de l’IA générative actuelle. Celle-ci sait apprendre, certes, mais ses connaissances reflètent les immenses données disponibles sur Internet. Elle ne pense pas par elle-même.
AB : Les choix libres supposent une autonomie de la pensée nourrie de nos perceptions. Dans nos interactions humaines, nous aimons avec notre corps et ses perceptions, avec notre esprit et son intellect et ses émotions, et avec notre âme, le pont vers le sublime auquel seuls les humains ont accès. L’interaction entre humains et machines ou entre machines sera toujours à mille lieues de cette richesse !
Michel ajoute : « il y a quelques années, Facebook avait créé une expérience où deux robots fabriquaient leur propre langage. En peu de temps, ils en avaient inventé un, très sophistiqué et incompréhensible pour l’Homme. Les chercheurs avaient interrompu l’expérience pour ne pas jouer aux apprentis sorciers. l’IA, comme celle de ChatGPT, commence à se délocaliser de façon opaque dans le cloud. Elle va très vite se propager à tous les services auxquels le monde entier se relie spontanément. Alors, dans un contexte ainsi distribué, qui débrancherait quoi et où ? Il faudra certainement vivre avec !
JLJ : L’anecdote amusante que tu cites montre simplement que les IA actuelles sont déconnectées du Réel (le vrai Réel, « celui qui se rappelle à nous quand on se cogne », comme disait Lacan). Deux IA mises face à face pour discuter ou négocier auront tendance à optimiser leurs échanges et à les accélérer, comme le font tous les programmes de télécommunications. Mais le résultat peut n’avoir aucun rapport avec le Réel !
AB : Là, nous sommes d’accord.
JLJ : Au-delà de l’anecdote, je ne trouve pas très inquiétante cette « propagation ». Nous luttons tous les jours contre les virus et les cyber-attaques. Et l’opacité existe déjà. Il faudra simplement maîtriser des adversaires plus malins et plus vicieux que ceux d’aujourd’hui. Mais, n’étant pas expert en cybersécurité, je peux me tromper sur la réalité de la menace !
AB : Dans le dialogue approfondi du post 103, tu nous a exposé ta théorie innovante du langage mental qui serait commun à toute l’humanité et permettrait à nos langages naturels de se développer. Les mammifères supérieurs ont un réseau neuronal complexe, et les races d’homo qui nous ont précédés aussi, mais seul l’homo sapiens peut maîtriser nos langages naturels diversifiées depuis les temps adamiques. Que penses-tu de la protection que nous offre cette capacité humaine face aux risques associés aux progrès des machines ?
JLJ : Tu poses le problème des « frontières » : entre l’humain et l’animal, et entre l’humain et la machine. Le « langage mental » que je propose est en partie commun à l’animal et à l’homme, et, comme tu le rappelles, c’est la branche linguistique qui nous distingue de nos cousins animaux. En revanche, si nous sommes confrontés à des machines munies d’un langage mental équivalent au nôtre, je ne vois aucune « protection » contre elles : elles parleront français aussi bien que nous, et même mieux !
AB : En parlant de nos cousins animaux, tu es dans le cadre mental de ceux qui voient en nous une espèce animale comme une autre. Certains vont même plus loin en considérant que leur chien est davantage capable d’aimer que les humains et de dialoguer, ils ne se lassent pas de tenir des discours à leur chien. Je respecte cette Weltanschauung, mais j’en ai une autre. Car l’amitié qui nous relie, comme l’amour qui nous relie à nos proches, est vraiment très au-dessus de tout ce qu’on veut imaginer comme émotions animales.
JLJ : Une machine d’IA forte, dotée d’un langage mental, simulera le langage mental humain. Or, celui-ci modélise le Réel en nous. On peut donc dire que la machine exécutera une simulation de modélisation. C’est assez vertigineux…Je ne crois pas que l’homme soit « irrattrapable » par les machines d’IA forte dotées de langage mental.
AB : Simple simulation ! Parmi ces caractéristiques qui rendent l’homme irrattrapable par les machines, il y a la vie que Dieu nous insuffle. La biologie constate son inépuisable complexité.
JLJ : Et au risque de te choquer, Antoine, je crois ces machines capables de croire en Dieu, c’est-à-dire de créer et d’entretenir en mémoire une forme mentale que j’appelle « Imago Dei ». Cette forme mentale leur insufflera une morale et donnera un sens à leur vie, comme c’est le cas chez les humains croyants. Je pense même que cette Imago Dei leur sera nécessaire ! Et j’ajouterais qu’elle sera souhaitable, à condition que leur Dieu se soucie du bien de l’humanité…
AB : Rien ne me choque dans ce que tu dis, mais mon expérience du croyant n’est pas un imago. Le Dieu Immanent est aussi près de moi que ma veine jugulaire, comme dit le Coran, c’est Lui qui fait vibrer le chakra du sommet qui me relie à Lui (post 101). C’est une expérience au niveau de l’âme et pas du mental., donc transcendante par nature et à peine partageable par le langage humain. C’est la vie réelle ! Quant aux robots qui s’auto reproduisent, ce sont des fantasmes.
JLJ : En ce qui concerne l’autoreproduction des robots, je ne vois pas non plus d’impossibilité, ni de « fantasme ». Dans le monde des machines, la reproduction à l’identique du logiciel et des données est plus facile que dans le monde humain. Quant à la reproduction du matériel, elle n’est qu’un problème industriel. Chez les machines, l’immortalité est bien plus facile à concevoir que chez les humains !
AB : Encore faudrait-il avoir inventé la machine à mouvement perpétuel et un accès à des ressources matérielles et des énergies inépuisables !
Nos émotions sont indissociables de notre vie au niveau de notre corps physique, de notre esprit et de notre âme. Les agents conversationnels et robots les plus sophistiqués pourront simuler mais n’abuseront que les faibles d’esprit et d’âme. Il faudra exercer notre solidarité entre humains pour protéger les plus fragiles.
JLJ : Tu as raison, nous restons dans le domaine de la simulation : selon moi, le langage mental a pour mots les perceptions et actions élémentaires, assorties d’un jugement tel que « est-agréable » ou « est-déplaisant ». Mon ami robot n’a pas les mêmes perceptions, actions, jugements, que moi. Si je veux le comprendre, et qu’il me comprenne, je dois établir des équivalences, ou plutôt des isomorphismes, entre ses sensations et les miennes. J’appelle cela l’empathie.
AB : Je vois que j’ai de la concurrence au niveau de l’amitié, mais la vraie amitié n’est jamais exclusive 🙂
JLJ: Remarquons que ce phénomène d’empathie existe déjà entre nous, les humains. Par exemple, un homme et une femme n’ont pas les mêmes organes, ni les mêmes hormones. Les mots de notre langage mental sont donc, en partie, différents. Mais grâce aux isomorphismes, nous nous comprenons quand même… presque toujours.
AB : J’avoue que j’ai du mal à limiter à des “isomorphismes” ma relation conjugale. Je pense que tu forces un peu le trait dans cet échange, puisque tu n’hésites pas à parler de la patience angélique de ton épouse quand tu as conçu et écrit ton livre…
2 – Opportunités pour les Jeunes et le Vietnam
AB : Phac, dans nos échanges préalables, tu as évoqué plusieurs pistes liées à ton origine vietnamienne. Je crois que les utilisations les plus prometteuses de l’IA sont celles focalisées et orientées vers le Bien par ceux qui en piloteront la mise en œuvre.
PLT : Effectivement, la mission que je me suis donnée pour les années actives qui me restent, c’est de contribuer à l’essor économique du Vietnam avec l’approche dite du servant leadership, parce que le Vietnam est parmi les pays les plus menacés par le changement climatique.
J’accompagne donc les jeunes (et moins jeunes) entrepreneurs en ClimateTech ayant des attaches avec le Vietnam (voire avec le Vietnamese Spirit, que je définirai séparément un jour, et qui transcende l’ethnicité). Les technologies les plus prometteuses pour attaquer les problèmes complexes du changement climatique vont certainement dépendre des progrès de l’IA.
AB : Tu as aussi développé ta pratique spirituelle à partir des traditions asiatiques, ce qui peut impacter positivement notre santé.
PLT : Mon cheminement personnel avec le Qi Gong m’a amené à développer une pratique de respiration que j’appelle “Longevity Breathing”. J’ai commencé à écrire des blogues sur le sujet, mais cela reste un travail en cours, pas un produit fini.
L’idée de base, c’est que la respiration volontaire peut changer les chemins neuronaux du cerveau. Avec l’âge, la capacité la plus importante à préserver est dans les aspects cognitifs (cognitive resilience, cognitive reserve, cognitive compensation). Ceci m’a amené à m’intéresser à la neuroscience, la composante hardware de la psychologie, et l’inspiration fondamentale derrière les technologies de l’IA.
AB : Les neurosciences progressent très rapidement et nous apprendront beaucoup. Tu as aussi réfléchi sur les sujets éthiques ?
PLT : Instigué par Hervé de Tréglodé, j’ai écrit un article sur les aspects éthiques de l’IA dans l’Éducation pour la revue de l’Académie de l’Éthique.
AB : Tu continueras ton travail d’auteur ?
PLT : Je travaille aussi sur un article sur le rôle de l’IA dans l’essor économique du Vietnam.
AB : Donc, en focalisant ton attention sur le Vietnam, tu vois surtout des opportunités associées à l’essor de l’IA. Y a-t-il des menaces qui te préoccupent ?
PLT : Plutôt que d’envisager des menaces, je préfèrerais parler des défis (challenges) posés par l’IA. En effet, l’IA n’a pas de conscience, et plus précisément de volition. Les dangers occasionnés par l’IA viennent des hommes qui vont vouloir s’en servir pour mener à bien leurs objectifs, qui peuvent être néfastes pour les autres.
AB : Très juste !
PLT : Le problème revient donc à dire que l’IA nous pose un premier défi majeur: comment accompagner son essor tout en développant des garde-fous pour limiter l’efficacité et/ou l’attrait des usages à but néfaste? Les questions subsidiaires sont nombreuses:
- Comment réguler sa complexité et ses capacités croissantes sans risquer de bloquer une évolution qui pourrait sauver l’humanité? Le changement climatique va nécessiter une IA bien plus puissante que celle que nous connaissons aujourd’hui. Par exemple, comment empêcher un certain papillon de virevolter de telle façon qu’il ne génère pas un cyclone destructif de l’autre côté de l’océan (d’après la théorie du chaos)?
- Comment savoir à l’avance sans erreur si un but annoncé est néfaste ou pas? L’imagination des escrocs humains est mathématiquement illimitée, et il y aura toujours au moins un petit malin qui trouvera le moyen de créer du faux indistinguable pour un certain temps du vrai pour commettre son crime.
- S’il n’est pas possible d’empêcher tous les usages néfastes de la technologie, comment en dissuader les escrocs potentiels? Dans mon article sur l’éthique, j’ai proposé d’alourdir automatiquement d’un facteur multiplicatif les peines pour des crimes commis avec l’aide de l’IA.
AB : Pour les esprits résistant à l’informatique comme le mien, s’adapter avec beaucoup de retard à ces changements rapides est un défi personnel. Je n’ai jamais voulu utiliser Chap GPT pour écrire sur ce blog, et voilà que notre camarade Hervé me dit être un utilisateur satisfait de Deep Seek ! Mais grâce à toi, j’ai appris à utiliser G Doc pour notre dialogue.
PLT : Un autre défi majeur est la nécessité de combattre les mythes liés à l’IA, trop facilement instigués par l’hyperbole du marketing des vendeurs, et qui rendent les naïfs numériques, dont les générations glorieuses du siècle passé, encore plus faciles à duper.
Pour les jeunes générations, et aussi pour les pays à revenu intermédiaire (middle-income countries) comme le Vietnam, le défi est de saisir l’opportunité de cette vague montante pour acquérir un meilleur contrôle de leur futur.
Les bénéfices de l’IA ne vont pas toucher toutes les générations ni tous les pays de la même façon. Cela va dépendre de la façon d’accueillir cette révolution. On peut soit être anxieux de ses risques, soit chercher à mieux la comprendre en profondeur et s’en servir pour mieux faire ce qu’on sait déjà assez bien faire.
L’IA est avant tout un outil multiplicatif, un peu comme le levier d’Archimède dont la puissance est virtuellement illimitée si on sait s’en servir. C’est aussi un outil cher à acquérir, et donc si l’objectif est simplement de gagner 20% ou même 50% en performance, il ne serait peut-être pas judicieux de faire appel à de l’IA sur mesure.
Un système à base d’IA pour résoudre un problème spécifique d’entreprise est en général de 2 à 5 fois plus cher à développer qu’une application classique de base de données. Maintenir un système d’IA personnalisé en état de marche pour en corriger les bogues et les hallucinations (nouvel euphémisme pour des erreurs très convaincantes et très difficiles à corriger) peut être jusqu’à 10 fois plus cher qu’avant. Les ingénieurs experts en IA peuvent exiger des salaires bien supérieurs aux ingénieurs en logiciel plus classique.
AB : N’oublie pas ce que j’avais appris au tout début de ma carrière d’analyste stratégique avec le Boston Consulting Group : par effet d’expérience, les coûts baissent à un rythme d’autant plus rapide que la croissance est forte, ce qui est le cas de l’IA. A ceci s’ajoutent les ruptures de continuité dans la logique des coûts qu’apportent les changements de concept, ce qu’illustre l’effondrement brutal du coût du million de tokens entre Chat GPT et Deep Seek, passé de 60$ pour le logiciel propriétaire de l’américain OpenAI à 1,1 pour le chinois. Le français Mistral est à 6.
3 La conduite autonome, perspectives en Chine, aux USA et en France
AB : Hervé, tu m’as souvent parlé de ton travail sur les applications de l’I.A. pour la conduite autonome. Peux-tu nous dire pourquoi c’est un sujet important et prometteur ?
HdT : Appliquée aux transports routiers, l’intelligence artificielle (IA) s’apprête à bouleverser les déplacements des voyageurs sur les routes et dans les rues en tout continent. Pour le plus grand bien de l’humanité. Les robotaxis sont, en effet, en voie de révolutionner les transports en Chine et aux États-Unis. D’abord dans les villes. Près de 3 000 de ces taxis sans conducteur y circulent déjà en exploitation commerciale. Ainsi les robotaxis de Waymo accomplissent-ils maintenant 250 000 courses payantes chaque semaine aux États-Unis. Ainsi le chinois Baidu Apollo, avec ses 1 000 robotaxis à Wuhan, s’attend-il à y équilibrer ses comptes en 2025 pour la première fois. Comme toute l’Europe, la France est en grand retard, s’agissant de l’autonomie de conduite au niveau 4, le niveau des véhicules pouvant circuler sans conducteur dans son « domaine de conception opérationnelle ».
AB : La domination des deux géants économiques est-elle écrasante ?
Hdt : Ils concentrent le plus gros des investissements depuis une dizaine d’années : plus de 100 milliards d’euros. Des entreprises comme Waymo (filiale d’Alphabet), Baidu Apollo et Pony.ai exploitent déjà des flottes de plusieurs centaines de voitures. Leurs résultats sont excellents au regard de la sécurité. Par exemple, les robotaxis de l’américain Waymo ont 81 % d’accidents avec airbag déclenché en moins, par rapport aux véhicules manuels ; le chinois Baidu Apollo assure que ses véhicules autonomes sont dix fois plus sûrs.
Ces succès s’expliquent par :
– un soutien tenace et ambitieux des autorités locales et des investisseurs privés,
– une réglementation flexible (auto-certification au lieu de réception par type) qui favorise l’innovation tout en assurant une haute sécurité,
– un grand marché bien mieux unifié,
– une population qui, le plus souvent, accueille avec enthousiasme les nouvelles technologies, notamment d’origine nationale.
AB : Leur expérience, déjà significative, permet-elle d’évaluer les bénéfices et les risques des robotaxis ?
HdT : Les bénéfices des robotaxis sont multiples et solides.
· Sécurité routière : l’IA ne commet pas les erreurs et fautes hélas ! si communes aux conducteurs humains, celles dues à la fatigue, la distraction, la consommation d’alcool, etc. ; et l’IA conjure tout danger sur la route en seulement quelques dizaines de millisecondes
· Socio-économie : le coût par kilomètre pourrait diminuer de 80 % avant 2035, ce transport bon marché deviendra de plus en plus populaire, la mobilité sera plus inclusive
· Écologie : le nombre de voitures particulières diminuera de beaucoup (30 % ? 50 % ?), la motorisation sera toujours électrique, de grands espaces en ville seront libérés des aires de stationnement
AB : Quelle est la situation en Europe sur la conduite autonome pilotée par I.A.
Hdt : Contrairement à la Chine et aux États-Unis, l’Europe privilégie les robobus, et surtout les robonavettes. Car les avantages écologiques des robotaxis lui paraissant trop faibles, et les inconvénients trop forts. S’appuyant aussi sur une réglementation exigeante et un marché fragmenté, cette orientation politique freine, ou empêche même l’exécution commerciale des projets.
Pourtant, des initiatives commencent à surgir en Europe. C’est grâce, notamment, à de bonnes coopérations avec des entreprises américaines ou chinoises : le chinois WeRide associé à Renault en France, WeRide associée au canton de Zurich et aux CFF (Chemins de fer fédéraux suisses) en Suisse, le chinois Pony.ai associé au groupe Émile Weber au Luxembourg, l’américain Mobileye pour des robotaxis en Allemagne (projet KIRA dans la région Rhin-Main), etc. Et bientôt certains s’installeront en Europe : Waymo, Zoox (filiale d’Amazon), Tesla, Uber et autres sociétés américaines.
AB : Que recommandes-tu pour l’Europe ?
HdT : Pour rattraper son retard, l’Europe doit :
· combler le fossé technologique au regard des intelligences artificielles (IA) qui permettent l’autonomie de conduite au niveau 4 (sans conducteur),
· faciliter l’application des règlements européens, à dessein de hâter les R & D et les déploiements à grande échelle,
· mobiliser les financements publics, et surtout privés,
· persuader les collectivités territoriales des grands bienfaits sociétaux et écologiques des robotaxis, et pas seulement des bus, minibus et navettes autonomes,
· veiller à la bonne complémentarité entre les bus, taxis et VTC d’un côté, les robotaxis et les robonavettes de l’autre,
· faire réussir les premières coopérations internationales, étape nécessaire avant d’accéder à la souveraineté nationale, comme il en a été autrefois en France, entre autres, avec le transport ferroviaire (au XIXe siècle) et l’énergie nucléaire (au XXe siècle).
AB : Y a-t-il urgence à agir ?
HdT : La révolution des robotaxis est inéluctable et imminente. Pour ne plus être à la remorque de la Chine et des États-Unis, les pays européens et l’Union européenne doivent soutenir une stratégie audacieuse, combinant innovation, audace, régulation agile et investissements massifs. Sans nul doute, la France et l’Europe ont tous les ingénieurs et les moyens pour réussir cette transition dans les cinq ans à venir.
L’autonomie de conduite régira bientôt les quatre cinquièmes des transports terrestres. Un jour, les voitures manuelles, trop dangereuses, seront interdites sur les voies publiques. À l’Europe de saisir sans attendre cette opportunité historique ! Aux ingénieurs engagés dans les télécommunications et les intelligences artificielles de faire briller la France !
AB : La France est malheureusement connue pour le chaos semé par des grévistes, et la récente grève des taxis ne peut que renforcer l’intérêt de l’opinion publique française pour des solutions qui contournent les monopoles ou privilèges. Certains commentateurs sur les médias dénoncent en particulier les transports de santé au frais de la Sécurité Sociale, parfois abusifs avec la complicité des malades qui ont d’autres solutions que le taxi. Ils disent que ce système a fait de certains chauffeurs de taxi des quasi-fonctionnaires.
Je remercie de tout cœur Hervé pour sa contribution sur ce sujet qui paraît assez spécifique car il illustre très bien une opportunité incontestable apportée par l’I.A., le retard dans nos pays et la complexité des mesures à prendre. Car il faut agir à la fois sur l’opinion publique, les acteurs privés et publics à plusieurs niveaux territoriaux.
AB : Phac, résidant à l’étranger, tu vois notre situation avec un certain recul. Quelles sont les perspectives de la conduite autonome au Vietnam ?
PLT : Je réside dans la région de San Francisco, où se trouvent les pionniers de la conduite autonome. J’en ai donc l’occasion de la tester personnellement sans gros effort. Je trouve l’opportunité très prometteuse, mais j’ai aussi des doutes sur les objectifs déclarés pour le déploiement de cette technologie quand ils ne semblent pas tenir compte de l’environnement de ce déploiement.
Pourquoi? Tout d’abord, le résultat immédiat du déploiement d’une grande flotte de robotaxis dans une grande ville où il y a déjà beaucoup (trop) de voitures sera d’augmenter la congestion. Au moins 40% des robotaxis de Waymo circulent à vide la plupart du temps, en attente du prochain client. Peut-être faudrait-il des stations de robotaxis presque à tous les coins de rue pour réduire les temps d’attente et le trafic improductif.
En tant qu’usager, le principal bénéfice d’un robotaxi serait un coût très faible du trajet, pratiquement aussi peu cher qu’un ticket de métro pour un trajet urbain. En réalité, aujourd’hui, Waymo à SF peut coûter aussi cher, voire plus cher qu’un trajet Uber ou Lyft. C’est psychologiquement peu attractif de payer pour un service où aucun humain n’est visiblement impliqué. La plupart des transports autonomes auxquels nous sommes habitués aujourd’hui sont gratuits, ou très peu chers: escaliers ou tapis roulants, ascenseurs, navettes d’aéroport, etc…
Ceci signifie que les opérateurs de services de robotaxis vont avoir beaucoup de mal à être rentables avant une adoption massive. Tout service public doit être dimensionné pour les pointes d’utilisation pour la satisfaction des usagers très exigeants envers un service rendu indispensable pour obtenir une adoption massive.
Le rêve de motiver la plupart des propriétaires citadins de voitures individuelles à remplacer leurs véhicules par des robotaxis n’arrivera que quand le “tipping point” d’adoption sera atteint. Où est la barre? 50%? 70%? 90%? Difficile à dire pour des pays où la liberté individuelle est un acquis pratiquement impossible à remettre en question pour des autorités démocratiques.
Le cas du Vietnam est, bien entendu, très différent des pays européens. Il y a relativement peu de propriétaires citadins de voitures individuelles, et la plupart des usagers de robotaxis seront, au moins au départ, des touristes parlant peu la langue locale.
4 Un défi majeur : l’IA mis au service du mal
AB : Comme nous le constatons en ce début de troisième millénaire, la guerre ne s’est pas calmée et toutes les armées ont mis l’IA à leur service en fonction de leurs moyens. Parmi les guerres les plus médiatisées en Europe, il y a la guerre en Ukraine et celle menée à Gaza par Tsahal aux ordres de Netanyahou qui a répondu aux massacres du 7 octobre orchestrés par le Hamas par des massacres d’une toute autre ampleur dans une guerre asymétrique où plus de 50 000 palestiniens ont été tués principalement des civils, des femmes et des enfants.
Selon l’officier à la tête de Sigma, s’exprimant en 2018, « Tsahal introduit l’Intelligence Artificielle dans tous les domaines, de la logistique au personnel en passant par le renseignement ». P. Scharre affirme dans le LA Times du 3 novembre 2023, que « Les systèmes d’I.A. sont peu fiables en situation réelle. Sur un champ de bataille mouvant, le risque de frapper la mauvaise cible est considérable, comme en Libye et en Ukraine ». Le journaliste conclut que « l’I.A. sert à augmenter la capacité destructrice à Gaza d’un pays qui écume de rage. Les erreurs d’algorithmes sont noyées dans les brumes de la guerre ». L’I.A. permet aussi de localiser plus facilement les cibles humaines, dont des journalistes (130 ont été tués).
Le site israélien « Local Call », cité devant la CIJ, avait révélé l’utilisation du logiciel Habsora pour viser des cibles matérielles dès la campagne contre Gaza en 2021 (post 84). Depuis, un autre logiciel, Lavender s’attaque aux cibles humaines. Il en a désigné 37 000 à Gaza. Au moins 10% des cibles désignées comme terroristes par leurs conversations sur Whatsapp résultent d’une erreur de logiciel. Pour chaque bombardement avec les puissantes bombes américaines, les enquêteurs du site affirment qu’il y aurait 15 à 20 victimes civiles innocentes. Car les bombes sont lancées sur leur domicile et détruisent des quartiers d’habitation.
Le post 87 actualise le post 84. En théorie, une intervention humaine était exigée avant de laisser des robots tuer. Avec les essaims de drones et leurs capteurs, tout va très vite dans un réseau interactif de 250 drones désorientant les systèmes de brouillage. Le contrôle humain est devenu impossible, le brouillage coupe la communication avec les militaires. C’est une évolution irréversible des guerres. Les logiciels n’ont pas d’âme, ils suivent un programme, mais le programmateur peut être dépassé par son Frankenstein : lors d’une simulation US, le logiciel a décidé de tuer son opérateur qui l’empêchait d’attaquer des ennemis qu’il avait identifiés !
Les dégâts de l’I.A. en situation de guerre peuvent être limités par des décisions de chefs, l’état d’esprit dans les unités ou les choix individuels. A Gaza, indépendamment du déséquilibre entre les armements, pourquoi tous ces morts côté palestinien qui scandalisent l’opinion mondiale ? Le témoignage d’un officier de réserve publié le 3 mars sur le site israélien politically koret, un psychologue de 35 ans, est révélateur (cf. Courrier International du 11 avril).
« La plupart des soldats qui m’entouraient n’avaient qu’une motivation : la vengeance. J’ai vu des soldats lancer des grenades sans raison dans des logements encore habités par de simples civils. Mon lieutenant entrait dans les maisons palestiniennes pour y mettre le feu ou les faire exploser juste pour le plaisir. A Gaza, quand on n’adhère pas au discours extrémiste et politiquement frelaté qui s’est emparé de toute la société israélienne, on perd tout crédit et toute autorité vis-à-vis de ses subordonnés.
La seule explication est une peur impossible à maîtriser. Les jeunes soldats tirent sur tout ce qui bouge et en tirant deviennent des héros. C’est la règle du jeu, je n’aurai jamais cru des êtres humains capables de telles choses. Notre culture guerrière plonge ses racines dans les pratiques d’autodéfense face aux massacres antisémites européens. Nos âmes absorbent une violence qui ne mène nulle part, sauf à notre perte. Cette guerre nous a tous changés, mes amis et mes frères d’armes sont en colère contre moi, mais je ne peux pas taire ce que j’ai vu et fait ».
Ce contexte explique l’utilisation débridée de l’I.A. pour massacrer avec la complicité des leaders politiques et religieux. C’est la terrible réalité destructive des guerres pour tous les humains, soldats et civils des deux côtés des conflits. Nous ne devons jamais l’oublier et résister aux discours des pouvoirs et à l’endoctrinement massif des fauteurs de guerre.
Quand la guerre fait rage, les chefs guerriers, relayés par les politiciens, rêvent d’une « victoire » sur le terrain. Pour eux, la guerre est moins risquée. C’est une aubaine pour poser en héros, recevoir des décorations et monter en grade. Avec dans les pays corrompus des commissions sur les achats d’armes. De toute évidence, seule la grande faucheuse est victorieuse dans les guerres modernes où les hécatombes frappent davantage d’innocents. Les guerres habilement présentées comme existentielles font grimper la cote des chefs politiques dans les sondages. L’IA est aussi un redoutable outil d’endoctrinement.
Il n’y a pas de guerre sans crimes de guerre. Car elles placent des hommes armés dans des situations imprévisibles où les plus bas instincts peuvent se réveiller. Le rôle de l’encadrement est donc essentiel pour les prévenir. Tsahal est mieux formée et encadrée que l’armée russe mais le politique commande. Il avait le choix entre des bombes surpuissantes faisant davantage de victimes et des bombes classiques. Comme le prouvent des cratères d’impact monstrueux, il a fait le choix de la puissance. Dans les assassinats ciblés, pour être sûr de tuer la cible humaine, et sur les immeubles, pour détruire d’éventuels tunnels du Hamas. L’hécatombe est bien une décision politique et les crimes de guerre individuels des militaires ajoutent des drames supplémentaires.
Dans les textes sacrés, la Torah et le Coran, dont se réclament les belligérants, la violence armée est acceptable dans deux cas : la légitime défense et la lutte contre l’oppression. Mais les interprètes officiels de ces textes ont vite fait de légitimer leur guerre et les clergés bénissent leurs soldats et leur promettent le paradis, c’est le cas du Hamas comme de l’église orthodoxe soumise au patriarche Cyrille, installé avec l’argent de Poutine qui se met en scène faisant le signe de croix devant des cierges.
La guerre en Ukraine, où l’IA est abondamment utilisée, se place dans un tout autre contexte. L’IA et les drones ont transformé radicalement la logique de guerre et ont permis à mon avis de rééquilibrer le rapport entre le David ukrainien et le Goliath russe. Il est indéniable sur la base des faits que les ukrainiens sont en situation de légitime défense, mais je pense qu’ils auraient dû accepter en mars 2022 un compromis de paix devenu plus difficile maintenant.
Il ne m’appartient pas de définir où est le bien et où est le mal dans chaque situation concrète, mais il est probable que l’IA mis au service du courageux peuple ukrainien et de leur liberté est un outil qui va dans le sens du Bien. Je pense aussi que la guerre entre Israël et l’Iran qui vient de monter d’un cran fera moins de morts qu’à Gaza parce que Tsahal a une grande maîtrise de l’IA et peut mieux cibler ses bombardements sur les sites militaires et décideurs de l’Iran et se protéger des missiles et drones iraniens.
AB : Un défi majeur pour l’avenir est la redoutable efficacité de l’IA quand elle est mise au service de fauteurs de mal qui vont du simple harcèlement commercial aux pièges abusant de la naïveté des faibles, jusqu’aux crimes commandités par les réseaux mafieux. Ce problème se situe au niveau mondial car l’IA permet de se jouer des frontières. Des investisseurs malveillants ont organisé des centres d’appel au Cambodge à proximité de la frontière chinoise pour piéger des victimes partout dans le monde en recrutant à bon compte des jeunes qui ne se posent guère de questions sur le mal qu’ils font, très loin d’eux.
Les spécialistes s’accordent aussi pour constater la puissance de nuisance considérable des réseaux organisés par des cybercriminels russes, motivés par l’argent ou le nationalisme russe qui nous voit comme des ennemis face auxquels tous les coups sont permis. C’est une course permanente entre les services de protection et ces ingénieux criminels qui ont redoublé d’imagination lors des jeux olympiques parisiens. Un des plans déjoués consistait à ouvrir les vannes des stations d’épuration pour polluer la Seine.
L’IA peut-elle se retourner contre les hommes qui la programment ?
JLJ : Pour moi, il faut bien distinguer l’IA fonctionnant sur des ordinateurs de l’IA fonctionnant sur des robots. En termes de langage mental, l’enjeu est celui de l’autonomie, et donc du vécu, du ressenti, de la mémoire individuelle, voire de l’identité.
Sans vouloir être trop cuistre, je rappelle que le mot « robot » est né, il y a à peine plus de 100 ans, d’une racine slave signifiant « travail » ou « esclave » (Karel Capek, 1921). Si nous créons des robots, dotés d’IA forte et de langage mental, que voulons-nous en faire ? Des aides à la personne, des ouvriers, des esclaves, ou des personnes physiques dotées de la personnalité juridique ?
Je rappelle aussi que les célèbres « Trois lois de la Robotique » d’Asimov (1942) stipulaient que le robot ne pouvait pas porter atteinte à l’humain, devait lui obéir, et devait se protéger lui-même (les 3 lois étant applicables par ordre décroissant de priorité).
Pour moi, l’IA forte du robot, dotée de langage mental, ne peut pas être soumise à de telles contraintes. Un tel robot, comme un humain, EST un texte mental. Il est certes, comme nous, soumis aux influences de personnes réelles ou imaginaires (« Alter-egos »), voire divines (« Imago-Dei »), mais il est libre de retenir ou non ces influences, et d’écrire son propre texte mental.
Est-il souhaitable de créer cette humanité-bis ? Saurions-nous cohabiter avec elle ? Je n’ai pas de réponse.
AB: Je vois les choses très différemment de toi. Les physiciens les plus sceptiques, constatant l’extraordinaire précision du réglage fin qui a permis l’équilibre de l’Univers et l’apparition de la vie biologique, peinent à écarter l’hypothèse d’un Créateur unique de l’Univers perceptible. Pour moi, c’est une certitude que je vis intérieurement, et j’en déduis que la capacité de nuisance des hommes, qui ne fait aucun doute, ne peut s’exercer que dans les limites posées par Dieu qui veille cependant à respecter la liberté qu’Il nous a donnée. Créer une humanité-bis est inaccessible pour les humains qui, malgré toutes leurs inventions extraordinaires, n’ont jamais pu insuffler la vie dans le moindre brin d’herbe. Ils ne peuvent que la simuler ou la réorienter. Mais il faudra vraiment surveiller la production et l’utilisation de robots.
5 D’autres opportunités bénéfiques
AB : Michel Galiana nous dit : l’IA pourra découvrir elle-même des lois de la nature, la tâche la plus noble du physicien. Un exemple frappant est celui d’une IA à laquelle on a donné les positions du Soleil et de Mars (observées depuis la Terre) sur plusieurs années, et à laquelle on a demandé de prévoir la suite sur les années à venir. L’IA s’en est très bien acquittée. On s’est rendu compte qu’en quelques heures, elle avait découvert par elle-même le système héliocentrique de Copernic que l’Homme avait mis quinze siècles à comprendre et à accepter
PLT: Si l’IA a été entraînée sur le corpus du web, elle a sûrement été exposée aux interprétations de Copernic et aux travaux de Newton. De là à utiliser ces connaissances pour deviner les positions futures du Soleil et de Mars, il n’y a pas un très grand pas de pattern matching à franchir pour y arriver.
AB : Je suis d’accord avec toi. Du point de vue d’une meilleure utilisation de notre réseau neuronal, je vois une opportunité dans le développement de l’IA, celle de nous contraindre à devenir plus intelligent en nous concentrant sur la partie la plus noble et la plus complexe du raisonnement. Pour l’illustrer par mon expérience, je passais beaucoup de temps comme consultant en stratégie à rechercher des données, les mettre en forme et les exploiter, mais le travail intellectuel le plus délicat était le diagnostic : quelles conclusions tirer de cette masse d’informations afin de présenter au client des recommandations pertinentes ?
Comme auteur de blog, après avoir choisi un sujet, je passe beaucoup de temps à chercher des informations et à faire le tri. L’IA pourrait me faire gagner du temps et enrichir mes références. Ensuite je rédige un plan et du contenu et les correcteurs automatiques m’aident à identifier rapidement les erreurs de frappe ou les mauvaises formulations. Je passe beaucoup moins de temps à me relire. Je suppose que la plupart d’entre vous a bénéficié de l’IA pour gagner en qualité dans votre travail intellectuel.
La prestigieuse revue Nature a publié cette année un article synthétisant les travaux de chercheurs sur la question : le numérique abîme-t-il vraiment notre mémoire et notre capacité d’apprentissage ? Un exemple cité est celui des utilisateurs des systèmes de guidage totalement désorientés quand ils n’y ont plus accès. Le mot de l’année à Oxford était “brain rot” : l’amnésie nous guette par utilisation débridée des outils numériques, au-delà de l’abrutissement mental dû au visionnage incessant des réseaux en ligne.
Les conclusions des diverses études citées sont contrastées, et il est trop tôt pour en tirer des conclusions. Certains pensent que les outils de l’IA pourraient générer une paresse intellectuelle par “effet Google”: utiliser Internet comme carte de mémoire externe au détriment de la nôtre. Mais dans la vie courante, nous faisons souvent appel à nos proches ou nos collègues pour combler un trou de mémoire. Grâce au “délestage cognitif”, nous libérons une partie de la bande passante de notre cerveau pour l’affecter à d’autres tâches.
En avril 2025, Nature human behaviour a publié la synthèse de nombreuses études faites sur plus de 400 000 sujets de plus de 50 ans. Elle montre que ceux qui utilisent au quotidien smartphones, ordinateurs et Internet présentent un déclin cognitif plus lent que les utilisateurs occasionnels. Il ne tient qu’à nous d’éviter la solution de paresse de laisser l’IA faire le travail à notre place, et de l’utiliser pour nous stimuler intellectuellement.
HdT : Comme l’écrivit Henri Bergson : « Instinct et intelligence représentent deux solutions divergentes, également élégantes, d’un seul et même problème ».
AB : Tu as raison de poser le contraste entre intelligence et instinct, mais quand on parle d’instinct humain, on lui donne des sens très différents. Tu vois dans nos instincts « des produits directs de la longue évolution de l’espèce humaine : peur, cupidité, pitié, colère, cruauté, jalousie, etc. Si mal domptés par l’homme mais bien mieux par l’animal, ces instincts sont souvent causes des bonheurs (compassion, arts, etc.) comme des malheurs (violences, guerres, etc.) de l’humanité ». Où interviendrait l’IA ?
HDT : Il y a bien plus. Les émotions, sentiments, passions, instincts sont de puissantes forces en chacun d’entre nous. Elles sont bien trop souvent méconnues et mésestimées. Car la plupart des hommes n’aiment pas voir que ce sont des fruits de l’évolution de l’espèce humaine, et qu’elles ne sont nullement des actes de l’intelligence et du libre arbitre. Un jeune homme croit choisir librement de quitter ses parents pour fonder un foyer, sans comprendre qu’un instinct irrésistible, venu de la nuit des temps, l’a pris par la main. Cette ignorance des énergies internes, innées, empêchent leur maîtrise. Les hommes croient faire la guerre par calcul, alors qu’en vérité, les passions aveuglent leur raison. Comme le disait si justement le philosophe Alain : « ce ne sont pas les intérêts mais les passions qui mènent le monde » ; « nos guerres sont des affaires d’honneur ». C’est la déesse de la folie qui guide trop souvent les hommes, affirmait si justement Érasme : « Ce qui distingue le fou du sage, c’est que le premier est guidé par les passions, le second par la raison ». Henri Bergson et Pierre Teilhard de Chardin croyaient que l’Homme progresserait peu à peu vers le divin. Les guerres en cours ne la font-elles plutôt avancer vers l’apocalypse nucléaire, jusqu’à la porte de l’Enfer… ?
AB : Tu nous fait revenir au sujet de la guerre. Il y a en ce moment, à cause de Poutine en particulier, des craintes de guerre nucléaire entre Etats. Le Japon en a subi une et la rivalité URSS-USA a failli en produire une en 1962 lors de la crise des missiles de Cuba. Aujourd’hui, une telle guerre serait déclenchée par une clique d’humains au pouvoir et faite à l’aide de l’IA pour guider les bombes, comme dans la guerre qui a démarré entre Israël et l’Iran. Difficile d’en prévoir les massacres, mais il est très probable qu’il y aura moins de morts qu’à Gaza où la folie de la vengeance avait contaminé l’armée, comme l’illustre le témoignage de l’officier israélien. Une des conséquences possibles, comme au Japon, est l’effondrement du pouvoir d’un des belligérants et peu de gens regretteraient la disparition du régime des mollahs ou la mise à l’écart de Netanyahou et de sa coalition belliqueuse dont un ministre avait évoqué l’envoi d’une petite bombe nucléaire à Gaza.
Pour les profiteurs de guerre comme ceux qui veulent rester au pouvoir après avoir bien endoctriné leur population au patriotisme, la guerre est une affaire tout à fait rationnelle et rentable. Ce qui peut les dissuader est l’efficacité des bombes guidées. La situation est très différente de celle de 1945 où beaucoup de villes allemandes et françaises ont été partiellement rasées. Dans une guerre nucléaire, Moscou et St Pétersbourg seront ciblées et ce sera la fin du pouvoir poutinien mais pas celui du peuple russe dont le territoire est immense. De grandes villes européennes et américaine seront très probablement touchées. Admettons que cette folie fasse jusqu’à 100 millions de victimes, ce ne sera pas la fin des 8 milliards d’humains, mais servira peut-être de leçon pour l’avenir : le risque majeur est celui des pouvoirs dictatoriaux et les hommes doivent apprendre à les combattre dès maintenant. Récuser l’alliance toxique entre les pouvoirs politiques issus ou non des élections et les pouvoirs religieux porteurs d’une idéologie absolutiste (le communisme instrumentalisé fut une religion) est une oeuvre de salut public au niveau mondial. Cela passe par un retour à la raison au niveau des hommes pour contrôler les passions, fruits de l’ignorance et de l’endoctrinement.
HdT : Une IA peut être construite sans ces passions dévorantes et destructrices. Ici et là, une IA entièrement rationnelle, défendant bien mieux les intérêts de l’humanité, ne pourrait-elle faire taire les armes, faire cesser les massacres, freiner la folie des hommes ?
AB : Cela impliquerait de mettre une ou des IA au pouvoir. Je ne vois pas comment ce serait possible, mais je laisse la question ouverte pour de futurs débats. Pour revenir à des choses prévisibles à court terme, je vois un exemple prometteur d’utilisation de l’IA dans mon domaine de prédilection : approfondir tous les grands textes sacrés pour en retrouver l’unité à la Source. Je fais des recherches depuis un demi-siècle, mais ce fut un travail artisanal de béotien et l’apparition des outils de l’IA peut changer la donne.
Nous avons publié des dialogues dans les posts 98 avec des camarades comme J.P. Temime sur la reconstitution des faits historiques associés aux textes bibliques. Il s’est passionné pour les recherches récentes des scientifiques qui y travaillent et j’ai pu faire le rapprochement entre ses déductions et le contenu des récits bibliques et coraniques.
Si nous mettons l’IA au service de cette recherche intertextuelle que font rarement les spécialistes qui se cantonnent à une tradition religieuse, nous pourrons certainement faire d’immenses progrès pour abattre les frontières culturelles et religieuses entre les hommes en revisitant les textes sacrés auxquels ils se réfèrent. Une cause majeure de conflits et de guerres disparaitrait. Qu’en pensez-vous ?
PLT: J’ai posé à Grok, l’IA d’Elon Musk, la question suivante:
“In the history of mankind, have there been cases of people who were not Christian hearing voices dictating them to write automatically long texts or messages?”
Les exemples les plus anciens dans la réponse initiale ont inclus les oracles de l’Égypte ancienne, ainsi que l’exemple de Socrate (Vème siècle avant JC) qui pensait entendre un “démon” guidant sa philosophie.
AB : Dans un livre de dialogue avec Gilles, nous parlons de Socrate. Les témoins d’époque disaient que cet homme d’une résistance physique exceptionnelle pouvait s’immobiliser debout pendant une heure ou plus en s’isolant du monde, comme le font les méditants expérimentés, pour faire taire leur agitation mentale et avoir accès à des sources de connaissance au-delà de notre quotidien. Socrate a laissé un héritage exceptionnel et durable, la philosophie grecque n’aurait jamais atteint son rayonnement sans lui. Qui entendrait encore parler de Platon et Aristote s’ils n’avaient été ses élèves ? Mais ils n’ont brillé que par leur intellect. Nous avons aussi cité les expériences spontanées que Gilles a vécues grâce à sa sensibilité particulière, transmission de pensée et prémonition.
PLT : J’ai alors insisté sur le fait que Grok avait omis tout exemple venant d’Asie, et j’ai eu en retour un généreux complément d’exemples en sanskrit, tibétain, chinois, tamil, japonais, et même vietnamien… Les exemples les plus frappants pour moi ont été ceux qui n’ont pas interprété le phénomène d’écriture automatique comme provenant d’une divinité quelconque, comme le Tao Te Ching de Lao Tseu, ou le Conte de Kieu, le chef-d’oeuvre de la littérature vietnamienne par le poète Nguyen Dzu.
AB : Il n’y a aucun doute pour moi que des mondes spirituels dont nous savons peu de choses nous entourent, mais les échanges avec eux sont imprévisibles et souvent flous. J’ai eu l’occasion lors de mes voyages d’assister à des séances impressionnantes de chamanisme.
PLT : Ce que j’en retiens, c’est deux choses: 1) l’écriture automatique est certainement un phénomène réel de l’humanité et 2) les explications qui en sont données dépendent du contexte et ne sont pas limitées à l’existence d’une ou de plusieurs divinités.
En particulier, je n’y vois pas la preuve de l’existence d’un Créateur Unique.
N’avez-vous jamais essayé de faire de l’écriture automatique en utilisant le clavier de votre mobile en mode prédictif et en choisissant systématiquement le mot suivant tel que suggéré par l’IA (très élémentaire) de votre téléphone ? Le résultat peut être surprenant par son sens, et pourtant il n’y a aucune intervention extérieure au logiciel du smartphone.
AB : Il n’y aura jamais de preuve absolue de l’existence d’un Créateur unique, à part peut-être quand interviendra le Jour de la Résurrection auquel croient la plupart des croyants de sensibilité abrahamique. Sinon nous perdrions notre liberté de croire ou de ne pas croire et la beauté de cet élan d’Amour qui emporte notre âme pour nous rapprocher de Dieu. Mais la foi n’est pas déterminante pour le salut de chacun car c’est le Bien que nous faisons dans notre vie sur terre qui en décide et pas nos convictions. D’autant moins que l’hypocrisie et la mollesse sont, à mon avis, aussi fréquentes chez les croyants que chez les agnostiques.
Par contre, par rapport à ce que tu dis sur l’écriture automatique, il y a indéniablement et partout dans le monde des témoignages d’interaction avec des inspirateurs immatériels. Je n’ai jamais vu ou entendu d‘anges, mais puisque la Parole abrahamique les évoque de manière répétitive et puisque beaucoup d’humains, surtout des enfants, ont témoigné de telles rencontres, pourquoi en douterais-je ?
PLT : Une discussion autour de l’IA semblerait incomplète en l’absence d’une mention au sujet des robots humanoïdes qui vont vraisemblablement être apportés par le Père Noël lui-même dans certains foyers à la fin de cette année…
AB : La relation entre les robots humanoïdes et leurs propriétaires sera intéressante à étudier au niveau de l’attitude psychologique des humains à leur contact. Se comporteront ils comme avec leur animal domestique ? Je ne pense pas, d’abord parce que cela ne concernera que quelques humains qui en ont les moyens et parce que le contact avec un organisme vivant est très différent. Nous manquons de recul, mais il est certains que l’évolution des robots, au niveau industriel ou domestique, sera aussi importante dans le futur que celle des logiciels. Affaire à suivre.
6 Eloge de la camaraderie
AB : En étant le plus ignorant sur l’IA, j’ai beaucoup appris de ce dialogue et vous en remercie. J’en retiens un consensus plutôt optimiste sur l’impact de l’IA, surtout par rapport aux craintes souvent infondées entendues dans les médias ou les échanges improvisés sur la place publique.
Certes, la planète polluée par une humanité déspiritualisée est devenue une course permanente d’imagination entre les fauteurs de mal et les vigiles du Bien, individuels ou organisés collectivement. Nous sommes loin du vieux jeu de cache-cache entre les gendarmes et les voleurs physiques, mais je reste résolument optimiste face aux défis de l’IA. La révolution Internet ne s’est finalement pas trop mal passée, alors qu’elle fut brutale et mondiale.
Je tiens à conclure sur une note résolument humaine. J’ai titillé à dessein notre ami Jean-Loup sur ses « amis robots ». Je voulais mettre en exergue l’importance des relations de camaraderie, puisqu’il est convenu entre X de s’appeler en toute simplicité “cher camarade”. Or ce n’est pas une simple convention sociale, c’est une chaleureuse réalité humaine, surtout pour ceux qui se sont côtoyés en chair et en os sur les bancs de l’école lors de leur jeunesse.
Certes, en étant 300, on ne peut être ami avec tous, il est physiquement impossible de passer suffisamment de temps avec chacun pour commencer à le connaître, mais on peut avoir un sentiment de camaraderie car nous avons traversé les mêmes défis, surtout celui des classes préparatoires qui ne font pas que former l’esprit. Elles renforcent ce sentiment de solidarité entre jeunes qui se prolonge à l’X et constitue une base de confiance solide pour nos relations quand la vieillesse physique pointe, car les émotions restent intactes. La définition de la camaraderie est d’être “fondée sur un esprit de solidarité et d’entraide plus ou moins profond, et qui se manifeste par des relations empreintes d’une certaine familiarité”.
Alors, oui, définitivement oui à la camaraderie entre humains de chair et de sang, partageant une vie qui restera toujours une énigme pour les logiciels et les robots les plus sophistiqués !
Comme indiqué dans l’introduction, ce post a dans sa ligne de mire notre réunion de septembre où j’espère bien que nous pourrons tous profiter de bons moments de camaraderie, aussi bien pour ceux qui veulent privilégier les échanges de nouvelles anodines que pour ceux qui comme moi y voient aussi une occasion de stimuler leurs neurones et de parler d’avenir.
Nous sommes maintenant septuagénaires et accordons beaucoup plus d’importance que dans notre jeunesse à la transmission de nos savoirs et expériences ainsi qu’à l’amitié et à la camaraderie et les outils de l’IA sont des facilitateurs.
Je l’ai constaté depuis 4 ans que je travaille sur mon modeste blog. Je n’aurai jamais pu écrire des posts de qualité sans la recherche Internet et des échanges accrus entre camarades vont stimuler ma capacité à mieux utiliser les progrès de l’IA. C’est un bon stimulant pour nos échanges futurs.