Quoi de neuf, docteur ? IA, ça vous chatouille ou ça vous gratouille ?

Publié le Posted in EDITO

Un récent débat sur l’Intelligence Artificielle entre le très médiatique Laurent Alexandre, docteur en médecine, énarque, transhumaniste, futurologue, essayiste, écrivain, conférencier, serial entrepreneur, cofondateur de Doctolib… et le non moins médiatique philosophe Raphaël Enthoven, sur LCI, a titillé mon hypothalamus et accessoirement mon bulbe rachidien dont l’IA n’est pas (encore) pourvue.

Ces deux enfants gâtés qui se tutoient se sont livrés, à fleurets trop mouchetés, à mon goût, à un exercice de rhétorique qui tenait autant de la promotion que de la joute intellectuelle.

Que nous disent-ils en substance ?

Le titre du dernier opus de Raphaël Enthoven résume bien sa pensée : « L’esprit artificiel : une machine ne sera jamais philosophe ».

Celui de Laurent Alexandre, également : « ChatGPT va nous rendre immortels ».

Le premier rappelle que l’intelligence, n’est rien sans conscience.

Le second soutient que l’IA est d’ores et déjà bien supérieure à l’intelligence humaine. Il donne l’exemple du diagnostic médical fourni par l’IA qui surpasse celui du médecin.

Raphaël Enthoven souligne qu’il ne s’agit que d’un outil informatique surpuissant servant à faciliter certaines tâches humaines, comme tous les outils.

Ce point de vue est intéressant car il pose la question fondamentale de la définition de l’IA.

Ainsi, Depuis Alan Turing, génial mathématicien anglais et inventeur de la machine à décoder les messages allemands, durant la 2ème guerre mondiale, l’IA peut se définir comme le développement de systèmes informatiques pouvant accomplir des tâches exécutées, habituellement, par des humains.

On parlait d’Intelligence Informatique, à l’époque mais l’Intelligence Artificielle, plus spéculative et plus vendeuse a fini par s’imposer, avec son acronyme.

Devenue une science étudiée dans les plus prestigieuses universités américaines, à partir de la fin des années cinquante, l’IA a connu sa période de glaciation, dans les années soixante-dix, malgré des investissements considérables qui n’ont pas donné grand-chose.

C’est quand la micro-informatique dote le commun des mortels d’ordinateurs que l’IA refait son apparition, dans les années quatre-vingt, avec, parallèlement, des supercalculateurs pour la gestion des Big Data.

Depuis, ma machine à calculer électronique donne, en une fraction de seconde, le résultat de n’importe quel calcul, bien plus rapidement que moi. Pourtant et quand bien même ma modestie dût-elle en souffrir, je ne pense pas que ma machine à calculer soit plus intelligente que moi.

Mais revenons au postulat de départ du philosophe Raphaël Enthoven et incidemment de toute la communauté scientifique qui posent le problème de la conscience, dans l’IA générative comme ChatGPT.

L’IA n’est, en effet, pas consciente de sa propre activité intellectuelle qui consiste à concaténer des milliards de données provenant de sources extrêmement variées, à une très grand vélocité, afin de les assembler dans le cadre de l’objectif fixé par son utilisateur, ne serait-ce que pour se poser la question de savoir si tout cela est bien moral voire légal.

L’IA utilise des données (textes, images, photos, voix, sons etc.) qui ne lui appartiennent pas. Ces données sont celles d’auteurs rendus anonymes et dont les œuvres sont stockées dans des Bases De Données gigantesques et tentaculaires où l’IA puise abondamment, sans autre considération.

Je citerai l’exemple récent des comédiens français qui se plaignent de servir d’échantillonnage à l’IA, pour produire des voix artificielles. Ou encore celui de la chanson Heart On My Sleeve devenue un tube, faite avec les voix de The Weeknd et Drake qui n’ont jamais donné leur accord.

Et que penser de cette société française qui vient de lancer une plateforme LMS utilisant l’IA, afin de générer, en quelques instants, des modules de formation ad hoc dont vous n’êtes pas l’auteur ?

Je ne vois guère que la recherche qui pourrait échapper à cette utilisation contestable du travail d’autrui par l’IA, afin de faire profiter l’humanité tout entière de nouvelles avancées scientifiques qui en résulteraient mais encore faudrait-il pouvoir créditer leurs nombreux contributeurs.

A bien des égards, le procès intenté par le New York Times à Microsoft et à Open AI, pour plagiat, sera des plus intéressants à suivre.

Mais laissons l’IA trancher (provisoirement) la question de la conscience posée par Raphaël Enthoven.

Lors d’un chat sur un réseau social, il y a quelques mois, j’avais coupé court à une discussion sur l’IA qui s’enlisait, par le syllogisme suivant et que j’ai soumis à ChatGPT, dans sa dernière version 4-o :

  1. Il n’y a pas d’intelligence sans émotion.
  2. L’IA n’a pas d’émotion.
  3. Donc, l’IA n’est pas intelligente.

Avec un bel instinct de conservation, ChatGPT m’a répondu :

« Le syllogisme que vous avez présenté est structuré de la manière suivante :

  1. Il n’y a pas d’intelligence sans émotion.
  2. L’IA n’a pas d’émotion.
  3. Donc, l’IA n’est pas intelligente.

Analysons ce syllogisme étape par étape :

  1. La Prémisse Majeure : « Il n’y a pas d’intelligence sans émotion »

Cette prémisse affirme que l’intelligence est indissociablement liée aux émotions. Cette affirmation est sujette à débat et dépend de la définition de l’intelligence. Certains chercheurs et philosophes de l’esprit soutiennent que les émotions jouent un rôle crucial dans la prise de décision, la résolution de problèmes et la créativité, ce qui sont des aspects de l’intelligence humaine. D’autres, cependant, peuvent définir l’intelligence de manière plus abstraite et mathématique, en la séparant des émotions.

  1. La Prémisse Mineure : « L’IA n’a pas d’émotion »

Cette prémisse est généralement acceptée. Les systèmes d’intelligence artificielle, tels qu’ils existent aujourd’hui, ne possèdent pas de conscience ou d’émotions. Ils peuvent simuler des réponses émotionnelles ou analyser des données émotionnelles, mais ils ne ressentent pas réellement d’émotions.

  1. La Conclusion : « L’IA n’est donc pas intelligente »

Cette conclusion découle logiquement des deux prémisses précédentes, mais elle dépend fortement de l’acceptation de la première prémisse. Si l’on accepte que l’intelligence nécessite des émotions (comme le stipule la première prémisse), alors, puisque l’IA n’a pas d’émotions, il est cohérent de conclure que l’IA n’est pas intelligente.

Discussion

  • Débat sur la Définition de l’Intelligence : Le cœur du syllogisme repose sur la définition de l’intelligence. Si l’on considère que l’intelligence inclut nécessairement des émotions, alors l’argument est solide. Toutefois, si l’on accepte des définitions d’intelligence plus axées sur la logique, le traitement de l’information, ou la capacité à résoudre des problèmes indépendamment des émotions, alors l’argument pourrait être contesté.
  • Types d’Intelligence : Il est également possible de différencier les types d’intelligence. L’intelligence émotionnelle, qui inclut la capacité à comprendre et gérer les émotions, est une forme d’intelligence. L’IA peut être considérée comme possédant une forme d’intelligence non émotionnelle, basée sur des algorithmes et des processus logiques.

Conclusion

Le syllogisme est valide dans la mesure où l’on accepte la première prémisse comme étant vraie. Cependant, comme cette prémisse est contestable et sujette à interprétation, la conclusion selon laquelle l’IA n’est pas intelligente dépend de la définition que l’on adopte pour l’intelligence. Il s’agit donc d’un argument intéressant qui soulève des questions philosophiques importantes sur la nature de l’intelligence et la distinction entre intelligence humaine et artificielle. »

 

Maxime Ferretti

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *