Un chatbot a pu imiter, avec confiance, le langage et les pensées du philosophe américain Daniel Dennett. Un nouveau pas vers l’intelligence artificielle ? Le principal intéressé a accepté de répondre à nos questions : il nous donne des éléments d’information à la lumière de ses réflexions sur l’esprit et l’esprit.

Peut-on fabriquer des robots avec foi ? A cette question, Daniel Dennett, un philosophe de l’intelligence artificielle, a récemment fourni une réponse ambiguë : « Je pense que certains des robots que nous avons construits l’ont déjà fait. Si vous regardez le travail, par exemple, de Rodney Brooks et de ses groupe au MIT, ils construisent maintenant des robots […] qui peuvent acquérir le genre de compétences qui nécessitent l’utilisation de l’intelligence artificielle. Cependant, il a précisé plus loin : « Nous avons déjà développé des boîtes numériques de vérités qui peuvent produire d’autres vérités, mais Dieu merci, ces machines intelligentes n’ont aucune croyance parce qu’elles ne peuvent pas travailler avec elles, pas avec des représentants indépendants. »

Un test grandeur nature

Un test grandeur nature

En fait, si l’une de ces réponses est en fait de Daniel Dennett, l’autre a été préparée… par un chatbot ! C’est ce qu’on appelle GPT-3. Lire aussi : Same Deutz-Fahr met la main sur les robots français Vitibot. On lui a appris à répondre à des milliers de pages de l’œuvre du philosophe. Bonne chance pour deviner laquelle des deux citations vient réellement de Dennett… L’appareil, conçu par Eric Schwitzgebel, Anna Strasser et Matthew Crosby, a trompé de nombreux sujets de test, mais pas un seul : parmi eux, 98 étudiants et 25 experts de Daniel Dennett . Aucun de ces experts n’a parfaitement réussi le test – la réponse correcte moyenne n’était que de 5,1 sur 10, en moyenne.

Pour les concepteurs de l’expérience, l’objectif est de démontrer la capacité de l’intelligence artificielle (IA) à imiter le langage humain. Il ne s’agit en aucun cas de calculer un certain type de connaissance ou de compréhension. Ils précisent : « Ce n’est pas un test de Turing » – un appareil qui prouve qu’un ordinateur a de l’intelligence par sa capacité à se faire passer pour une personne dans une conversation. « Si les experts interrogés avaient la possibilité d’interagir avec GPT-3 de manière prolongée, il ne fait aucun doute qu’ils se rendraient rapidement compte qu’ils n’interagissent pas avec le vrai Daniel Dennett. Au lieu de cela, ils n’ont analysé que des réponses spécifiques. » Cependant, il est difficile de supprimer cet horizon d’une IA intelligente, qui peut être détectée grâce à certains tests de langage…

A voir aussi :
La plus grande combinaison robotique exosquelette au monde Le code a été…

“Oui, en principe une IA consciente pourrait être créée”

Nous avons contacté Daniel Dennett pour savoir ce qu’il pense de cet incident choquant. « Ces résultats ont des effets intéressants, mais ils restent controversés », estime le penseur, qui s’est volontiers prêté au jeu. Une IA intelligente peut-elle détecter la lumière du jour, à long terme ? « Oui, en principe, il est possible de créer une IA intelligente, mais c’est une tâche beaucoup plus difficile que la plupart des gens ne le pensent. Voir l’article : Comment ROS ouvre-t-il les portes de la robotique à une large utilisation ?. Cette conviction ne peut être séparée des positions développées que par Dennett tout au long de son travail. » Fonctionnaliste (dans certains sens ), matérialiste (dans tous les sens, je pense), empiriste, et à certains égards éliminativiste », comme le résume le philosophe, son approche rejette le dualisme de la matière et de l’esprit. A ses yeux, la soi-disant conscience ou esprit n’est que la manifestation de l’activité physique à observer.

Un chien robot avec un fusil d'assaut
A voir aussi :
Une nouvelle utilisation du chien robot fait le buzz sur les réseaux…

La conscience, une pluralité d’instances

La conscience, pour Dennett, n’est pas une entité séparée, naturelle et en quelque sorte « magique ». Ce sentiment est une illusion causée par nos états mentaux. C’est une erreur de se sentir l’âme, nous dit-il. « Il n’y a pas de place dans le cerveau qui ‘se montre' », il n’y a aucune base pour penser et ressentir. « Il n’y a aucune manifestation et aucun témoin intérieur dans le cerveau » – moi, cerveau, âme. Ce que Daniel Dennett appelle le paradigme des « versions multiples », par opposition au paradigme du « théâtre cartésien ». « Toutes ces tâches mentales sont distribuées à des personnes basses, inintelligentes, semi-intelligentes », se retrouvent dans une sorte de compétition darwinienne pour se renforcer par rapport aux autres.

L’âme n’est que le produit de la parole mouvante de cette multiplicité de choses. Il n’y a, de ce point de vue, aucun obstacle à l’arrivée d’une IA intelligente, ou du moins à nous inciter à agir « comme si » elle l’était. « Nous pensons qu’un système physique qui peut être très complexe et bien organisé sera plus efficace, plus défini et plus spécifique nécessaire pour arriver à une prédiction, pour l’utiliser comme s’il y avait des théories, un désir et une authenticité », nous a dit Dennett. .

“Psychologie populaire”

C’est ce qu’on fait, par exemple, quand on joue sur l’ordinateur : on comprend bien dans une situation « attendue », mais on peut se contenter d’autres situations décrites par Daniel Dennett : le « fonctionnel (comment marche la machine). ?) et le plus complexe, le niveau « physique » (quelles activités physiques sont en jeu dans le fonctionnement de la machine ?). Ce système d’information, généralement dans la « psychologie populaire », selon Daniel Dennett, est une forme de loi l’application, où des prédictions peuvent être faites en fonction de l’endroit où l’agent se place et se comporte, mais il faut distinguer cet usage de la fonction objectif et l’intégration des états réels de conscience dans les machines.

Une question demeure : faut-il espérer l’avènement des machines intelligentes ? Dans ce cas, Daniel Dennett est plus que méfiant. Selon lui, cet horizon est « inutile ». « Il faut créer des machines intelligentes » capables de résoudre les problèmes, « pas des partenaires artificiels que l’on ne peut contrôler ».

Sur le même sujet

Quelle morale pour les algorithmes ?

Dans Affectation d’un comportement aux robots. Initiateur à la discipline des algorithmes (Flammarion, 2021), le chercheur du modèle de l’intelligence artificielle Martin Gibert propose d’appliquer aux algorithmes une morale, qui repose sur des qualités telles que l’humilité, le courage ou l’honneur. Mais pouvons-nous fabriquer nos robots comme Jésus ou Gandhi ? Je ne sais pas.

La conscience

&#xD ;

&#xD ;

Le langage

Nicolas Tenaillon

01 août 2012

Suffit-il à un ordinateur de parler pour penser?

La première compétence indique un savoir partagé (cum : avec et scire : savoir) : un savoir qui est avec ceux qui pensent. Faites ensuite la différence entre penser soudainement ou rapidement, se tourner vers le monde extérieur et refléter la connaissance où l’argent revient à lui-même. Avec la philosophie moderne de l’esprit (ou du sujet), née au XVIIe siècle avec Descartes, va désormais commencer à recentrer les connaissances sur l’homme, sa pensée, sa recherche d’identité. La conscience a aussi un caractère moral : c’est ce qui permet au sujet de connaître la différence entre le Bien et le Mal. Nous dirons par exemple que nous agissons en conscience ou que notre conscience est mauvaise à cause d’un tort fait. La source de cette pure conscience peut être le cœur (chez Rousseau) ou l’esprit (Kant). La conscience collective fait référence à la conscience qui englobe la somme des consciences individuelles.

Mark Alizart : “Pour Turing, la pensée fonctionne comme une bombe atomique”

Nicolas Tenaillon

01 août 2012

LaMDA : l’avènement d’une IA consciente ?

Quelle langue? Le but du langage est que le langage puisse d’abord être analysé comme un système de symboles qui relient les mots (tirés du lexique) selon des règles correctes : la grammaire (établie par une syntaxe). Nous aimons aussi les fonctions du langage : penser et communiquer. Lorsque la persuasion est voulue, elle importe les exemples combinés classés par mot-clé. Les linguistes distinguent la simple fonction expressive du langage de sa fonction pratique : la parole équivaut à l’action (dire « oui » à un mariage, c’est un mariage). Enfin, il est courant de dire que le langage appartient à l’homme et donc on cherche, d’une part, à le séparer du langage des animaux (par exemple le perroquet ou l’abeille) en se prévalant de son potentiel créateur ; d’autre part, s’améliorer au niveau de la pensée, comme Leibniz, est un langage universel.

Le 7 juin, le test de Turing, une étape clé dans l’avancement de l’intelligence artificielle, aurait été passé avec succès… par un programme informatique. Reste à comprendre ce que l’on entend ici par sagesse.

Jean-François Bonnefon : “Une IA peut être un agent moral”

Victorine de Oliveira

25 septembre 2019