Saturday 11 January 2014

3a. Searle, John. R. (1980) Minds, brains, and programs

Searle, John. R. (1980) Minds, brains, and programsBehavioral and Brain Sciences 3 (3): 417-457 

Traduction langue française: http://www.persee.fr/web/revues/home/prescript/article/quad_0987-1381_1987_num_1_1_2097
Philosophe américain du langage et de l’esprit, John Searle déclencha en 1980 une polémique qui ébranla le public des psychologues et des informaticiens. Avec l’argument de «la chambre chinoise», il visait à démontrer qu’aucun programme informatique n’est en lui-même suffisant pour donner un esprit à un système. Vingt ans plus tard, dans la revue philosophique Le Débat, il revient sur cette thématique et durcit encore son propos. Pour Searle, il est clair que le cerveau n’est pas et ne sera jamais intrinsèquement un ordinateur.
Avec John Searle dans la chambre chinoise

L’argument de la chambre chinoise de John Searle



résumé langue anglaise:




Searle lui-même:




Cours ISC1000 2016 1:


Cours ISC1000 2016 2:


42 comments:

  1. Dans son article, Searle dit plus ou moins que produire un output équivalent à quelqu’un qui parle vraiment chinois, par un processus formel quelconque, ne démontre pas qu’on parle vraiment chinois. Searle insiste sur le fait que lorsqu’il parle anglais, il « comprend » l’anglais, alors que s’il suivait une procédure pour produire des phrases chinoises, il pourrait bien tromper un locuteur chinois à l’effet qu’il parle chinois, mais que comme il ne le comprendrait pas alors c’est qu’il ne le parlerait pas vraiment (il y manquerait une « intentionnalité » de parler le chinois, une force « causale »).
    Ceci est exactement ce que le test de Turing propose : si on imite la conversation d’un humain avec une machine au point de tromper notre correspondant, alors on peut dire qu’on a « reproduit » la capacité de parler comme un humain. Searle dirait que la machine ne « comprend » pas ce qu’elle dit et que donc on n’a pas « reproduit » le processus cognitif humain associé au langage.
    Ceci revient à soulever qu’on n’a pas réglé le problème difficile des sciences cognitives : pourquoi et comment la conscience existe.
    Searle ne semble donc allouer aucune valeur au test du Turing, comme si une machine qui « simule » un humain n’apportait aucune voie d’explications pour ce processus cognitif.
    Comme si produire un avion n’apporte aucune explication au vol des oiseaux. Pourtant, pour faire voler un avion, il faut au moins comprendre les lois physiques en cause et ce qu’il faut faire pour combattre la gravité, ce que l’évolution a dû faire par essais et erreurs pour engendre les ailes des oiseaux. Donc, construire un avion sert certainement à comprendre comment les oiseaux volent, et pourquoi les autruches et les pingouins n’y arrivent pas.

    ReplyDelete
    Replies
    1. Attention, Searle parle uniquement de Turing verbal (donc symbolique), T2, et ceci, uniquement dans le cas où le T2 réussit uniquement par la computation. C'est la computation qui est en procès, pas le T2. Et l'argument de Searle de porte pas pour T3, la version robotique, qui ne peut pas être implantée purement par computation. Le but des TT n'est as de tromper mais de générer les compétences en question: verbales pour T2, verbale ainsi que robotique pour T3.

      Delete
  2. Dans son article, Searle soulève le problème de la définition de « traitement de l’information » (« information processing »). Il dit que si on définit ce terme comme voulant dire « manipulation de symboles » alors c’est ce que fait un ordinateur, comme un thermostat ou un estomac d’ailleurs, mais que l’esprit humain fait plus : il ajoute une valeur au symbole en lui associant une représentation (par exemple, le symbole « chaise » est associé à toutes les chaises que le locuteur a vues, et ce locuteur sait à quoi sert une chaise et dans quels contextes elle peut être utilisée, etc.). Pour l’ordinateur, le symbole « chaise » demeure un symbole sans autre valeur (il en demeure au plan syntaxique, alors que l’humain travaille au plan sémantique : il donne du « sens » aux symboles). Si son programme d’ordinateur lui dit quoi faire chaque fois qu’il rencontre le symbole « chaise », c’est parce que le programmeur y a d’abord associé une valeur. Searle nomme aussi cette différence « L’intentionnalité ». Quand un humain parle, il démontre une intention de signifier quelque chose ; le programme d’ordinateur n’a jamais cette intention, il ne fait qu’exécuter les règles formelles qui lui ont été données.
    Si on revient à la définition d’information soit « une réduction de l’incertitude », il semble que le traitement de l’information doive passer par la représentation sémantique. Comment évaluer que l’incertitude a été réduite sinon ? Avec cette perspective, le « traitement d’information » ne serait que simulé avec un programme informatique.

    ReplyDelete
    Replies
    1. Non, un thermostat et un estomac ne font pas de la manipulation des symboles. C'est l'ordinateur que manipule les symboles. L'intentionnalité n'est que le « vouloir-dire » dans le sens: « C'est ça ce que je veut dire, et pas ça » . C'est ce que j'ai à l'idée. Et ça ressemble à de vouloir dire quelque-chose. Donc l'intentionnalité c'est le sens que je veux exprimer: le sens ressenti.

      Un programme informatique peut manipuler les symboles et ainsi générer des données que réduirait l'incertitude. Mais ça réduit l'incertitude pour l'utilisateur qui interprète les données, non pas pour l'ordinateur qui a manipulé les symboles pour générer les données. Donc la cognition ne peut pas être juste la manipulation des symboles. Le sens ressenti doit est intrinsèque, indépendant d'un interprète externe.

      Delete
  3. Vers la fin de son article, Searle soulève un point étonnant : ceux qui croient dans l’IA forte (en mesure de simuler complètement l’esprit humain) sont des dualistes qui croient que l’esprit est quelque chose de tout à fait indépendant du corps. Ceci a de quoi surprendre, car on pourrait penser que les spécialistes de l’AI cherchent à démontrer qu’il n’y a pas de « miracle métaphysique » pour expliquer l’esprit : ce n’est qu’un assemblage complexe de « computations ».
    Or comme le signale Searle, le fait que l’AI s’appuie sur le principe que l’esprit peut être simulée dans autre chose qu’un cerveau humain, c’est que, implicitement, l’esprit est autre chose que le cerveau, d’où le dualisme intrinsèque à l’approche AI.
    Mais une autre façon de voir l’AI est de dire que si on arrive à simuler l’esprit sur autre chose qu’un cerveau humain, c’est que ce n’est qu’un phénomène explicable par un ensemble de composantes matérielles. De ce point de vue, l’AI est strictement matérialiste et non dualiste.

    ReplyDelete
    Replies
    1. Après avoir vu la vidéo de conférence de Searle à Montréal, je comprends son point sur le dualisme apparent dans l'approche AI. Pour Searle la conscience est un phénomène biochimique dans le cerveau et en est indissociable. Si on prétend pouvoir le générer dans un autre hardware que le cerveau, c'est qu'on pense intrinsèquement qu'il s'agit de quelque chose indépendant du hardware (d'où le dualisme)

      Delete
    2. Attention: le computation (l'algorithme) est indépendante des détails physiques du matériel qui implémente la computation, mais il faut que la computation soit implémenter physiquement. Donc ça ne serait pas dualiste de soutenir que la cognition n'est que de la computation (implémentée, évidemment).

      Searle crois que ce n'est que le cerveau qui peut générer la cognition. Mais ce qu'il démontre avec son argument ce n'est que la conclusion que la cognition ne peut pas se composer exclusivement de la computation -- il ne démontre pas qu'elle ne peut pas se composer de la computation du tout.

      Delete
  4. Pour article de John R. Searle http://www.persee.fr/web/revues/home/prescript/article/quad_0987-1381_1987_num_1_1_2097 (p.65-96)

    Cher frère et soeur cadet, Searle tente de démistifier à l’aide de la philosophie et de la psychologie l’intelligence artificielle, qui se trouve à être la simulation des capacités de l’homme fait par les ordinateurs. Selon lui, aucun programme informatique ne serait suffisant pour donner un esprit à une intelligence artificielle.

    Tout d’abord, il fait la distinction entre l’intelligence artificielle qui définit «forte» (p.65) qui serait un ordinateur programmé pour comprendre, qui possède un esprit et qu’il a des capacités cognitives
    et d’une intelligence artificielle «faible» (p.65) qui nous permettrais de «formuler et de tester des hypothèses d’une façon plus rigoureuse et precise.» (p.65) Searle dirige sa critique sur l’intelligence artificielle «forte» qui pretend avoir des facultés cognitives. Il se base sur une étude de Schank sur la programmation d’un ordinateur qui se baserait sur les histoires pour expliquer ensuite l’entendement de l’être humain. Searle illustre son explication avec l’exemple d’un client qui commande dans un restaurant un hamburger, qui dans la première situation ne serait pas satisfait, puis qu’il quiterait le restaurant sans laisser de pourboire. Puis, dans une deuxième situation si le client est satisfait et il laisserait justement un pourboire (voir la page 68). Il a voulu ilustrer dans cette exemple la programmation d’une intelligence artificielle «forte» qui serait dotée de l’entendement d’un humain pour faire face à une situation. Selon lui, l’ordinateur de Schank ne fournit pas les capacité de l’entendement, parce qu’il a été programmé pour réagir ainsi. Il y a une distinction à faire entre le programme et la réalisation d’un disque dur, qui semble parallèle à la distinction entre le niveau des opérations mentales et le niveau des opérations cérébrales.

    Ensuite, il affirme qu’il y a une confusion d’un ordinateur dans le traitements de l’information. Bien que le l’esprit d’un être humain et un ordinateur traite l’information de facon analogue, un ordinateur ne fait pas le traitement de l’information «au sens où les gens en font quand ils réflichissent sur, disons, des problèmes d’arithmétiques ou quand ils lisent et répondent à des questions sur des histoire.» (p.90) Un ordinateur fait seulement de la manipulation de symbole et de données.

    ReplyDelete
    Replies
    1. L'IA forte est exactement la même chose que le computationnalisme: l'hypothèse que la cognition = la computation. L'IA ne cherche pas a simuler la cognition mais à la générer. Searle démontre, avec sa chambre chinoise, que l'ordinateur qui réussit le Test de Turing en chinois et semble comprendre le chinois, ne le comprend pas de vrai, car l'ordinateur ne fait que de manipuler les symboles, et Searle peut faire exactement la même chose aussi, sans comprendre le chinois. Donc l'IA forte est fausse: la cognition ≠ la computation.

      Delete
  5. Très bon texte qui nous pousse à réfléchir sur le deuxième degré de compréhension de l’Homme et de la machine (voir résumé de Reda plus haut).
    C’est notamment ce qui me pousse à me questionner sur la différence, selon l’auteur bien marqué, entre la compréhension cognitive des deux sujets.

    Dans le cas isolé de la compréhension du contexte seul de l’histoire (à l’occurrence le restaurant), l’Homme et la machine procèdent de la même façon soit en se référant à leurs «représentations» du restaurant et de la satisfaction des clients. Ces représentations sont rattachées à des symboles soit leurs caractéristiques. Si ces «représentations» possèdent en tout point les mêmes caractéristiques pour l’Homme et la machine, l’interprétation devrait tendre vers la même réponse par le recours aux mêmes connaissances ou données? Si cette représentation est la même, qu’est-ce qui diffère au niveau strict de la compréhension du contexte, soit de l’histoire se passant dans le restaurant et l’appréciation du client?

    Or, Searl soulève aussi le point de l’intention, soit que l’Homme peut agir spontanément de son gré alors que la machine est contrainte par les limites de sa programmation. Si l’on reprend l’exemple de Schank et du questionnaire, l’Homme et la machine se retrouvent tous deux avec la même intention : de répondre correctement à la question. Cependant, la machine est programmée pour le faire et il s’agit donc de l’intention de son créateur. Par contre, au moment auquel la question est posée, les deux sujets ont le même but et il devient dicté par celui qui pose la question. L’intentionnalité est donc la même?

    Voici mes questionnements suite à la lecture.
    Je vous invite fortement à en discuter.

    ReplyDelete
    Replies
    1. Qu'est ce que les « représentations » ? Faut pas oublier qu'on parle de la computation: la manipulation des symboles selon leur forme et non pas selon leur sens. Et on ne parle pas de programmation; on parle des règles pour manipuler les symboles (les algorithmes), peu importe leur provenance.

      Delete
  6. L’argument de la chambre chinoise de John Searle

    L'article explique que le mécanisme de la cognition, ce fait comme un ordinateur. On reçoit l'information, on l'analyse et on la transmet (envoi). La chambre chinoise, décrit bien le système qui se passe, soit qu'une information inconnu peut être analyser par le système de la cognition (comme un ordinateur, on analyse les symboles) et on y répondu avec un certain lien malgré le fait qu'on ne sais même pas. Car, ­­"La computation est un système syntactique".

    Ce qui est des nos états intentionnels, se sont des états qui sont explicable, que le peut prouver par le "sentiment de..." L'esprit est développer.

    ReplyDelete
    Replies
    1. Mais tu sembles ne pas avoir remarqué que Searle émet un argument contre l'approche que tu décris, pas en sa faveur...

      Delete
  7. Ludovic Hébert,

    L’article de Searle montre bien que la théorie de l’intelligence artificielle forte comporte, à un certain niveau, un dualisme. L’auteur met bien en évidence cette contradiction dans l’article. La démonstration par l’exemple de la chambre chinoise met en lumière le fait que si l’on remplace l’homme par une machine et que celle-ci passe bien le test de del a chambre chinoise, l’interrogateur sera confondu et pourrait dire qu’il s’agit dune-personne qui parle et comprendre le chinois. Cependant, l’ordinateur ne comprend pas le chinois et ne le parle pas. Il faut cependant établir les règles pour bien comprendre le chinois et établir des prédictions qui feront en sorte que l’ordinateur répondra correctement aux questions demander pour confondre l’interrogateur. Plus tard, dans l’article, il est démontré par Searle que la cognition n’égale pas la computation à la fin de son article et que même si les partisans de l’intelligence artificielle forte sont contre le dualisme cartésien, il y fond quand même un usage dans la mesure ou le cognitif est détaché des propriétés du cerveau.

    ReplyDelete
    Replies
    1. Le dualisme (matériel/mental)

      Pas de dualisme. C'est beaucoup plus simple que ça:

      Si la cognition n'était que de la computation, et donc l'ordinateur qui réussit le T2 Chinois comprend le Chinois, alors Searle, lorsqu'il fait exactement la même chose que l'ordi T2, devrait lui aussi comprendre le Chinois.

      Mais il ne le comprend pas.

      Donc la cognition (en l'occurrence, la compréhension) n'est pas (juste) de la computation.

      Aucun dualisme en jeu. Searle se sert de son propre ressenti dans son argument: il peut témoigner avec la certitude de Descartes qu'il ne comprend ni le Chinois, ni ce qu'il est en train de fichtre depuis 40 en manipulant tout ces symboles insensés afin de gagner sa vie dans la pièce chinoise!

      Au contraire, certain computationnalistes avaient le rêve que la complémentarité matériel/logiciel résuluerait le problème corps/esprit (matière/mental) sans dualisme: Un état ressenti (donc un état mental) l'est grâce au logiciel qu'exécute le matériel. Ne cherche pas l'explication du mental dans les propriétés du corps (le matériel). C'est ça qui donne l'impression qu'il s'agit de deux sortes de «choses » (matérielle et mentale). Un état mental n'est qu'un état computationnel.

      Mais Searle montre que malheureusement ce n'est pas le cas...

      Delete
  8. La chambre chinoise montre les limites de la computation. Il démontre qu'un humaine pourrait achever une tâche basé sur un processus computationnel, sans pour autant donner une signification à ce qu'il fait. Il ne sait pas se qu'il fait, mais il à la capacité de le faire. Les limites de la computation serait l'incapacité de l'ordinateur à trouver ou donner une signitfication à quoi que ce soit, par conséquent il est inapte à comprendre quoi que ce soit. La computation est essentiellement synthaxique tandis que la cognition est sémantique.

    ReplyDelete
    Replies
    1. Ce n'est pas l'ordinateur qui est coupable: c'est la computation! Le poids n'était pas sur le matériel mais sur le logiciel.

      Delete
  9. L'argument de Searle, qui postule qu'un ordinateur n'est pas capable de comprendre le langage car il ne manipule pas la sémantique mais uniquement la syntaxe, a déclenché un grand bouleversement dans le domaine de l'Intelligence Artificielle. Les psychologues et les informaticiens rejettent cet argument mais sont incapables de le réfuter. Par conséquent, comment peuvent-ils être convaincus de la fausseté de son argument s'ils n'ont rien pour le contrer ? Serait-ce que parce que, selon l'hypothèse Sapir-Whorf, le langage détermine la perception et donc représentation du monde ? Est-il possible de dissocier langage et sémantique ?

    ReplyDelete
    Replies
    1. Une observation créatrice. Je crois que chez les computationnalistes qui ne sont pas convertis par l'argument de Searle c'est plutôt la tyrannie d'une théorie qu'on croit, même face aux données contraires. Contrairement qu'en mathématiques ou on peut fournir une preuve formelle, nécessairement vraie sous peine de contradiction, en science -- et en croyance -- on peut toujours trouver un argument pour rejeter et les données et les raisonnements. Si ceci est un exemple de la thèse de Whorf/Sapir (qui viendra en semaine 6) concernant la tyrannie du langage, ça reste à discuter. Mais c'est possible!

      Delete
  10. Premier argument de John Searle :
    Par l'image de la chambre chinoise, il montre qu'il est aisé de manipuler des symboles selon leur forme sans en comprendre le moindre sens.
    On peut faire l'analogie avec un élève de secondaire trichant à un problème de mathématiques car il n'a rien compris à la matière : il recopiera sur son antisèche la formule étudiée en cours ainsi qu'une petite instruction de manière à savoir où placer les différents éléments de l'exercice dans la formule.
    Ainsi on aura : (input) exercice de mathématique à résoudre => (output) production d'un résultat à la suite de manipulation de nombres sans en comprendre le sens . Ainsi, suite à cette triche (et si le professeur ne remarque rien !), l'étudiant pourra obtenir un A à son examen. Cela ne veut en rien dire que cet élève aura compris le sens de ce qu'il a fait ! Il aura juste appliqué une formule bêtement sans chercher à comprendre pourquoi il le fait. C'est ce que cherche à dire Serale lorsqu'il parle de la « communication » de l'ordinateur : par sa programmation il est capable de produire un message grâce à la manipulation de symboles, mais cela se fait sans qu'il y ait compréhension de ce message. La syntaxe servant à la production d'un message n'a donc rien à voir avec la compréhension du contenu sémantique de celui-ci.

    ReplyDelete

  11. Second argument :
    Si j'ai bien compris, Searle voit deux types de monde :
    Ceux qui existent sans qu'ils aient besoin d'un observateur pour cela
    Ceux qui dépendent de l'interprétation d'un observateur
    Le programme utilisé par un ordinateur pour manipuler des symboles n'existe pas dans la nature mais a été crée par quelqu'un d'autre ; et le message produit n'a du sens que pour la personne qui l'interprète. Autrement dit, sans l'observateur pour créer un ensemble de règles syntaxiques et donner une interprétation au message ensuite produit, un programme n'a aucun sens.
    Ceci apporte une réponse négative à la question « la cognition est-elle de la computation », puisqu'un programme est nécessairement crée par un être conscient qui lui-même fait des computations pour engendrer la machine. Le cerveau humain n'est pas un ordinateur puisqu'il fonctionne indépendamment du regard d'un observateur.
    Il est possible de donner une interprétation computationnelle arbitraire à à peu près n'importe quoi (dans l'exemple cité, une porte ouverte = 0 et une porte fermée = 1) et on obtient un programme, mais il n'aura du sens uniquement pour quelqu'un qui l'observe et qui a définit la règle syntaxique.

    ReplyDelete
  12. En lisant l’article de Searle sur la chambre chinoise, je n’ai pas pu m’empêcher, en bonne étudiante en philosophie, de penser à la querelle des universaux, un sujet qui a donné lieu à de nombreux débats chez les philosophes et théologiens médiévaux. En effet, au cœur de ce débat, on retrouve la question même qui est au cœur de la chambre chinoise, à savoir : quelle est la différence entre manipuler des symboles (ou des mots) et avoir une compréhension du symbole, c’est-à-dire associer à ce symbole des réalités du monde physique ou expérientiel.
    La question que se posaient précisément les médiévaux se divisait en trois questions principales. On se demandait 1) les universaux existent-ils réellement? 2) si oui, sont-ils corporels ou incorporels? et 3) s’ils sont incorporels, sont-ils séparés des sensibles ou dans les sensibles? Pour faire simple, les médiévaux se demandaient comment et pourquoi, lorsque j’utilise un terme universel, comme par exemple le terme «lapin», ce terme représente pour moi l’ensemble des lapins existants. (D’ailleurs, si quelqu’un s’intéresse aux différentes réponses des médiévaux à cette question, n’hésitez pas à me faire signe!)
    La ressemblance, plutôt frappante, entre les questionnements des médiévaux et ceux auquel Searle et l’ensemble de la communauté scientifique sont confrontés aujourd’hui me fait sourire : qui aurait cru qu’une question qui se voulait purement théorique, voir futile pour certains, à une époque reviendrait à la surface, quelques centaines d’années plus tard, par l’entremise d’un problème pratique (à savoir, la volonté de réussir à créer l’intelligence artificielle). Comme quoi, il ne faut jamais juger trop vite la recherche théorique, en quelque domaine que ce soit, trop vite; personne ne peut nous dire jusqu’où elle nous mènera!

    ReplyDelete
  13. Dans un autre ordre d’idées, il y a une question qui me chicote depuis un petit bout de temps et qui a été accentuée par ma lecture de l’article de Searle. En fait, j’ai une idée de ce que pourrait être la compréhension mais je me doute bien que quelque chose cloche avec cette idée sans toutefois pouvoir mettre le doigt dessus.
    Pourquoi est-ce que la compréhension n’existerait-elle pas uniquement dans l’esprit mais plutôt dans le lien entre l’esprit et le monde extérieur? C’est-à-dire que pourquoi est-ce que le fait que je comprenne ce que signifie, ce que représente un certain symbole ne soit pas lié au fait que j’ai appris, d’une quelconque façon que ce soit, à relier ce symbole à une certaine réalité? Ainsi, la compréhension serait composée à la fois de la connaissance des règles de manipulations des mots (syntaxe) –ce dont est capable, dans le cas de la langue chinoise, le locuteur anglais de la chambre chinoise- ET de l’association des différents symboles manipulés à une certaines réalité. Si, par exemple, le locuteur anglais de la chambre chinoise recevait, en plus des règles de manipulations des symboles, des pictogrammes ou même des vidéos associant chaque symbole à une réalité, alors il comprendrait l’histoire non?

    ReplyDelete
    Replies
    1. Je pense être d'accord avec toi Sandrine - même si je pense intuitivement que cette vision de la compréhension est insuffisante. Il est clair que l’individu dans la chambre chinoise ne comprend pas grand chose au chinois. La machine répond sur la base de ce qu’il a reçu MAIS ne comprend pas grand-chose. Qu’est-ce que cela signifie ?
      Cette mécompréhension est liée à une absence de sémantique. Ainsi, comprendre, ce serait avoir l’idée des conditions de vérité et de vérification des énoncés en question. C’est, autrement dit, savoir comment les énoncés portent sur le réel. Illustrons cela avec des exemples (même si je pense qu'il doit y avoir pas mal de contre-exemple...à méditer !) "Sandrine mange une pomme". Si je comprends bien ton idée, il suffirait que la machine (une machine T2), en plus d’avoir des compétences syntaxiques, ait le pictogramme "Sandrine" et le pictogramme "pomme" pour comprendre le sens de cet énoncé.

      Delete
    2. C'est en fait notre manière d'appréhender le réel depuis notre enfance qui est en jeu ici. Nous n’apprenons pas seulement à employer le mot « pomme » syntaxiquement. Bien plutôt l’identifions-nous à un objet consistant et réel. Or, la machine de la chambre chinoise ne possède pas ce système perceptuel qui permet d’assigner le mot pomme à un objet quelconque.
      En revanche, dans un cas où on augmenterait les capacités sémantiques et non seulement syntaxiques de la machine, alors l’argument de Searle s’effondrerait (je pense par exemple au film Ex machina, ou à tous les scénarios où les robots sont dotés d'un appareil perceptuel leur permettant d'identifier une idée, une catégorie abstraite et conventionnel, à un objet consistant à l'extérieur de notre tête. On passerait alors à une machine T3). Dans ce sens-là seulement, les états mentaux de la machine seraient finalement des états computationnels capables de « lire » le réel et d’identifier les mots (par exemple le mot pomme) à leur référant (la matérialité propre de la pomme et non la simple image de la pomme). Cette identification du réel serait possible grâce à un logiciel de reconnaissance d’image par exemple.

      Delete
  14. Le second texte apporte quelques distinctions supplémentaires :
    Quelque soit la complexité des programmes informatique (que ce soit les programmes actuels ou ceux qui seront encore plus performants dans le futur), ils consisteront toujours à la simple manipulation de symboles sans aucune signification d'un point de vue informatique. Seul l'observateur humain extérieur peut donner du sens au message produit.

    Ceci s'oppose aux états intentionnels humains (croyances, désirs) car ils ont du sens et représentent quelque chose (ex : ma croyance « il fait froid » a un lien avec l'environnement extérieur). Ceci est différent d'une simple exécution syntaxique.
    Ainsi, d'après l'auteur, tant qu'on ne comprend la manipulation des données que l'on traite, il n'y a pas d'esprit, qui lui-même ne peut pas exister sans cerveau. Seul l'humain serait donc capable de donner du sens aux symboles. La cognition n'est pas de la computation.

    ReplyDelete
  15. En relisant mon cours, je souhaiterais, avant de commenter le texte de Searl, avoir quelques précisions : qu'est-ce que l'impénétrabilité cognitive?

    ReplyDelete
    Replies
    1. Si j'ai bien compris, une information est pénétrable cognitivement si, lorsqu'on en prend connaissance, elle peut changer notre perception. Par exemple, si quelqu'un compte 10 bonbons dans une jarre et qu'en réalité il y en a 11 mais que le onzième se trouve dans un coin de la jarre et est très peu visible, si une deuxième personne souligne à la personne qui avait compté 10 bonbons son erreur, celle-ci pourra vérifier qu’il y bel et bien un onzième bonbon caché et intégrer cette information, et ainsi sa perception du nombre de bonbons dans la jarre changera. Au contraire, un information est impénétrable cognitivement si, lorsque l'on en prend connaissance, elle ne peut pas changer notre perception. Par exemple, dans le cas de l'illusion d'optique des flèches (http://www.echecsetmaths.com/illusions/fleches.htm),même si on reçoit l'information selon laquelle les flèches sont de la même longueur, notre perception des flèches reste la même: on a l'impression qu'une des flèches est plus grande que l'autre.

      Delete
  16. Le texte Minds, brains and programs (Behavioral and Brain Sciences) de John Searle, se résume comme suit:
    D’abord, l’auteur fait la différence entre l’intelligence artificielle forte versus l’intelligence artificielle faible.
    AI forte : Pour l’AI forte, l’ordinateur n’est pas qu’un simple outil. S’il est formaté de la bonne façon, il est un esprit, au sens où les machines comprennent et ont des états cognitifs, comme le cerveau humain peut en avoir. Les machines ne servent pas que d’un outil, mais elles sont les explications.
    AI faible : L’ordinateur est un outil très utile pour tenter de simuler et de comprendre l’esprit. Il permet de formuler et de vérifier des hypothèses plus précisément. Il n’est toutefois pas considéré comme ayant des états cognitifs.
    Searle critique l’AI forte. Sa critique porte en particulier sur un texte de Roger Schank, mais elle peut aussi s’appliquer à toute machine de Turing qui simule les phénomènes de l’esprit humain.
    Il décrit brièvement le programme de Schank : D’abord, Schank crée une machine qui a pour but de représenter la capacité humaine à comprendre les histoires. Les Hommes peuvent répondre à des questions portant sur une histoire sans que cette information soit dite clairement dans celle-ci. Deux exemples pour aider la compréhension sont proposés, voici l’un d’eux :
    ≪Un homme a été au restaurant et a commandé un hamburger. Quand le hamburger est arrivé, il était complètement brulé et l’homme enragé est sorti du restaurant, sans payer pour le hamburger et sans laisser de pourboire. Maintenant, si l’on vous demandait –Est-ce que l’homme a mangé le hamburger?, vous allez présumez que –Non, il ne l’a pas mangé≫.
    Similairement, la machine de Schank est programmée avec la représentation du type d’information que les humains possèdent en lien avec, par exemple, les restaurants. Quand la machine reçoit la question, elle imprime une réponse équivalente à celle que l’on s’attendrait d’un humain.
    L’AI forte soutient que la machine ne fait pas que représenter, mais qu’elle comprend l’histoire et qu’elle explique la capacité de l’Homme à comprendre ces histoires. Searle tente de démontrer que ces deux idées ne sont pas démontrées par Schank.

    ReplyDelete
  17. Il tente de prouver son point à l’aide d’une expérience de pensée. Elle se résume comme suit; Il est dans une pièce fermée, qui comporte une fenêtre d’où l’on peut faire circuler des papiers dans la pièce et à l’extérieur. Searle reçoit des papiers de l’extérieur, où sont inscrites des figures qu’il ne comprend pas. Il possède toutefois un livre qu’il comprend, et il est rédigé dans sa langue. Ce livre contient des instructions sur les figures qu’il possède, à savoir comment assembler ces symboles qu’il ne comprend pas. Il crée donc des suites de symboles qui sont en fait des expressions chinoises. Après un certain temps, il devient habile à manipuler les symboles et pour un individu de l’extérieur, il n’est pas discernable si ces réponses sont celles d’un Chinois natif ou non. Personne même, ne pourrait dire avec ces réponses que Searle ne parle pas un mot de chinois. Dans cet exemple, il est simplement un exemple d’un programme d’ordinateur. Il agit comme un ordinateur, il fait des opérations computationnelles avec des éléments spécifiques.
    Dans son exemple, il est clair que Searle ne comprend pas le chinois, ni les histoires chinoises. Pourtant, ces entrées et sorties sont non discernables de celles de vrais chinois. Exactement comme la machine de Schank ne comprend rien des histoires.
    Deuxièmement, l’ordinateur et le programme n’apportent pas assez de conditions d’entendement, car, ceux-ci fonctionnement seulement, il n’y a pas de compréhension.
    Il prétend toutefois que sa machine peut être une partie de l’histoire, une façon empirique de prendre des données mais cela reste à être prouvé par celui-ci, car il a échoué a le faire.
    Avant de poursuivre sur les différentes critiques que cet exemple a pu susciter chez les gens dans le domaine de l’intelligence artificielle, il fait une précision sur le mot <> (understanding). Il mentionne qu’il y a plusieurs degrés à la compréhension et il aborde le fait que l’on attribue des états cognitifs aux choses sans vraiment savoir s’ils peuvent comprendre, etc. Par exemple <>. Il avance que cette habitude vient du fait que nos outils sont les extensions de nos buts. Il explique que l’entendement d’un ordinateur n’est pas seulement partiel, mais qu’il est inexistant.

    ReplyDelete
  18. À partir d’ici se trouvent quelques critiques résumées brièvement sur l’expérience de pensée de Searle, ainsi que sa riposte.
    Réponse systémique (Berkeley): Même si Searle ne comprend pas l’histoire, il n’est qu’une partie d’un système global et celui-ci comprend l’histoire.
    Searle : Il répond en rajoutant que tous les éléments du système sont internes à l’individu. S’il mémorise les règles du registre et les banques de données en symbole chinois et qu’il fait tous les calculs dans sa tête, il ne serait plus que seulement une partie, mais bien un tout. Toutefois, cela revient au même, il ne comprend pas le chinois et le système non plus, même s’il est au complet dans lui.
    Réponse robotique (Yale) : Imaginons un robot qui voit, qui bouge, et que tous ces gestes sont contrôlés par son ordinateur, qui remplacerait le cerveau chez l’humain. Ce robot, à l’ opposer du programme de Schank, aurait une compréhension authentique et d’autres sortes d’états de l’esprit.
    Searle : Le robot n’a pas d’intention. Ces gestes sont réalisés seulement grâce à un programme et à ses des connexions électriques. Il répond seulement à des instructions suite à des symboles formels.
    Réponse simulateur de cerveau (Berkeley et M.I.T.) : Il pourrait exister un programme qui simule le fonctionnement neuronal dans les synapses au niveau du cerveau (d’un locuteur chinois d’origine quand il comprend les histoires en chinois et y réponds). Il serait donc impossible de nier la compréhension de la machine, car, il faudrait nier celle de l’individu aussi.
    Searle : Dans cet exemple, on ne simule que la structure formelle, pourtant, il faut aussi simuler les propriétés causales du cerveau, c’est-à-dire sa capacité à fabriquer des états intentionnels. Il ajoute que les propriétés formelles n’expliquent pas les propriétés causales.
    Réponse composite (Berkeley et Stanford) : Avant incapable de réfuter l’expérience de la chambre chinoise, les trois arguments plus haut cumulés sont la réponse décisive. Cela donnerait un robot avec un comportement impossible à différencier d’un Homme et comportant un système unifié, pas que des entrées et des sorties. Dans ce cas, il y a intentionnalité dans le système.
    Réponse Searle : Selon Searle, oui on peut lui attribuer l’intentionnalité. Toutefois, pour l’AI forte l’instanciation d’un programme formel avec les bonnes entrées et sorties est une cognition suffisante d’intentionnalité. Toutefois, elle est seulement basée sur la supposition que le comportement du robot est similaire au nôtre, donc nous inférons un état similaire chez lui qui crée chez nous ce comportement. Le problème est que nous pouvons savoir qu’il existe un programme formel. C’est donc l’intentionnalité de l’humain qui manipule ces comportements.
    Argument des autres esprits (Yale) : Comment pouvez-vous dire que d’autres individus parlent le chinois? En observant leur comportement. Exactement les tests que peuvent passer les ordinateurs.
    Réponse de Searle : Le problème n’est pas de savoir si les autres peuvent avoir un état cognitif, mais bien ce que je considère comme caractère des états cognitifs. Ce qu’il dit, c’es que ça ne peut se réduire à la computation ou a des entrées, sorties, car les uns et les autres peuvent exister sans état cognitif. Les sciences cognitives présupposent la réalité du mental.
    ….

    ReplyDelete
  19. Je reprend ici la description de Searle du computationnalisme AI fort avec une certaine forme de dualisme, pas au sens cartésien. Puisque le computationnalisme dit que la cognition vient de la computation et qu'il faille seulement trouver le bon programme pour y générer la conscience ou la compréhension, il y aurait donc une indépendance au médium, car toute machine de Turing pourrait l'implémenter. Donc, si la conscience provient d'opérations sur des symboles formels, il n'y a pas de connections nécessaires avec le cerveau. D'où le dualisme, le cerveau ne génère pas l'esprit, mais l'esprit est généré par le programme, et celui peut être implémenté dans un ordinateur. En d'autres mots, si la computation égale la cognition, et que la computation est indépendante du médium, alors toute machine de Turing implémentant le bon programme générerait la conscience.

    ReplyDelete
  20. Résumé et compréhension des thèses/contre-thèses

    Dès le début de l'article, Searle explique simplement la différence entre l'IA faible et l'IA forte. La première ne fait que formuler et tester la thèse de l'esprit tandis que la deuxième est l'esprit. Dans l'IA forte, les ordinateurs comprennent et ont des états cognitifs. Pour Searle, l'IA forte n'existe pas car il dira cette phrase que j'affectionne particulièrement : «l'entendement de l'ordinateur n'est pas seulement partiel ou incomplet, il égale zéro ». Il donnera l'exemple de la chambre chinoise à laquelle il ajoutera le fait qu'il parle anglais et que, d'un point de vue extérieur, on peut autant croire qu'il est chinois ou anglais. Il se demandera alors quelle est la différence entre les réponses chinoises et anglais qu'il donne. Évidemment, il comprend celles qu'ils donnent en anglais et pas du tout celles qu'il donne en chinois. Passons maintenant aux réponses qui fut donnée à cette question :

    La réponses systémique (Berkeley) : Cette réponses est assez faible car elle ne fait que pointer du doigt le fait que l'individu enfermé dans la chambre a accès à beaucoup de matériel pour rédiger les réponses en chinois (papier, crayon, …). Rapidement, Searle balaye cette critique en affirmant qu'il est réaliste de penser que tout le système pourrait être intégrer à l'individu; l'individu pourrait faire tout les calculs dans sa tête. Ainsi, ce n'est qu'un seul système qui donne les réponses sans pour autant les comprendre.

    La réponse robotique (Yale) : Cette réponses est, elle aussi, assez faible. On y propose de mettre un ordinateur dans un robot afin que le robot puisse faire tout ce qu'un homme fait, soit marcher, voir, etc. L'argument terminer en disant qu'alors le robot aurait un entendement authentique et d'autres états mentaux. La contre-thèse est simple : malgré le fait que le robot ait des capacités physiques, il ne comprend pas plus pour entend; il n'a pas plus d'entendement ou d'intentionnalité. Encore une fois, le robot ne fait que de la manipulation de symboles.

    La réponse du simulateur de cerveau (Berkeley et M.L.T.) : On imagine ici le développement d'un système qui représenterait les fonctions cérébrales comme les déclenchements neuronaux dans les synapses. Aussi, il y aurait plusieurs programmes, comme dans le cerveau. La machine fournirait les histoires, les questions et le réponses. On affirme alors que la machine se doit de comprendre ce qu'elle dit et aussi que les programmes sont comme le cerveau. Toutefois, Searle soulève le point que l'esprit et les fonctions cérébrales sont deux choses distinctes : il n'est pas nécessaire de comprendre les premières pour comprendre la deuxième (thèse de l'IA forte). Ainsi, l'ordinateur ne possède pas plus d'entendement, il a seulement des propriétés formelles (synapses) qui ne permettent pas de mener aux propriétés causales (intention).

    La réponses composite (Berkeley et Stanford) :Cette réponse regroupe toutes les précédentes et insiste que si le robot possède un ordinateur en forme de cerveau avec tout les comportement qui furent mentionnées, alors le système a nécessairement de l'intentionnalité. Toutefois, son comportement serait uniquement attribuable au programme formel et ainsi il n'y aurait pas de propriétés causales impliquées et c'est pourquoi on ne peut pas parler d'intentionnalité.

    Les deux arguments suivants ne sont plus vraiment en lien avec la chambre chinoise et l'entendement mais plutôt sur des problèmes techniques, à côté de la question, c'est pourquoi je les passe.

    ReplyDelete
  21. Searle examine les reponses qu’on lui à fais par rapport à l’experience de la chambre chinoise(une expérience de penser ou une personne à l’interieur d’une fausse machine du Turing,qui ne comprend pas le chinois mais qui a les instructions,envoie les bonnes réponses aux questions posé par la personne face à la machine,il cherche à demontrer que même si une machine envoie les bonne réponse,cela ne signifie pas qu’elle comprend ce qu’elle fais et qu’il y a une importante lacune dans le programme fort de l’intelligence artificiel pour lequelle,computation égale cognition,,donc possibilité d’elucider le fonctionnement de la pensé humaine par l’etude des systèmes informatique. La différence entre un ordinateur numerique(tel qu’utilisé dans l’IA),outre la difference de structure biologique,se trouve au niveau de l’intentionalité,c’est à dire qu’il y a des systême de croyance,des êtats, des buts,des directions qu’une entité biologique(surtout animal) produit qui ne sont pas simplement du traitement de l’information mais de l’ordre de l’usage de l’information dans une fin données ou selon un sens transmis.Par exemple l’on pourrait affirmer qu’un cœurs traite de l’information,mais pas qu’il pense ou qu’il pratique une activité qui consiste à penser(un cœurs traité de l’information comme un ordinateurs,il traite de l’information sans interprété de contenue intentionnelle).C’est pourquoi le programme d’IA forte est voué à l’echec selon Searle,il y à dans ce programme de recherche plusieurs flou conceptuels majeurs qui lui sont fatale(un dualisme latent,une mauvaise definition de la pensé).

    ReplyDelete
  22. L’argument de Searle est qu’avec un bon programme informatique, on peut faire passer le test de la machine de Turing, sans que l’ordinateur n’ait compris quoi que ce soit, il n’a fait que « computer » des symboles, en suivant son programme.
    Searle défend le fait qu’un être qui cognise, fait ce qu’il fait, mais en le comprenant. Et que l’on ne peut réduire l’exécution d’une tâche sans aucune compréhension ni aucun entendement, à de la cognition. Présuppose-t-il que la computation n’est qu’une imitation simpliste de la cognition, incomplète puisqu’il n’y a pas d’entendement ni d’intentionnalité ?
    Searle montre que les différentes réponses qu’il a reçues pour contrer son argument de la chambre chinoise ne fonctionnent pas. Elles ne démontrent pas que les ordinateurs sont doués d’entendement ou de réflexions mais on peut opposer que Searle ne démontre pas non plus qu’ils n’en ont pas !!
    Searle propose de considérer l’importance de la structure et de la fonction, alors que nombreux partisans de l’IA forte ne considèrent aucun rôle à la structure-machine mais toute l’importance à la fonction-programme. Est-ce que l’étude du cerveau pourrait nous apporter un début de réponse sur ses capacités ? De plus, il pose la question de la simulation face à la reproduction, si on simule le programme photosynthèse dans une machine de type aspirateur, la machine ne se mettra pas à reproduire de la chlorophylle car sa structure est faites pour aspirer de la poussière !
    La question de l’entendement et de l’intentionnalité est intéressante, peut-on computer l’intentionnalité ? Est-ce qu’un esprit pourrait faire ce qu’il sait faire indépendamment du cerveau ?

    ReplyDelete
  23. L’argument de la chambre chinoise de Searle (petit résumé)

    Le test de Turing propose de remplacer la question « la machine peut-elle penser » par « la machine est-elle indistinguable, à un certain niveau, d’un humain ? ». L’idée est la suivante: le type de construction de la machine ne nous apprend rien sur sa pensée; après tout on ne connait même pas ce qui génère nos propres capacités cognitives. On doit donc seulement se fier aux capacités de la machine, et si elles sont indistinguables de celles d’un humain, alors il n’y a pas de fondement pour affirmer qu’elle ne pense pas, tout en disant le contraire de l’humain.

    Searle montre que, dans le cas d’une machine de Turing, l’idée est fausse. Il y a une raison de croire que cette machine ne peut pas penser. Pour le vérifier, il suffit de rentrer dans la tête de la machine et d’observer si elle comprend quoi que ce soit. C’est possible de le faire car c’est une machine de Turing: on peut réaliser nous-mêmes son implémentation. On imagine facilement manipuler les symboles en suivant un livre de règle, sans rien y comprendre. C’est exactement ce que la machine fait, et donc elle aussi n’y comprend rien.

    ReplyDelete
  24. Dans ce texte, Searle tente de répondre à la prémisse que les machines peuvent non seulement penser, mais aussi comprendre. Or donc, il part du principe de l’intelligence articifielle (I.A.) forte, qui stipule que l’ordinateur, s’il est programmé de manière approprié, est en mesure d’avoir les mêmes états cognitifs que le cerveau humain, et est en mesure de comprendre ce qu’il fait. Pour frère cadet, si nous simplifions encore davantage, cela soutient que la cognition est de la computation. Searle contredit rapidement cette affirmation, en expliquant que la compréhension est dotée de la notion d’intentionnalité. Cela signifie qu’en effet, l’ordinateur peut reproduire (simuler) l’aspect de calcul. Il peut traiter des données selon l’algorithme du programme qui lui est implanté, et ainsi reproduire des opérations de la même manière qu’un homme. Il ne possède toutefois pas la dimension de la sémantique (l’intentionnalité, ou encore donner un sens à quelque chose). Et c’est sur ce point que Searle insiste tout au long de l’article pour démontrer que la cognition ne peut être uniquement de la computation. Un homme tout comme un ordinateur peut traiter des symboles chinois selon certaines consignes, mais aucun des deux ne comprendra l’écriture chinoise. Nous avons donc ici une perte de sens. Il appert donc ici que nous pouvons en conclure que la simulation n’est pas une reproduction. Si un ordinateur simule un feu, nous ne craindrons pas que notre maison brule, alors pourquoi si l’ordinateur simule une opération de calcul comme le ferait un cerveau humain, nous tendons à croire que ce dernier peut avoir les mêmes facultés causales que celui-ci? L’ordinateur a une syntaxe (un programme formel), mais pas de sémantique (l’intentionnalité, la possible d’interpréter et exprimer le ressenti). Finalement, Searle met en lumière que selon lui, la cognition présente une interdépendance entre le cerveau et l’esprit. Le cerveau humain, doté de capacité de traitement de l’information et de calcul, a aussi la dimension de l’intentionnalité. Il fonctionne selon diverses relations causales et l’idée que l’un soit indépendant de l’Autre permet aux adeptes de l’I.A. forte de soutenir la présence d’un dualisme entre le cerveau et l’esprit. Ainsi, ils peuvent aller de l’avant en prétendant que l’ordinateur peut penser et comprendre. Or, si nous ne sommes pas en mesure de défaire l’interdépendance, leur thèse ne tient plus la route. Ces derniers persistent, malgré les exemples concrets et significatifs amenés par Searle. Or donc, la cognition n’est pas que de la computation. Searle n’aborde toutefois pas la dimension à savoir si la cognition comporte une partie computationnelle malgré tout.

    ReplyDelete
  25. La thèse de la computation, capte l'interêt, et grâce au test de Turing on semble enfin avoir un plan pour trancher à savoir si la cognition n'est que de la computation, ne l'est pas du tout ou un hybride de la computation mélangé avec du dynamisme/physique. Cette engoument a mené le philosophe John Searle à developper un argument comme quoi la computation seule n'est pas assez pour générer la cognition. Il a ensuite poussé l'audace jusqu'a dire que la seule façon de répondre à la question sur la cognition serait d'étudier la neuroscience et de laisser tomber la computation totalement. L'argument qui désamorce la thèse des computationalistes se nomme "l'argument de la salle chinoise". Il donne un exemple hypothetique où l'on a passé l'étape T2 et donc trouvé l'algorithme permetant de discuter en chinois avec un humain. Puis vers la fin du test, on remplaçait le robot par John Searle lui-même et en utilisant ce même algoritme il arrivait à entretenir cette même discussion sans même comprendre le chinois, démontrant que l'algoritme seul ne peut générer ce que l'on fait.

    ReplyDelete
  26. Reprenons l’argument de Searle pour frère cadet. Ses premisses sont :
    - La cognition est de la computation.
    - Le test de Turing (T2) est valide pour déterminer la présence de cognition.

    Searle montre qu’il est possible de construire une expérience dans laquelle un candidat passe T2 sans pour autant qu’il n’y ai cognition. Imaginons en effet une piece dans laquelle se trouverait Searle, qui contiendrait un ensemble d’instructions. Searle recevrait un symbole chinois, suivrait les instructions pour produire un nouveau symbole, une réponse, et transmettrais cette réponse. Le système en lui même est tel que Searle pourrait effectivement communiquer en chinois, et passer ainsi le test de turing, sans connaitre un seul mot de chinois.

    Searle en conclut que le computationalisme doit être rejeté.

    Une critique apportée à l’argument de Searle est que le système n’est pas constitué uniquement de lui même, et que c’est l’ensemble du système qui comprend le chinois. Searle réplique en montrant qu’il pourrait mémoriser l’ensemble des instructions et que alors il serait l’unique composant du système, sans comprendre davantage le chinois.

    ReplyDelete
  27. Je n’ai que très peu de commentaire pour ce qui est de la traduction du texte de Searle. En ce qui concerne la théorie des autres esprits nous comprenons qu’en devenant le système symbolique lui-même et en manipulant les symboles il nous est impossible de comprendre le chinois.

    J’aimerais souligner que l’argument de la chambre chinoise ne pourra jamais permettre d’inférer qu’un système quelconque est capable de cognition. Un argument fort serait aussi de dire que si l’on me donne une série de symboles de la langue « Ritoubé », (une langue qui n’existe pas et qui n’a aucune signification dans notre monde) et une liste de manipulation totalement aléatoire je suis en mesure de comprendre le « Ritoubé », cette chose qui n’existe pas. Devant cette incongruité, on voit bien ici que la validation de la cognition par les inputs et les outputs (ce que fait le test de Turing) n’est pas possible.

    Concernant la théorie des autres esprits, Si on me donnait la traduction des quelques mots chinois et un dictionnaire chinois-français, je serais un jour capable de comprendre le chinois je le sais uniquement car je suis le sujet cognisant. Par contre, si on donnait les référents analogiques des symboles à un système computationnel et nous évaluons ses outputs nous ne pourrons rien affirmer sur sa capacité de cognition. De ce fait, même si on me faisait passer le test T2 de Turing, les autres ne pourront jamais être sûrs de ma capacité de cogniser. C’est ici le problème des autres esprits. Trouver un moyen de surpasser le problème des autres esprits c’est de rendre totalement inutile l’utilisation du test de Turing. Cela est selon moi impossible avant d’avoir trouvé ce qu’est la cognition.

    ReplyDelete
  28. Après la lecture de l’article « La chambre chinoise de John Searle ». Searle nous dit « qu’un programme aussi complexe soit-il, ne sera jamais qu’un ensemble syntactique (...) », et que notre esprit est une machine sémantique, il se réfère en disant que c’est le cerveau qui cause l’esprit. Une machine n’est pas capable de comprendre une langue, elle est juste apte à traduire un symbole ou un mot, mais n’est pas compétente de comprendre ou de formuler une phrase avec un ensemble de mots pour en avoir un sens logique comme l’être humain elle est juste susceptible de les traduire et de mettre un mot derrière l’autre sans donner de sens. Une machine n’est pas exercée à réfléchir ou de penser comme un être humain car il lui manquerait « l’esprit », elle serait juste propre de simuler la « pensée ». Nous pouvons comprendre qu’une machine serait juste habile à simuler et imiter la pensée humaine ?

    ReplyDelete
  29. La chambre chinoise est le concept d’une personne anglophone qui par des indications est en mesure de répondre de répondre un texte en choinois en suivant les indications de la signification des symboles. Ainsi, la personne chinoise est trompée et croit parler avec une personne qui parle le chinois. Ce que fait cette personne est de la computation. La thèse forte de l’intelligence artificielle de Searle est qu’un programme peut comprendre comme l’entendement humaine.  Toutefois, Searle affirme que même si la personne est en mesure de donner la bonne réponse à la question en chinois pour que la conversation continue, la personne ne comprend pas un mot de ce qu’il a affirmé. De même, la machine peut intéragir grâce au programme mais, il ne comprends pas ce qu’il fait alors, il ne pourra pas donner de commentaires pertinent au cours de la conversasion. Par ce fait, la machine pourrait très bien passer le test de Turing.  Toutefois, la manipulation des symboles n’est pas de la cognition. Searle, va conclure avec 5 affirmations:
    Les réalisations n’ont pas de forme d’intentionalité.
    Le programme reproduit simplement le formel.
    Le programme n’est pas un produit de l’ordinateur.
    La manipulation n’est pas du traitement de l’information comme le cerveau fait.
    L’intelligence artificielle est un programme pas un ordinateur.

    ReplyDelete