Saturday 11 January 2014

5. Harnad, S. (1990) The Symbol Grounding Problem


Problèmes de l'IA symbolique

Harnad, S. (1993). L'ancrage des symboles dans le monde analogique à l'aide de réseaux neuronaux: un modèle hybrideLekton4(2), 12-18.



2015 Cours 1-ière partie (audio seule)


2015 Cours 2ième partie (vidéo)



ou 

Harnad, S. (2003) The Symbol Grounding ProblemEncylopedia of Cognitive Science. Nature Publishing Group. Macmillan.   

ou

Harnad, S. (1990). The symbol grounding problemPhysica D: Nonlinear Phenomena, 42(1), 335-346.
ou

https://en.wikipedia.org/wiki/Symbol_grounding

The Symbol Grounding Problem is related to the problem of how words get their meanings, and of what meanings are. The problem of meaning is in turn related to the problem of consciousness, or how it is that mental states are meaningful.





résumé langue anglaise:









Cours ISC1000 2016 1:


Cours ISC1000 2016 2:


45 comments:

  1. Je me demande, comment peut-on dire que les signaux sensori-moteurs ne sont pas arbitraires?

    Oui, je suis d’accord qu’en général l’information qu’ils nous transmettent est juste avec la réalité, du moins c’est ce que je ressens. Par contre, bien que notre expérience leur donne un sens auquel, ils répondent la majeure partie du temps, parfois ces mêmes signaux que pourrais avoir été causé par une autre chose. Donc, si mon interprétation de ces signaux ne reflète pas toujours la réalité, ces signaux sont donc autant arbitraire que le concept de beauté, le mot cheval ou n’importe qu’elle autre symbole arbitraire que nous utilisons.

    Par exemple, si nous prenons le syndrome du membre fantôme. Il s’agit d’un phénomène, où une fois après avoir perdu un membre, un individu ressent quand même de la douleur provenant de son membre. Ce qui est impossible, puisqu’il ne l’a plus... Ce phénomène s’explique par la plasticité cérébrale, c’est-à-dire, que les neurones voisins qui sont innervés par d’autre partie du corps activent ces neurones. Ce qu’on ressent en lien avec l’activation de ces neurones est donc arbitraire. Nous avons simplement fait une corrélation entre différents systèmes TOUS ARBITRAIRES, ce qui nous permet d’interpréter ce signal.

    Ne devrions-nous pas plutôt voir notre cerveau (mind) comme un mécanisme effectuant des associations entre différents systèmes symboliques(Arbitraire)?

    ReplyDelete
    Replies
    1. Je suis du même avis. A part pour les catégories d'objets dits « neutres » qu'on peut percevoir de façon objective, c'est à dire que tout le monde percevra ces objets de la même façon (ex : « je vois une pomme devant moi »), je crois que la majorité des signaux sensori-moteurs sont arbitraires.

      Quasi toute notre perception du monde via les signaux sensori-moteurs sont teintés de subjectivité.
      Prenons deux personnes, A et B, venant de se disputer. Il est fort probable que si l'on demande à chacune d'entre elle de décrire la scène qu'il vient de se produire, nous entendrions deux versions très différentes de l'histoire … A assure avoir trouvé B très agressif lors de cette confrontation, alors que B raconte être au contraire resté très calme, mais que comme ça son habitude, A était hystérique et exagérait tout. Où est la réalité objective à travers ces deux récits ? Existe-t-elle seulement ?
      De la même manière, si nous présentons à nos personnage une peinture aux nombreux détails et qu'on leur demande de retenir le maximum d'éléments en 10 secondes, il est fort peu probable qu'ils restituent exactement les mêmes éléments au rappel.
      Nous ne percevons pas tous le monde de la même façon, et encore moins pour tout ce qui relève de la beauté, de la douleur, etc comme déjà dit dans le commentaire précédent. La majorité des signaux sensori-moteurs sont arbitraires.

      Delete
    2. Si tel est bien le cas : comment peut-on évaluer la réussite ou l'échec d'une machine lors du test TTT, si quasi tous les signaux sensori-moteurs sont arbitraires ?
      Si on reprend l'exemple du robot ayant réussit le TTT et qui en plus dit avoir vraiment vu la statue de Bouddha devant lui, cela fonctionne. Mais on présente à la machine une photo d'une très belle personne (selon l'avis d'une majorité d'humains), et qu'à la question « comment la trouvez-vous ? » la réponse est « affreuse », comment interpréter cette réponse ? Faut-il considérer que la machine n'a pas vraiment vu la photo ou qu'elle l'a mal perçue, ou devons-nous valider cette réponse et considérer que la machine a réellement vu la photo étant donné que la beauté est subjective ? Sous cet angle, la détermination d'un TTT « réussi » ou « échoué » semble difficile à effectuer … Et il en va de même pour toutes les questions concernant les signaux sensori-moteurs arbitraires dont nous avons parlé avant.

      Delete
    3. Si je comprends bien, tu douterais de la possibilité d'une réalité objective? Pour reprendre l'exemple que tu as donné, il me semble que la dispute est un fait objectif. L'interprétation que A et B auront de cette dispute est tout autre chose : ils sélectionneront de manière partiale (et donc partielle) certains éléments de cette dispute afin de les interpréter voire de les détourner sciemment de leur contexte dans le but de remporter la querelle d'interprétation (mensonge par exemple).
      Ton deuxième exemple : je pense que nous percevons le monde de la même façon, mais que nous ne sélectionnons pas les mêmes faits dans le réel pour le décrire. Nous percevons le même tableau (réalité objective) mais notre attention ne retient pas les mêmes signaux que nous renvoie le tableau (couleurs, taille, position dans l'espace), ce qui a pour conséquence de donner des interprétations différentes d'un élément pourtant bien objectif et réel : le tableau.
      Faut-il en conclure que certains signaux sensori-moteurs ne sont pas arbitraires, mais bien plutôt objectifs et objectivables par tous ceux qui seraient dotés d'un appareil perceptuel suffisant?

      Delete
    4. « Donc, si mon interprétation de ces signaux ne reflète pas toujours la réalité, ces signaux sont donc autant arbitraire que le concept de beauté, le mot cheval ou n’importe qu’elle autre symbole arbitraire que nous utilisons. »

      Je ne crois pas! Même si certains de ces signaux sont parfois trompeurs, mal adaptés à une situation donnée ou mal interprétés, cela ne veut pas dire qu’ils sont arbitraires. Ils manquent simplement parfois de précision et sont parfois mal interprétés par une personne manquant d’expérience ou biaisée. Si ces signaux étaient vraiment arbitraires, tu ne serais plus vivant, tu déboulerais tous les escaliers que tu emprunte et te ferait frapper par des voitures dans la rue.
      De plus, je ne crois pas que le concept de beauté soit arbitraire : Toute personne sensée te dira qu’un manque de symétrie dans un visage est laid, sans savoir que c’est parce que la forme de son visage représente un historique de son développement et qu’un organisme vivant se développant mal a probablement des gènes mésadaptés à son environnement. Le concept de cheval n’est pas arbitraire, tout le monde sait faire la différence entre un cheval, un âne ou une chaise. Sinon, je ne crois pas que nous utilisions de symboles arbitraires, si un symbole est réellement arbitraire, les gens vont se demander ce que ça signifie et si ce n’est qu’un gribouillis sans sens pour personne il sera effacé ,jamais plus utilisé et la personne l’ayant utilisé sera jugée négativement.

      Ce ne sont pas les concepts qui sont arbitraires même si parfois leur « étiquette » l’est.
      ----------------------------------------------------------------------------------------------------------------

      Pour ce qui est du membre fantôme, je crois que cela prouve le contraire : que les sensations ne sont pas arbitraires. Lorsqu’on coupe un bras, on coupe les terminaisons axonales des neurones parcourant le bras mais on ne détruit pas le corps cellulaire de ces neurones présent dans la moelle épinière! On affecte pas non plus les neurones sensitifs somatiques dans l’homonculus sensitif du cerveau associés au bras. Ce n’est donc pas du tout arbitraire que si on te coupe un bras sans couper la représentation analogique du bras dans le reste de ton cerveau, ces zones dédiées au sensations du bras vont réagir de manière imprévisible.

      Delete
    5. @Emmanuelle Carpentier
      Une machine capable de passer le test de Turing n'aurait pas à être représentative de l'humain moyen. N'importe quel interlocuteur saurait que le concept de "beauté" est en grande partie subjective et demanderait à la machine pourquoi elle le trouve la statue laide.
      Si tu veux savoir si la machine T3 a bien vu la photo, tu n'as qu'à lui demander de la décrire de manière objective: Ex. Comment le personnage est il habillé? Quelle est sa couleur? Le personnage représenté est il mince ou gras?

      Delete
    6. TS: Contrairement aux symboles (y compris les mots), les projections sensori-motrices peuvent ressembler à leur objet de provenance, ainsi que d'y être lié causalement. D'être erroné ou trompeur ne veut pas dire d'être arbitraire (ce qui veut dire: aucun rapport).

      EC: Il faut se poser la question: arbitraire par rapport à quoi? Pour les symboles, c'est leur forme qui est arbitraire par rapport à la forme de leur référent. Mais la silhouette de la lune sur ma rétine? Ou l'effet de l'augmentation de l'intensité d'un son sur mon tympan? (C'est vrai que deux personnes, face au même objet, pourraient le percevoir un peu différemment, grâce à des différentes expériences précédentes, ou des petites différences anatomiques, mais n'oublions pas que dans l'ensemble, nos perceptions sont remarquablement semblables. Sans ça non seulement que nous ne pourrions pas communiquer, mais que même notre vie adaptative quotidienne serait beaucoup plus chaotique. (Voir la ciélo de VBM.) Là où il y des différences, c'est en ce qui est subjectif: les goûts. Mais pour ce qui est objectif, on est pas mal d'accord sur ce qui est la lune et à quoi elle ressemble... Le T3 concerne l'indiscernabilité vis-à-vis les objets, pas les goûts.)

      YR: Oui, les différences d'expérience peuvent générer une différente pondération des multiples attributs sensoriels, comme nous verrons la semaine prochaine, à propos de l'apprentissage des catégories. (Mais il y a un sens dans lequel la perception -- pas les signaux sensoriels mais le ressenti des signaux sensoriel -- est qualitativement arbitraire: On ne peut pas dire qu'il y a une similarité entre le ressenti d'un objet et l'objet lui-même dont le ressenti est le reflet. Il y a une corrélation béhaviorale (donc T3) entre l'intensité d'un son et le ressenti de l'intensité du son: plus le son devient fort, plus on a le ressenti d'un son qui devient plus fort; la corrélation béhaviorale entre les deux est très étroite. Mais on ne peut quand-même pas dire que le ressenti de l'intensité ressemble à l'intensité acoustique. L'intensité acoustique est l'amplitude d'une vague acoustique. On a la corrélation T3 (donc avec ce que je fais et ce que je dis) et même la correlation T4 (donc avec l'intensité de vibration de mon tympan ou la fréquence de l'activité dans mon nucléus cochléaire) -- mais qu'est-ce que ça veut dire que ça ressemble à mon ressenti de l'intensité? Là on est à la frontière du problème difficile du ressenti et non plus le problème facile des actions observables (T3, T4) qui ne donnent que des corrélations avec le ressenti...

      VBM: Bien expliqué.

      Delete
    7. Tout d'abord, non je ne doute pas d'une réalité objective, je questionne plutôt les limitations objectives de notre perception de cette réalité. J'avoue que le terme arbitraire a probablement été mal utilisé, mais je crois tout de même que notre perception est limitée à une corrélation entre les afférences de nos différents sens.

      Je suis d'accord qu'au départ, ce qui causera la transduction ne sera pas arbitraire et sera donc représentatif de la réalité objective. Par contre, mon interprétation de ce même influx nerveux sera dépendante des corrélations que je peux faire avec mes autres sens ou de mon expérience. Si une activation cérébrale est causée par une chose autre que ce dont j'ai eu expérience, cette même activation sera interpréterai selon mes expériences malgré le fait que mon interprétation ne soit pas représentative de la réalité. Maintenant supposons que j'aie une afférence d'un autre sens me permettant de changer mon interprétation de cette sensation, mais en l'absence de cette information mon interprétation est erronée.
      Maintenant, pourquoi j'ai utilisé le mot arbitraire et pourquoi cette réflexion me fait mettre en doute la fiabilité d'un TT3. Je peux très bien imaginer Searle dans la tête d'un robot capable de passer le test. Tout d'abord, le robot possède l'ensemble des détecteurs sensoriels qu'un humain aurait, deuxièmement, Searle possède énormément plus de temps qu'en réalité pour des raisons évidentes.

      Searl recevrait alors des informations de différents sens sous forme de signes arbitraires. Searl aurait aussi un livre de règles qu'il suivrait. Ces règles lui permettraient de faire corrélation entre différentes informations et aussi d'affecter différents "poids" à certaines informations, etc. De plus, Searl, selon certaines règles et les informations qu'il reçoit, il envoie différents signaux qui représentent les capacités moteurs du robot, ces signaux permettent d'acquérir de nouvelles informations au besoin et d'agir comme un humain. Ce qui fait qu'en plus d'être de la computation, le robot agit de façon dynamique avec l'environnement.

      Nous pouvons alors penser que Searl est devenu le "cerveau" du robot. Le problème est que Searl n'a toujours aucune idée de ce qu'il fait et l'ensemble des signaux sont arbitraires pour Searl, bien qu'ils proviennent de la réalité.

      Cela peut mener à trois conclusions :
      1. Si le robot peut faire, ce qu'un humain fait, mais que Searl n'est pas conscient de ce qu'il fait. Le robot n'est donc pas conscient, il ne peut donc pas aider à comprendre le mécanisme causal de la cognition, puisqu'il ne fonctionne clairement pas de la même manière.
      2. La conscience est un épiphénomène, puisque clairement, l'humain n'a pas besoin d'être conscient pour faire ce qu'il fait.
      3. Même si Searl n'est pas conscient, le robot dans son ensemble est conscient, ce qui fait qu'il est représentatif et donc le TT3 est valide. (Ce que je doute clairement)

      Delete
    8. Pour Vincent, j'aurais très bien pu utiliser l'exemple de douleur référé. Par exemple, lorsque quelqu'un fait une crise cardiaque, il a mal au bras, puisque les neurones dans l'homoncules qui sont activé par les terminaisons nerveuses du cœur sont près de ceux du bras dans l'homoncules. Par contre, mon cerveau interprète le cœur de l'homoncules comme le bras, puisqu'il n'a jamais eu l'expérience de douleur au cœur avant... Donc, oui, au départ, notre interprétation de l'homoncules sensitifs est "arbitraires" ou du moins non représentative jusqu'à ce qu'on puisse faire une corrélation par expérience et donc probablement de façon multi sensorielle.

      Delete
    9. Imprécis ou Illusoire peut-être mais pas arbitraire d'après moi. Pour que ce soit arbitraire il devrait n'y avoir AUCUN lien, mais tu viens d'en faire un :P
      J'utiliserais pas ce mot là personnellement!

      Delete
  2. Le problème de l’ancrage des symboles est que la computation travaille strictement syntaxiquement sans « connaître » à quoi réfèrent les symboles qu’elle utilise. Les commandes exécutées par un logiciel reconnaissent les symboles par leur forme (p. ex. c’est une variable qui prend la forme de la lettre « X » ou « Y ») non à quoi il pourrait faire référence (p. ex. « X » est le nombre de femmes dans la salle, et « Y » le nombre d’hommes). L’interprétation sémantique des symboles, ou l’ancrage à la réalité objective, se trouve dans la tête du programmeur. On peut comparer les symboles utilisés dans un logiciel comme des traits de crayons écrits sur un bout de papier : leur interprétation n’est pas implicite au logiciel ou au papier, un apport externe est requis (nommément le cerveau de l’humain qui a programmé le logiciel ou a écrit sur le bout de papier).

    C’était un problème déjà illustré par la Chambre Chinoise de Searle : les caractères chinois y sont manipulés selon des règles purement syntaxiques et Searle, en les appliquant mécaniquement, n’a aucune idée de leur signification. Il ne parle pas vraiment chinois. Un autre exemple fourni par Harnad est le dictionnaire chinois-chinois : quelqu’un qui ne parle pas chinois ne peut apprendre la langue avec ce dictionnaire. Le dictionnaire n’est qu’un ensemble de symboles liés par des règles (les définitions), qui finissent nécessairement par être circulaires, et il ne fournit aucun ancrage à une réalité objective.

    Harnad propose de considérer un modèle hybride pour résoudre le problème de l’ancrage des symboles : la partie computationnelle serait associée à une partie connexionniste qui simule, à l’aide d’interfaces périphériques visuelles, les référents de chaque symbole utilisé par la partie computationnelle (en fournissant ce qui discrimine deux symboles et ce qui identifie uniquement chaque symbole, un peu comme semble le faire le système visuel humain).

    Mais si chaque état d’un réseau neuronal qui représente un référent (ou une de ses caractéristiques) était encodé en un autre symbole, et que c’est ce symbole « de 2e ordre » qui était associé aux symboles de la computation. En fournissant un moyen de recréer les états neuronaux pour chaque symbole de 2e ordre connecté à un symbole en utilisation par la computation, est-ce que nous aurions un équivalent au système hybride, mais seulement en computation ? Ou est-ce le fait d’avoir une « image » du référent dans le système qui soudainement rendrait ce système « ancré » ? Il me semble que peu importe ce qu’on fournit en plus à la computation, il faut fournir des règles pour l’utiliser, ce qui nous pousse dans une régression infinie.

    ReplyDelete
    Replies
    1. Il y les projections (« silhouettes ») sensoriel provenant des objets puis le réseau neuronal qui reçoit ces projections comme entrées et apprend à abstraire les attributs qui permettent à les catégoriser correctement en sortie. La catégorie peut être « dénommée » par l'action appropriée (manger, pas manger) ou bien par un symbol arbitraire: son nom de catégorie (« mangeable », « pas mangeable » ). Une fois ancrés de cette façon, les noms peuvent ensuite être utilisés pour définir d'autres catégories purement symboliquement, comme fait le dictionnaire, avec des séries de symboles: les définitions, descriptions, instructions.

      Pas de simulation; pas de 2e ordre: Des vraies entrées sensorielles et de vraies sorties motrices (soit d'agir, soit de dénommer).

      Delete
  3. Dans le texte "problèmes de l'IA symbolique", l'une des réactions à l'argument de Searle me semble douteux : "Searle en fait ne simule pas un ordinateur puisqu'il interprète des règles (R1 et R2) alors que la computation dans une machine implique des relations causales. Ce dispositif ne correspond donc pas au fonctionnement d'un ordinateur". Or l'analogie de Searle me semble être toujours valide même après cette objection. Car comment peut-on interprétée une règle qui, selon moi, est intrinsèquement formelle? En effet, une règle ne suppose pas une interprétation. Les ensembles de règles R1 et R2 regroupent des énoncés conditionnels de la forme "Si X, alors Y" ou plus particulièrement "si tu as un symbole X en question, alors tu peux répondre avec un symbole Y en réponse". Quelle interprétation est possible pour de telles règles? Une règle, selon moi, reste purement formelle, elle ne s'occupe pas des contenus des énoncés qui la composent et qui, eux, sont sujets à des interprétations.
    Ainsi, une règle, tout comme une computation dans une machine, implique une relation causale de type conditionnelle "Si X, alors Y".

    ReplyDelete
    Replies
    1. Correct: Une règle ne s'interprète pas lors d'une computation: elle s'exécute.

      Delete
  4. Toujours dans le même texte, quelques points de précisions me seraient utiles : "cette approche [situated action] évite la difficulté en fuyant vers un idéalisme linguistique qui interdit certaines généralisations comme les heuristiques de résolution de problèmes". Quelles sont ces heuristiques de résolution de problèmes?

    ReplyDelete
    Replies
    1. C'est un passage farfelu. Tu as raison de le signaler comme étant tel. Suite à la formulation du problème de l'ancrage des symboles, des sectes vagues ont germé, parmi eux "embodiment" ( « incorporation » la contrainte de posséder un corps) et "situatedness" (le fait d'être situé dans un monde physique). Ça ne m'a jamais dit grande chose au-delà de ce qui suit déjà du fait qu'il faut ancrer les symboles...

      Delete
  5. Je crois qu’il est possible de réconcilier la position des computationalistes selon laquelle un système ne manipulant que des symboles pourrait être conscient et pensant avec la position de certains connexionnistes affirmant que la cognition serait impossible dans le cerveau humain sans ancrage des symboles.
    Malgré que je crois toujours que la chambre chinoise comprendrait le chinois malgré qu’à petite échelle, elle ne fait que manipuler des symboles qui n’ont aucun sens en eux même, je crois que l’ancrage des symboles est une solution pratique qu’a « découvert » l’évolution dans le règne animal. L’esprit et le sens des pensées, n’est pour moi qu’une propriété émergente. Je crois par exemple qu’il serait absurde de dire qu’un réseau informatique tel que « google maps » capable de nous dire où se trouve la station-service la plus proche ne « sait » pas où elle se trouve. Ce réseau est d’après moi capable de comprendre la cartographie d’une ville, malgré que les symboles ne soient pas « ancrés » dans le monde physique de manière analogique. Le réseau de google est déjà capable d’apprendre par lui-même malgré qu’il ne soit pas « conscient » et je crois que c’est déjà suffisant pour affirmer qu’il « pense ».

    De la même manière que les atomes composant les neurones, les neurones en elles-mêmes ou des zones individuelles du cerveau ne « pensent » pas et que cela n’est pas un problème, je crois que le fait que les symboles en eux même n’aient pas de sens n’empêche pas que le « sens » puisse être un épiphénomène émergeant d’un système manipulant des symboles sans « sens ». Par contre, je crois qu’un modèle de la cognition humaine basé uniquement sur celui de la chambre chinoise n’est pas réaliste et n’est pas supporté par nos connaissances scientifiques sur le cerveau.
    En effet, nous savons grâce aux technologies d’imagerie cérébrale qu’à chaque fois qu’un humain pense à un concept du monde physique tel qu’une « pomme », il utilise les mêmes zones visuelles de son cerveau que lorsqu’il voit et identifie une pomme dans le monde réel. Les mêmes neurones sont activés pour expérimenter la forme d’une pomme réelle et celle d’une pomme imaginaire. Ces neurones sont une représentation analogique de la projection de l’objet « pomme » sur la rétine. Nous pouvons en pratique voir s’activer les neurones du cerveau pour y « dessiner » la forme courbée d’une pomme. Ce sont les mêmes neurones qui sont activés et servent à ancrer dans un système dynamique la « courbe » d’une pomme que le mot « Courbe». Si on demande à un humain de penser au concept de « courbe », les mêmes neurones correspondants à la visualisation d’une courbe sont activés. Sans ancrage de ce concept dans la position physique des neurones du système visuel, on ne pourrait lui donner de sens aussi facilement qu’en activant simplement les neurones du système visuel pour y « dessiner » une courbe. On devrait alors définir au système qu’une courbe n’est pas une ligne et qu’une ligne n’est pas une courbe et qu’un concept de fruit décrivant un fruit moins courbé qu’une pomme serait plus « ligne » et moins « courbe ». Voilà le problème d’un système sans ancrage des symboles, toutes les définitions du système seraient des définitions par la négative.

    Cela pourrait être théoriquement possible dans un système informatique incroyablement puissant et volumineux mais mènerait rapidement à une explosion des concepts de base nécessaires à la machine de maîtriser. De manière humoristique, je dirais qu’il est tant mieux que notre cerveau « pense » en ancrant les symboles dans son système sensoriel analogique car sans cela nous devrions peut-être avoir une tête de la grosseur d’une planète pour avoir notre niveau actuel d’intelligence.

    ReplyDelete
    Replies
    1. Il ne s'agit pas des computationallistes versus les connexiounnistes. Les réseaux connexionistes sont des outils qui ne prétendent pas être en mesure de générer la cognition (compréhension) seuls. (Et ils peuvent être implémentés soit purement dynamiquement, soit hybrides, soit computationnels.)

      Qu'est-ce que c'est que de comprendre « à petite échelle » ?

      « L"émergence » n'est pas une explication, c'est juste la répétition d'un fait (qui reste à expliquer).

      (Google maps n'est pas juste de la computation: Ça inclut les caméras et les satellites. Donc c'est un petit jouet t3, un fragment du T3 -- ce qui n'est pas le T3 « à petite échelle » !)

      Sans le ressenti (conscience), la « compréhension » ne signifie que « de se porter comme si on comprenait » (donc T2 ou T3 ou T4). Mais on sait que ce n'est pas juste ça.

      Je n'ai pas compris l'histoire des neurones qui sont actives lorsqu'on voit une pomme puis lorsqu'on pense à une pomme: évidemment, mais personne n'a émis des doutes concernant le fait que la cognition est neuronale: c'est si elle est computationelle qui est remise en doute. Et tu m'as perdu complètement avec les courbes...

      Et même avec une boîte à symboles arbitraires, manipulés selon n'importe quelles règles, aussi immense ensemble que le terre (ou plus) ça ne fait pas le lien T3 entre les symboles et leurs référents.

      Delete
    2. -Qu'est-ce que c'est que de comprendre « à petite échelle » ?
      R: J'ai mal placé ma virgule, je voulais dire que le système comprend le chinois malgré qu'il ne fait que manipuler des symboles (à petite échelle) mais que de cela émerge la compréhension. D'après vous ce ne serait qu'une illusion de compréhension et je comprend pourquoi: car ce n'est qu'un T2, il n'y a pas d'ancrage des symboles comme chez les T3 et plus. Par contre, je doute toujours qu'on ne puisse dire que la chambre chinoise ne comprenne pas simplement pour cette raison: Je ne sais pas si c'est une raison valable pour ne plus se permettre d'utiliser le mot "Comprendre".
      -----------------------------------------------------

      L'histoire des neurones qui sont actives lorsqu'on voit ou imagine une pomme c'était en lien avec la démarche de certains computationnalistes de réduire tous les concepts à une liste de concepts axiomatiques (irréductibles?) et de leur attribuer des symboles qu'on peut manipuler mathématiquement sans ancrage. Je voulais expliquer que sans le traitement analogique/dynamique que peut effectuer les neurones du système visuel (ou un T3) , il semble très difficile de réussir le test de turing avec un T2 (Seulement de la computation). Qu'une partie du traitement soit dynamique, par exemple pour les formes (courbes / lignes) dans des systèmes physique (Ex. Neurones) associés à la position de l'image sur la rétine / ou sur une caméra, semble être beaucoup plus pratique que de par exemple manipuler les symboles "Courbe" et "Ligne" pour tenter de décrire une forme simplement en manipulant des symboles sans référent.

      Je comprend aussi qu'il ne s'agit pas simplement de passer le test de Turing mais de se demander si sans ancrage des symboles, sans lien entre les symboles et leur référents, on pourrait dire qu'une machine T2 passant le test "Sait" ou "comprend".

      Delete
  6. Je trouve ardu de me prononcer à savoir quelle serait LA solution au sujet de l’ancrage des symboles. Chacune des théories et hypothèses existantes présentent des lacunes importantes sur les plans de la sémantique et la compréhension. À mon sens, la question de l’objectivité/subjectivité s’impose et prend une place importante dans toute cette sphère. Un algorithme peut effectivement tracer la manière la routine, la manière de faire, mais elle ne devient pas dotée d’un sens immuable. Exerçant la profession d’intervenante sociale, je suis continuellement témoin de divergences de perception, d’interprétations différentes d’une même situation, de la signification d’une même phrase, d’un vécu partagé. Dans un exercice où l’on donnera la même consigne à tous, ils ne parviendront pas forcément au même résultat. Un mot peut désigner un objet particulier dans une région, et ce même mot peut désigner un tout autre objet ailleurs. L’interprétation est arbitraire; une machine peut reproduire selon un algorithme bâti pour traduire des données qui sont une vérité selon les perceptions de la personne qu’implémente ce dernier. En général, nous apprenons les mêmes informations, avons une éducation similaire et avons des expériences qui sont socialement dictées pour faire des apprentissages uniformisés dans la mesure du possible, ce qui amène la notion de sens commun. Cette ambivalence entre la recherche d’explications rationnelles pour comprendre et uniformiser la connaissance, ainsi que la diversité du comportement et de la compréhension humaine, amène à mon avis l’une des dimensions qui rend si difficile la recherche de LA réponse à ce questionnement, alors que rien n’est statique et immuable.

    ReplyDelete
    Replies
    1. Un algorithme est computationnel peu importe si c'est un programmeur qui l'avait développé, ou s'il a grandi sur un arbre, ou s'il est implanté par l'évolution dans nos ADN. C'est de la manipulation des symboles selon leur formes, pas selon leur sens. C'est quoi leur sens et d'où vient-il? En premier lieu, c'est un lien entre les symboles et leurs référents dans le monde. Comment ce fait ce lien? Ce n'est pas un lien entre deux symboles. C'est un lien entre un symbole et l'objet externe qui est désigné par le symbole. Oui, il y a des symboles qui n'ont pas exactement le même sens pour deux personnes. Mais ils ont un sens. Et si les deux parlent de « pomme » (et parlent la même langue, et se comprennent) « pomme » doit être lié (ancré) aux pommes pour les deux personnes. Les nuances de sens qui varient entre les locuteurs est un problème secondaire. Le premier problème c'est le lien entre les symboles et leurs référents.

      Delete
  7. Dans la partie du texte sur les symboles formels (Formal Symbols), monsieur Hasnad explique que les symboles sont des formes n’ayant en soi aucune signification, que l’on manipule à l’aide de règles en les considérant strictement comme tel. Bien que les symboles ainsi que les règles qui permettent de les manipuler n’aient aucune signification intrinsèque, il est possible de les interprété pour en tirer une signification.
    … Qu’en est-il des systèmes d’écriture logographiques? Ou encore des chiffres égyptiens (I, II, III, IIII, IIIII, etc)? Il me semble que, dans ces cas, les symboles possèdent en soi un lien direct avec leur signification. Prenons l’exemple bien connu des hiéroglyphes : dans certains cas, les symboles qui les composent sont une représentation simplifiée de leurs référents. On ne peut pas dire, dans ce cas, que ces symboles soient purement syntaxiques. Poussons l’exemple un peu plus loin : si l’on devait manipuler des images afin de raconter une histoire, alors les règles que l’on prendrait pour placer les images ne découleraient-elles pas directement des référents auxquels sont associées ces images? Je suis un peu mélangée… où est la limite entre symbole logographique, dessin, photographie et réalité? Et quel serait l’implication de cette limite pour le Symbol grounding problem?

    ReplyDelete
  8. La modélisation de la pensée est une polémique qui traverse les années. La cognition est un mécanisme causal qui nous permet d’apprendre et d’agir de façon adaptative, pour se reproduire et survivre (nos processus mentaux). Les processus mentaux sont, par exemple, les perceptions, la mémoire, la compréhension, le raisonnement, etc. Cette science est née dans les années 1950-1960. Elle est antiréductionniste, elle laisse place à l’interprétation.
    L’avancement dans cette science se heurte à tenter d’expliquer comment et pourquoi le cerveau est en mesure de faire les capacités cognitives (problème facile)? Un autre questionnement en découle; comment et pourquoi sommes-nous capables de le faire consciemment (problème difficile)? Le problème difficile découlerait de Descartes, car, il aborde le problème corps/esprit. Le problème du dualisme supporte que quelque chose différencie les êtres conscients, des êtres non conscients (ici les animaux sont non-conscients). Comment expliquer le lien entre le corps et les processus mentaux?
    L’introspection est d’abord proposée pour résoudre ces problèmes. L’introspection implique qu’un individu pensant réfléchisse à ce problème. Toutefois, cela n’explique rien, on ne peut dire comment le mécanisme dans notre tête engendre la cognition; le mécanisme causal n’est pas expliqué. L’introspection se sert d’un petit bonhomme dans la tête (homunculus) pour expliquer les capacités engendrées par l’Homme. Cela n’explique rien, qu’en est-il du bonhomme dans la tête du bonhomme?
    Puis, vient l’idée des behavioristes. Les behavioristes croient que la cognition est expliquée et construite grâce à un système de punitions et de récompenses. C’est un historique de renforcement de ceux-ci. C’est la science de ce que l’on fait, de prédictions. Toutefois, ce n’est pas une explication du mécanisme causale de la pensée, comment le cerveau génère ces capacités? L’historique est trivial dans ce cas-ci, on veut expliquer le mécanisme causal, qui permet que l’historique de récompenses soit préconisé. Chomsky croit aussi que nos compétences sont expliquées et construites par notre historique par contre, il croit aussi qu’il faut l’existence d’une vie mentale pour expliquer les échanges entre les entrées et les sorties du système (en opposition au béhaviorisme). D’un autre côté, Skinner prétend que le fait de nommer les choses par leurs noms dépasse déjà le paradigme du behaviorisme. Les choses ne sont pas des stimuli, mais une catégorisation. Nommer une chose est la placer dans un ensemble, dans une catégorie plutôt qu’une autre. De ce fait, ce n’est pas juste une association avec un stimulus particulier.

    ReplyDelete
  9. Après le behaviorisme, dans une réalité sans ordinateur, une hypothèse de dynamique est proposée, comme les boules de billard qui sont un exemple. Lorsqu’elles s’entrechoquent, elles changent de direction en fonction de l’axe de l’impact et de la vitesse de la boule etc. Elles représentent donc un système dynamique, exactement comme fonctionnerait la cognition.
    Ensuite arrive l’intelligence artificielle. Celle-ci évolue rapidement grâce à l’invention de la machine de Turing. La machine de Turing est créée en voulant reproduire exactement ce que font les mathématiciens quand ils font de la computation (pas plus, pas moins). Toutes les vérités en mathématique peuvent être trouvées par computation. La computation est une manipulation de symboles, qui suivent un ensemble de règles, où les règles portent sur la forme (non sur le sens) et est indépendante de l’implémentation physique (indépendante du matériel). Le sens des symboles est interprétable. La machine de Turing est un objet physique, qui comporte un ruban, une tête de lecture et une table de transition (programme). La machine lit sur le ruban (à l’aide d’un algorithme) les symboles (avec la forme seulement). Elle peut soit écrire un 1 ou un 0 lorsqu’elle tombe sur ces deux seuls chiffres présents sur le ruban. Elle peut choisir de ne rien faire, ou aussi, elle peut avancer et reculer. Turing soutient deux thèses. L'une faible : la machine de Turing est équivalente à tout ce que font les mathématiciens. Ou la thèse forte : en plus de simuler tout ce que peuvent faire les mathématiciens, la machine de Turing peut simuler presque (viens du continu et de l’infini) tout dans l’univers.
    Turing explique aussi un test. Un test où une machine de Turing programmée de sorte qu’elle puisse envoyée par courriel des questions et recevoir des réponses avec d’autres individus. Le jeu impliquerait une femme dans une pièce, la machine de Turing dans une autre, ainsi qu’un observateur dans une troisième. Aucun contact excepté les courriels n’est permis. L’observateur peut poser des questions aux deux individus, croyant qu’il communique avec un homme et une femme, pour lui permettre de les identifier selon leurs sexes. Pour passer le test, la machine de Turing doit avoir la capacité de ne pas se faire démasquer comme non humaine. La hiérarchie des tests de Turing; Toy est un jouet, T2 est un robot ayant la capacité de communiquer par courriels comme expliqués plus haut, toute une vie de façon indiscernable. T3, est un robot où il y a interaction entre les capacités verbales et motrices par apport aux symboles des objets. Les symboles sont liés avec un sens, c’est un appareil dynamique. T4 est un robot avec un cerveau synthétique, avec la une anatomie homologue et certaines autres similarités. T5 le physique du robot devrait être biologique (tous les niveaux impliquent les compétences du niveau précédent).

    ReplyDelete
  10. Deux théories sur l’intelligence artificielle sont aussi dans la course, l’AI forte et l’AI faible (équivalents au computationnalisme fort et faible). Pour l’AI forte, l’ordinateur n’est pas qu’un simple outil. S’il est formaté de la bonne façon, il est un esprit, au sens où les machines comprennent et ont des états cognitifs, comme le cerveau humain peut en avoir. Les machines ne servent pas que d’un outil, mais elles sont les explications. L’AI faible implique que l’ordinateur est un outil très utile pour tenter de simuler et de comprendre l’esprit. Il permet de formuler et de vérifier des hypothèses plus précisément. Il n’est toutefois pas considéré comme ayant des états cognitifs.
    Searle, prétends que la cognition n’est pas de la computation. Il critique l’AI forte. Il tente de prouver son point grâce à une expérience de pensée qui se nomme la chambre chinoise. Cet argument donne lieu à de nombreuses discussions en raison du questionnement sur la compréhension réelle du système. C’est toujours un débat d’actualité.
    À travers tout cela se trouve le problème des autres esprits qui prétend que c’est impossible d’être certain de la capacité d’un autre être à ressentir. L’unique façon de l’expérimenter est de la vivre.
    Ensuite, un peu plus tard dans l’histoire arrive la découverte des neurones miroirs chez les singes. Les neurones miroirs sont une catégorie de neurones (autre que canonique), qui répondent lorsque le singe fait une action spécifique ou lorsqu’il voit un autre semblable faire une action. Une découverte tout aussi surprenante survient, il existe des neurones miroirs chez l’humain aussi. Les scientifiques découvrent que l’humain a une étendue de capacités plus grandes que les singes, en particulier dans les actions intransitives. Plusieurs hypothèses sont liées avec cette découverte. Selon certains, l’empathie découlerait de leurs fonctions, même le langage!
    Il existe évidemment d’autres problèmes dans la modélisation de l’esprit, comme le problème hégémonique de l’ancrage des symboles. Ce problème implique la sémasiologie des symboles. Comment les mots ont-ils ont sens ? Qu’est-ce que le sens? Les symboles faisant partis d’un système symbolique peuvent être automatiquement interprétés. Toutefois, cela ne signifie pas que la sémantique des symboles se trouve dans le système symbolique même. Prenons comme exemple un livre, il contient un nombre de symboles, mais le sens est seulement présenté par ceux-ci, ils trouvent signification lorsque d’autres systèmes pensants les interprètent. (Cela peut se rapprocher du problème de l’AI symbolique et de «l’encodisme», qui prétend que le savoir d’un système intelligent n’est que des simulations, des «codes» sous différents aspects.)

    ReplyDelete
  11. Comment le problème de l’ancrage des symboles pourrait-il être résolu? Le système modélisé pourrait avoir une aptitude qui lui permettrait de discriminer et d’identifier les différentes entrées (inputs). Le système pourrait donc déterminer si une entrée est différente de l’autre, et à quel niveau. La discrimination est l’aptitude de former des archétypes (des transformations associatives des objets projetés sur nos régions sensorielles). L’identification impliquerait certains caractères des archétypes ou icônes, pour déterminer avec précision s’ils sont de catégorie homologue ou non. Donc, le problème de l’ancrage des symboles pourrait être résolu par deux stratégies, une impliquant la capacité nommée plus haut, des robots autonomes qui font eux-mêmes leur encrage ou en acceptant que l’observateur extérieur apporte le sens des objets que la machine manipule. Bref, la cognition est toujours un mystère incompris de l’Homme!

    ReplyDelete
  12. When the retina is stimulated by the moving shades of light emanating from a waterfall or when the eardrum vibrates to the clashing force of a tree falling on the ground, all is happening is nothing but energy transformation. When a tree hits the ground, air vibrations (sound waves) travel from the collision point to the ear, making the tympanic membrane move back and forth. This mechanical movement is then transformed into electric energy that goes to the brain. When we keep in mind that these simple, yet very complex, causal relations regulate the world, it becomes hard for anyone to imagine how those events give rise to things such as thought, feeling, consciousness.

    I want to start by putting the emphasis (again) on the fact that everything that exists follows causal principles. Why is it so important and why do I always seem to make an effort on putting great emphasis on that fact?

    First of all, the principle of causality is the premise in every type of natural science. Cognitive sciences are not an exemption but we often seem to distance ourselves from that premise. That distance is created the moment we start using words such as “understanding”, “meaning”, “knowing” when we talk about the human cognition. What is the meaning of meaning anyways? In a causal system exists the impossibility for there to be such thing as understanding, knowing or wanting as the human thinks it (an infinite regression is be the price to pay for the use of these words). A causal system never depends on understanding or knowing in order to exist or evolve, move. It neither wants to do something or act in a certain way instead of another by some kind of magic willingness. We, humans, get a different impression. We understand (or at least try to) why our friend screams out of pain when he accidently grabs a hot stove. We know that we have to eat or sleep at a certain time. We know the consequences of not eating or sleeping. It is possible to visualize those consequences. We can also give ourselves goals, from waking up in the morning to completing a doctorate. But more interestingly, it feels like something to understanding or know or want.

    It is thought that meaning is created when a word refers to an object in the world. This is called the symbol grounding problem. The word “horse” refers to the object “horse”. This makes up meaning. How is it precisely causally made? This is unknown.

    ReplyDelete
  13. I would like to argue that everything is a symbol, not for us humans (of course...) but for our brains. The reason why there is what we call “meaning” is because different symbols are strongly bonded together. A towel is a visual symbol as much as the word. The symbol-word “towel” is strongly associated with the symbol-thing “towel”. That relation is so strong that we get the impression that when we say towel and we see the object towel in our head we understand what a towel is. It is absolutely nothing like Searle’s Chinese room symbol manipulation. Searle is manipulating symbols, yes. However, if Searle could see what these word refer to in the world, he would maybe start to “understand” them. In order to that, he would need a dynamic system allowing him to see. In that sense, it is clear that computational theory about the mind is not sufficient to explain understanding.

    A word is either visual or phonological. An object, like a horse, has many characteristics. The eye is very sensitive to all the visual characteristics of the object horse. The ears are also very sensitive to the type of sound a horse makes. The global experience of an horse is what is associated with the word horse, visually or phonologically. This association is not voluntary made. It is neurologically made by experience. It is of no importance if someone means something else than horse when he uses the word horse. What is important to understand is the following : in order for a word to be associated with something in the world, the physicality of the word horse (visual or phonological) has to be experience at the same time the image of the horse is seen.

    What about determiners or pronouns? How are these word understood? There is no determiners in the world, there is no way you can see them. How are they grounded? Why is there even such things as determiners or pronouns?

    ReplyDelete
  14. Résumé.

    Dans son argument de la chambre chinoise, Searle s’attaque au computationalisme et affirme, avec raison, que l’esprit (le mécanisme de la cognition) ne peut pas être qu’un système de manipulation de symboles de type machine de Turing, dont les propriétés essentielles sont indépendantes de l’implémentation. Ces hypothèses permettraient alors à Searle de réaliser par sa personne l’implémentation d’une telle machine et de constater qu’elle peut ne rien comprendre à ce qu’elle fait. Il en conclut que la cognition n’est pas de la manipulation de symboles abstraits et que les sciences cognitives devraient se tourner vers le fonctionnement du cerveau pour produire leurs explications.

    Harnad apporte dans son article (j’espère ne pas me tromper!) un bémol à cette conclusion. Il identifie le problème des systèmes de manipulation de symboles (comme les machines de Turing) qui rend possible l’attaque de Searle: le problème de l’ancrage des symboles. Il propose ensuite une correction au problème qui permet de rescaper, du moins en partie, les systèmes de symboles et la computation comme modèles des processus cognitifs.

    Le problème de l’ancrage des symboles est de demander: « où les symboles (dans une computation par exemple) prennent-ils leur sens? » Si la réponse est « seulement dans l’esprit d’un tiers », alors le système est possiblement assujetti à l’argument de Searle. Si au contraire le système est autonome pour « ancrer » les symboles, dans un sens et d’une manière qu’il nous reste à définir, alors le système résistera à l’argument de la chambre chinoise.

    Définissons donc ce qui est entendu par des symboles ancrés. Ces symboles doivent référer plus ou moins directement à des projections sensori-motrices du monde extérieur (par exemple à une image sur une rétine), de façon à rendre compte de deux capacités cognitives particulières: la capacité à différencier les choses, et la capacité à les identifier. Harnad argumente que la façon dont est réalisé l’ancrage est importante, et propose un modèle permettant de le réaliser, au moins à petite échelle.

    Une chose importante, dans un système de symboles ancrés, est qu’il faut que le sens des symboles soit fixé par leur relation (par le biais de senseurs) avec le monde. Ce sens n’est alors pas inventé par l’esprit d’un tiers. Le test empirique pour vérifier qu’un système de symboles est ancré doit s’assurer que le système est capable de différencier et d’identifier les choses. Une explication solide de la cognition serait alors un système capable de passer le test T3.

    ReplyDelete
  15. Si je comprend bien la différence entre les trois models.

    SIM: Les seules caractéristiques importantes à la définition des réseaux nerveux (R.N) serait leurs capacités en tant que système de symbole synthaxique. La composition physique et sa disposition n’ont pas d’importance

    IMP: Le système de R.N proprement défini est un Hardware et le système synthaxique des symboles est le software

    PAR: Le système fonctionnel que sont les R.N sont dépendant de la structure et de sa disposition. La fonction dépend du matériel et de son organisation.

    ReplyDelete
  16. Je trouve le sujet de l’ancrage des symboles complexe car il fait appel à de nombreux paramètres différents mais qui semblent indispensables pour nous permettre de communiquer et de nous comprendre.
    Ce texte commence par présenter deux différents courants de penser, le computationnalisme et le connexionnisme. Ces courants semblent s’opposer mais pourraient être complémentaire dans leur approche. En effet, le computationnalisme excelle dans la manipulation de symboles formels qui doivent être systématiquement interprétables, le connexionnisme de son côté, est une structure dynamique de connexions dans un réseau neuronal.
    Ce qui est intéressant est que l’on pourrait considérer que ces deux systèmes sont complémentaires. L’ajout de paramètres sensoriels ouvre la voie à une structure mixte.
    L’argument de Searle rejette le fait que la cognition ne soit que de la computation mais il ne dit pas que la cognition n’est pas de la computation. C’est de la computation et autre chose. Nous pouvons supposer qu’un système dynamique permettant une transduction sensorielle est indispensable à la reconnaissance de symboles tels que des objets ou des animaux. On peut supposer que notre capacité de catégorisation, peut-être seulement basée dans notre enfance, par imitation verbale des mots prononcés par nos parents etc, puis l’ajout de la capacité de voir et toucher associant les mots appris aux objets et animaux vus. Puis, ayant composés une base de données suffisantes, donc en ayant ancré suffisamment de symboles, eux-mêmes catégorisés, nous avons la capacité par notre langage d’apprendre et d’augmenter nos catégorisations.
    La question de l’ancrage des symboles nous amène à considérer l’importance du système sensori-moteur dans la cognition. Ce système sensoriel et les réseaux neuronaux avec lequel il fonctionne sont capables d’apprentissage mais nous en ignorons encore beaucoup.

    ReplyDelete
  17. Ludovic Hébert,

    Cher frère cadet/sœur cadette,

    Les réseaux neuraux se déclinent en trois catégories distinctinte. D’une par il y a la (SIM) qui prétend que les réseaux neuronaux seraient des algorithmes d’apprentissage symbolique. Cela montrerait en effet que les réseaux neuronaux seraient de la computation et qu’ils seraient simplement mathématiques. La deuxième interprétation des réseaux neuronaux, soit le IMP, permet de les interpréter comme des :« éléments matériels ( hardware) pour l’implémentation de systèmes symbolique.» ( Harnad, 1993) Cela veut dire que les réseaux neuronaux seraient seulement des outils pour la computation. Il serait en quelque sorte le matériel. La troisième implémentation serait le «PAR» qui est en fait que : « certains des potentiels des réseaux neuronaux dépendent ESSENTIELLEMENT de leur implémentation sous une forme distribuée, interconnectée et physiquement parallèle.» ( Harnad, 1993) dans cette troisième hypothèse, les réseaux neuronaux ne dépendent pas de système symbolique où ils ne sont pas le matériel de la computation, ils remplacent bel et bien les systèmes symboliques.

    ReplyDelete
  18. This comment has been removed by the author.

    ReplyDelete
  19. La perception catégorielle serait la perception de deux stimuli semblables, mais différenciés par une exagération de la différence par le cerveau. Cela se produit à la suite de rétroaction négative sur la similarité des stimuli.
    Cette capacité pourrait servir d'indice sur l'interaction entre le système symbolique et le système dynamique lors de l'ancrage des symboles.
    Comme expliqué par Harnad dans le texte sur les réseaux neuronaux, nous sommes en grande partie le résultat de notre machine sensorimotrice. notre cerveau, en grande partie, gère l'appareil sensorimotuneur, et si on enlèverait cette partie, il ne resterait pas assez pour implémenter un système symbolique computationnel. Nous ne sommes donc pas qu'un fantôme (esprit) dans un corps, auquel le sensorimoteur ne sert que d'intrant et d'extrant. La cognition doit donc inclure l'interaction avec le sensorimoteur et c'est cette interaction qui permetterait selon l'hypothèse de Harnad, d'ancrer le sens (lien avec un référant externe) au symbole (manipulation de règles)

    ReplyDelete
  20. This comment has been removed by the author.

    ReplyDelete
  21. Le problème d'ancrage des symboles n'est q'un résultat de l'argument de Searle. Utiliser l'aloritme, tel un robot le ferait, n'en garantie certe la compréhension. Le problème est: comment faire comprendre un sens à une machine computationnel qui fonctionne selon des symboles arbitraires (sans leur sens)? Celà semble impossible seulement avec la computation.

    ReplyDelete
  22. Le problème avec l'ancrage des symboles est que les référents auxquels ils se rapportent doivent nécessairement trouver une explication sémantique en quelque part et l'utlisation de symboles toujours plus simples et basiques ressemble beaucoup à la logique de l'hyomunculus, c'est-à-dire que cela n'explique rien et que le raisonnement est sans issus.

    Si j'ai bien compris, les deux seules manières de créer une interprétation sémantique est en l'implémentant à un robot ou en acceptant que chaque individu à son système d'interprétation personnel constitué d'images sensorielles et de traits de base.

    En ce qui concerne le "frame problem", je suis d'avis qu'il est, sans oublier l'infinie puissance théorique de la computation, impossible de simuler l'infinité de contingences qui sont incluses dans l'univers, chose qui est naturellement en évolution chez les êtres cognisants. Bref, c'est notre perception catégorielle qui rend nos apprentissages si efficaces et cette capacité ne peut être simulée, du moins pas encore.

    ReplyDelete
  23. L’argument de la chambre chinoise a permis de refuter l’hypothèse computationaliste : dans sa «chambre» Searle parle chinois, c’est à dire qu’il manipule les symboles de la langue chinoise sans en saisir le sens : ces symboles ne possèdent pas d’ancrage dans le monde. Il pourrait manipuler le sinogramme signifiant «arbre» sans jamais comprendre qu’il s’agit d’un arbre.

    Par ailleurs, imaginons que l’on remette à sujet qui ne parle pas un mot de chinois un dictionnaire chinois-chinois : ils serait impossible pour le sujet d’acquérir quelque connaissance que ce soit à l’aide exclusive de ce dictionnaire.

    Cet argument montre bien le problème de l’ancrage des symboles : sans ancrage, il ne peut y avoir cognition.

    ReplyDelete
  24. La proposition de modèle hybride (ai-je bien compris?)

    Pour répondre au T3, la machine conçue doit comprendre un dispositif sensorimoteur pour ancrer les symboles à même les capacités de détection d’idée, évènements et circonstances. Cet ancrage sensoriel permet au robot d’établir des référents par sa propre expérience qui donne des ensembles de qualificatifs analogiques.

    C’est ici que le réseau neuronal vient jouer un rôle prépondérant, en détectant les invariants de façon discrète par la comparaison de chacun des référents. Cette discrimination permet alors de catégoriser les symboles de façon concise.

    Le modèle hybride se base donc sur un modèle computationnel pour la captation et un modèle connexionniste pour la catégorisation et par extension la compréhension.

    Or ne pouvons-nous pas traduire les opérations du modèle connexionniste dans ce cas-ci par une machine de Turing ? Pour catégoriser les symboles, le système connexionniste ne procède-t-il pas par essaie et erreur en croissant les caractéristiques de chacun des référents pour en trouver des ensembles ? Si il s’agit du cas échéant, son processus est mathématisable et alors computationnel ? Qu’en pensez-vous ?

    ReplyDelete
  25. Harnad, S. (1993). L'ancrage des symboles dans le monde analogique à l'aide de réseaux neuronaux: un modèle hybride. Lekton, 4(2), 12-18.

    L'ancrage des symboles est donc de trouver un référent qui s'associe a une catégorie pour être sur d'avoir le même sens? Puisqu'il y a plusieurs symboles et plusieurs référent mais cela sera plus précis s'il appartient a une catégorie?!!

    ReplyDelete
  26. Suite à la lecture du texte Grounding Symbols in the Analog World with Neural Nets j’ai bien aimé le lien entre SIM, IMP et PAR.

    SIM : La capacité du système symbolique de simuler le réseau neuronale
    IMP : la capacité d’un réseau neuronal à implémenter un système symbolique
    PAR : le réseau neuronal fait un usage ESSENTIEL des intrants et extrants analogiques pour réaliser leur potentiel.

    Cela représente pour moi une piste selon laquelle la cognition pourrait être générée de différente façon. Le texte nous présente des arguments selon lesquels le réseau neuronal chez l’humain (entre-autre) fait un usage « essentiel » de mécanismes analogiques pour fonctionner. Ma question alors est la suivante : Comment un système symbolique pourrait-il simuler un réseau neuronal si la composante analogue est absente? Même une simulation de la composante analogue requiert selon moi un véritable système analogue. La question de PAR ne peut-elle pas être résolue par SIM ?

    Faisons un petit exercice de logique :

    SS : Système symbolique
    RN : Réseau Neuronal
    A : intrants et extrants analogiques

    Assumons que :

    SS implique RN
    RN implique SS

    Et Si

    RN implique nécessairement A

    Alors

    Le système symbolique doit, sous peine de contradiction, faire l’usage d’intrants et d’extrants analogues pour pouvoir simuler le réseau neuronal. Or si le réseau neuronal peut être parfaitement simulé sans l’usage d’intrants et d’extrants analogique, cette condition n’est alors pas nécessaire.

    La présence d’un seul système symbolique capable de de générer un réseau neuronal (ce que je ne pense pas possible) serait une preuve que la cognition n’est que de la computation (ce qui irait à l’encontre de l’argument de Searle).

    ReplyDelete
  27. Pour article de Harnad, S. (2003) The Symbol Grounding Problem. Encylopedia of Cognitive Science. Nature Publishing Group. Macmillan.


    Cher frère et soeur cadet, le probleme de symbole est lié au problème de la façon dont les mots obtiennent leurs significations et dont la signification est lié au problème de la conscience.

    Un symbole est un objet qui fait partie d'un système de symboles. C’est un système de symboles qui est un ensemble de règles pour les manipuler sur la base de leurs formes et non leur signification. Les symboles sont systématiquement interprétable comme ayant des significations, mais leur forme est arbitraire par rapport à leur sens.

    Les règles de symbole de manipulation sont basées sur la forme plutôt que le sens, mais les symboles et leurs combinaisons à base de règles sont tous véritablement interprétables. Dans le cas de l'arithmétique formelle, les symboles ont un sens puis ce sens est dans nos têtes et non dans le système de symbole.

    ReplyDelete
  28. I would like start with a quote from the text "The Symbol Grounding Problem" by S. Harnad 2003
    Finding the meaning of a word consists in finding a "nexus between a head, a word inside it, an object outside it, and whatever 'processing' is required to connect the inner word to outer object"

    I believe this sentence resumes what this whole text is trying to define. If we go from part to part of this we will archive full understanding of the meaning of the words in this essay.
    It is important to remark that a 'word' os not the as it's meaning. In stead it points to a rule of picking it's outer object. But answers seams to bring more questions, such as: Where is the meaning for the parts of the 'rule of picking' as well as how do we have the know-how 'to know how to pick it' in the outer worlds.
    If I say who's your daddy? The answer could be several different option such as who's your biological dad or who's the person who took care of you (like a grandfather). For the person that hears it there is already a meaning attached to the word and so the person knows what to select as an answer.

    I understand that the symbol grounding problem is to find understanding of this rule of picking meaning from a word. As an answer to the Chinese Room argument that says that a word can have no meaning attached to it and so it would be just scratches over a paper. Those lasts being what we would call undergrounded as they would carry no meaning.
    To know this rules explicitly is really hard, an close to impossible. The most interesting is that it is enough to know it implicitly to be able to pick up the outer correspondant.
    Computation comes to say that to pass TT all we need is the tight software and that it's implementation-independent. But as we see in Searle's argument, computation is not enough to explain all of the problem of AI.

    There must have a difference in between words in a paper (undergrounded) and meaningful words in someones head.
    Picking out referents outside of our heads must be implementation-dependent as the meaning depend of where is is being run the programe. Words came have different meaning to different people with different meaning systems; when we consider more complex words then apple.
    This bring us to a new level of TT: the robotic/hybrid Turing Test. Where the meaning is grounded in the robotic capacities to interact with the outer world.

    ReplyDelete
  29. Après la lecture « L’ancrage des symboles dans un monde analogique à l’aide de réseaux neuronaux : un modèle hybride » De Harnad.S et de Lekton. Je peux comprendre que nous ne pouvons pas complétement comprendre le système d’ancrage des symboles, que même une des hypothèses serai que ce serai sur l’origine innée comme l’hypothèse du “Big Bang“. Je peux aussi dire que chaque symbole peut être interprété de différente manière suivant le langage utilisée, que chaque symbole ne pourrait pas avoir la même signification dans chaque pays suivant la langue utilisée. Dans ma lecture je peux aussi comprendre que les réseaux neuronaux seraient une sorte “d’outils“ pour la computation. Ce système neuronal d’ancrage des symboles pourrait être aussi présent chez d’autre espèce comme exemple le singe ou nous pouvons lui apprendre à assimiler un mot avec un objet ou a imiter un autre individu exécutant l’exercice. Un exemple : disposer 3 pommes de couleurs différentes et de lui demander de saisir la pomme verte. Alors ma question serait que ce système neuronal d’ancrage de symbole ne serait présent que sur des espèces “évoluée“ ou sur toutes individus présents sur cette planète ?
    Je suis un peu mélangé suite à cette lecture.

    ReplyDelete
  30. Je ne sais pas si j’ai bien compris la différence entre le référent et la signification du mot.
    Le référent est la chose ou la personne qui est désignée par le mot. La signification est ce que ce mot veut dire. Dans l’exemple du texte, la personne utilise le nom de la personne, par son appellation social et sur son statut. Les trois désigne la même personne mais ça ne signifie pas la même chose. Ainsi, je comprends que ce problème de sens du mot est majeur dans la computation.

    ReplyDelete