Saturday 11 January 2014

1b. Harnad, S. (2009) Cohabitation: Computation at 70, Cognition at 20

Harnad, S. (2009) Cohabitation: Computation at 70, Cognition at 20, in Dedrick, D., Eds. Cognition, Computation, and Pylyshyn. MIT Press 

Zenon Pylyshyn cast cognition's lot with computation, stretching the Church/Turing Thesis to its limit: We had no idea how the mind did anything, whereas we knew computation could do just about everything. Doing it with images would be like doing it with mirrors, and little men in mirrors. So why not do it all with symbols and rules instead? Everything worthy of the name "cognition," anyway; not what was too thick for cognition to penetrate. It might even solve the mind/body problem if the soul, like software, were independent of its physical incarnation. It looked like we had the architecture of cognition virtually licked. Even neural nets could be either simulated or subsumed. But then came Searle, with his sino-spoiler thought experiment, showing that cognition cannot be all computation (though not, as Searle thought, that it cannot be computation at all). So if cognition has to be hybrid sensorimotor/symbolic, it turns out we've all just been haggling over the price, instead of delivering the goods, as Turing had originally proposed 5 decades earlier.







22 comments:

  1. Je ne comprends toujours pas pourquoi dans le problème de l'intégration du symbole on considère la régression infinie comme un problème . En faite, je me demande à quel point une structure fermée comme le cerveau (capable d'oubli) pourrait faire une régression infinie. Ne pourrait-il pas faire une régression finie ?

    ReplyDelete
    Replies
    1. Je ne suis pas sûr quel problème de régression infinie tu as à l'idée.

      Pour l'imagerie c'est que si je dis que je me rappel le nom de quelqu'un par le moyen d'imaginer son image dans ma tête alors on demande: Qui voit l'image dans ta tête, et ensuite qu'est-ce qui se passe dans sa tête à lui?

      Pour la recherche du sens d'un mot (symbole) dont tu ne sais pas les sens, suppose que tu cherches sa définition dans un dictionnaire. Tu trouves une définition qui est une série de symboles. Mais tu ne sais pas leur sens non plus. Donc tu cherches le sens de chacun des symboles dans le dictionnaire et tu trouves toujours des séries de symboles dont tu ne sais pas le sens...

      Delete
  2. Sur le problème de la représentation dans la cognition, qui selon Searle est nécessaire pour expliquer la cognition (son expérience de la Chambre Chinoise), j’aimerais faire un parallèle avec ce qu’on appelle la « vie ».

    Pourquoi et comment apparaît la vie dans le processus computationnel codé dans le génome (qu’on arrive d’ailleurs à simuler qu’en partie plus on comprend sa complexité) ? Les processus chimiques contrôlés par les gènes réussissent à générer un assemblage complexe et structuré, dit biologique, qui démontre des fonctions difficilement explicables au niveau des constituants physiques et chimiques : le maintient d’un minimum vital énergétique, le mouvement, la reproduction, etc. Lorsqu’on désigne une unité physique autonome ayant ces capacités comme un être vivant on fait une interprétation, on lui associe une représentation d’un « être ayant une intention de survie ». Cette intention de survie n’est pas nécessairement consciente, comme chez les plantes, mais elle est implicite à la définition de ce qu’est le vivant. En fait, il existe un continuum du non-vivant au vivant qui nous fait comprendre que cette distinction est purement culturelle (hors du système physico-chimico-biologique).

    Lorsque Searle dit que l’expérience de la Chambre Chinoise n’est qu’un processus syntaxique qui ignore la représentation, i.e. un humain qui a appris par cœur un algorithme de la grammaire chinoise et les caractères chinois et qui applique bêtement des règles à des symboles qu’il ne comprend pas. Pour lui, cela est suffisant pour dire que ce n’est pas de la cognition parce que si l’humain en question parlait réellement chinois il comprendrait ce qu’il fait. Mais qui dit que parler chinois c’est comprendre le chinois ? Un programme qui joue aux échecs ne comprend pas ce qu’il fait bien qu’il puisse battre un humain. Dirions nous que le programme ne joue pas aux échecs ? Comprendre relève de la conscience à mon avis : la « compréhension » est une représentation associée à la « conscience » d’un résultat livré par une fonction cognitive (output). Alors dire qu’un programme d’échecs ne joue pas échecs c’est commettre une faute d’introspection, non ? C’est interpréter la cognition à travers une perception subjective de ce que cela devrait être.

    ReplyDelete
    Replies
    1. On n'est pas encore rendu là, à la chambre chinoise de Searle. Frère cadet serait perdu dans cette discussion sans une explication frère-cadette de la chambre chinoise en préalable. Donc la réponse courte à la question "est-ce qu'un ordinateur qui joue à l'échec ne joue pas vraiment à l'échec elle est que l'ordinateur ne comprend pas qu'il joue à l'échec (parce qu'un ordinateur ne comprend rien) exactement comme Searle ne comprend pas le chinois dans la chambre chinoise. On peut dire que Searle « parle » (ou plutôt écrit) quand-même le chinois, mais ça ne veut pas dire grande chose, tout comme ça ne dit pas grande chose que Siri parle français (ou anglais, ou chinois). Ça ressemble à quelque-chose de comprendre chinois ou de jouer à l'échec. Un ordi n'a pas le ressenti (= la conscience). Ça ne ressemble à absolument rien d'être un ordinateur.

      L'analogie avec la vie ne tient pas la route. L'état d'être vivant est complètement observable, mesurable et objective. Les biologistes peuvent préciser exhaustivement ce qui sont ces propriétés. L'état d'être conscient (= sensible) n'est ni observable ni objective, et ses mesures ne sont que ses corrélats béhavioraux et neuronnaux. La seule façon de constater si une entité est dans un état conscient, s'est d'être l'entité. Donc, contrairement à l'état vivant, l'état conscient ne peut pas être ni constaté ni expliqué aussi simplement. Et ça veut dire qu'il existe un problème difficile pour expliquer la cognition qui n'existe pas pour expliquer la vie.

      Delete
    2. Désolé pour frère cadet.
      Ce que j'essayais de dire c'est que justement la conscience de parler chinois est une autre question. Si un chinois parle chinois sous hypnose et qu'il en a pas conscience, est-ce qu'il parle chinois ou pas ? Un programme qui joue aux échecs joue aux échecs qu'il en soit conscient ou pas.

      Pour la référence au problème de la vie, je tenais à signaler non pas que le problème est similaire à celui de la conscience, mais que c'est un concept humain (une étiquette), une perception sensible à laquelle on a donné un nom.

      Delete
  3. Frère cadet, après que l'introspection n'est pas été en mesure d'apporter une explication causale à la question: "Comment et pourquoi l'on arrive à faire tout ce que l'on fait?"; on se tourne vers la thèse de la computationnalité.
    La question principale est: Est-ce que la cognition n'est que de la computaiton.

    La computation, contrairement à l'introspection qui n'a rien amené, apporte un petit quelque chose; pour la première fois on a su reproduire un semblant de cognition assignant des tâches spécifique et limité. À l'aide d'algorithmes (qui se traduit de règles oubligatoires énoncés sous forme d'équations calculable.), on peut confectionner un système d'intelligence artificielle qui de l'exterieur (observation) est pratiquement impossible à differencier d'un système cognitinve provenant de l'évolution.

    Le test de Turing (Chatbox), est un expérimentation ou l'on parlerait avec un robot pendant plusieurs années uniquement par "chat" et qu'ilréagirait adéquatement à nos phrases. Ce test démontré même après coup, quand on sait que l'interlocuteur est un robot. Ce pouvoirde connaissance de change en rien à la situation car le robot admet et discute de sa véritable identité. On devrait pouvoir l'insultécomme un simple objet, mais celà se montre plus difficile à dire qu'a faire après autant d'années de relation. Le test démontrela force de la computation.

    À mon humbe avis, malgré l'avancement marqué, on semble manquer l'essentiel. La computation ne reproduit qu'une facette de la cognition et ne sera qu'une des pièces du puzzle pour expliquer comment et pourquoi l'on arrive à faire ce que l'on fait.

    ReplyDelete
    Replies
    1. Et un robot qui était inscrit et présent au cours, sans qu'on se rende compte? Si lui aussi manque l'essentiel, alors c'est quoi l'essentiel, et comment tu sais qu'il le manque, si tu ne peux pas le distinguer d'un de nous (le long d'une vie, si nécessaire)?

      Delete
    2. Ne suffirait-il pas de trouver l'entité responsable de cet création d'apparence cognisante et lui demander comment il a été conçu?

      Et puis, avec l'aide d'une compréhension fonctionnel et réplicable de sa conception, pourious-nous modéliser viablement la cognition?

      Finalement, si cet élève persiste à vouloir rester anonyme est-ce que la rétro-ingénierie demeure notre meilleur option pour cette redécouverte?

      Delete
    3. Je crois avoir compris que l'essentiel manquant serait le dynamique, le robot n'étant qu'une simulation provenant d'un processus totalement discret. On perd le continue/dynamique.

      Pour Sébastien, je doit t'avouer que ta thèse est interessante et pourrait être la solution en autant que le sujet (robot) en question entre dans les critères de ce qu'est la cognition, autrement dit, si le robot n'est que computation.. il faut que la cognition n'égale que la computation pour que les résultats de la rétro-ingénirerie soit valable.

      Delete
  4. An algorithm is a predefined sequence of instructions allowing the achievement of a certain result. In order for x to happen t has to happen first. The principle of causality seems to be the general idea underlying algorithmics. It stipulates that every effect originates from a cause. Therefore, of what I understand, computational theory is largely based on the principle of causality. Human cognition is understood following the same paradigm, the computational paradigm. Little brother, in the text, Cohabitation: Computation at 70, Cognition at 20, it is said that imagery theorists tell us that in order to answer “what was the name or your 3rd grade school-teacher” I first try to picture him/her in my head, then I name him/her. The text then says that those explanations fall short in trying to explain “how I come up with her picture?” or “how I identify her picture?” Little brother, don’t you think that the way those questions are formulated also far short in trying to understand cognition? Let me explain you why.

    First of all, there cannot be an “I” in questions asked by cognitive science. Subjectivity cannot exist in the study of cognition. The reason is this : the moment you use a personal pronoun or any word that refers to a personal intervention, in this case the “I identify”, you become trapped in the same way the little man in our head is and you throw away the causality principle. The little man is this thing in our brain that recognizes and identifies the picture for us. You may ask me what is going on in this little man’s head. Well, that, we don’t know. Now, why is this, that we become indefinitely trapped like the little man and throw away causality principles by sticking the “I” in the question? Before answering that question little brother, I can tell you without hesitation that the author of this text used the word “I” to facilitate and alleviate the comprehension of the text. But, as Heidegger says, the question in any philosophical task is the most important part of the answer. The subject never “identifies”, the subject never “comes up with a picture”. What is meant to be said here is this: there is no intentionality, there is no will. When Descartes says “I think, therefore I am”, he also makes the mistake of saying “I”. Who is “I”? A mental content or a thought can never be intentionally grasped following causality principles. Instead of saying “I think, therefore I am”, we could say “There is thought, therefore there is feeling”. Rephrasing now seems to be more compatible with causality principles.

    ReplyDelete
  5. This comment has been removed by the author.

    ReplyDelete
  6. I would like to add something. I believe that a person is a reactive entity, that is, a physical and complex aggregate of structured matter that reacts in almost unpredictable ways to its environment. Every thought, every mental state or mental content has an origin. It’s not possible to feel anything, if something is not translated into a mental state. There is no awareness of pain with no mental content to translate pain stimulus. Then, what is the causal role of feeling? Maybe feeling is the final cause as Aristote would put it. Maybe, in order for feeling to exist there must be a complex and structured assemblage of matter that only exist here.

    ReplyDelete
  7. La partie sur le test de Turing et le problème soulevé par Searle, m'a aidé à mieux comprendre les points soulevés en classe, du petit et du gros problème en sciences cognitives. Searle a conclu que même si on arrivait à produire un programme qui peut imiter les fonctions mentales des êtres humains, si bien, qu'il puisse passer pour un humain, cela ne permettrait pas de démontrer que le système créé fait réellement de la cognition. On ne pourra pas en déduire que ce système possède un «esprit» similaire aux humains, car on ne pourra pas vérifier s'il comprend réellement les éléments qu'il a traités. C'est donc dire que le petit problème est d'abord de modéliser toutes les fonctions mentales des humains pour arriver à les reproduire dans un programme, et une fois que cela sera fait, le problème sera de trouver comment on peut vérifier, ou ajouter, l'élément de conscience et de compréhension manquant. Et je crois que cela nous mène au problème d'ancrage des symboles qui serait de savoir comment attribuons-nous une signification aux symboles.

    Par ailleurs, je n'ai pas particulièrement bien compris ce que seraient les processus dynamiques, bien qu'ils permettraient peut-être de compléter une théorie computationnelle de la cognition.

    ReplyDelete
  8. problème ancrage des symboles serait plutôt, comment pouvons nous savoir qu'il y a compréhension, interprétation, et non juste une attribution de réponses associées à des symboles?

    ReplyDelete
    Replies
    1. On verra le problème d'ancrage des symboles de facon plus detaillée dans la session 5, mais oui, ta definition est plutôt correcte.
      La computation implique toujours la manipulation des symboles. Mais ces symboles sont manipulés seulement par leur forme, avec une série des règles aribtraires. Un ordinateur et parfaitement capable de faire cela. Pourtant, dans cette manipulation des symboles, on ne considère pas la signification (meaning) de ces symboles. Comme tu dis, il n'ya pas une comprehénsion, mais juste une manipulation des symboles par leur FORME.
      Dans le cas du langage humain, l'ANCRAGE serait le processus à travers duquel chaque symbol (mot) acquiert son sens, sa signification (plus de détails dans la session 5, a venir).

      Mais, attention: la computation peut interpreter des symboles, à travers des règles et des toutes ses combinaisons possibles. Mais ton intuition est correcte dans le sens qu'un symbol "ancré" va plus loin de la manipulation arbitraire qui a lieu dans les systèmes computationels.

      Delete
  9. Le concept de l'anosognosie est encore abstrait pour moi. Je crois comprendre que comme notre cerveau nous apporte toujours une réponse, en plus qui semble toujours bonne, nous sommes donc inconscients. J'aimerais en savoir plus, ainsi que comprendre comment les recherches des neurologues étaient construites pour en arriver à un tel principe.

    ReplyDelete
    Replies
    1. L'anosognosie n'est que la perte de conscience d'un condition (déficit) qui nous arrive. Par exemple: un patient aveugle commence a avoir des hallucinations visuelles et a la conviction de que ces hallucinations sont le monde réel, en perdant la connaissance de sa cecité.

      Le terme a été décrit par le neurologue J. Babinski en 1917. Il a originalement décrit l'anosognosie lors d'une hémiplégie ("anosognosia for hemiplegia"): Un patient atteint d'une accident cerebrovasculaire dans l'hemisphère droit du cerveau perd la motricité du coté gauche de son corps (hemiplégie). Pourtaint, il n'est pas conscient de sa disabilité. Il affirme qu'il peut bien bouger son bras et sa jambe malgré l'evidence physique de sa paralysie.
      Les patients avec anosognosie donneront des explications "rationnels" pour leur déficits comme s'il s'agitait des phenomènes normaux, ou bien ignoreront absolument le problème.
      Dans l'exemple de Babinski, quand il a demandé a ses patients qu'est-ce qui arrivait aux bras qu'ils ne pouvaient pas bouger, il a eu ces types de réponses:

      1. Une femme qui a ignoré sa question: "immobile, gardant le silence et se comportant comme si la question avait été addressée à une autre personne "
      2. "Un de ses sujets … ne parut ni surpris, ni ému de cette constatation; il se contenta de répondre: “C'est juste qu'il va moins vite que l'autre” ".

      Souques, un neurologue francais contemporarie de Babinski, raconte une autre exemple chez un collègue medecin atteint d'un ACV:

      "[I]l ne sembla pas avoir notion de son hémiplégie. Les siens, comme moi, s'étonnaient de son silence à cet égard et de cet oubli de sa paralysie qui était complète. Je prononçai, un jour, le mot d'hémiparésie; il parut n'y pas faire attention"

      Réferences qui pourraient t'intéresser:
      1. Babinski's Anosognosia for Hemiplegia in Early Twentieth-Century French Neurology. Langer, K. Journal of the History of the Neurosciences: Basic and Clinical Perspectives. Volume 18, Issue 4, 2009.
      2.http://www.scholarpedia.org/article/Anosognosia
      3.Markováa, Berrios G. E,. The construction of anosognosia: History and implications. Cortex. Volume 61, December 2014, Pages 9–17 (http://www.sciencedirect.com/science/article/pii/S0010945214003025).
      **Ce dernier article forme partie d'un suplement special du journal Cortex appelé "Understanding Babinski's anosognosia: 100 years later", où tu trouveras beaucoup d'information.

      PS2: Si tu ne peux pas trouver la première reference et elle t'interesse, donne moi ton courriel et je te l'enverrai.

      J'espère que cette information te soit utile.

      Delete
  10. I ask myself if a machine could perceive and interact in the same way that a human until it passes 95% or more of Turing Tests. The confirmation that a machine can do cognitive activity would involve the certitude that it isn’t just perceived on the sensorimotor or neuromechanical level but also that is has the symbolic value behind it. If not we would never be sure that it sees and understands like we do.

    Would the machine be applying and reproducing rules previously set by a human programmer? Would it be doing true cognition in a close enough way from us, non-machine beings? To see something, meaning to be stimulated by a light/object is different than decoding it into meaning, in the same way that we do, to later communicate with others, especially through language: with involves necessarily a code of meanings. This is what we are defining as cognition, to know and to know that it knows. We are not trying to understand just how our brain is seeing and identifying in a purely mechanical way, leading to hardware-related conclusion. More than that we are looking into the “Who” questions, leading to the soul and software. Who perceives and understands those stimuli? Can we program a machine to be conscious

    The Abstract of the text “Cohabitation(…)”, wrote by Mr. Stevan Harnad in 2005 bring a light into spirituality throw science and computation when pointing a virtual architecture of cognition. Taking the route that everything is cognition, otherwise being “too thick for cognition to penetrate”; in other words being that which wasn’t perceived at all. Further on we find a possible explanation for the dichotomy between material and immaterial; body and mind/soul; or hardware and software. As he goes on, I understand that if we perceive the Soul as independent from the Body, such as the software is independent from the hardware, we can be approaching answers to one of the Q question in spirituality: Are we a soul incarnated into a hardware/body who have experiences which are independent from the material where we incarnate?

    Those questions may not be that clear at first, neither theirs answers. A big tip for the track to follow is that we can virtually do any programming in any kind of hardware. When generalizing it to cognition, it brings us to the affirmation that the body doesn’t define the mind’s perception. That our experiences are not restricted to this body nor this incarnation.

    Still we are talking about discrete machines and applying to continuous machines: minds.

    ReplyDelete
    Replies
    1. 1. On ne cherche pas un pourcentage de succès. On cherche à générer (et ainsi expliquer causalement) la vraie capacité humaine, totale, durant toute une vie, et à tel point que c'est indiscernable de la capacité d'un vrai humain.

      2. Le problème facile est d'expliquer causalement le savoir-faire; le problème difficile est d'expliquer causalement le savoir ressenti -- bref, expliquer pourquoi et comment on ressent, plutôt que juste agir.

      3. Il n'y a pas d'âme, mais il y a le ressenti. Les computationnalistes rêvait que la distinction matériel/logiciel résoudrait le problème corps/ressenti, mais comme on verra en semaine 3 et 5, le computannionalisme est insuffisant: La cognition n'est pas juste de la computation.

      Delete
  11. This comment has been removed by the author.

    ReplyDelete
  12. Le principe guidant les sciences cognitives est centré autour de l'étude des processus internes fonctionnels de la "pensée" et comment ceux-ci permettent de cogniser. L'erreur que beaucoup de psychologues ont commis durant leurs recherches a été de se limiter juste aux inputs et outputs sensori-moteurs pour étudier le fonctionnement de la pensée, oubliant tout l'aspect causal réel qui génère ces réponses biophysiologiques. Cela reviendrait, par exemple, à analyser une boite noire d'un appareil électrique selon ce qu'elle peut produire comme effets tout en excluant toute la composante interne de son fonctionnement, incluant non seulement les parties physiques mais aussi les principes fondamentaux qui produisent les effets escomptés avec le matériel physique.

    Voilà essentiellement la principale critique formulée par les cognitivistes qui est dirigée vers les béhavioristes vu leur point de vue désinteressé par rapport à l'aspect causal des processus mentaux. Zenon Pylyshyn prend lui comme exemple la capacité d'apprendre par expérience et pose encore et toujours la même question: comment cette capacité est-elle générée par notre cerveau? La réponse serait, selon les sciences cognitives, la computation, système de manipulation symbolique utilisant un vocabulaire catégoriel non-imagé qui n'est pas accessible par la conscience. Une autre manière de formuler cette hypothèse serait d'affirmer que l'introspection ne peut servir à déchiffrer le fonctionnment de ces processus mentaux car ceux-ci sont d'ordre universels et les capacités de "L'homunculus", petit homme imaginaire pensant dans notre tête, ne se limitent qu'aux processus subcognitifs, ou conscients.

    Bref, l'explication de l'homunculus pour la cognition reviendrait à expliquer le fonctionnement de ma boite noire avec une autre plus petite boite noire à l'intérieur, ce qui est évidemment inutile. La cognition s'ancrerait plutôt dans la computation pour son système causal, sans toutefois s'y restreindre exclusivement, puisque comme le Searle avec sa chambre chinoise, la manipulation de symboles (computation) ne permet pas d'expliquer la dimension interprétative de ces derniers. En conclusion, il est encore très tôt pour catégoriser justement ce qui se trouve dans le champ de la Cognition en termes de processus causaux, mais une chose est sûre, la machine qui passera le Test de Turing en sera une cognisante au plan du fonctionnement.

    ReplyDelete
  13. Je ne sais pas si j’ai completement compris le texte mais, j’aurais voulu qu’il définisse davantage ce qu’il veut dire par Grammaire Universelle. Je me dit que si nous possédions des règles inées de communication donc, l’homme autrefois ne communicait pas par le son mais par le langage corporel. Ainsi, je serai plus enclin à accepter la possibilité d’expliquer la cognition par la thèse de Church Touring. Toutefois, par cette réduction de possibilité, il faut être en mesure de prendre en considération de l’évolution de l’être humain ou, plus précisement, du cerveau humain. Pour faire un lien avec le tout, comment est-il possible de créer une machine capable de faire ce que l’être humain peut faire si jusqu’à date aucune personne n’est dans la capacité d’expliquer comment fonctionne la cognition? Donc, si on cherche plus dans la théorie que notre cerveau fonctionne par image, je pense qu’il sera possible de trouver une réponse à toutes ces questions. Peu importe l’âge, la décennie, l’homme a toujours été en capacité de voir et d’observer, donc, il peut facilement chercher à imiter pour essayer de reproduire le plus exactement ce qu’il voit: c’est ce que nous faisons continuellement pour apprendre tandis que le langage change continuellement et de nouveaux termes ne cessent d’apparaît et de disparraît au fil des années. Donc, je suis en mesure d'affirmer que la cognition n’est pas simplement de la computation car, il faut prendre en compte l’interprétation des images ( symboles) que le cerveau reçoit. Ainsi, il est possible de simuler ce que nous faisons et de comprendre éventuellement comment nous le faisons mais, je persiste à croire que la question du pourquoi ne peut être résolu car, il est beaucoup trop aléatoire et individuelle.

    ReplyDelete