Saturday 11 January 2014

3b. Harnad, S. (2001) What's Wrong and Right About Searle's Chinese RoomArgument?

Harnad, S. (2001) What's Wrong and Right About Searle's Chinese RoomArgument? In: M. Bishop & J. Preston (eds.) Essays on Searle's Chinese Room Argument. Oxford University Press.





Searle's Chinese Room Argument showed a fatal flaw in computationalism (the idea that mental states are just computational states) and helped usher in the era of situated robotics and symbol grounding (although Searle himself thought neuroscience was the only correct way to understand the mind).

5 comments:

  1. If everything that exist follows causality principles, we can easily argue that the non-existence of something cannot be the cause of the existence of something. A cause (multiple causes to) always precede an effect. An apple, as we know it, only grows from apple trees. Let’s imagine a world in which apples don’t exist. In this world no one knows about the existence of apples. Let’s push it even further : no one even knows about the possible existence of apples. In a world where there are no apples and where no one is even aware of the possible existence of apples, no one can talk or have a conversation about apples. Now, you may say : “we can talk about unicorns, yet they don’t exist”. It’s true. It is possible to talk about things that don’t physically exist. However, these imaginations are made of physically existing things. Just try to imagine anything that is not made out of physically existing things. You may say : “ Alright, I can think about the concept of justice”. My answer to this is a simple one. It wouldn’t be possible to think about abstract concepts without experiencing them in any manner. The concept of justice only exist because something was “felt” as just in the first place. Abstraction of any kind is only possible when there is first experience.

    It is said that no one can ever be a hundred percent sure that another human being is conscious or being in a certain “mental state”. This is called the “other minds” problem. How can I be certain that another human being is not just a robot responding to stimuli in complex ways the same way I do? How can I be certain that another human being is able to “feel” the very present moment the way I do? We don’t need to be certain. These are questions scientists have asked themselves when trying to elaborate machines that behave like humans. For them, it is possible to conceptualize a machine that appears, performs or experiences like a human. However, it is not possible for them to be certain that these machines could “feel” or be conscious the same way we do (or the same way we think we all do). I think there is a way to know.

    One has to ask himself this simple question : can it be possible to talk about consciousness or “feeling” if no one is conscious or “feels”? Is it possible to perform or experience like a human with no consciousness or “feeling”? Is human performance dependant of consciousness? The ultimate Turing test would be to wait for the Turing machine to ask itself the same questions humans do about their own consciousness.

    ReplyDelete
    Replies
    1. 1. Tu as expliqué (d'une façon un peu compliquée et un peu trop métaphysique et mystérieuse) comme la compréhension d'une catégorie plus abstraite dépend de la compréhension préalable d'une catégorie plus concrète. En effet, toute catégorie est abstraite, puisqu'on généralise à partir des cas particuliers. On doit abstraire ce qu'ils ont un commun pour pouvoir catégoriser les nouveaux cas. C'est hiérarchique: cette pomme-ci, les pommes, les fruits, la nourriture, etc.

      2. Oui, le problème des autres esprits n'est pas significatif dans le cas des autres êtres humains et les autres mammifères semblables à nous, mais il devient plus important avec les espèces qui nous ressemblent de moins en moins, et il devient spécialement aiguë pour les robots. (C'est pour ça qu'il faut le T3.)

      3. Oui, c'est une question très intéressante à se poser: Si un robot T3 comme Tomy n'était pas conscient (n'avait pas le ressenti), de quoi parlerait-il -- de façon Turing-indiscernable de nous -- lorsqu'il parlait du ressenti! Ça serait quoi, le référent de ses mots à ce propos?

      (Ça me trouble moins, puisque je crois que T3 aurait le ressenti, mais bon.)

      Lorsque Tomy (n'avait pas le ressenti) parlait d'avoir mal à la tête, par exemple, ça pourrait s'agir d'un état interne, non-ressenti, mais un état interne quand-même: l'état d'avoir détecté la condition vasculaire qui, chez nous, donne mal à la tête.

      Pareillement pour une lésion externe, comme lorsqu'on se brule la main: Son système nociceptif détecterait le dommage à sa peau, et la façon dont il verbaliserait ça serait que "ça fait mal." Il y aurait un objet de sa description, mais ça serait un état non-ressenti. Un état interne détecté insensiblement.

      Idem pour la dépression: "Je n'ai plus le plaisir de vivre" aurait comme référent objectif: "je ne détecte plus l'état interne qui me donne tendance à faire ce qu'il faut faire pour continuer à vivre."

      Puis le problème des autres esprit, pour le robot T3 insensible, c'est toujours le problème de savoir l'état interne d'autres robots, sauf que ces états internes ne seraient pas des états ressentis. Le référent pour "ressenti" serait uniquement "interne."

      Puis la distinction entre les états internes ressentis et non-ressentis serait la difference entre les états internes avec ou sans certaines tendances béhaviorales.

      Il n'y a rien qu'on pourrait dire à Tomy, ni rien qu'il pourrait nous dire (étant donné qu'il réussi T3) qui pourrait distinguer entre ces deux possibilités: que lorsqu'il parle du ressenti il parle vraiment du ressenti, ou juste des états internes et les tendances béhaviorales.

      Et le problème difficile -- ce qui n'est pas la même chose que le problème des autres esprits -- devient encore plus difficile grâce à se fait -- le fait que la présence ou l'absence du ressenti ne semble avoir aucune conséquence discernable (ni avantage ou désavantage adaptatif). Si quand-même il faut le ressenti pour réussir T3, alors le problème difficile c'est d'expliquer (causalement) pourquoi? À quoi ça sert? Et comment est-ce que son absence empêcherait-elle de réussir T3?

      Delete
  2. Le biais de l'étudiant en génie logiciel

    L'étudiant participant aux cours de programmation et de mathématiques discrètes pourrait facilement être séduit par les théories computationnalistes. En effet, On lui a déjà apprit qu'on peut faire beaucoup avec peu; des algorithmes complexes avec des règles simples.

    Je pense que c'est l'organisation à niveaux de complexité qui retient son attention, et semble être la panacée des problèmes de l'esprit. L'étudiant court un risque s'il superpose les notions d'un cours à l'autre. S'il lie trop intimement la notion de logique propositionnelle (vrai/faux, 1/0, un processeur) à la notion de programmation . Il confondrait alors les notions digital et analogue. Le neurone deviendrait au cerveau ce que la porte logique IF/OR est à un processeur. Ce n'est pas trop grave, mais celà veut dire que la compréhension et l'intégration du matériel ( le neurone / le processeur / TM / autre..) fait implicitement partie du 'paradigme' utilisé par l'étudiant. Le computationnalisme, par opposition, ne s'intéresse pas au matériel utilisé.

    Si l'étudiant réussi à se délivrer de son biais alors il comprendra plus facilement le positionnement de Searle, et par la même occasion ne se considérera un peu moins computationnaliste.

    ReplyDelete
  3. The strong AI hypothesis becomes easier to be disproved as we advance in this class. To support this theory we need a lot of faith that programmers will sooner or later write a software that can simulate the human brain to the point of arriving in a Intelligence that would be exactly like ours, arriving to the felling of knowing (in opposition to only logic).

    Further on, considering the brain as irrelevant makes me question that, if the hardware isn't important at all, so why do we see neuro-damages that are directly related to our intellectual capacities (special remark here to Sensory discrimination disorder). If that was true, i believe we would be expecting to see no difference in between a person with a fully working brain and the opposite kind of individual.

    Those who believe in the weak AI hypothesis, including myself, see that we are getting closer and closer for a 'perfect' simulation of the human's brain's functions. But because we can simulate it, it doesn't mean it is the same. I see a deep relation in between the fact that we are talking about a discrete-state robot in comparison to a continuous in/output machine, as a animal and for sure a human. We are simulating this continuity but not creating a continuum at all. Those software are being programmed as codes of 0 and 1.

    Possible one day they will mimic cognitive functions so well that no one will differentiate. Closer we look the neuro-impulses more we see that it is not so continuous as they work throw electric boosts of energy.

    Still looking into whats is happening inside the brain and seeing those impulses wont answer the first question: How do we are able perceive it all.

    ReplyDelete
  4. Après la lecture de "
    MINDS, MACHINES AND SEARLE 2:
    WHAT'S RIGHT AND WRONG ABOUT THE CHINESE ROOM ARGUMENT" j'aurais quelques questions:
    - Searle a-t-il démontré (sans-équivoque) que la cognition ne peut être que de la computation ou cela est-il une inférence à partir de ses recherches?

    -Comment seraient formulés ses trois principes fondateurs?

    - Si l'implémentation n'est pas nécessaire pour évaluer si une machine cognise ou pas, il est cependant essentiel d'avoir une composante éxécutive (donc matérielle) générant les processus causaux, ce qui inclurait de facto une propriété physique à la cognition non?

    - (suite) Il est mentionné dans le texte que T2 (ou D2 dans l'exemple du canard) est suffisant pour passer le Test de Turing, pourtant, ce dernier n'exige pas de capacités sensorimotrices comme D3, cela ne signifit-il pas que D2 ne cognise pas et donc que le TT n'est pas valide pour évaluer une machine qui manipule simplement des symboles selon des algorithmes?

    ReplyDelete