mardi 4 janvier 2022

2. Le test de Turing

 Turing, A. M. (1990). Machines informatiques et intelligence. Mind49, 433-460.

Intro : Je propose de considérer la question, “Les machines peuvent-elles penser ?”. On devrait commencer par définir les termes “machine” et “pensée.” Les définitions devraient être choisies de manière à refléter aussi bien que possible l’usage courant de ces mots, mais cette attitude est dangereuse. Si les significations des mots “machine” et “pensée” doivent être utilisées de la manière dont elles le sont habituellement, il est difficile d’échapper à la conclusion que le sens de la question “Les machines peuvent-elles penser ?” et la ré- ponse à cette question doivent être recherchés de façon statistique, comme par sondage. Mais cela est absurde. Plutôt que de tenter une telle définition, je remplacerai la ques- tion par une autre, qui lui est intimement reliée et qui s’exprime en termes relativement non-ambigus...

Harnad, S. (2008) The Annotation Game: On Turing (1950) on Computing,Machinery and Intelligence. In: Epstein, Robert & Peters, Grace (Eds.) Parsing the Turing Test: Philosophical and Methodological Issues in the Quest for the Thinking Computer. Springer 

Résumé : C'est l'article classique de Turing avec citation/commentaire pour souligner ce que Turing a dit, aurait pu signifier ou aurait dû signifier. Le document était équivoque quant à savoir si le test robotique   complet était prévu (T3), ou seulement le test verbal (T2). Il n'est pas clair si tous les candidats sont éligibles, ou uniquement des ordinateurs, ni si le critère de réussite est vraiment total -- l'équivalence et l'indiscernabilité le long d'une vie ou simplement de tromper suffisamment de personnes. assez longtemps. Une fois ces incertitudes résolues, le test de Turing reste aujourd'hui le critère empirique légitime (et unique) de la science cognitive.

Goutefangea, Patrick (2005) Alan Turing et le jeu de l'imitation Cahiers philosophiques 102
Bertrand, J. M. (1987). Test de Turing: jeu d'imitation ou test d'intelligence?. Quaderni, 1(1), 35-45.

Avec le "jeu de l'imitation", Turing imagine une méthode pour décider si une machine "peut penser". Il montre que la définition théorique de la machine qu'il a lui-même donnée en 1936-1937 n'interdit pas l'hypothèse qu'une machine conforme à cette définition puisse l'emporter au jeu. Ce faisant, il n'aborde ni un problème technique, ni un problème de logique théorique, mais s'avance sur le terrain d'une philosophie que l'on qualifiera de "continentale" : pour l'emporter au jeu, la machine doit s'exprimer à la première personne et être pour son adversaire un semblable. La machine victorieuse doit être élevée à la pleine dignité du sujet de la philosophie classique.

0. Le test de Turing expliqué en moins de 3 minutes
1Le modèle Turing (vidéo, langue française)

  

2021: VIDÉO DU Cours 9 février




PPT 2019:







résumé langue anglaise:







 

98 commentaires:

  1. Le test de Turing, expliquer dans le texte ''machines informatiques et intelligence'' me semble tout à fait étrange, n'est-il pas réductionniste de comparer la pensée humaine aux actes interprétables accomplie par une machine ? N'existe-t-il pas quelque chose de bien plus profond dans la pensée humaine ? Turing semble admettre certaines de ces spécificités lorsqu'il fait mention de l'Argument de la conscience, exprimé par Jefferson (4e argument, p.13) : “Pas avant qu’une machine n’ait écrit un sonnet ou composé une symphonie à cause d’émotions et pensées ressenties, et pas par le hasard de concordance de symboles, nous ne pourrons être d’accord sur le fait qu’une machine égale un cerveau humain, c’est-à-dire que non seulement cette machine écrit mais qu’en plus, elle sait ce qu’elle a écrit. Aucun mécanisme ne pourrait ressentir de plaisir lorsqu’il réussit (et pas seulement des signaux artificiels, des stratagèmes faciles), ne pourrait ressentir de difficulté quand ses vannes fusionnent, être réconforté par des flatteries, ou rendu misérable par ses erreurs, charmé par le sexe, en colère ou déprimé parce qu’il n’arrive pas obtenir ce qu’il veut.” Cependant, il écarte cet argument en l'associant au solipsisme et en le renvoyant à un simple déni du test même. Il semble pourtant que la pensée soit contenu dans ce ''je ne sais quoi'' qui caractérise la pensée humaine, ce caractère insaisissable qui rend la pensée authentique. Il semble écarter beaucoup trop rapidement et avec très peu d'effort cet argument qui pourtant semble être logiquement recevable sous bien des angles. Le texte en général est rempli de technicalités informatiques et de divers types de machine, mais il ne semble pas destiné à répondre à la question initiale : Les machines peuvent-elles penser ? On a plutôt l’impression que l’auteur évite la question et cherche à produire une preuve tout à fait autre que celle qui répondrait à cette question. D’ailleurs, cette façon d’éviter la question semble indiquer la position de l’auteur : s’il était possible de répondre à cette question par une preuve, c’est cette preuve qui aurait été présentée, comme ce n’est pas le cas, on peut déduire que Turing n’est pas en mesure de répondre à la question initiale, et ce peu importe l’excuse qu’il donne pour ne pas y répondre, soit : ''Je crois que la question originale a trop peu de sens pour mériter une discussion''.

    RépondreEffacer
    Réponses
    1. "n'est-il pas réductionniste de comparer la pensée humaine aux actes interprétables accomplie par une machine ?"

      Il me semble que les objectifs des sciences cognitives et des neurosciences sont nécessairement réductionnistes, pourtant.
      On veut faire la rétro-ingénierie de notre "machine-pensante". Car justement, dans un cadre scientifique moderne, on opère selon le principe que l'être humain est un organisme et un *système* de "machines" (structures physiques qui accomplissent des actions).

      Il me semble que la question à poser serait plutôt si il s'agit ici d'un *bon* réductionnisme; ou si on devrait plutôt modéliser autrement les phénomènes qui nous intéressent.

      Effacer
    2. Louis-France, Oui, Turing met de coté complètement le problème difficile (comment et pourquoi est-ce que nous sommes capable de ressentir?) et il concentre uniquement sur le problème facile (comment et pourquoi est-ce que nous sommes capable de faire tout ce que nous sommes capables de faire?)

      Mais c’est parce qu’il croit que ce n’est que le problème facile qui est soluble.

      Pourquoi?

      (Il se trompe en traitant le problème difficile de « solipsisme ». Le solipsisme concerne le problème des autres esprits. – C’est quoi la différence?)

      Gabriel, excellente réplique concernant le « réductionnisme » et la régtroingénierie.

      Effacer

    3. Le problème des autres esprits concerne le fait que nous ne pouvons qu’observer le comportement des autres. Notre connaissance de leur pensée est indirecte et donc nous ne pouvons pas savoir sans aucun doute qu’ils pensent réellement.

      Il se trompe en traitant le problème difficile de solipsisme, car ici on réfère plutôt à la difficulté (voir l’impossibilité) de savoir comment nous pouvons ressentir. Au contraire du problème des autres esprits, nous avons la certitude qu’effectivement, nous ressentons. Mais comment? Pourquoi? Hélas…voilà la question.

      Effacer
  2. "n'est-il pas réductionniste de comparer la pensée humaine aux actes interprétables accomplie par une machine ?"

    Il me semble que les objectifs des sciences cognitives et des neurosciences sont nécessairement réductionnistes, pourtant.
    On veut faire la rétro-ingénierie de notre "machine-pensante". Car justement, dans un cadre scientifique moderne, on opère selon le principe que l'être humain est un organisme et un *système* de "machines" (structures physiques qui accomplissent des actions).

    Il me semble que la question à poser serait plutôt si il s'agit ici d'un *bon* réductionnisme; ou si on devrait plutôt modéliser autrement les phénomènes qui nous intéressent.

    RépondreEffacer
  3. Louis-France, Oui, Turing met de coté complètement le problème difficile (comment et pourquoi est-ce que nous sommes capable de ressentir?) et il concentre uniquement sur le problème facile (comment et pourquoi est-ce que nous sommes capable de faire tout ce que nous sommes capables de faire?)

    Mais c’est parce qu’il croit que ce n’est que le problème facile qui est soluble.

    Pourquoi?

    (Il se trompe en traitant le problème difficile de « solipsisme ». Le solipsisme concerne le problème des autres esprits. – C’est quoi la différence?)

    Gabriel, excellente réplique concernant le « réductionnisme » et la régtroingénierie.

    RépondreEffacer
  4. Voici comment moi je pense qu'on parle au frère cadet:

    Le test de Turing cherche à tester si une machine intelligente (computer – computation) peut produire toutes nos capacités humaines, notamment penser (la cognition). La cognition est-elle uniquement de la computation? C’est ce que chercher à tester Alan Turing lorsqu’il imagine ce test. C’est une méthode d’évaluation pour s’assurer d’une rétroingénierie complète et validée de la cognition humaine. La rétroingénierie en question consiste à étudier les processus de la cognition et à déterminer le fonctionnement interne. Appelons-la ici un logiciel. Chez les humains, le logiciel c’est ce qui se passe dans le cerveau. Le cerveau, le corps, etc. sont le hardware; la cognition, c’est le software. Le monde extérieur c’est le data qui passe dans le input (mettons tes yeux) on appelle ça la syntaxe, le logiciel analyse avec un algorithme qui modélise tout ça dans ton cerveau puis tu en comprends quelque chose, ca fait du sens pour toi. Le sens, c’est le data du output on appelle ça la sémantique. Toi, tu es pas un hardware en métal ou en plastique, t’es organique, biochimique : ton data te vient pas JUSTE de tes yeux. Tu ressens, pour ca il faut également la capacité de libération d’hormones, etc. Tu as aussi la capacité de te sentir penser. La p’tite version imaginaire de toi qui court partout dans ton cerveau, celle qui se pose des questions, qui essaie de se comprendre, de faire de l’introspection…. Ca s’appelle un homoncule. Là tu te demandes c’est quoi le lien avec le test de Turing. J’y viens.
    La compréhension, dont le computationnalisme fait fît, c’est aussi la capacité, difficile parfois, mais tout de même, à se départir d'une première impression (décision ou jugement avec la première information que tu as) additionné des informations du sens qu’on donne aux choses. L’ancrage. C'est l’intensité d’un événement : l’intensité d’une émotion, d’un moment de vie qui vient s’ancrer, : ou bien l'ancrage par répétition, le principe est que suite à l’association répétée d’un contexte à un élément particulier y a un enracinement. On y reviendra parce que c'est vraiment important ça.
    vraiment important ça.
    Ok, en gros, le test de Turing c’est ça :
    5 niveaux de tests pour la machine.
    1: consiste à faire n’importe quelle tâche qu'un être humain peut faire. Exécuter une tâche basique comme le joueur ordinateur dans un jeu.
    2 : la capacité verbale; comme répondre à une question, OK Google par exemple
    3 : le sensori-moteur; interagir avec le toucher.
    4 : exécuter avec exactitude tout ce qu’un être humain peut faire, une réplique parfaite à l’exception de l’aspect biologique.
    5 : la bio-ingénierie et la rétroingénierie dans un mariage parfait.
    La question demeure. Est-ce que, même en passant le test de Turing, une machine est réellement dotée de la pensée? Où est-ce que cette méthode Turing a raison, et où est-ce qu’elle a tort? Si une machine passe le test et peut exécuter chacune de ces fonctions, pourquoi est-ce qu’on douterait de la validité de la faculté de penser? De comprendre? De réfléchir?

    RépondreEffacer
  5. Je sais pas pour vous, mais vite comme ca, je doute fort que, même en passant le test 5, la machine soit douée d’un homoncule, je doute qu’elle se sente elle-même penser, en plus, pour être bien certaine que la machine pense, je devrais être moi-même la machine et en plus, me sentir penser. Sauf que ca, c’est pas possible. Même si tu veux savoir ce que ton chum ou ta blonde pense, tu peux pas. C’est ce qu’on appelle l’imperméabilité cognitive. Je ne peux pas savoir ce que l’autre pense réellement si je ne suis pas cet autre. En fait, je ne sais même pas avec certitude si les autres pensent. C'est ce qu'on appelle le solipsisme, le problème des autres-esprits. Peut-être que y a rien qui existe en dehors de mon esprit aussi. Mais là on s'éloigne un p'tit peu. Pas tant.
    Bon, les autres... Est-ce qu'ils pensent? Bah..., il va de soi, en toute logique que si je pense, tout le monde pense. Pourquoi? Et bien parce qu’on se ressemble d’un point de vue général et parce qu’on a plus ou moins les mêmes capacités, les mêmes comportements. Donc, on suppose que tout le monde pense. Alors quoi? Encore une fois, si une machine réussit le test 5, pourquoi ne serait-ce pas normal et même évident qu’elle pense, elle aussi?
    Question importante ici : Un parfait robot-humain qui passe le test de Turing avec mention serait-il fier d'avoir passé le test?
    La simulation d’un cerveau dans une machine n’est qu’une simulation. Si ce cerveau est une machine composée d’un hardware non-organique, elle ne peut pas ressentir. Par contre, et c’est là où c’est tout de même intéressant : si sentir puis ressentir impliquent la libération d’une hormone (genre l’endorphine) et que la machine passe le test de Turing, on peut supposer qu’elle a cette capacité à ressentir (on se rappelle le test 5, le biologique) puisqu’elle a le hardware biochimique nécessaire.
    Ok bon, elle n’a peut-être pas la capacité de se sentir sentir. Autrement dit, on en revient toujours un peu à la question de la conscience ou pour ne pas s’égarer dans une terminologie, je dirai pour l’instant, à la prise de conscience.
    Bah pourquoi pas?

    RépondreEffacer
  6. Je sais pas pour vous, mais vite comme ca, je doute fort que, même en passant le test 5, la machine soit douée d’un homoncule, je doute qu’elle se sente elle-même penser, en plus, pour être bien certaine que la machine pense, je devrais être moi-même la machine et en plus, me sentir penser. Sauf que ca, c’est pas possible. Même si tu veux savoir ce que ton chum ou ta blonde pense, tu peux pas. C’est ce qu’on appelle l’imperméabilité cognitive. Je ne peux pas savoir ce que l’autre pense réellement si je ne suis pas cet autre. En fait, je ne sais même pas avec certitude si les autres pensent. C'est ce qu'on appelle le solipsisme, le problème des autres-esprits. Peut-être que y a rien qui existe en dehors de mon esprit aussi. Mais là on s'éloigne un p'tit peu. Pas tant.
    Bon, les autres... Est-ce qu'ils pensent? Bah..., il va de soi, en toute logique que si je pense, tout le monde pense. Pourquoi? Et bien parce qu’on se ressemble d’un point de vue général et parce qu’on a plus ou moins les mêmes capacités, les mêmes comportements. Donc, on suppose que tout le monde pense. Alors quoi? Encore une fois, si une machine réussit le test 5, pourquoi ne serait-ce pas normal et même évident qu’elle pense, elle aussi?
    Question importante ici : Un parfait robot-humain qui passe le test de Turing avec mention serait-il fier d'avoir passé le test?
    La simulation d’un cerveau dans une machine n’est qu’une simulation. Si ce cerveau est une machine composée d’un hardware non-organique, elle ne peut pas ressentir. Par contre, et c’est là où c’est tout de même intéressant : si sentir puis ressentir impliquent la libération d’une hormone (genre l’endorphine) et que la machine passe le test de Turing, on peut supposer qu’elle a cette capacité à ressentir (on se rappelle le test 5, le biologique) puisqu’elle a le hardware biochimique nécessaire.
    Ok bon, elle n’a peut-être pas la capacité de se sentir sentir. Autrement dit, on en revient toujours un peu à la question de la conscience ou pour ne pas s’égarer dans une terminologie, je dirai pour l’instant, à la prise de conscience.
    Bah pourquoi pas?

    RépondreEffacer
  7. Perso, et je prétends pas avoir la réponse, mais sachant que les informations (le data) proviennent majoritairement de l'estomac, bien que le cerveau les décode, je ne sais pas comment, même en passant le test, sans ancrage, une machine pourrait émettre depuis l'estomac les données nécessaires à l'exécution d'un quelconque algorithme et que ce soit comme les humains en tout point. Alors là bon…, je sais que la machine peut apprendre, mais je me demande jusqu'à quel point les référents seraient vide de sens.
    Le test de Turing c'est un test hypothétique. Même si, et on le sait, ca travaille fort dans les labo, la réussite du test 5 est sûrement pas pour demain matin. Je pense que l'humain est une machine hardware-software beaucoup trop complexe pour être créée artificiellement. Puis, c'est plutôt réducteur. La cognition, ca peut pas être que ça. On peut pas ignorer le problème difficile simplement parce que le problème facile est le seul qui puisse donner lieu à une réponse. Même si le computationnalisme est en tête de course, je pense qu'il faut admettre qu'il y a forcément plus, et puis, au-delà de la matière et du code, il faut l'énergie. Puis bon, on va pas trouver la réponse ce matin.

    RépondreEffacer
    Réponses
    1. Sandy, c'est pas possible. Tu dois réduire les mots, radicalement...

      Effacer
    2. entendu. je serai pas la la semaine prochaine alors j'ai fait une grosse cielo !

      Effacer
  8. Steiner, P. (2005)
    L’un des slogans cognitivistes est : Occupez vous de la syntaxe et la sémantique s’occupera d’elle-même. Nos processus de raisonnement sont de caractère syntaxique; nous ne prenons pas chaque élément en particulier (sémantique). De la même façon la machine de Turing s’occupe de la manipulation des éléments (forme physique).

    RépondreEffacer
    Réponses
    1. Alors comment la sémantique s'occupe-t-elle d'elle-même?

      Effacer
  9. Steiner, P. (2005)
    L’un des slogans cognitivistes est : Occupez vous de la syntaxe et la sémantique s’occupera d’elle-même. Nos processus de raisonnement sont de caractère syntaxique; nous ne prenons pas chaque élément en particulier (sémantique). De la même façon la machine de Turing s’occupe de la manipulation des éléments (forme physique).

    RépondreEffacer
    Réponses
    1. Alors comment la sémantique s'occupe-t-elle d'elle-même?

      Effacer
  10. Pour Chomsky connaître une langue est être dans un certain état mental fait d’une structure de règles et de principes. Dans ce processus les stimules auditives prennent signification, mais nous ne tenons pas conscience de se fait. Selon mes connaissances, le fait d’acquérir la langue de cette façon inconsciente est un processus d’acquisition de la langue. Dans l’acquisition la personne est à l’intérieur de la société; cependant, l’apprentissage d’une langue on le réalise de façon consciente.( Texte Steiner)

    RépondreEffacer
    Réponses
    1. Cette semaine c'est la semaine de Turing. Chomsky s'en vient les semaines 8 et 9.

      Effacer
  11. Sandy, c'est pas possible. Tu dois réduire les mots, radicalement...

    RépondreEffacer
  12. entendu. je serai pas la la semaine prochaine alors j'ai fait une grosse cielo !

    RépondreEffacer
  13. Je cite un extrait du texte #1 qui nous permet de penser au problème facile des sciences cognitives: « Si l’homme voulait faire semblant d’être une machine, il se montrerait vraisemblablement très médiocre. Il serait mis en échec du premier coup par sa lenteur et ses erreurs en arithmétique. » (Turing, 1990, p.3)
    Je crois que cette pensée nous mène à une piste de réflexion pour tenter de comprendre la cognition humaine en comparaison à celle d’une machine (dispositif computationnel, exemple: ordinateur). L’homme a créé la machine. Une machine peut exécuter à peu près tout ce qu’un homme peut faire, mais pas l’inverse. En effet, l’humain prend beaucoup plus de temps que la machine pour trouver l’information. De plus, l’humain se fatigue bien plus vite qu’une machine à force de réfléchir. Si cela nous prend du temps et nous fatigue autant de réfléchir, c’est qu’il y a divers mécanismes en jeu lorsqu’on tente de réfléchir pour donner une réponse à une question. Toutefois, l’humain n’a pas accès à ces mécanismes directement, ils ne sont pas observables. Il ne fait que ressentir, comme le principe de l'homoncule, mais ça reste des données en surface.
    Ce qui est observable et mesurable par contre, ce sont les mécanismes en jeu dans une machine et on peut donc s’en inspirer pour tenter de comprendre comment l’humain pense et enfin répondre à la question facile des sciences cognitives : comment et pourquoi les êtres vivants sont capables de faire ce qu’ils font. On peut donc supposer que tout comme la machine, l’humain est également doté d’une mémoire, dans laquelle il puise les connaissances déjà acquises qu’il utilise comme des outils pour résoudre de nouveaux problèmes. Ces problèmes sont résolus grâce à son propre système de contrôle : ses fonctions exécutives.
    Je crois donc qu’on peut expliquer la cognition humaine avec un mélange du connexionnisme et du computationnalisme. Avec une perspective un peu plus neuropsychologique, les différentes parties du cerveau, telles les pièces qui composent un ordinateur, communiquent entre elles, calculent et font du sens. (ex : mémoire dans l’hippocampe, comme un souvenir de la priorité des opérations arithmétiques apprise au secondaire, puis lobe frontal s’occupe d’exécuter les opérations suite à la manipulation de symboles pour ensuite en faire du sens). Toutefois, contrairement à la machine, cette interaction constante finit par épuiser l’humain, puisque penser demande requiert une quantité importante d’énergie. Malgré ce complexe humain d'être inférieur aux ordinateurs (concept qu'aborde Turing dans le texte), comprendre l'ordinateur (combiné aux connaissances en neuropsychologie) permet néanmoins de mieux comprendre nos processus cognitifs, en tant qu'humain.

    RépondreEffacer
    Réponses
    1. Pour expliquer un mécanisme causal il faut pouvoir le réaliser et le tester afin de démontrer qu'il est capable de livrer la marchandise.

      Est-ce que ces mots-ci -- «tout comme la machine, l’humain est également doté d’une mémoire, dans laquelle il puise les connaissances déjà acquises qu’il utilise comme des outils pour résoudre de nouveaux problèmes» -- donnent une idée concernant comment réaliser un tel mécanisme?

      Effacer
  14. Je cite un extrait du texte #1 qui nous permet de penser au problème facile des sciences cognitives: « Si l’homme voulait faire semblant d’être une machine, il se montrerait vraisemblablement très médiocre. Il serait mis en échec du premier coup par sa lenteur et ses erreurs en arithmétique. » (Turing, 1990, p.3)
    Je crois que cette pensée nous mène à une piste de réflexion pour tenter de comprendre la cognition humaine en comparaison à celle d’une machine (dispositif computationnel, exemple: ordinateur). L’homme a créé la machine. Une machine peut exécuter à peu près tout ce qu’un homme peut faire, mais pas l’inverse. En effet, l’humain prend beaucoup plus de temps que la machine pour trouver l’information. De plus, l’humain se fatigue bien plus vite qu’une machine à force de réfléchir. Si cela nous prend du temps et nous fatigue autant de réfléchir, c’est qu’il y a divers mécanismes en jeu lorsqu’on tente de réfléchir pour donner une réponse à une question. Toutefois, l’humain n’a pas accès à ces mécanismes directement, ils ne sont pas observables. Il ne fait que ressentir, comme le principe de l'homoncule, mais ça reste des données en surface.
    Ce qui est observable et mesurable par contre, ce sont les mécanismes en jeu dans une machine et on peut donc s’en inspirer pour tenter de comprendre comment l’humain pense et enfin répondre à la question facile des sciences cognitives : comment et pourquoi les êtres vivants sont capables de faire ce qu’ils font. On peut donc supposer que tout comme la machine, l’humain est également doté d’une mémoire, dans laquelle il puise les connaissances déjà acquises qu’il utilise comme des outils pour résoudre de nouveaux problèmes. Ces problèmes sont résolus grâce à son propre système de contrôle : ses fonctions exécutives.
    Je crois donc qu’on peut expliquer la cognition humaine avec un mélange du connexionnisme et du computationnalisme. Avec une perspective un peu plus neuropsychologique, les différentes parties du cerveau, telles les pièces qui composent un ordinateur, communiquent entre elles, calculent et font du sens. (ex : mémoire dans l’hippocampe, comme un souvenir de la priorité des opérations arithmétiques apprise au secondaire, puis lobe frontal s’occupe d’exécuter les opérations suite à la manipulation de symboles pour ensuite en faire du sens). Toutefois, contrairement à la machine, cette interaction constante finit par épuiser l’humain, puisque penser demande requiert une quantité importante d’énergie. Malgré ce complexe humain d'être inférieur aux ordinateurs (concept qu'aborde Turing dans le texte), comprendre l'ordinateur (combiné aux connaissances en neuropsychologie) permet néanmoins de mieux comprendre nos processus cognitifs, en tant qu'humain.

    RépondreEffacer
  15. Texte les machines d’information et intelligence
    Les machines peuvent-elles penser?
    Notre pensée parait illimitée : tout le long de notre vie on fait utilisation de notre pensée, mais je me questionne en relation au moment juste qui débute notre pensée et quand elle s’arrête.
    On dirait que même pendant notre sommeil on pense, on élabore des structures mentales : on rêve, on voit les personnes qu’on connaît ou pas, des lieux, je fais des choix et parfois je me dis : ce n’est pas grave, c’est un rêve!
    Comme on a bien dit avant les émotions et ressentis sont complétement laissés de côté dans les programmes des machines.
    La question posée me semble bizarre…si bien la machine a une intelligence artificielle, selon ses programmes, je pense qu’elle n’est pas comparable avec la pensée humaine. La mémoire des machines est limitée; cependant notre mémoire paraît illimitée. Serait-il un problème difficile?

    RépondreEffacer
    Réponses
    1. Le premier défi est le problème facile. (C'est quoi?) Faut d'abord trouver une solution à ça, avant de passer au problème difficile. (C'est quoi?) Ou est-ce que tu as des suggestions pour les traiter en même temps?

      Effacer
  16. Texte les machines d’information et intelligence
    Les machines peuvent-elles penser?
    Notre pensée parait illimitée : tout le long de notre vie on fait utilisation de notre pensée, mais je me questionne en relation au moment juste qui débute notre pensée et quand elle s’arrête.
    On dirait que même pendant notre sommeil on pense, on élabore des structures mentales : on rêve, on voit les personnes qu’on connaît ou pas, des lieux, je fais des choix et parfois je me dis : ce n’est pas grave, c’est un rêve!
    Comme on a bien dit avant les émotions et ressentis sont complétement laissés de côté dans les programmes des machines.
    La question posée me semble bizarre…si bien la machine a une intelligence artificielle, selon ses programmes, je pense qu’elle n’est pas comparable avec la pensée humaine. La mémoire des machines est limitée; cependant notre mémoire paraît illimitée. Serait-il un problème difficile?

    RépondreEffacer



  17. Instructions pour les commentaires (ciélographies):

    Les ciélos ne devraient pas excéder 200 mots.

    Avant de rédiger votre ciélo, lisez les ciélos et les répliques qui ont déjà paru sur la même page.

    Où c’est possible, copiez-collez la phrase que vous adressez dans votre commentaire, pour donner le contexte. (Les mots copiés/collés ne comptent pas dans la limite de 200 mots.)

    Les commentaires (ciélos) ont deux buts:

    -- (a) de manifester votre saisi du contenu du cours (pour l’évaluation)

    -- (b) d’interagir activement avec le contenu du cours (chaton actif)

    Vos commentaires (ciélos) peuvent porter sur les lectures ou sur les cours.

    Vous pouvez aussi faire un commentaire sur un commentaire par un autre étudiant ou sur une de mes répliques -- mais à condition que vous aiez fait les lectures pertinentes au préalable (pas juste pour opiner en l’air!)

    Rédigez le texte de votre ciélo d’abord dans un fichier Word avant de l’afficher, pour pouvoir réessayer si l’affichage ne réussit pas. (Sinon votre ciélo risque de disparaître si blogspot détecte un conflit de login.) Chaque ciélo doit être affichée pour que je puisse y accorder une note (et pour que je puisse y faire une réplique le cas échéant).

    RépondreEffacer



  18. Instructions pour les commentaires (ciélographies):

    Les ciélos ne devraient pas excéder 200 mots.

    Avant de rédiger votre ciélo, lisez les ciélos et les répliques qui ont déjà paru sur la même page.

    Où c’est possible, copiez-collez la phrase que vous adressez dans votre commentaire, pour donner le contexte. (Les mots copiés/collés ne comptent pas dans la limite de 200 mots.)

    Les commentaires (ciélos) ont deux buts:

    -- (a) de manifester votre saisi du contenu du cours (pour l’évaluation)

    -- (b) d’interagir activement avec le contenu du cours (chaton actif)

    Vos commentaires (ciélos) peuvent porter sur les lectures ou sur les cours.

    Vous pouvez aussi faire un commentaire sur un commentaire par un autre étudiant ou sur une de mes répliques -- mais à condition que vous aiez fait les lectures pertinentes au préalable (pas juste pour opiner en l’air!)

    Rédigez le texte de votre ciélo d’abord dans un fichier Word avant de l’afficher, pour pouvoir réessayer si l’affichage ne réussit pas. (Sinon votre ciélo risque de disparaître si blogspot détecte un conflit de login.) Chaque ciélo doit être affichée pour que je puisse y accorder une note (et pour que je puisse y faire une réplique le cas échéant).

    RépondreEffacer
  19. Dans son article, Turing semble avoir fait un raccourci entre la pensée et le langage. Afin de répondre à la question « Est-ce que la machine pense ? », il soumet cette machine au Jeu de l’imitation (défini plusieurs fois dans les ciélos précédentes). Cependant, cela implique que « penser » est une preuve d’intelligence, ET que « communiquer » est aussi une preuve d’intelligence. Ainsi, si les machines « pensent », elles doivent être capables de communiquer (textuellement et non oralement dans cette expérience) avec un humain de façon à ce qu’on ne puisse pas la différencier de celui-ci. Or, si les conditions du jeu font en sorte que l’interrogateur (l’humain) et le candidat (ici la machine) ne peuvent pas se voir ou même s’entendre, cela n’enlève en rien le fait que le langage des êtres humains se développe et interagit aussi avec ses sens (vue, ouïe, odorat, goût, etc.). Ainsi, selon moi, en plaçant un ordinateur numérique (machine) face à un être humain (doté de tous ses sens), la machine ne pourra jamais passer le test de Turing, puisqu’elle n’est pas dotée de ces récepteurs sensoriels comme l’humain.

    RépondreEffacer
    Réponses
    1. Il est vrai que si le candidat TT devra faire preuve de pouvoir faire tout ce que peut faire un être (humain) qui cognise, alors l’absence de toute capacité sensorimotrice semblerait une grande omission. On y reviendra.

      Mais est-ce que Turing ne pourrait pas répondre que, oui, le TT ne teste pas directement la capacité de vision et d’ouï, ni la capacité de mouvement. Mais puisqu’on peut tout décrire verbalement, le TT verbal (T2) teste indirectement nos capacités sensorimotrices aussi.

      Le langage humain est quand-même très puissant. Sa capacité de décrire presque tout devrait nous rappeler la thèse forte de Church/Turing et la capacité de la computation de simuler symboliquement presque tout. (En effet, il va s’avérer que la capacité computationnelle est un sous-ensemble de la capacité linguistique.)

      Donc est-ce que T2 est vraiment insuffisant, comme test de la capacité cognitive, même s’il ne teste les capacités sensorimotrices qu’indirectement?

      Le T3 (c’est quoi?) les teste directement. Mais est-ce vraiment nécessaire? Et si oui, pourquoi?

      Effacer
  20. Voilà mon explication de "machines informatiques et intelligence" de Turing publié dans Mind: Turing dit que l'intelligence ne pourrait pas se limiter qu'aux cerveaux humains mais pourrait s'incarner dans d'autres supports matériels. Le test de turing (= jeu de l'imitation) consiste à placer un être humain dans une pièce, une machine dans une autre et un examinateur humain dans une dernière. Ce dernier va poser des questions à l'être humain et à la machine par écrit afin de déterminer lequel est la machine. Pour Turing, 50 ans après ces écrits nous aurons développé des machines programmées pour qu'elles jouent au jeu de l'imitation et arrivent à tromper quelqu'un. Il dit qu'elles seront capables de tromper un être humaine en 5 minutes dans 70% des cas. L'intelligence artificielle serait la capacité de faire illusion en accomplissant des tâches normalement faites par des êtres intelligents (des êtres humains). Donc si je comprends bien il anticipe la discipline de l'intelligence artificielle?

    RépondreEffacer
    Réponses
    1. Malgré le choix malheureux de mots (« jeu »), le TT n’est pas du tout un jeu, et son but n’est pas du tout de tromper. Son but est de tester si on a réussi à rétro-ingénierier la capacité cognitive (résoudre le problème « facile »). Le T2 est sensé de pouvoir interagir verbalement le long d’une vie (pas 10 minutes! ça s’était juste une prédiction du progrès partiel) : capable de converser de n’importe quoi de façon indiscernable de la communication avec une autre personne.

      Oui, en co-inventant l'ordinateur (ainsi que la computation) Turing a anticipe et l’informatique, et l’intelligence artificielle, et les sciences cognitives (et le problème facile).

      Effacer
  21. Voilà mon explication de "machines informatiques et intelligence" de Turing publié dans Mind: Turing dit que l'intelligence ne pourrait pas se limiter qu'aux cerveaux humains mais pourrait s'incarner dans d'autres supports matériels. Le test de turing (= jeu de l'imitation) consiste à placer un être humain dans une pièce, une machine dans une autre et un examinateur humain dans une dernière. Ce dernier va poser des questions à l'être humain et à la machine par écrit afin de déterminer lequel est la machine. Pour Turing, 50 ans après ces écrits nous aurons développé des machines programmées pour qu'elles jouent au jeu de l'imitation et arrivent à tromper quelqu'un. Il dit qu'elles seront capables de tromper un être humaine en 5 minutes dans 70% des cas. L'intelligence artificielle serait la capacité de faire illusion en accomplissant des tâches normalement faites par des êtres intelligents (des êtres humains). Donc si je comprends bien il anticipe la discipline de l'intelligence artificielle?

    RépondreEffacer
    Réponses
    1. Malgré le choix malheureux de mots (« jeu »), le TT n’est pas du tout un jeu, et son but n’est pas du tout de tromper. Son but est de tester si on a réussi à rétro-ingénierier la capacité cognitive (résoudre le problème « facile »). Le T2 est sensé de pouvoir interagir verbalement le long d’une vie (pas 10 minutes! ça s’était juste une prédiction du progrès partiel) : capable de converser de n’importe quoi de façon indiscernable de la communication avec une autre personne.

      Oui, en co-inventant l'ordinateur (ainsi que la computation) Turing a anticipe et l’informatique, et l’intelligence artificielle, et les sciences cognitives (et le problème facile).

      Effacer
  22. En lisant votre article "The Annotation Game: On Turing (1950) on Computing,Machinery and Intelligence" quand vous introduisez une hiérarchie des tests de Turing je comprends que cette hierarchie serait un parallèle avec les capacités humaines de cognition. Le test de turing décrit dans le jeu de l'imitation se rapporterait au T2 mais en fait il aurait du se rapporter au T3 qui englobe les performances robotiques (sensorimotrices) qui n'ont pas été prises en compte dans le Test de Turing. Ce qui manquait dans la computation du test de Turing était le lien entre le symbole (mot) et référent dans le monde et ce lien est sensorimoteur (symbole-objet) donc équivaut à un T3?

    RépondreEffacer
  23. En lisant votre article "The Annotation Game: On Turing (1950) on Computing,Machinery and Intelligence" quand vous introduisez une hiérarchie des tests de Turing je comprends que cette hierarchie serait un parallèle avec les capacités humaines de cognition. Le test de turing décrit dans le jeu de l'imitation se rapporterait au T2 mais en fait il aurait du se rapporter au T3 qui englobe les performances robotiques (sensorimotrices) qui n'ont pas été prises en compte dans le Test de Turing. Ce qui manquait dans la computation du test de Turing était le lien entre le symbole (mot) et référent dans le monde et ce lien est sensorimoteur (symbole-objet) donc équivaut à un T3?

    RépondreEffacer
  24. Plutôt que de poser la question “Les machines peuvent-elles penser ?”, A. Turing propose d’y substituer un test, celui du jeu de l’imitation. Dans ce jeu, un observateur est en interaction avec une machine (A) et un humain (B), qui sont situés dans des pièces distinctes. Il ne peut ni les voir, ni les entendre, mais peut interagir par écrit avec eux. L’observateur aura pour tâche de déterminer qui de (A) ou (B) est humain. Dans ce jeu, la machine aura pour objectif de tromper l’observateur, tandis que l’humain cherchera à l’aider.
    Turing explique ne pas avoir d’argument positif pour défendre une telle substitution de la question et donc s'attèle plutôt à défaire les objections possibles : “Le lecteur aura compris que je n’ai aucun argument convaincant de nature positive pour appuyer mon point de vue. Si j’en avais, je n’aurais pas fait tant d’efforts pour montrer la fausseté des points de vue contraires.”.
    Pour cela, Turing s’intéresse notamment au contre-argument de la conscience : pour conclure qu’une machine est capable de penser, il faudrait prouver qu’elle peut ressentir et comprendre. Il vient réfuter cet argument ainsi :
    “Selon une forme extrême de ce point de vue selon lequel le seul moyen d’être sûr qu’une machine pense est d’être une machine et de se sentir penser. On pourrait alors décrire ce qu’une machine ressent au monde, mais bien sûr personne n’aurait la possibilité de donner son avis. Selon ce point de vue également, le seul moyen de savoir si un homme pense est d’être cet homme particulier. C’est en fait un point de vue solipsiste. Il peut être le point de vue le plus logique mais il rend la communication des idées difficile. A est susceptible de croire “A pense mais B ne pense pas” tandis que B croit “B pense mais pas A.”. Plutôt que de continuer à tergiverser éternellement sur ce point, il est habituel d’avoir la convention polie que tout le monde pense.”
    Ainsi il restreint ici l’argument de la conscience au ressenti, au fait de se sentir penser. Pourtant, il me semble qu’il y a également un autre élément important dans cet argument de la conscience : celui de la compréhension. Il ne s’agit pas simplement d’être capable de ressentir le fait d’être en train de penser, mais aussi d’être capable de comprendre ce que l’on pense. Il semble ici pertinent de ramener l’exemple de la chambre chinoise de Searl : dans cette expérience, un humain ne parlant pas le chinois pourrait passer ce même jeu de l’imitation en suivant simplement un catalogue de règles syntaxiques de la langue chinoise. De cette manière, il pourrait tromper l’observateur, se faisant passer pour un sinophone sans pour autant comprendre un seul mot de chinois. Cet exemple démontre bien que le jeu de l’imitation de Turing ne permet pas de prouver qu’une machine comprend les symboles qu’elle manipule. L’objection de la conscience, et plus particulièrement de la compréhension du sens, reste donc valide.

    RépondreEffacer
    Réponses
    1. J'avais en effet lu les autres ciélos, mais jusque là, je pensais que la question du ressenti faisait partie du problème difficile, tandis que je classais la compréhensions dans les capacités produites par la cognition qui faisaient partie du problème facile. A votre réponse, je comprends que le ressenti comme la compréhension font en fait tous les deux partie du problème difficile, et qu'il n'y a donc pas lieu de distinguer les deux dans la critique de l'argument de Turing.

      Effacer
    2. Le problème facile est d'expliquer causalement tout ce nous sommes capable de faire (actions observables).

      Le problème difficile est est d'expliquer causalement le fait que nous ressentons (pas une action, pas observable, sauf par le ressenteur).

      La compréhension a deux aspects:

      (1) La capacité a interagir verbalement avec les autres locuteurs (T2) ainsi qu'avec les référents des mots dans le monde (T3) (les identifier, décrire, etc.)

      (2) Le fait que ça ressemble à quelque-chose de comprendre (il y a un ressenti de la compréhension de chaque phrase qu'on comprend exactement comme il y un ressenti de l'ouï de chaque son qu'on entend.

      Effacer
  25. Plutôt que de poser la question “Les machines peuvent-elles penser ?”, A. Turing propose d’y substituer un test, celui du jeu de l’imitation. Dans ce jeu, un observateur est en interaction avec une machine (A) et un humain (B), qui sont situés dans des pièces distinctes. Il ne peut ni les voir, ni les entendre, mais peut interagir par écrit avec eux. L’observateur aura pour tâche de déterminer qui de (A) ou (B) est humain. Dans ce jeu, la machine aura pour objectif de tromper l’observateur, tandis que l’humain cherchera à l’aider.
    Turing explique ne pas avoir d’argument positif pour défendre une telle substitution de la question et donc s'attèle plutôt à défaire les objections possibles : “Le lecteur aura compris que je n’ai aucun argument convaincant de nature positive pour appuyer mon point de vue. Si j’en avais, je n’aurais pas fait tant d’efforts pour montrer la fausseté des points de vue contraires.”.
    Pour cela, Turing s’intéresse notamment au contre-argument de la conscience : pour conclure qu’une machine est capable de penser, il faudrait prouver qu’elle peut ressentir et comprendre. Il vient réfuter cet argument ainsi :
    “Selon une forme extrême de ce point de vue selon lequel le seul moyen d’être sûr qu’une machine pense est d’être une machine et de se sentir penser. On pourrait alors décrire ce qu’une machine ressent au monde, mais bien sûr personne n’aurait la possibilité de donner son avis. Selon ce point de vue également, le seul moyen de savoir si un homme pense est d’être cet homme particulier. C’est en fait un point de vue solipsiste. Il peut être le point de vue le plus logique mais il rend la communication des idées difficile. A est susceptible de croire “A pense mais B ne pense pas” tandis que B croit “B pense mais pas A.”. Plutôt que de continuer à tergiverser éternellement sur ce point, il est habituel d’avoir la convention polie que tout le monde pense.”
    Ainsi il restreint ici l’argument de la conscience au ressenti, au fait de se sentir penser. Pourtant, il me semble qu’il y a également un autre élément important dans cet argument de la conscience : celui de la compréhension. Il ne s’agit pas simplement d’être capable de ressentir le fait d’être en train de penser, mais aussi d’être capable de comprendre ce que l’on pense. Il semble ici pertinent de ramener l’exemple de la chambre chinoise de Searl : dans cette expérience, un humain ne parlant pas le chinois pourrait passer ce même jeu de l’imitation en suivant simplement un catalogue de règles syntaxiques de la langue chinoise. De cette manière, il pourrait tromper l’observateur, se faisant passer pour un sinophone sans pour autant comprendre un seul mot de chinois. Cet exemple démontre bien que le jeu de l’imitation de Turing ne permet pas de prouver qu’une machine comprend les symboles qu’elle manipule. L’objection de la conscience, et plus particulièrement de la compréhension du sens, reste donc valide.

    RépondreEffacer
    Réponses
    1. Ne manque pas de toujours lire les autres ciélos et mes répliques avant de rédiger la tienne. Une partie de ce que tu as dit avait déjà été dit.

      Mais ce passage de Turing sur le « solipsisme » est passage le plus faible de son article. Le solipsisme est une variété de scepticisme extrême concernant la certitude – ce qu’on a discuté en traitant Descartes. Oui, « le problème des autres esprits » (est-ce qu’autrui ressent?) n’a pas une solution certaine, mais elle a des solutions fortes probables. Peut-être pas aussi probable que la loi de la gravitation, qui explique pourquoi les pommes tombent vers le bas et non vers le haut. Mais la loi de la gravitation n’est pas certaine non plus. Il n’y a que deux vérités certaines. (Lesquelles, et pourquoi sont-elles certaines?)

      En effet c’est Turing qui a fourni un test de la probabilité qu’un modèle que nous avons développé pense (= cognise) et c’est son TT (le problème facile : expliquer causalement comment et pourquoi les cogniseurs sont capables de faire tout ce qu’ils sont capables de faire).

      Il y a aussi le problème difficile, que le TT n’est pas en mesure de résoudre. Mais le problème difficile d’expliquer causalement comment et pourquoi les cogniseurs ressentent n’est pas le même problème que le problème des autres esprits, que Turing décrit, mal, en termes de « solipsisme » (ce qui serait de conclure du fait que puisque je ne pas en mesure de savoir avec certitude qu’autrui ressent, alors je dois conclure que c’est uniquement moi-même qui ressent, le seul au monde. C’est ça le solipsisme.

      Et ce qui est sous examen c’est n’importe quel ressenti : le ressenti de voir bleu, d’entendre une clarinette, de sentir de la fumé, de comprendre une explication, comprendre le français, comprendre le chinois…)

      On parlera de Searle la semaine prochaine...

      Effacer
    2. J'avais en effet lu les autres ciélos, mais jusque là, je pensais que la question du ressenti faisait partie du problème difficile, tandis que je classais la compréhensions dans les capacités produites par la cognition qui faisaient partie du problème facile. A votre réponse, je comprends que le ressenti comme la compréhension font en fait tous les deux partie du problème difficile, et qu'il n'y a donc pas lieu de distinguer les deux dans la critique de l'argument de Turing.

      Effacer
    3. Le problème facile est d'expliquer causalement tout ce nous sommes capable de faire (actions observables).

      Le problème difficile est est d'expliquer causalement le fait que nous ressentons (pas une action, pas observable, sauf par le ressenteur).

      La compréhension a deux aspects:

      (1) La capacité a interagir verbalement avec les autres locuteurs (T2) ainsi qu'avec les référents des mots dans le monde (T3) (les identifier, décrire, etc.)

      (2) Le fait que ça ressemble à quelque-chose de comprendre (il y a un ressenti de la compréhension de chaque phrase qu'on comprend exactement comme il y un ressenti de l'ouï de chaque son qu'on entend.

      Effacer
  26. A la question de savoir si les machines peuvent penser, Turing propose d’y substituer le jeu de l’imitation. Donc, plutôt que de se demander si les machines peuvent penser, Turing propose d’y substituer la question de savoir si les machines peuvent simuler la pensée en produisant les mêmes résultats, suggérant par là une forme d’équivalence, même si elle n’est pas totalement explicite :
    “Je crois que dans cinquante ans environ, il sera possible de programmer des ordinateurs d’une capacité d'environ 109, pour les faire jouer au jeu de l’imitation de façon à ce qu’un interrogateur n’ait plus que 70 pour cent de chances de faire l’identification correcte après cinq minutes de questions/réponses. La question originale, “Les machines peuvent-elles penser ?”, je la crois trop privée de sens pour mériter une discussion. Pourtant, je crois qu’à la fin du siècle, l’usage des mots et l’opinion éduquée en général aura tellement changé qu’on sera capable de parler de pensée des machines sans s’attendre à être contredit. “
    Pourtant, il me semble important d’insister ici sur le fait qu’il ne semble pas possible d’établir de façon convaincante une équivalence entre ces deux choses. A ce titre, l’exemple initial utilisé par Turing pour introduire son concept du jeu de l’imitation me semble un exemple approprié “...un jeu que nous appelons le “jeu de l’imitation”. Il se joue à trois, un homme (A), une femme (B), et un interrogateur (C) qui peut être de l’un ou l’autre sexe. L’interrogateur reste dans une pièce et n’est pas vu par les deux autres. L’objectif du jeu pour l’interrogateur est de déterminer qui est l’homme et qui est la femme des deux autres. Il les connaît par leur étiquette (X et Y), et à la fin du jeu, il dit soit “X est A et Y est B” soit “X est B et Y est A.” Dans ce test, c’est l’homme qui cherche à tromper l’observateur pour lui faire croire qu’il est une femme, tandis que la femme aide l’observateur. Mettons que dans ce test, l’homme parvienne régulièrement à tromper l’observateur en lui faisant croire qu’il est une femme. Dans ce cas, le test ne pourra pour autant permettre de conclure pour autant que l’homme vit effectivement intérieurement l’expérience d’être une femme, mais simplement qu’il est en capacité de simuler le fait d’en être une dans une conversation écrite.
    De même, le fait de démontrer qu’un ordinateur est en capacité de simuler le fait de penser comme un humain, qui plus est dans un contexte précis (et donc restreint à une seule tâche) - celui d’échanger avec un humain par écrit - ne permet pas plus de conclure que cet ordinateur est en capacité de penser, il n’y a là pas d’équivalence convaincante à mon sens.

    RépondreEffacer
    Réponses
    1. Le T2 ne teste pas si on peut simuler la capacité d’interagir verbalement avec n'importe qui, à propos de n'importe quoi, de façon indiscernable, le long de la vie, d’une autre personne. T2 teste si le candidat peut vraiment interagir ainsi : Si oui, alors on a réussit à générer les capacités verbales (T2). Mais est-ce assez? Voir les échanges en haut.

      C’est quoi, une simulation computationnelle (symbolique)?

      Effacer
    2. J'aimerais savoir si j'ai bien saisi le concept de simulation computationnelle: c’est simplement une représentation virtuelle d’un objet ou d’un processus réel, ce dernier pouvant être n’importe quoi : un glaçon, un avion, un organe, un environnement, etc. C’est l’encodage des propriétés de cette chose, un peu comme une description verbale. Mais au lieu de mots il y a d’autres symboles, manipulés selon leur forme, et cette manipulation obéit à une suite de règles (un algorithme) : c’est donc juste de la computation, et il n'en résulte qu'une suite de symboles que nous pouvons interpréter, si la simulation est bien faite, mais qui n’a pas de sens *en soi*. La chose simulée est symbolique et n’est pas l’objet réel ; mais bien que cela semble évident, on peut de nos jours être illusionné par le réalisme des simulations (par exemple avec les casques de « réalité » virtuelle, etc.)

      Effacer
    3. Pour faire le lien avec la thèse forte de Church/Turing, celle-ci affirme qu’on peut (en théorie) encoder tout dans l’univers, avec une MT qui fait de la computation (si j’ai bien compris, de façon approximative à cause de la continuité des processus organiques).
      Et c’est très puissant car modéliser des choses ou des processus nous permet de faire des prédictions (approximatives) sur ‘’de quoi ça va avoir l’air en vrai’’. Par exemple un avion qu’on veut construire (on simule l’avion et l’environnement dans lequel il se trouverait), volera correctement une fois construit, si la simulation sur laquelle on se base est bien faite. Ou encore on peut prédire approximativement la météo si on encode bien les propriétés des processus atmosphériques, etc. Mais on pourrait peut-être aussi modéliser le cerveau, avec tout ce qu’un cerveau contient et tout ce qui s’y passe (se basant sur la simulation, il faudrait ensuite tenter de le ‘’construire’’ en vrai, et voir s’il fait la même chose qu’un cerveau humain moyen. Si oui, ce serait une rétro-ingénierie réussie).
      Mais je me demande du coup si la thèse forte a d'autres implications importantes.

      Effacer
    4. Dans l’ensemble, ce que tu dis est correct, Margo. La simulation est un algorithme symbolique (comme toute computation), mais elle est interprétable comme encodant (symboliquement) les propriétés d’un objet dans le monde (comme un glaçon). Elle ne devient « virtuelle » que quand ses sorties sont transmises à un appareil de réalité virtuelle (lunettes et gants) qui stimulent les organes sensoriels (les yeux et la peau). (Mais le mot « représentation » est ambiguë. Mieux de dire « encodage » comme tu le dis plus tard. (Une description verbale ne contient pas son sens non plus : C’est juste une série de mots. Leur sens est dans nos têtes, pas dans le texte.
      1. Processus physiques plutôt que (juste organiques)
      2. L’algorithme correct prédit les propriétés physiques, observables dans le monde : température, position, taille, forme, etc.
      3. Oui, en principe on peut modéliser le cerveau, comme on peut modéliser le cœur. Mais, comme avec le cœur, ce n’est pas la simulation qui fait circuler le sang, c’est sa réalisation matérielle (cœur synthétique, cerveau synthétique – pas leur encodage symbolique).
      4. « de quoi cela à l’air » ou « à quoi ça ressemble » on réserve plutôt pour décrire le ressenti, et le problème difficile. Pas touché par la simulation (modélisation) symboliques des objets (ni les glaçons ni les cerveaux). La puissance que décrit la TC/T c’est que l’algorithme correct peut porter le poids de son interprétation comme ayant symboliquement, les propriétés de l’objet simulé.

      Effacer
  27. A la question de savoir si les machines peuvent penser, Turing propose d’y substituer le jeu de l’imitation. Donc, plutôt que de se demander si les machines peuvent penser, Turing propose d’y substituer la question de savoir si les machines peuvent simuler la pensée en produisant les mêmes résultats, suggérant par là une forme d’équivalence, même si elle n’est pas totalement explicite :
    “Je crois que dans cinquante ans environ, il sera possible de programmer des ordinateurs d’une capacité d'environ 109, pour les faire jouer au jeu de l’imitation de façon à ce qu’un interrogateur n’ait plus que 70 pour cent de chances de faire l’identification correcte après cinq minutes de questions/réponses. La question originale, “Les machines peuvent-elles penser ?”, je la crois trop privée de sens pour mériter une discussion. Pourtant, je crois qu’à la fin du siècle, l’usage des mots et l’opinion éduquée en général aura tellement changé qu’on sera capable de parler de pensée des machines sans s’attendre à être contredit. “
    Pourtant, il me semble important d’insister ici sur le fait qu’il ne semble pas possible d’établir de façon convaincante une équivalence entre ces deux choses. A ce titre, l’exemple initial utilisé par Turing pour introduire son concept du jeu de l’imitation me semble un exemple approprié “...un jeu que nous appelons le “jeu de l’imitation”. Il se joue à trois, un homme (A), une femme (B), et un interrogateur (C) qui peut être de l’un ou l’autre sexe. L’interrogateur reste dans une pièce et n’est pas vu par les deux autres. L’objectif du jeu pour l’interrogateur est de déterminer qui est l’homme et qui est la femme des deux autres. Il les connaît par leur étiquette (X et Y), et à la fin du jeu, il dit soit “X est A et Y est B” soit “X est B et Y est A.” Dans ce test, c’est l’homme qui cherche à tromper l’observateur pour lui faire croire qu’il est une femme, tandis que la femme aide l’observateur. Mettons que dans ce test, l’homme parvienne régulièrement à tromper l’observateur en lui faisant croire qu’il est une femme. Dans ce cas, le test ne pourra pour autant permettre de conclure pour autant que l’homme vit effectivement intérieurement l’expérience d’être une femme, mais simplement qu’il est en capacité de simuler le fait d’en être une dans une conversation écrite.
    De même, le fait de démontrer qu’un ordinateur est en capacité de simuler le fait de penser comme un humain, qui plus est dans un contexte précis (et donc restreint à une seule tâche) - celui d’échanger avec un humain par écrit - ne permet pas plus de conclure que cet ordinateur est en capacité de penser, il n’y a là pas d’équivalence convaincante à mon sens.

    RépondreEffacer
    Réponses
    1. J'aimerais savoir si j'ai bien saisi le concept de simulation computationnelle: c’est simplement une représentation virtuelle d’un objet ou d’un processus réel, ce dernier pouvant être n’importe quoi : un glaçon, un avion, un organe, un environnement, etc. C’est l’encodage des propriétés de cette chose, un peu comme une description verbale. Mais au lieu de mots il y a d’autres symboles, manipulés selon leur forme, et cette manipulation obéit à une suite de règles (un algorithme) : c’est donc juste de la computation, et il n'en résulte qu'une suite de symboles que nous pouvons interpréter, si la simulation est bien faite, mais qui n’a pas de sens *en soi*. La chose simulée est symbolique et n’est pas l’objet réel ; mais bien que cela semble évident, on peut de nos jours être illusionné par le réalisme des simulations (par exemple avec les casques de « réalité » virtuelle, etc.)

      Effacer
    2. Pour faire le lien avec la thèse forte de Church/Turing, celle-ci affirme qu’on peut (en théorie) encoder tout dans l’univers, avec une MT qui fait de la computation (si j’ai bien compris, de façon approximative à cause de la continuité des processus organiques).
      Et c’est très puissant car modéliser des choses ou des processus nous permet de faire des prédictions (approximatives) sur ‘’de quoi ça va avoir l’air en vrai’’. Par exemple un avion qu’on veut construire (on simule l’avion et l’environnement dans lequel il se trouverait), volera correctement une fois construit, si la simulation sur laquelle on se base est bien faite. Ou encore on peut prédire approximativement la météo si on encode bien les propriétés des processus atmosphériques, etc. Mais on pourrait peut-être aussi modéliser le cerveau, avec tout ce qu’un cerveau contient et tout ce qui s’y passe (se basant sur la simulation, il faudrait ensuite tenter de le ‘’construire’’ en vrai, et voir s’il fait la même chose qu’un cerveau humain moyen. Si oui, ce serait une rétro-ingénierie réussie).
      Mais je me demande du coup si la thèse forte a d'autres implications importantes.

      Effacer
  28. Cher frère cadet
    Est-ce qu’une machine peut penser? Pour répondre à la question, il faudrait d’abord définir ce qu’est l’action de penser. Si on attribue le fait de penser à la capacité de faire des calculs, de trier, catégoriser, seule la première action est démontrée dans la machine de Turing. La capacité d’exécuter une série de symboles selon une pré configuration de base. La capacité de REprogrammer la « machine » serait l’évolution de la MT à la machine universelle. Une des nombreuses choses donc je ne suis en mesure de comprendre actuellement c’est comment le cerveau trie et catégorise donc comment le traitement séquentiel passe au traitement parallèle. Comment les informations de plusieurs sources sont traitées et interprétées en même temps et est-ce vraiment le cas en fait? Dans le film « Le jeu de l’imitation », la machine Universelle était Reprogrammée à chaque jour. Nous ne reprogrammons pas nos cerveaux à chaque jour mais de nouvelles informations nous parviennent à chaque jour. Je dois également comprendre ce qu’est un traitement parallèle et comment cela fonctionne-t-il afin de pouvoir le comparer au traitement séquentiel afin d’aller plus loin dans ma réflexion.

    RépondreEffacer
    Réponses
    1. Une brève question ici sur la relation entre la modélisation et les architectures cognitives:

      La question "facile" des sciences cognitives sera traitée de façon adéquate lorsque nous disposerons d'une bonne description, flexible (pouvant répondre à la plupart des fonctions cognitives), robuste (pouvant soutenir la variété des fonctions différenciées, sans inconsistances majeures) du fonctionnement cognitif. Cela revient à dire, du point de vue des sciences empiriques, que nous tenons des mécanismes causaux précis qui permettent d'expliquer le "comment ça marche" de la cognition.

      L'idée centrale du computationnalisme serait que la cognition, c'est essentiellement du calcul.

      Voici donc la question:

      Quelle importance a la question de l'implémentation dans une architecture cognitive instanciée physiquement? Nous pourrions (et il s'en produit beaucoup) penser à différentes sortes d'architectures cognitives que l'on peut réaliser dans des ordinateurs (soit des machines de Turing universelles). Un ordinateur fonctionne en calculant (très rapidement) un grand nombre d'opérations sérielles. Le connexionnisme serait une forme de computation distribuée à une échelle plus granulaire (les noeuds ou les connexions) éventuellement dans une architecture en "Parallel Distributed Processing) (un grand nombre de connexions où se font des computations en parallèle).

      Quelle importance cela a-t-il pour les sciences cognitives que les architectures cognitives soient biologiquement plausibles? C'est-à-dire faudrait-il pour que le programme de recherches computationnaliste nous fournisse des mécanismes causaux répondant au problème facile des sciences cognitives que l'on peut instancier dans des modèles qui pourraient être des entités biologiques que nous pourrions rencontrer dans la réalité biologique?

      Que se passe-t-il si nos modèles sont implémentables seulement dans des ordinateurs? Faut-il dissoudre la frontière entre machines biologiques et machines numériques?

      Effacer
  29. Cher frère cadet
    Est-ce qu’une machine peut penser? Pour répondre à la question, il faudrait d’abord définir ce qu’est l’action de penser. Si on attribue le fait de penser à la capacité de faire des calculs, de trier, catégoriser, seule la première action est démontrée dans la machine de Turing. La capacité d’exécuter une série de symboles selon une pré configuration de base. La capacité de REprogrammer la « machine » serait l’évolution de la MT à la machine universelle. Une des nombreuses choses donc je ne suis en mesure de comprendre actuellement c’est comment le cerveau trie et catégorise donc comment le traitement séquentiel passe au traitement parallèle. Comment les informations de plusieurs sources sont traitées et interprétées en même temps et est-ce vraiment le cas en fait? Dans le film « Le jeu de l’imitation », la machine Universelle était Reprogrammée à chaque jour. Nous ne reprogrammons pas nos cerveaux à chaque jour mais de nouvelles informations nous parviennent à chaque jour. Je dois également comprendre ce qu’est un traitement parallèle et comment cela fonctionne-t-il afin de pouvoir le comparer au traitement séquentiel afin d’aller plus loin dans ma réflexion.

    RépondreEffacer
    Réponses
    1. Une brève question ici sur la relation entre la modélisation et les architectures cognitives:

      La question "facile" des sciences cognitives sera traitée de façon adéquate lorsque nous disposerons d'une bonne description, flexible (pouvant répondre à la plupart des fonctions cognitives), robuste (pouvant soutenir la variété des fonctions différenciées, sans inconsistances majeures) du fonctionnement cognitif. Cela revient à dire, du point de vue des sciences empiriques, que nous tenons des mécanismes causaux précis qui permettent d'expliquer le "comment ça marche" de la cognition.

      L'idée centrale du computationnalisme serait que la cognition, c'est essentiellement du calcul.

      Voici donc la question:

      Quelle importance a la question de l'implémentation dans une architecture cognitive instanciée physiquement? Nous pourrions (et il s'en produit beaucoup) penser à différentes sortes d'architectures cognitives que l'on peut réaliser dans des ordinateurs (soit des machines de Turing universelles). Un ordinateur fonctionne en calculant (très rapidement) un grand nombre d'opérations sérielles. Le connexionnisme serait une forme de computation distribuée à une échelle plus granulaire (les noeuds ou les connexions) éventuellement dans une architecture en "Parallel Distributed Processing) (un grand nombre de connexions où se font des computations en parallèle).

      Quelle importance cela a-t-il pour les sciences cognitives que les architectures cognitives soient biologiquement plausibles? C'est-à-dire faudrait-il pour que le programme de recherches computationnaliste nous fournisse des mécanismes causaux répondant au problème facile des sciences cognitives que l'on peut instancier dans des modèles qui pourraient être des entités biologiques que nous pourrions rencontrer dans la réalité biologique?

      Que se passe-t-il si nos modèles sont implémentables seulement dans des ordinateurs? Faut-il dissoudre la frontière entre machines biologiques et machines numériques?

      Effacer
  30. Il est vrai que si le candidat TT devra faire preuve de pouvoir faire tout ce que peut faire un être (humain) qui cognise, alors l’absence de toute capacité sensorimotrice semblerait une grande omission. On y reviendra.

    Mais est-ce que Turing ne pourrait pas répondre que, oui, le TT ne teste pas directement la capacité de vision et d’ouï, ni la capacité de mouvement. Mais puisqu’on peut tout décrire verbalement, le TT verbal (T2) teste indirectement nos capacités sensorimotrices aussi.

    Le langage humain est quand-même très puissant. Sa capacité de décrire presque tout devrait nous rappeler la thèse forte de Church/Turing et la capacité de la computation de simuler symboliquement presque tout. (En effet, il va s’avérer que la capacité computationnelle est un sous-ensemble de la capacité linguistique.)

    Donc est-ce que T2 est vraiment insuffisant, comme test de la capacité cognitive, même s’il ne teste les capacités sensorimotrices qu’indirectement?

    Le T3 (c’est quoi?) les teste directement. Mais est-ce vraiment nécessaire? Et si oui, pourquoi?

    RépondreEffacer

  31. Le problème des autres esprits concerne le fait que nous ne pouvons qu’observer le comportement des autres. Notre connaissance de leur pensée est indirecte et donc nous ne pouvons pas savoir sans aucun doute qu’ils pensent réellement.

    Il se trompe en traitant le problème difficile de solipsisme, car ici on réfère plutôt à la difficulté (voir l’impossibilité) de savoir comment nous pouvons ressentir. Au contraire du problème des autres esprits, nous avons la certitude qu’effectivement, nous ressentons. Mais comment? Pourquoi? Hélas…voilà la question.

    RépondreEffacer
  32. Après le cours (Test de Turing) de la semaine 2, voici ce qui me traverse l’esprit. Qu’est-ce que le TT veut absolument prouver? Il cherche à résoudre le problème facile. Pourtant, aucun indice ni piste ne semble être trouvé pour expliquer causalement pourquoi on est capable de faire ce qu’on fait en tant qu’humain. Dans le TT, le robot qui défie les capacités humaines n’est qu’une sorte de MTU qui applique plusieurs algorithmes selon s’il doit parler, marcher, jouer, etc. On revient donc au point déjà abordé; cognition=computation? Si la cognition était seulement de la computation, alors il n’y aurait pas de problème à résoudre, car il suffirait de trouver l’algorithme dans notre cerveau qui nous permet de penser par exemple et l’appliquer pour un robot-humain. Là où tout le monde est d’accord (je suppose) c’est qu’il y’a une partie de computation dans la cognition, mais le reste est un mystère. Et si la solution était alors découverte, mais que nous n’avions pas le matériel ou les outils pour reproduire toutes les propriétés d’un cerveau? Serait-ce une réussite ou une défaite pour les sciences cognitives?

    RépondreEffacer
    Réponses
    1. Le TT teste si le candidat (le T2 ou le T3) produit toutes les capacités cognitives. Mais pour ce faire, il faut d’abord créer le candidat, par observation, essaie, erreur et réflexion, comme en toute science et toute rétroingénierie. Si on ne peut pas créer le candidat en matériel on ne peut le tester qu’en virtuel (simulant et le candidat, et son environnement). Ce serait comme modeliser une nouvelle fusée à l'aide d'une simulation computationnelle, mais sans être capable de la construire en matériel pour qu'une puisse la tester : peut-être qu'elle réussirait à quitter la terre, peut-être pas.

      Un robot peut contenir une MTU, ou plusieurs, ou aucune. Le robot n’est pas un ordinateur, ou juste un ordinateur. Qu’est-ce qu’il peut être de plus?

      Effacer
  33. Après le cours (Test de Turing) de la semaine 2, voici ce qui me traverse l’esprit. Qu’est-ce que le TT veut absolument prouver? Il cherche à résoudre le problème facile. Pourtant, aucun indice ni piste ne semble être trouvé pour expliquer causalement pourquoi on est capable de faire ce qu’on fait en tant qu’humain. Dans le TT, le robot qui défie les capacités humaines n’est qu’une sorte de MTU qui applique plusieurs algorithmes selon s’il doit parler, marcher, jouer, etc. On revient donc au point déjà abordé; cognition=computation? Si la cognition était seulement de la computation, alors il n’y aurait pas de problème à résoudre, car il suffirait de trouver l’algorithme dans notre cerveau qui nous permet de penser par exemple et l’appliquer pour un robot-humain. Là où tout le monde est d’accord (je suppose) c’est qu’il y’a une partie de computation dans la cognition, mais le reste est un mystère. Et si la solution était alors découverte, mais que nous n’avions pas le matériel ou les outils pour reproduire toutes les propriétés d’un cerveau? Serait-ce une réussite ou une défaite pour les sciences cognitives?

    RépondreEffacer
  34. Suite au cours #2 traitants sur le test de Turing, je vais tenter d’expliquer au frère cadet ce qu’est la Sous-Détermination, la Sur-Détermination et, ce faisant, la différence entre les deux.
    La Sous-Détermination, c’est la possibilité qu’un problème puisse être soluble de plus d’une manière. Par exemple, prenons un problème mathématique simple : Additionnez des chiffres entiers jusqu’à arriver au chiffre 4. Il y aurait plusieurs moyens d’y parvenir.
    2 + 2 = 4, 1 + 1 + 1 + 1 = 4, 3 + 1 = 4, 1 + 3 = 4.
    Ainsi, puisque pour un Input donné (dans ce cas-ci, obtenir 4 en n’additionnant que des chiffres entiers), il y a plusieurs chemins employables pour arriver à l’Output (4), cette problématique simple est un exemple de Sous-Déterminisme.
    Le Sur-Déterminisme, c’est que pour un input et un output donné, il ne peut y avoir qu’UN seul chemin (ou algorithme) utilisable.
    Utilisons un autre problème mathématique simple pour l’exemplifier : Obtenir, en additionnant que des chiffres entiers, 2.
    Il n’y a qu’un seul algorithme possible, dans ce cas-ci :
    1 + 1 = 2
    Puisqu’il n’y a pas d’autres chemins possibles pour arriver à ce Output, c’est un exemple de Sur-Déterminisme.
    (Je ne définis pas dans ma ciélo ce qu’est un algorithme, puisque ça a été abordé dans des ciélos précédentes)

    RépondreEffacer
    Réponses
    1. Très bien expliqué. C'est quoi le lien entre la sous/sur-détermination et l'équivalence computationnelle forte et faible?

      Et ton exemple de sous/sur-détermination était formel (mathématique). Peux-tu aussi donner un exemple empirique (en sciences naturelles ou en rétro-ingénierie)?

      Effacer
  35. À la suite du cours de cette semaine, une question m’est venue en tête. Si les machines non-biologiques (tels que les machines de Turing) de niveau T5 correspondent à des êtres humains rétro-ingéniés, et nous savons que nous sommes aptes à penser, pourquoi, même si ce type de machine n’est que possible théoriquement, nous posons-nous la question de la cognition de machines inorganiques?

    Avec la technologie qui nous est accessible présentement, il nous est impossible de faire une machine qui est supérieure au niveau T2, qui fait de la computation. Alors, la question que l’on tente de résoudre, et qui est hypothétique, en fonction de la technologie qui existe présentement, est plutôt de savoir si la computation égale la cognition.

    Si l’on émet cette interrogation, il nous faudrait déterminer ce que sont les cognitions, ainsi que la computation. De manière très simplifiée, le premier serait l’ensemble des facultés disponibles aux êtres humains, et le second serait les capacités d’une MT.

    Sachant cela, on pourrait conclure que, si la computation égalait bel et bien la cognition, il nous serait possible, un jour, de retro-ingénier notre cerveau pour être aptes à créer des machines ayant les mêmes facultés que nous-mêmes. Dans ce cas-là, deux moyens de se faire se présenteraient à nous, étant la sous-détermination (utiliser différents chemins pour arriver à une même solution, dans ce cas la solution étant avoir une machine qui a les mêmes capacités que l’être humain), et la surdétermination (arriver à la même solution en utilisant le même parcourt).

    Mais si ce n’était pas le cas, et que la computation n’égalerait pas la cognition, nous serions forcés de rejeter l’idée qu’une MT universelle pourrait exister. J’affirme cela parce qu’une MT universelle, en théorie, peut simuler l’ensemble de l’univers. Mais pour ce faire, elle doit simuler les humains, ainsi que leurs cognitions, quelque chose qui ne pourrait pas être accomplit ci ce type de machine n’as pas accès à des cognitions.

    RépondreEffacer
    Réponses

    1. Le T5 est nécessairement biologique, par définition (pourquoi)? Il ne pourrait se construire que par de la génie moléculaire. Mais ni T4 ni T3 ne pourrait être uniquement un ordinateur (pourquoi?) Et si T2 pouvait être uniquement un ordinateur, ça c’est le sujet de cette Semaine 3!

      Le T2 est purement verbal. On n’a encore rien qui est ni supérieur ni égal au T2, juste des jouets t2. Mais si par « supérieur au T2 » tu veux dire T3, on a aussi les robots jouets t3. Mais les capacités T3 sont aussi des capacités cognitives. Ce qui est plus intéressant serait de se demander s’il peut y avoir des capacités purement symboliques qui dépassent les pouvoirs verbaux de T2. (» Étienne dit » Non, parce que (1) toute affirmation pensable peut être exprimée verbalement et (2) la computation est un sous-ensemble de la capacité verbale. Donc la capacité linguistique inclut la capacité computationnelle, et ainsi la CT/T forte. On reviendra à ça quand on traitera le langage, Semaines 8 et 9)

      La capacité linguistique inclut la capacité computationnelle, mais la capacité computationnelle n’inclut pas la capacité linguistique! On traite ça cette semaine.

      Il n’est pas nécessaire que le computationnelisme (cognition = computation) soit vrai pour qu’on puisse simuler la cognition; il faut juste la CT/T forte : On peut aussi simuler la gravitation, mais la gravitation n’est pas de la computation. Simuler, c’est modéliser symboliquement. La sous-détermination ici serait que peut-être qu’il y a plusieurs algorithmes différents qui pourraient chacun simuler la cognition. (La surdétermination ici serait triviale : c’est d’utiliser plus de paramètres que nécessaire. Je crois que tu le confonds avec l’équivalence forte : même algorithme unique.)

      Non, la fausseté du computationnelisme (donc que la cognition n’égale pas la computation) ne falsifie pas la possibilité d’une MTU (un ordinateur). Tout peut être simulable sans pour autant que tout soit de la computation. L’aspirateur simulé suffit pour démontrer ça. (C’est quoi la différence entre un objet matériel et sa simulation computationnelle? Attention pour ne pas perdre tes repères dans ta réflexion dans la galerie des glaces créée par la projection de ton interprétation des symboles.)

      Effacer
  36. À la suite du cours de cette semaine, une question m’est venue en tête. Si les machines non-biologiques (tels que les machines de Turing) de niveau T5 correspondent à des êtres humains rétro-ingéniés, et nous savons que nous sommes aptes à penser, pourquoi, même si ce type de machine n’est que possible théoriquement, nous posons-nous la question de la cognition de machines inorganiques?

    Avec la technologie qui nous est accessible présentement, il nous est impossible de faire une machine qui est supérieure au niveau T2, qui fait de la computation. Alors, la question que l’on tente de résoudre, et qui est hypothétique, en fonction de la technologie qui existe présentement, est plutôt de savoir si la computation égale la cognition.

    Si l’on émet cette interrogation, il nous faudrait déterminer ce que sont les cognitions, ainsi que la computation. De manière très simplifiée, le premier serait l’ensemble des facultés disponibles aux êtres humains, et le second serait les capacités d’une MT.

    Sachant cela, on pourrait conclure que, si la computation égalait bel et bien la cognition, il nous serait possible, un jour, de retro-ingénier notre cerveau pour être aptes à créer des machines ayant les mêmes facultés que nous-mêmes. Dans ce cas-là, deux moyens de se faire se présenteraient à nous, étant la sous-détermination (utiliser différents chemins pour arriver à une même solution, dans ce cas la solution étant avoir une machine qui a les mêmes capacités que l’être humain), et la surdétermination (arriver à la même solution en utilisant le même parcourt).

    Mais si ce n’était pas le cas, et que la computation n’égalerait pas la cognition, nous serions forcés de rejeter l’idée qu’une MT universelle pourrait exister. J’affirme cela parce qu’une MT universelle, en théorie, peut simuler l’ensemble de l’univers. Mais pour ce faire, elle doit simuler les humains, ainsi que leurs cognitions, quelque chose qui ne pourrait pas être accomplit ci ce type de machine n’as pas accès à des cognitions.

    RépondreEffacer
    Réponses

    1. Le T5 est nécessairement biologique, par définition (pourquoi)? Il ne pourrait se construire que par de la génie moléculaire. Mais ni T4 ni T3 ne pourrait être uniquement un ordinateur (pourquoi?) Et si T2 pouvait être uniquement un ordinateur, ça c’est le sujet de cette Semaine 3!

      Le T2 est purement verbal. On n’a encore rien qui est ni supérieur ni égal au T2, juste des jouets t2. Mais si par « supérieur au T2 » tu veux dire T3, on a aussi les robots jouets t3. Mais les capacités T3 sont aussi des capacités cognitives. Ce qui est plus intéressant serait de se demander s’il peut y avoir des capacités purement symboliques qui dépassent les pouvoirs verbaux de T2. (» Étienne dit » Non, parce que (1) toute affirmation pensable peut être exprimée verbalement et (2) la computation est un sous-ensemble de la capacité verbale. Donc la capacité linguistique inclut la capacité computationnelle, et ainsi la CT/T forte. On reviendra à ça quand on traitera le langage, Semaines 8 et 9)

      La capacité linguistique inclut la capacité computationnelle, mais la capacité computationnelle n’inclut pas la capacité linguistique! On traite ça cette semaine.

      Il n’est pas nécessaire que le computationnelisme (cognition = computation) soit vrai pour qu’on puisse simuler la cognition; il faut juste la CT/T forte : On peut aussi simuler la gravitation, mais la gravitation n’est pas de la computation. Simuler, c’est modéliser symboliquement. La sous-détermination ici serait que peut-être qu’il y a plusieurs algorithmes différents qui pourraient chacun simuler la cognition. (La surdétermination ici serait triviale : c’est d’utiliser plus de paramètres que nécessaire. Je crois que tu le confonds avec l’équivalence forte : même algorithme unique.)

      Non, la fausseté du computationnelisme (donc que la cognition n’égale pas la computation) ne falsifie pas la possibilité d’une MTU (un ordinateur). Tout peut être simulable sans pour autant que tout soit de la computation. L’aspirateur simulé suffit pour démontrer ça. (C’est quoi la différence entre un objet matériel et sa simulation computationnelle? Attention pour ne pas perdre tes repères dans ta réflexion dans la galerie des glaces créée par la projection de ton interprétation des symboles.)

      Effacer
  37. Cher frère cadet
    Après le cours de cette semaine, il semblerait que la question facile des sciences cognitives est en parti résolu par les apports de Alan Turing. Est-ce que les machines peuvent penser? En partant du principe que nous sommes des machines et que nous sommes capables d’exécuter des symboles et de passer d’un état à un autre, Turing a donc réussi à rétro-ingénier le niveau 2 (T2) qui caractérise le langage. Mais c’est en réalité plus que ça que le test de Turing a été en mesure de faire puisque c’est le robot et non l’ordinateur qui exécute les symboles donc nous en sommes à la rétro-ingénierie T3. Donc, qu’est-ce qui ne peut être modélisé par un ordinateur digital normal serait tout ce qui est analogue (état continu). Ce qui est analogue ne peut donc pas être computationnalisé car l’état n’est pas fini. Ma question est donc la suivante; est-ce qu'une émotion est un état fini? Turing a prétendu que seule la question facile était traitable et que le problème qui n'est pas solutionnable concernait le ressenti. Est-ce parce que le ressenti n'est donc pas computationnable dû à sa caractéristique analogue ou parce que c'est l’homoncule qui peut définir ce qu’il ressent?

    RépondreEffacer
    Réponses
    1. La question facile des sciences cognitives serait en partie résolue -– si on réussissait à rétro-ingénierier un candidat qui réussit le TT!

      Turing n’a rien rétro-ingénierié : il a proposé une méthodologie pour tester si notre rétro-ingénierie a réussi.

      Nous sommes des machines. Toute machine (entre autres) peut être simulée (symboliquement) par une Machine de Turing (MT). Mais ça ne veut pas dire que toutes les machines sont des MTs. (Réfléchis sur ça : il faut bien comprendre la différence. Sers-toi de l’analogie avec la description verbale : tout objet peut être décrit verbalement, mais ça ne veut pas dire que tout objet est une description!)

      Le Robot T3 ne manipule pas les symboles. Il manipule les objets dans le monde. C’est un ordinateur (une MT ou une MTU ou un mathématicien) qui manipule les symboles : L’ordi peut -- manipulant les symboles en exécutant un algorithme -- simuler le robot et les objets et ses manipulations des objets, mais il ne peut pas faire ce que fait le robot.

      L’analog peut se modéliser (simuler, symboliquement) par un ordinateur (e.g., un glaçon, une chute d’eaux, une vague), mais juste approximativement (discrètement) parce que les états (finis) de la MT, ainsi que ses symboles et ses opérations sont discrets et finis. Mais encore plus pertinent que le fait que c’est discret et fini est le fait que la computation ne consiste que des symboles, manipulés selon une recette formelle (algorithme), opérant sur forme (arbitraire) des symboles, et pas selon leur sens ou leur interpretation.

      On ne sait pas si le substrat physique et physiologique est discret ou continu. On ne sait même pas si la physique est continue ou discrète. Il se peut que les émotions soient des états chimiques (donc analog), mais qu’à sa base sous-moléculaire la chimie soit discrète. Mais toutes ces spéculations concernant la continuité n’éclairent aucunement le problème difficile du ressenti, peu importe que le ressenti (‘feeling’) soit le ressenti d’une émotion, ou de la chaleur, ou d’à quoi ça ressemble de voir la couleur rouge, ou de comprendre une phrase en chinois, ou de hoqueter…

      Effacer
    2. Merci, je vais relire quelques fois encore votre réponse et revoir mes notes afin de poursuivre la compréhension.

      Effacer
  38. Très bien expliqué. C'est quoi le lien entre la sous/sur-détermination et l'équivalence computationnelle forte et faible?

    Et ton exemple de sous/sur-détermination était formel (mathématique). Peux-tu aussi donner un exemple empirique (en sciences naturelles ou en rétro-ingénierie)?

    RépondreEffacer
  39. [J'espère que c'est n'est pas trop hors-sujet, mais] Je suis curieuse de savoir si quelqu’un peut de me réexpliquer, style très-sœur cadette, ce qu’Étienne a exprimé à propos de Matrix dans les cours.
    Le film est quand-même loin dans mon souvenir, mais ce que j’ai compris de la critique est que l’idée principale est absurde, car « je » ne pourrais pas être une simulation, encore moins une simulation dans une simulation (si je me souviens bien !). Je comprends que la simulation n’est pas l’objet matériel. Mais on dirait que quelque chose ne « clique » pas dans ma tête à propos de l’idée qu’on ne peut, en aucun cas, être dans une simulation !
    (Personnellement, je n'ai pas cette intuition, mais j'ai l'impression de ne pas pouvoir *expliquer* pourquoi ce n'est pas vraisemblable)
    Merci !

    RépondreEffacer
    Réponses
    1. Personne n'ayant répondu, je vais tenter une explication frère-cadet:

      C'est une confusion entre la simulation symbolique et la réalité virtuelle (RV) (lunettes, gants).

      Mais c’est simple à l’expliquer avec l'analogie entre une simulation computationelle et une description verbale : Les deux ne sont que des symboles (arbitraires), des codes, qui sont interprétables par l’utilisateur comme étant l’objet simulé ou décrit. Margo Kurgan peut être décrite dans une description verbale. Mais c’est juste des mots, des symboles, dans les deux cas (la description ainsi que la computation). Ni la simulation symbolique de MK ni la description verbale de MK n’est MK!

      La différence entre la simulation et la description, la raison pour laquelle on fait l’erreur avec la simulation et pas avec la description est due entièrement à la technologie de la RV (lunettes, gants), qui est alimentée par les sorties de la simulation. Mais les symboles qui sont des sorties de la simulation ne seraient également rien que des symboles s’ils n’étaient pas liés (physiquement) au dispositif RV qui n’est plus de la computation mais du matériel : d’abord l’activité physique que génèrent les sorties de la simulation dans les lunettes et les gants de la RV, et ensuite ce que cette activité génère dans les récepteurs sensoriels, physiologiques, de la personne qui porte les lunettes et les gants.

      Ce qui était, auparavant, juste des interprétations des symboles du code de la simulation ou de la description, respectivement, se passant dans la tête de l’utilisateur qui lit le code, deviennent, dans seul le cas de la simulation projetée aux gants/lunettes RV et puis les yeux et les mains de l’utilisateur, quelque chose que l’utilisateur peut avoir la sensation de voir et de toucher. Ce que ressent l’utilisateur est grâce à l’exactitude de l’algorithme qui encodait symboliquement les attributs physiques de l’objet simulé (le glaçon).

      C’est là où on perd nos repères dans une sorte de galerie des glaces. La VR est une illusion générée à travers mes sens (réels!). Le lieu de l’illusion est le dispositif RV et son interface (physique) avec mes sens. Le glaçon simulé n’est pas « dans » la computation qui est dans l’ordinateur d’origine des sorties symboliques qui sont ensuite transformées dans le dispositif RV et ensuite dans nos yeux et nos têtes. Il n’y a pas de glaçon, juste du code (algorithmique).

      Maintenant, considérons, au lieu d’un glaçon simulé, une personne humaine simulée. C’est toujours juste du code symbolique, comme la description verbale. Ici une vraie personne, là des symboles interprétables comme les attributs et les actions de la personne, soit simulées numériquement, soit décrites verbalement. La simulation ainsi que la description peuvent être interprétées par l’utilisateur/lecteur comme référent aux attributs et aux actions de la personne simulée ou décrite. Dans le cas de la simulation on peut, en plus, à l’aide des gants et des lunettes de la RV, créer la sensation à l’utilisateur qu’il voit et touche la personne simulée. Mais c’est une illusion. Ce qui touche les yeux de l’utilisateur ne provient pas d’une vraie personne matérielle (contrairement à ce qui se passe dans une session zoom, qui provient d’une vraie personne, une vraie caméra, etc.). Ce qui touche les yeux dans une RV est une illusion produite par (1) du code symbolique transformé par (2) un dispositif RV à (3) de la stimulation aux yeux de l’utilisateur.

      Là où on se perd dans sa propre réflexion dans cette galerie des glaces c’est quand on imagine (d’une façon incohérente, oubliant tous les détails que je viens d’expliciter dans cette explication très détaillée et répétitive) que l’utilisateur aussi, donc moi-même aussi, je pourrais n’être qu’une simulation dans une réalité virtuelle.

      Effacer
    2. [Je pourrais aller plus loin, en faisant le lien avec (1) le Cogito de Descartes, (2) le problème des autres esprits, (3) les thèses faibles et fortes de Church/Turing, (4) le lien profond entre la computation et le langage (la computation est un sous-ensemble du langage humain : « 2 + 2 = 4 » est du français!) et (5) le problème difficile du ressenti. Mais ça risque de provoquer des migraines, si cette longue explication ne l’a pas déjà fait...]

      Effacer
    3. Une sous-question sur cette réponse fort éclairante:

      En tentant le lien avec (1) le Cogito de Descartes.

      Descartes utilise la méthode du doute hyperbolique (le doute radical de tout) pour tenter d'asseoir sa métaphysique et ainsi fonder la possibilité d'une connaissance apodictique (essentiellement vraie). Le problème initial qui l'occupe est un ancien problème de la philosophie, celui de savoir si la perception que mes sens et mon intelligence me fournissent de la réalité est avérée.

      En se rappelant que nous rêvons lorsque nous dormons, Descartes en vient à mettre en question notre sens de la réalité, en postulant soit un Dieu trompeur, soit un malin génie qui pourrait même nous faire croire à des vérités mathématiques qui seraient illusoires.

      Le premier pas hors de ce doute, outre la présupposition d'un Dieu vérace (un dieu non trompeur) qui garantirait les fondations de la connaissance consiste dans le Cogito soit, à peu de choses près ce que l'on retient de ses Méditations métaphysiques: "Je pense donc je suis ou encore, je sais que je suis une chose pensante parce que je pense".

      La question en lien avec la simulation:

      Ce que je comprend c'est qu'il serait absurde de postuler une simulation comme étant l'essence même de notre relation à une simulation parce qu'il y aurait un problème de "niveau interprétatif". Autrement dit, devant la simulation (son encodage menant à des stimuli lesquels seraient fournis par un dispositif qui relaierait l'encodage à nos sens), il faut une intelligence extérieure à la simulation qui interprète la simulation.

      Dans une intelligence artificielle, si je comprends bien, il n'y a pas de niveau en dehors de la simulation, la machine artificielle intelligente ne peut pas "auto-poser" sa conscience en sortant de sa computation pour constater qu'elle est en train de computer. Peut-on envisager un jour un méta-programme informatique qui peut constater la computation comme nous pouvons constater notre flux de pensée consciente?

      Question subsidiaire: Que se passe-t-il lorsque nous rêvons?

      Effacer
    4. Une illusion (perceptive) c'est quand on voit quelque chose qui n'est pas vraiment là.

      C’est quoi la différence entre une simulation computationnelle d’un objet, l’objet, et la réalité virtuelle (RV), et un objet virtuel.

      Le code computationnel à un interprète : c’est l’utilisateur (réel).

      Une RV est regardée par des yeux : les yeux d’un réel utilisateur

      On ne peut pas simuler l’utilisateur. Pourquoi pas?

      Effacer
  40. [J'espère que c'est n'est pas trop hors-sujet, mais] Je suis curieuse de savoir si quelqu’un peut de me réexpliquer, style très-sœur cadette, ce qu’Étienne a exprimé à propos de Matrix dans les cours.
    Le film est quand-même loin dans mon souvenir, mais ce que j’ai compris de la critique est que l’idée principale est absurde, car « je » ne pourrais pas être une simulation, encore moins une simulation dans une simulation (si je me souviens bien !). Je comprends que la simulation n’est pas l’objet matériel. Mais on dirait que quelque chose ne « clique » pas dans ma tête à propos de l’idée qu’on ne peut, en aucun cas, être dans une simulation !
    (Personnellement, je n'ai pas cette intuition, mais j'ai l'impression de ne pas pouvoir *expliquer* pourquoi ce n'est pas vraisemblable)
    Merci !

    RépondreEffacer
    Réponses
    1. Personne n'ayant répondu, je vais tenter une explication frère-cadet:

      C'est une confusion entre la simulation symbolique et la réalité virtuelle (RV) (lunettes, gants).

      Mais c’est simple à l’expliquer avec l'analogie entre une simulation computationelle et une description verbale : Les deux ne sont que des symboles (arbitraires), des codes, qui sont interprétables par l’utilisateur comme étant l’objet simulé ou décrit. Margo Kurgan peut être décrite dans une description verbale. Mais c’est juste des mots, des symboles, dans les deux cas (la description ainsi que la computation). Ni la simulation symbolique de MK ni la description verbale de MK n’est MK!

      La différence entre la simulation et la description, la raison pour laquelle on fait l’erreur avec la simulation et pas avec la description est due entièrement à la technologie de la RV (lunettes, gants), qui est alimentée par les sorties de la simulation. Mais les symboles qui sont des sorties de la simulation ne seraient également rien que des symboles s’ils n’étaient pas liés (physiquement) au dispositif RV qui n’est plus de la computation mais du matériel : d’abord l’activité physique que génèrent les sorties de la simulation dans les lunettes et les gants de la RV, et ensuite ce que cette activité génère dans les récepteurs sensoriels, physiologiques, de la personne qui porte les lunettes et les gants.

      Ce qui était, auparavant, juste des interprétations des symboles du code de la simulation ou de la description, respectivement, se passant dans la tête de l’utilisateur qui lit le code, deviennent, dans seul le cas de la simulation projetée aux gants/lunettes RV et puis les yeux et les mains de l’utilisateur, quelque chose que l’utilisateur peut avoir la sensation de voir et de toucher. Ce que ressent l’utilisateur est grâce à l’exactitude de l’algorithme qui encodait symboliquement les attributs physiques de l’objet simulé (le glaçon).

      C’est là où on perd nos repères dans une sorte de galerie des glaces. La VR est une illusion générée à travers mes sens (réels!). Le lieu de l’illusion est le dispositif RV et son interface (physique) avec mes sens. Le glaçon simulé n’est pas « dans » la computation qui est dans l’ordinateur d’origine des sorties symboliques qui sont ensuite transformées dans le dispositif RV et ensuite dans nos yeux et nos têtes. Il n’y a pas de glaçon, juste du code (algorithmique).

      Maintenant, considérons, au lieu d’un glaçon simulé, une personne humaine simulée. C’est toujours juste du code symbolique, comme la description verbale. Ici une vraie personne, là des symboles interprétables comme les attributs et les actions de la personne, soit simulées numériquement, soit décrites verbalement. La simulation ainsi que la description peuvent être interprétées par l’utilisateur/lecteur comme référent aux attributs et aux actions de la personne simulée ou décrite. Dans le cas de la simulation on peut, en plus, à l’aide des gants et des lunettes de la RV, créer la sensation à l’utilisateur qu’il voit et touche la personne simulée. Mais c’est une illusion. Ce qui touche les yeux de l’utilisateur ne provient pas d’une vraie personne matérielle (contrairement à ce qui se passe dans une session zoom, qui provient d’une vraie personne, une vraie caméra, etc.). Ce qui touche les yeux dans une RV est une illusion produite par (1) du code symbolique transformé par (2) un dispositif RV à (3) de la stimulation aux yeux de l’utilisateur.

      Là où on se perd dans sa propre réflexion dans cette galerie des glaces c’est quand on imagine (d’une façon incohérente, oubliant tous les détails que je viens d’expliciter dans cette explication très détaillée et répétitive) que l’utilisateur aussi, donc moi-même aussi, je pourrais n’être qu’une simulation dans une réalité virtuelle.

      Effacer
    2. [Je pourrais aller plus loin, en faisant le lien avec (1) le Cogito de Descartes, (2) le problème des autres esprits, (3) les thèses faibles et fortes de Church/Turing, (4) le lien profond entre la computation et le langage (la computation est un sous-ensemble du langage humain : « 2 + 2 = 4 » est du français!) et (5) le problème difficile du ressenti. Mais ça risque de provoquer des migraines, si cette longue explication ne l’a pas déjà fait...]

      Effacer
    3. Une sous-question sur cette réponse fort éclairante:

      En tentant le lien avec (1) le Cogito de Descartes.

      Descartes utilise la méthode du doute hyperbolique (le doute radical de tout) pour tenter d'asseoir sa métaphysique et ainsi fonder la possibilité d'une connaissance apodictique (essentiellement vraie). Le problème initial qui l'occupe est un ancien problème de la philosophie, celui de savoir si la perception que mes sens et mon intelligence me fournissent de la réalité est avérée.

      En se rappelant que nous rêvons lorsque nous dormons, Descartes en vient à mettre en question notre sens de la réalité, en postulant soit un Dieu trompeur, soit un malin génie qui pourrait même nous faire croire à des vérités mathématiques qui seraient illusoires.

      Le premier pas hors de ce doute, outre la présupposition d'un Dieu vérace (un dieu non trompeur) qui garantirait les fondations de la connaissance consiste dans le Cogito soit, à peu de choses près ce que l'on retient de ses Méditations métaphysiques: "Je pense donc je suis ou encore, je sais que je suis une chose pensante parce que je pense".

      La question en lien avec la simulation:

      Ce que je comprend c'est qu'il serait absurde de postuler une simulation comme étant l'essence même de notre relation à une simulation parce qu'il y aurait un problème de "niveau interprétatif". Autrement dit, devant la simulation (son encodage menant à des stimuli lesquels seraient fournis par un dispositif qui relaierait l'encodage à nos sens), il faut une intelligence extérieure à la simulation qui interprète la simulation.

      Dans une intelligence artificielle, si je comprends bien, il n'y a pas de niveau en dehors de la simulation, la machine artificielle intelligente ne peut pas "auto-poser" sa conscience en sortant de sa computation pour constater qu'elle est en train de computer. Peut-on envisager un jour un méta-programme informatique qui peut constater la computation comme nous pouvons constater notre flux de pensée consciente?

      Question subsidiaire: Que se passe-t-il lorsque nous rêvons?

      Effacer
  41. La question facile des sciences cognitives serait en partie résolue -– si on réussissait à rétro-ingénierier un candidat qui réussit le TT!

    Turing n’a rien rétro-ingénierié : il a proposé une méthodologie pour tester si notre rétro-ingénierie a réussi.

    Nous sommes des machines. Toute machine (entre autres) peut être simulée (symboliquement) par une Machine de Turing (MT). Mais ça ne veut pas dire que toutes les machines sont des MTs. (Réfléchis sur ça : il faut bien comprendre la différence. Sers-toi de l’analogie avec la description verbale : tout objet peut être décrit verbalement, mais ça ne veut pas dire que tout objet est une description!)

    Le Robot T3 ne manipule pas les symboles. Il manipule les objets dans le monde. C’est un ordinateur (une MT ou une MTU ou un mathématicien) qui manipule les symboles : L’ordi peut -- manipulant les symboles en exécutant un algorithme -- simuler le robot et les objets et ses manipulations des objets, mais il ne peut pas faire ce que fait le robot.

    L’analog peut se modéliser (simuler, symboliquement) par un ordinateur (e.g., un glaçon, une chute d’eaux, une vague), mais juste approximativement (discrètement) parce que les états (finis) de la MT, ainsi que ses symboles et ses opérations sont discrets et finis. Mais encore plus pertinent que le fait que c’est discret et fini est le fait que la computation ne consiste que des symboles, manipulés selon une recette formelle (algorithme), opérant sur forme (arbitraire) des symboles, et pas selon leur sens ou leur interpretation.

    On ne sait pas si le substrat physique et physiologique est discret ou continu. On ne sait même pas si la physique est continue ou discrète. Il se peut que les émotions soient des états chimiques (donc analog), mais qu’à sa base sous-moléculaire la chimie soit discrète. Mais toutes ces spéculations concernant la continuité n’éclairent aucunement le problème difficile du ressenti, peu importe que le ressenti (‘feeling’) soit le ressenti d’une émotion, ou de la chaleur, ou d’à quoi ça ressemble de voir la couleur rouge, ou de comprendre une phrase en chinois, ou de hoqueter…

    RépondreEffacer
  42. Merci, je vais relire quelques fois encore votre réponse et revoir mes notes afin de poursuivre la compréhension.

    RépondreEffacer
  43. Une simulation computationnelle d’un objet n’est pas l’objet (sa réalisation matérielle). Les simulations sont symboliques, elles encodent les propriétés des objets. Il est alors possible d’interroger la simulation ou voir les états symboliques en les interprétant comme étant l’objet. Mais une description verbale ne peut pas être un objet. Une simulation computationnelle peut être convertie en description mais les choses qu’elle fait ne sont pas les choses que fait un objet car la manipulation de symboles est interprétable comme étant un objet. La simulation peut avoir toutes les propriétés symboliques de l’objet qu’elle simule mais n’est pas l’objet qu’elle simule. Je pense donc avoir compris pourquoi la simulation d’un glacier qui fond n’est pas un glacier qui fond. Est-ce juste ?

    RépondreEffacer
    Réponses
    1. C'est juste!

      Une observation de plus: La simulation computationnelle d'un objet ainsi que la description verbale d'un objet sont, toutes les deux, des codes symboliques. (Les mots sont des symboles.) Et toutes les deux nécessitent un utilisateur/lecteur pour les interpréter. Le sens des symboles n'est pas dans la simulation, ni dans la description. Il est dans le cerveau de l'utilisateur. Dans le cas de la RV, la perception est dans les yeux et la main (et le cerveau) de l'utilisateur du RV. Pas dans la simulation.

      Effacer
  44. Une simulation computationnelle d’un objet n’est pas l’objet (sa réalisation matérielle). Les simulations sont symboliques, elles encodent les propriétés des objets. Il est alors possible d’interroger la simulation ou voir les états symboliques en les interprétant comme étant l’objet. Mais une description verbale ne peut pas être un objet. Une simulation computationnelle peut être convertie en description mais les choses qu’elle fait ne sont pas les choses que fait un objet car la manipulation de symboles est interprétable comme étant un objet. La simulation peut avoir toutes les propriétés symboliques de l’objet qu’elle simule mais n’est pas l’objet qu’elle simule. Je pense donc avoir compris pourquoi la simulation d’un glacier qui fond n’est pas un glacier qui fond. Est-ce juste ?

    RépondreEffacer
    Réponses
    1. C'est juste!

      Une observation de plus: La simulation computationnelle d'un objet ainsi que la description verbale d'un objet sont, toutes les deux, des codes symboliques. (Les mots sont des symboles.) Et toutes les deux nécessitent un utilisateur/lecteur pour les interpréter. Le sens des symboles n'est pas dans la simulation, ni dans la description. Il est dans le cerveau de l'utilisateur. Dans le cas de la RV, la perception est dans les yeux et la main (et le cerveau) de l'utilisateur du RV. Pas dans la simulation.

      Effacer
  45. La notion de rétro-ingénierie et son lien avec le problème facile est important. Lorsqu’on arrive à reproduire un comportement déjà existant, cela implique qu'on a trouvé les mécanismes causals à ce comportement, c’est un peu le principe de rétro-ingénieurie. On pourrait dire que le test de Turing est une méthodologie pour valider notre rétro-ingénierie. Le test de Turing serait donc une solution potentiel au problème facile puisqu’il parviendrait à expliquer comment et pourquoi nous sommes capables de faire ce que nous faisons.

    RépondreEffacer
  46. La notion de rétro-ingénierie et son lien avec le problème facile est important. Lorsqu’on arrive à reproduire un comportement déjà existant, cela implique qu'on a trouvé les mécanismes causals à ce comportement, c’est un peu le principe de rétro-ingénieurie. On pourrait dire que le test de Turing est une méthodologie pour valider notre rétro-ingénierie. Le test de Turing serait donc une solution potentiel au problème facile puisqu’il parviendrait à expliquer comment et pourquoi nous sommes capables de faire ce que nous faisons.

    RépondreEffacer
  47. La sous-détermination signifie qu’il y a plusieurs solutions possibles ou équivalentes. On pourrait utiliser l’analogie plusieurs chemins mènent à Rome. Prenons l’exemple du cours où Jasmin est un robot conçu au MIT. Jasmin passe T3, peu importe le mécanisme dans son crâne. C'est un mécanisme qui répond au problème facile. Si un autre élève est un robot, mais qu’il est fait à Stanford et qu’il a un autre mécanisme, dans ce cas, on pourrait dire que le problème facile est sous-déterminé puisque plusieurs solutions équivalentes sont possibles. À l’inverse, la surdétermination signifie qu’il y a une seule solution possible.

    RépondreEffacer
    Réponses
    1. Super analogie pour expliquer la sous-détermination!

      Si je peux me permettre de compléter pour expliquer la surdétermination au frère/soeur cadette, on peut reprendre le concept du chemin pour Rome, mais s'imaginer qu'on a la contrainte de n'emprunter qu'un seul chemin. Par exemple, lorsqu'on souhaite monter un meuble IKEA, il n'y a pas deux-cent façons d'y arriver: il faut suivre à la lettre le manuel d'instruction pour atteindre l’objectif. Contrairement à Jasmin, notre robot T3, si on suit une logique surdéterminée, on arriverait à une machine T5 qui exécute tout ce que l’humain est capable de faire, autant verbalement que physiquement, mais si on ouvre son crâne, on retrouve un cerveau qui contient matière grise, blanche, mêmes aires cérébrales qui communiquent entre elles par influx nerveux entre les neurones. Bref, qui exécute tout ce que robot Jasmin peut faire, mais avec la contrainte d’un matériel biologique/organique d’un humain dans le crâne (une seule solution possible).

      Effacer
  48. La sous-détermination signifie qu’il y a plusieurs solutions possibles ou équivalentes. On pourrait utiliser l’analogie plusieurs chemins mènent à Rome. Prenons l’exemple du cours où Jasmin est un robot conçu au MIT. Jasmin passe T3, peu importe le mécanisme dans son crâne. C'est un mécanisme qui répond au problème facile. Si un autre élève est un robot, mais qu’il est fait à Stanford et qu’il a un autre mécanisme, dans ce cas, on pourrait dire que le problème facile est sous-déterminé puisque plusieurs solutions équivalentes sont possibles. À l’inverse, la surdétermination signifie qu’il y a une seule solution possible.

    RépondreEffacer
    Réponses
    1. Super analogie pour expliquer la sous-détermination!

      Si je peux me permettre de compléter pour expliquer la surdétermination au frère/soeur cadette, on peut reprendre le concept du chemin pour Rome, mais s'imaginer qu'on a la contrainte de n'emprunter qu'un seul chemin. Par exemple, lorsqu'on souhaite monter un meuble IKEA, il n'y a pas deux-cent façons d'y arriver: il faut suivre à la lettre le manuel d'instruction pour atteindre l’objectif. Contrairement à Jasmin, notre robot T3, si on suit une logique surdéterminée, on arriverait à une machine T5 qui exécute tout ce que l’humain est capable de faire, autant verbalement que physiquement, mais si on ouvre son crâne, on retrouve un cerveau qui contient matière grise, blanche, mêmes aires cérébrales qui communiquent entre elles par influx nerveux entre les neurones. Bref, qui exécute tout ce que robot Jasmin peut faire, mais avec la contrainte d’un matériel biologique/organique d’un humain dans le crâne (une seule solution possible).

      Effacer
  49. À propos du texte de Jean-Michel Bertrand “Test de Turing : jeu d’imitation ou test d’intelligence?”

    Ici, je retiens les propos de M. Bertrand qui, selon moi, sont les plus pertinents concernant la critique de l’efficacité du jeu de l’imitation. Comme l’explique M. Bertrand, les rôles et les règles du jeu restent beaucoup trop vagues pour qu’on puisse en tirer quelques conclusions que ce soit sur la pensée. À quoi bon définir alors que le créateur du jeu peine à expliciter les rôles des participants. Il faut d’abord savoir quel est le rôle de l’humain dans le jeu, car c’est bien la pensée de ce dernier que la machine tentera d’imiter.

    De plus, on parle de différenciation homme/femme (un participant homme et une participante femme) pour le jeu, comme si l’expérience de ces deux genres (sexes) étaient pareillement connue de tous les êtres humains, comme s’ils étaient une langue commune, c’est-à-dire, on l’apprend puis on la maitrise, alors qu’il y a bien des différences non seulement biologiques, mais personnelles (experiences) concernant les deux sexes. M. Bertrand utilise l’exemple que, dans le jeu, si l’individu qui se fait questionner est un homme, il ne connaîtrait sûrement pas le prix d’un rouge à lèvre. Mais dans cet exemple, le prix du rouge à lèvre reste une connaissance facilement accessible, alors qu’il existe d’autres caractéristiques de l’expérience (personnelles, physiques, sentimentales, psychologiques, sociologiques, etc.) qui entrent en jeu dans les différences hommes/femmes et qui sont intimement liées à l'expérience humaine et donc à la pensée.

    RépondreEffacer
  50. Charlotte Guilbault10 février 2022 à 08 h 00

    Le teste de Turing, autrement appeler le jeu de l’imitation, cherchait à voir si les ordinateurs pouvaient imiter les humains de façon à pouvoir se faire passer pour eux. Au début, l’interlocuteur devait trouver parmi trois personnes lequel était un homme et laquelle était une femme. Turing a, par la suite, reproduit la même expérience en remplaçant une des personnes par un ordinateur. Pour Turing, l’ordinateur est seulement ce qu’on le programme pour être. Sans l’humain, l’ordinateur n’est rien.
    Lors de son expérience, les participants arrivaient assez facilement à identifier lequel des interlocuteurs était l’ordinateur et lequel était humain. Cependant, plus le temps avance et plus la technologie s’améliore ce qui fait que la distinction devient de plus en plus difficile aux cours des années. En gros, le test de Turing est une sorte de méthodologie visant à valider ou invalider notre rétroingénieurie candidate, qui serait une solution au problème facile.
    Finalement, la thèse faible de Turing est que, tout ce qui est solvable par un algorithme, l’est aussi par une machine de Turing. En ce qui concerne de sa thèse forte, elle voudrait que nous soyons capables de simuler tout ce qu’il y a dans l’univers.

    RépondreEffacer
  51. Léo Caron-Guillemette1 mai 2022 à 19 h 27

    Le test de Turing est encore aujourd’hui utilisé pour déterminer la capacité d’une intelligence artificielle à imiter une conversation humaine. Ainsi, si un humain confond une machine avec laquelle il discute pour une autre personne, alors on considère que l’AI a réussi le test, ce qui amènerait Turing à dire qu’une « machine peut penser ». Je ne suis toutefois pas d’accord avec cette affirmation. En effet, le fait qu’une machine puisse imiter la capacité humaine à faire la conversation ne signifie pas nécessairement qu’elle arrive à raisonner. Comme vous l’avez souligné, une machine qui arrive à tromper un humain durant une conversation de cinq minutes est bien différent que de dire qu’elle est en mesure de le faire pour la durée de toute une vie. Autrement dit, même si une machine arrivait à induire en erreur un humain pendant cinq minutes, cela signifie seulement qu’une telle conversation peut être modélisée par un système computationnaliste, mais il faudrait qu’un tel système arrive à le faire sur la durée de toute une vie pour pouvoir commencer à croire qu’une telle machine peut réellement penser.

    RépondreEffacer
  52. Léo Caron-Guillemette1 mai 2022 à 19 h 27

    Le test de Turing est encore aujourd’hui utilisé pour déterminer la capacité d’une intelligence artificielle à imiter une conversation humaine. Ainsi, si un humain confond une machine avec laquelle il discute pour une autre personne, alors on considère que l’AI a réussi le test, ce qui amènerait Turing à dire qu’une « machine peut penser ». Je ne suis toutefois pas d’accord avec cette affirmation. En effet, le fait qu’une machine puisse imiter la capacité humaine à faire la conversation ne signifie pas nécessairement qu’elle arrive à raisonner. Comme vous l’avez souligné, une machine qui arrive à tromper un humain durant une conversation de cinq minutes est bien différent que de dire qu’elle est en mesure de le faire pour la durée de toute une vie. Autrement dit, même si une machine arrivait à induire en erreur un humain pendant cinq minutes, cela signifie seulement qu’une telle conversation peut être modélisée par un système computationnaliste, mais il faudrait qu’un tel système arrive à le faire sur la durée de toute une vie pour pouvoir commencer à croire qu’une telle machine peut réellement penser.

    RépondreEffacer

PLAN DU COURS

  ISC1000-20, hiver 2022:  Catégorisation, communication et conscience Heure:  mardi 18h00-21:00 Salle du cours: DS-4375  Zoom Enseignant:  ...