mardi 4 janvier 2022

3. L'argument de la chambre chinoise de Searle

Searle, J. R., & Duyckaerts, É. (1987). Document: Esprits, cerveaux et programmesQuaderni1(1), 65-96.

Résumé : Cet article est une tentative d'explorer les conséquences de deux propositions. (1) L'intentionnalité chez les êtres humains (et les animaux) est le produit de caractéristiques causales du cerveau: certains processus cérébraux suffisent à l'intentionnalité. (2) Un programme d'ordinateur n'est jamais en soi une condition suffisante d'intentionnalité. L'argument principal de cet article vise à établir cette affirmation. La forme de l'argument est de montrer comment un agent humain pourrait implémenter le programme sans avoir toujours l'intentionnalité appropriée. Ces deux propositions ont les conséquences suivantes (3) L'explication de la façon dont le cerveau produit l'intentionnalité ne peut pas être qu'il le fait en mettant en œuvre un programme informatique. C'est une conséquence logique stricte de 1 et 2. (4) Tout mécanisme capable de produire une intentionnalité doit avoir des pouvoirs causaux égaux à ceux du cerveau. Ceci est censé être une conséquence insignifiante de 1. (5) Toute tentative de créer artificiellement une intentionnalité (IA forte) ne pourrait pas réussir simplement en concevant des programmes mais devrait dupliquer les pouvoirs causaux du cerveau humain. Cela découle de 2 et 4.

 

Harnad, S. (2001) What's Wrong and Right About Searle's Chinese RoomArgument? In: M. Bishop & J. Preston (eds.) Essays on Searle's Chinese Room Argument. Oxford University Press.

Résumé : L'argument de la chambre chinoise de Searle a montré une faille fatale dans le calcul (l'idée que les états mentaux ne sont que des états de calcul) et a contribué à inaugurer l'ère de la robotique située et de l'ancrage des symboles (bien que Searle lui-même croyait que la neuroscience était le seul moyen correct d'expliquer et comprendre l'esprit).

2021: VIDÉO DU Cours 16 février










PPT 2019:


SEMAINE 3 2018






see also:

Click here --> SEARLE VIDEO

98 commentaires:

  1. Instructions pour les commentaires (ciélographies):

    Les ciélos ne devraient pas excéder 200 mots.

    Avant de rédiger votre ciélo, lisez les ciélos et les répliques qui ont déjà paru sur la même page.

    Où c’est possible, copiez-collez la phrase que vous adressez dans votre commentaire, pour donner le contexte. (Les mots copiés/collés ne comptent pas dans la limite de 200 mots.)

    Les commentaires (ciélos) ont deux buts:

    -- (a) de manifester votre saisi du contenu du cours (pour l’évaluation)

    -- (b) d’interagir activement avec le contenu du cours (chaton actif)

    Vos commentaires (ciélos) peuvent porter sur les lectures ou sur les cours.

    Vous pouvez aussi faire un commentaire sur un commentaire par un autre étudiant ou sur une de mes répliques -- mais à condition que vous aiez fait les lectures pertinentes au préalable (pas juste pour opiner en l’air!)

    Rédigez le texte de votre ciélo d’abord dans un fichier Word avant de l’afficher, pour pouvoir réessayer si l’affichage ne réussit pas. (Sinon votre ciélo risque de disparaître si blogspot détecte un conflit de login.) Chaque ciélo doit être affichée pour que je puisse y accorder une note (et pour que je puisse y faire une réplique le cas échéant).

    RépondreEffacer
    Réponses
    1. À part de démontrer votre compréhension en la communiquant à la soeur-cadette, faite de l'élaboration, de la synthèse, de l'analyse ou de la critique.

      Puis ayant fait une ciélo, revenez de temps à autre pour voir s'il y a eu une réplique.

      Effacer
  2. Instructions pour les commentaires (ciélographies):

    Les ciélos ne devraient pas excéder 200 mots.

    Avant de rédiger votre ciélo, lisez les ciélos et les répliques qui ont déjà paru sur la même page.

    Où c’est possible, copiez-collez la phrase que vous adressez dans votre commentaire, pour donner le contexte. (Les mots copiés/collés ne comptent pas dans la limite de 200 mots.)

    Les commentaires (ciélos) ont deux buts:

    -- (a) de manifester votre saisi du contenu du cours (pour l’évaluation)

    -- (b) d’interagir activement avec le contenu du cours (chaton actif)

    Vos commentaires (ciélos) peuvent porter sur les lectures ou sur les cours.

    Vous pouvez aussi faire un commentaire sur un commentaire par un autre étudiant ou sur une de mes répliques -- mais à condition que vous aiez fait les lectures pertinentes au préalable (pas juste pour opiner en l’air!)

    Rédigez le texte de votre ciélo d’abord dans un fichier Word avant de l’afficher, pour pouvoir réessayer si l’affichage ne réussit pas. (Sinon votre ciélo risque de disparaître si blogspot détecte un conflit de login.) Chaque ciélo doit être affichée pour que je puisse y accorder une note (et pour que je puisse y faire une réplique le cas échéant).

    RépondreEffacer
  3. « J’ai des entrées et des sorties qui ne peuvent être distinguées de celles des locuteurs chinois d’origine et je puis être doté de tous les programmes formels qu’on voudra, je ne comprends toujours rien. »
    Je suis d’accord avec Searle qui s’oppose à la thèse de l’I.A. forte : il ne croit donc pas que la cognition humaine se résume uniquement à la computation. On réalise bien qu’il considère le facteur « entendement », c’est-à-dire la compréhension. Il admet que les entrées et sorties peuvent être identiques entre lui et un individu parlant chinois, mais qu’entre l’input et l’output, le mécanisme est très différent parce qu’il ne comprend rien. Puisqu’il n’a pas directement accès à son mécanisme, il s’interroge sur la compréhension d’une calculatrice, mais en vient rapidement à la conclusion que celle-ci ne comprendra jamais de la même façon comment additionner, soustraire, multiplier et autres équations que lui-même comprend l’anglais, par exemple. Bien que cela est intuitif, considérant qu’il comprend l’anglais et pas le chinois, ne serait-ce pas réducteur de croire à la thèse forte de l’I.A. et s’entêter à penser que la cognition humaine se limite à la computation? Bien sûr, ceux qui adhèrent à l’I.A. forte répondraient qu’on ne peut pas prouver puisqu’on n’a pas directement accès à ce mécanisme. Toutefois, pour accepter l’I.A. forte, il faudrait établir (prouver) qu’une calculatrice soit dotée d’intentions, d’un cadre référentiel et des croyances, puis j’estime cela impossible.

    RépondreEffacer
    Réponses
    1. C’est quoi la compréhension? C’est vrai qu’on attend à ce que les sciences cognitives nous l’expliquent, mais avant d’être rétroingénieriée elle est quoi? En particulier, comment Searle sait-il qu’il ne comprend pas le chinois?

      (Oublie « l’entendement » et « l’intentionnalité » -- ça n’explique rien; ce ne fait que de soulever davantage de questions.)

      Est-ce que le computationnelisme (l’IA forte) est réducteur? Oui. Mais ce ne serait pas un problème s’il était aussi vrai. L’eau = H2O est réducteur et vrai. La rétroingénierie cherche à réduire aussi, mais en étant vrai.

      On aurait l’accès directe au mécanisme qui réussit T2, mais on ne saurait pas s’il comprend. Donc c’est quoi l’argument de Searle? Ici il s’agit du problème des autres esprits. Normalement, on n’a aucun moyen de constater si autrui comprend. Mais Searle a un périscope qui pénètre la barrière des autres esprit : Comment?

      « pour accepter l’I.A. forte, il faudrait établir (prouver) qu’une calculatrice soit dotée d’intentions, d’un cadre référentiel et des croyances, puis j’estime cela impossible »

      Une calculatrice est un jouet, pas à la hauteur même de T2. L’intentionnalité on laisse de coté. Les croyances, comme la compréhension, c’est quoi? Et le cadre référentiel (Semaine 5)? Il ne suffit pas de « estimer impossible ». Il faut donner des raisons, des preuves…

      Effacer
    2. Selon le programme de Schanck, on peut simuler l’aptitude humaine de compréhension. La capacité de compréhension d’histoires peut être mesurée à travers les réponses aux questions qui ne sont pas toujours explicites.
      Searle sait qu’il ne comprend pas le chinois parce qu’il doit faire appel à un autre sous-système (l’anglais) pour être capable de comprendre le chinois. Il a dû manipuler les symboles qui n’ont pas de signification pour lui. Pour réaliser cette fonction il se comporte comme un ordinateur.

      Effacer
    3. Compréhension comme capacité de décoder certains symboles.

      Effacer
    4. La compréhension consiste de trois choses:

      (1) un savoir-faire vis-à-vis les mots (quoi dire, quoi répondre) « Une pomme c’est quoi? » « Un fruit rond et rouge » à léchelle du T2, pas un jouet t1 de Schank.
      (2) un savoir-faire vis-à-vis les référents des mots dans le monde : « Montre moi une pomme et ce que tu fais avec » (capacité robotique à l’échelle du T3). T3 est l’ancrage des symboles (Semaine 5); et « Etienne dit » qu’on ne peut pas réussir T2 si on ne peut pas déjà réussir T3.
      (3) Le ressenti de la compréhension de ce qui est dit (ce que Searle possède pour l’anglais mais pas pour le chinois) : Comment est-ce que Searle sait s’il comprend ou ne comprend pas?

      T2 + T3 = l’ancrage. L’ancrage + le ressenti = la compréhension.

      Le T2 ne teste que (1). Il y manque et (2) et (3). Pourquoi?

      Searle ne décode pas. Il comprend ou il ne comprend pas.

      Il n’y a pas de simulation dans le T2. La capacité T2 est soit présente, soit pas.

      C’est quoi la simulation? (Voir les autres répliques, cette Semaine 1, 2 et 3.)

      Effacer
  4. « J’ai des entrées et des sorties qui ne peuvent être distinguées de celles des locuteurs chinois d’origine et je puis être doté de tous les programmes formels qu’on voudra, je ne comprends toujours rien. »
    Je suis d’accord avec Searle qui s’oppose à la thèse de l’I.A. forte : il ne croit donc pas que la cognition humaine se résume uniquement à la computation. On réalise bien qu’il considère le facteur « entendement », c’est-à-dire la compréhension. Il admet que les entrées et sorties peuvent être identiques entre lui et un individu parlant chinois, mais qu’entre l’input et l’output, le mécanisme est très différent parce qu’il ne comprend rien. Puisqu’il n’a pas directement accès à son mécanisme, il s’interroge sur la compréhension d’une calculatrice, mais en vient rapidement à la conclusion que celle-ci ne comprendra jamais de la même façon comment additionner, soustraire, multiplier et autres équations que lui-même comprend l’anglais, par exemple. Bien que cela est intuitif, considérant qu’il comprend l’anglais et pas le chinois, ne serait-ce pas réducteur de croire à la thèse forte de l’I.A. et s’entêter à penser que la cognition humaine se limite à la computation? Bien sûr, ceux qui adhèrent à l’I.A. forte répondraient qu’on ne peut pas prouver puisqu’on n’a pas directement accès à ce mécanisme. Toutefois, pour accepter l’I.A. forte, il faudrait établir (prouver) qu’une calculatrice soit dotée d’intentions, d’un cadre référentiel et des croyances, puis j’estime cela impossible.

    RépondreEffacer
    Réponses
    1. C’est quoi la compréhension? C’est vrai qu’on attend à ce que les sciences cognitives nous l’expliquent, mais avant d’être rétroingénieriée elle est quoi? En particulier, comment Searle sait-il qu’il ne comprend pas le chinois?

      (Oublie « l’entendement » et « l’intentionnalité » -- ça n’explique rien; ce ne fait que de soulever davantage de questions.)

      Est-ce que le computationnelisme (l’IA forte) est réducteur? Oui. Mais ce ne serait pas un problème s’il était aussi vrai. L’eau = H2O est réducteur et vrai. La rétroingénierie cherche à réduire aussi, mais en étant vrai.

      On aurait l’accès directe au mécanisme qui réussit T2, mais on ne saurait pas s’il comprend. Donc c’est quoi l’argument de Searle? Ici il s’agit du problème des autres esprits. Normalement, on n’a aucun moyen de constater si autrui comprend. Mais Searle a un périscope qui pénètre la barrière des autres esprit : Comment?

      « pour accepter l’I.A. forte, il faudrait établir (prouver) qu’une calculatrice soit dotée d’intentions, d’un cadre référentiel et des croyances, puis j’estime cela impossible »

      Une calculatrice est un jouet, pas à la hauteur même de T2. L’intentionnalité on laisse de coté. Les croyances, comme la compréhension, c’est quoi? Et le cadre référentiel (Semaine 5)? Il ne suffit pas de « estimer impossible ». Il faut donner des raisons, des preuves…

      Effacer
    2. Selon le programme de Schanck, on peut simuler l’aptitude humaine de compréhension. La capacité de compréhension d’histoires peut être mesurée à travers les réponses aux questions qui ne sont pas toujours explicites.
      Searle sait qu’il ne comprend pas le chinois parce qu’il doit faire appel à un autre sous-système (l’anglais) pour être capable de comprendre le chinois. Il a dû manipuler les symboles qui n’ont pas de signification pour lui. Pour réaliser cette fonction il se comporte comme un ordinateur.

      Effacer
    3. Compréhension comme capacité de décoder certains symboles.

      Effacer
    4. La compréhension consiste de trois choses:

      (1) un savoir-faire vis-à-vis les mots (quoi dire, quoi répondre) « Une pomme c’est quoi? » « Un fruit rond et rouge » à léchelle du T2, pas un jouet t1 de Schank.
      (2) un savoir-faire vis-à-vis les référents des mots dans le monde : « Montre moi une pomme et ce que tu fais avec » (capacité robotique à l’échelle du T3). T3 est l’ancrage des symboles (Semaine 5); et « Etienne dit » qu’on ne peut pas réussir T2 si on ne peut pas déjà réussir T3.
      (3) Le ressenti de la compréhension de ce qui est dit (ce que Searle possède pour l’anglais mais pas pour le chinois) : Comment est-ce que Searle sait s’il comprend ou ne comprend pas?

      T2 + T3 = l’ancrage. L’ancrage + le ressenti = la compréhension.

      Le T2 ne teste que (1). Il y manque et (2) et (3). Pourquoi?

      Searle ne décode pas. Il comprend ou il ne comprend pas.

      Il n’y a pas de simulation dans le T2. La capacité T2 est soit présente, soit pas.

      C’est quoi la simulation? (Voir les autres répliques, cette Semaine 1, 2 et 3.)

      Effacer
  5. (1) Je ne sais pas pour vous, mais je trouve cela réducteur de la part des computationnalistes de comparer un humain à un ordinateur et plus encore, de dire que les humains sont capables de faire tout ce qu’ils peuvent seulement grâce à de la computation. Searle vient renforcer mon opinion en ramenant le parfait exemple de l’humain qui réalise les algorithmes qui lui permette de communiquer en chinois. Il précise ensuite qu’après cette expérience, l’humain ne comprend pas plus le chinois qu’avant, malgré toutes les capacités cognitives qu’il possède de plus qu’un robot. Dans ce cas, croire une seule seconde que le robot lui comprend ce qu’il dit lorsqu’il communique en chinois serait de la folie. Pourquoi plusieurs personnes pensent-elles que les robots-humains ont de l’entendement? Voici mon opinion. Le cerveau humain est capable de faire des liens plus ou moins justes qui viennent renforcer une opinion qu’on a déjà. Si je pense que ma femme me trompe, alors le fait qu’elle me ment sur l’endroit où elle se trouve, vient petit à petit conforter mon idée de départ. Je fais donc un lien entre tromperie et menterie inhabituel. Il y’a aussi de l’intuition et quelques autres trucs complexes que nous appelons ressentis qui renforce cette idée de départ. Comme un Strong I.A. peut faire ce genre de lien (sans le comprendre, ni ressentir) alors, les gens sont bernés plus facilement. Nous associons aussi beaucoup le fait de parler à comprendre sans s’en rendre compte. Lorsque je dis à quelqu’un m’as-tu compris? Il lui suffit de répéter ce qui a déjà été dit pour prouver qu’il a compris alors que ce n’est pas nécessairement le cas. Si je discute avec un robot et que je lui pose la même question, il répondra sans doute que oui en répétant ce qui a déjà été dit pour montrer qu’il a compris, on va donc sous-entendre qu’il a compris comme avec l’humain. C’est là ou notre interprétation de comprendre est fausse. De toute manière, même si le Strong I.A. pouvait comprendre, alors il serait aussi capable de faire semblant de ne pas comprendre, donc on ne le saura jamais.

    RépondreEffacer
    Réponses
    1. C’est quoi le computationnelisme (l’IA forte) et c’est quoi l’argument des Searle selon lequel le computationnelisme est incorrecte? Il ne suffit pas de dire que c’est « réducteur ».

      C’est quoi le T2? Il s’agit d’une tentative d’expliquer la cognition, pas d’apprendre le chinois.

      Il n’y a pas un robot dans le T2, juste un ordi. Le robot c’est T3, ce que Searle ne touche pas.

      Je n’ai pas réussi à comprendre l’histoire de tromperie. Mais les TT (T2, T3, T4) ne cherchent pas à tromper, ni berner. Qu’est-ce qu’ils cherchent à faire? Et la répétition n’est ni T2, ni de la compréhension.

      Frère cadet est perplexe…

      Effacer
    2. Je me suis sans doute mal exprimé sur certains points. Je vais essayer d'être plus clair. L'argument de Searle est que T2 peut être réussi par l’I.A. sans pour autant faire de la rétro-ingénierie sur la capacité cognitive à communiquer de l’humain. Searle montre donc que cognition=computation n’est pas nécessairement vrai. Les TT ne cherchent pas à berner, ce sont seulement des expériences (comme le jeu de l’imitation) qui ont pour but de rétroingénierier la cognition.

      Effacer
    3. C'est ça, Alaa, mais c'est quoi l'argument des Searle? Sur quoi est-ce que sa conclusion est basée?

      Effacer
    4. Sa conclusion est que tant qu'on utilisera des programmes pour T2, ils seront uniquement syntaxiques et pourront seulement simuler la cognition, mais sans plus. Comme l'intentionnalité des humains est causalement liée à la biologie, le Strong A.I. ne peut rétroingénierier la capacité cognitive, car son programme n'est pas sémantique. Notre capacité cognitive est donc dépendante du matériel qu'il utilise.

      Effacer
    5. « Sa conclusion est que tant qu'on utilisera des programmes pour T2, ils seront uniquement syntaxiques et pourront seulement simuler la cognition, mais sans plus. »

      C’est sa conclusion, mais c’est quoi sont argument? Sa preuve?

      Et qu’est ce que la « simulation » ?

      « Comme l'intentionnalité des humains est causalement liée à la biologie, le Strong A.I. ne peut rétroingénierier la capacité cognitive, car son programme n'est pas sémantique. »

      C’est qui, « l’intentionnalité »?

      Oui, la capacité humaine à comprendre le langage est lié à la biologie, mais pourquoi est-ce que cela implique que s rétroingénierie ne pourrait pas être purement computationnelle?

      Et c’est quoi, la sémantique? Et c’est quoi son lien avec la biologie?

      « Notre capacité cognitive est donc dépendante du matériel qu'il utilise ».

      C’est quoi, la « sousdétermination » ? Et l’équivalence forte et faible?

      Pourquoi faut-il un seul matériel?

      Stp lire (avec Google Translate si nécessaire) :

      Harnad, S. (2001) What's Wrong and Right About Searle's Chinese Room Argument? In: M. Bishop & J. Preston (eds.) Essays on Searle's Chinese Room Argument. Oxford University Press.

      Effacer
  6. (1) Je ne sais pas pour vous, mais je trouve cela réducteur de la part des computationnalistes de comparer un humain à un ordinateur et plus encore, de dire que les humains sont capables de faire tout ce qu’ils peuvent seulement grâce à de la computation. Searle vient renforcer mon opinion en ramenant le parfait exemple de l’humain qui réalise les algorithmes qui lui permette de communiquer en chinois. Il précise ensuite qu’après cette expérience, l’humain ne comprend pas plus le chinois qu’avant, malgré toutes les capacités cognitives qu’il possède de plus qu’un robot. Dans ce cas, croire une seule seconde que le robot lui comprend ce qu’il dit lorsqu’il communique en chinois serait de la folie. Pourquoi plusieurs personnes pensent-elles que les robots-humains ont de l’entendement? Voici mon opinion. Le cerveau humain est capable de faire des liens plus ou moins justes qui viennent renforcer une opinion qu’on a déjà. Si je pense que ma femme me trompe, alors le fait qu’elle me ment sur l’endroit où elle se trouve, vient petit à petit conforter mon idée de départ. Je fais donc un lien entre tromperie et menterie inhabituel. Il y’a aussi de l’intuition et quelques autres trucs complexes que nous appelons ressentis qui renforce cette idée de départ. Comme un Strong I.A. peut faire ce genre de lien (sans le comprendre, ni ressentir) alors, les gens sont bernés plus facilement. Nous associons aussi beaucoup le fait de parler à comprendre sans s’en rendre compte. Lorsque je dis à quelqu’un m’as-tu compris? Il lui suffit de répéter ce qui a déjà été dit pour prouver qu’il a compris alors que ce n’est pas nécessairement le cas. Si je discute avec un robot et que je lui pose la même question, il répondra sans doute que oui en répétant ce qui a déjà été dit pour montrer qu’il a compris, on va donc sous-entendre qu’il a compris comme avec l’humain. C’est là ou notre interprétation de comprendre est fausse. De toute manière, même si le Strong I.A. pouvait comprendre, alors il serait aussi capable de faire semblant de ne pas comprendre, donc on ne le saura jamais.

    RépondreEffacer
    Réponses
    1. C’est quoi le computationnelisme (l’IA forte) et c’est quoi l’argument des Searle selon lequel le computationnelisme est incorrecte? Il ne suffit pas de dire que c’est « réducteur ».

      C’est quoi le T2? Il s’agit d’une tentative d’expliquer la cognition, pas d’apprendre le chinois.

      Il n’y a pas un robot dans le T2, juste un ordi. Le robot c’est T3, ce que Searle ne touche pas.

      Je n’ai pas réussi à comprendre l’histoire de tromperie. Mais les TT (T2, T3, T4) ne cherchent pas à tromper, ni berner. Qu’est-ce qu’ils cherchent à faire? Et la répétition n’est ni T2, ni de la compréhension.

      Frère cadet est perplexe…

      Effacer
    2. Je me suis sans doute mal exprimé sur certains points. Je vais essayer d'être plus clair. L'argument de Searle est que T2 peut être réussi par l’I.A. sans pour autant faire de la rétro-ingénierie sur la capacité cognitive à communiquer de l’humain. Searle montre donc que cognition=computation n’est pas nécessairement vrai. Les TT ne cherchent pas à berner, ce sont seulement des expériences (comme le jeu de l’imitation) qui ont pour but de rétroingénierier la cognition.

      Effacer
    3. C'est ça, Alaa, mais c'est quoi l'argument des Searle? Sur quoi est-ce que sa conclusion est basée?

      Effacer
    4. Sa conclusion est que tant qu'on utilisera des programmes pour T2, ils seront uniquement syntaxiques et pourront seulement simuler la cognition, mais sans plus. Comme l'intentionnalité des humains est causalement liée à la biologie, le Strong A.I. ne peut rétroingénierier la capacité cognitive, car son programme n'est pas sémantique. Notre capacité cognitive est donc dépendante du matériel qu'il utilise.

      Effacer
  7. Si je dois retenir certains concepts de ce cours je dirais qu’on peut distinguer entre l’objet réel, matériel avec toutes ses propriétés, la description verbale qui correspond à nommer l’objet et ses caractéristiques, mais qui ce n’est pas l’objet en soi. La simulation, qui correspond à la réalité virtuelle, possède toutes les propriétés de la réalité; il y a manipulation des symboles et on les interprète comme l’objet, mais ce n’est pas l’objet en concret.
    Si j’essaie de faire la distinction entre : Machine de Turing, Test de Turing et la Thèse de Turing.
    La Machine de Turing correspond à l’exécution d’un algorithme en particulier concret.
    Le Test de Turing, correspond à la solution au problème facile; cette solution serait donnée par la cognition et les ressenties.
    La Thèse de Turing, si j’ai bien compris, exprime qu’on ne peut pas différencier une personne d’un robot. D’autre part, la Thèse faible correspond aux calculs qui font les mathématiciens et
    la Thèse forte au monde empirique (modélisation et simulation).

    RépondreEffacer
    Réponses
    1. Ici (Semaine 3) on traite l’argument de Searle plutôt que la Réalité Virtuelle (ou la simulation computationnelle, ce qui n’est pas la RV). Concernant ça, j’ai fait une longue réplique à MK (Semaine 2).

      Le TT teste une solution : elle n’est pas une solution. Le défi est de générer (avec un mécanisme causal) les capacités cognitives à tel point qu’on ne peut pas les différencier de celles de toute autre personne humaine.

      Le problème facile concerne le savoir-faire. Le ressenti c’est le problème difficile.

      La thèse faible de C/T est que ce que font les mathématiciens quand ils font un calcul, c’est ce que font les MT, et vice versa.

      La thèse forte de C/T est que les MT (algorithmes) peuvent simuler/modéliser (approximativement) tout ce qu’il y a dans l’univers.

      Effacer
  8. Si je dois retenir certains concepts de ce cours je dirais qu’on peut distinguer entre l’objet réel, matériel avec toutes ses propriétés, la description verbale qui correspond à nommer l’objet et ses caractéristiques, mais qui ce n’est pas l’objet en soi. La simulation, qui correspond à la réalité virtuelle, possède toutes les propriétés de la réalité; il y a manipulation des symboles et on les interprète comme l’objet, mais ce n’est pas l’objet en concret.
    Si j’essaie de faire la distinction entre : Machine de Turing, Test de Turing et la Thèse de Turing.
    La Machine de Turing correspond à l’exécution d’un algorithme en particulier concret.
    Le Test de Turing, correspond à la solution au problème facile; cette solution serait donnée par la cognition et les ressenties.
    La Thèse de Turing, si j’ai bien compris, exprime qu’on ne peut pas différencier une personne d’un robot. D’autre part, la Thèse faible correspond aux calculs qui font les mathématiciens et
    la Thèse forte au monde empirique (modélisation et simulation).

    RépondreEffacer
    Réponses
    1. Ici (Semaine 3) on traite l’argument de Searle plutôt que la Réalité Virtuelle (ou la simulation computationnelle, ce qui n’est pas la RV). Concernant ça, j’ai fait une longue réplique à MK (Semaine 2).

      Le TT teste une solution : elle n’est pas une solution. Le défi est de générer (avec un mécanisme causal) les capacités cognitives à tel point qu’on ne peut pas les différencier de celles de toute autre personne humaine.

      Le problème facile concerne le savoir-faire. Le ressenti c’est le problème difficile.

      La thèse faible de C/T est que ce que font les mathématiciens quand ils font un calcul, c’est ce que font les MT, et vice versa.

      La thèse forte de C/T est que les MT (algorithmes) peuvent simuler/modéliser (approximativement) tout ce qu’il y a dans l’univers.

      Effacer
  9. Searle cherche à savoir si la cognition = computation. Si oui, elles sont indépendantes du matériel et les matériaux ne sont pas pertinents. Donc si cette hypothèse du computationalisme (= IA forte) était vraie, le cerveau en tant que matériel ne serait pas pertinent à l’explication de la cognition, ce qui importerait serait la computation (=règles de manipulations de symboles dans le cerveau). Mais Searle réfute cette hypothèse en disant « J’ai des entrées et des sorties qui ne peuvent être distinguées de celles des locuteurs chinois d’origine et je puis être doté de tous les programmes formels qu’on voudra, je ne comprends toujours rien. » Searle explique qu’il ne comprend pas le chinois car comprendre est un ressenti. Donc il dit que la computation ne génère pas à elle seule le fait de « penser » car il manque le ressenti. Donc l’esprit humain serait une machine sémantique qui comprend le sens et la signification des choses. L’ordinateur saura répondre correctement aux réponses verbales de T2 sans comprendre ce que cela représente. Searl dit que la cognition n’est pas la computation, que c’est plus que ça.

    RépondreEffacer
    Réponses
    1. Excellent résumé.

      Donc la cognition n’est pas seulement de la computation. Mais peut-elle être en partie de la computation? Et quoi de plus? Qu’en dit Searle? En quoi as-t-il raison, et en quoi pas?

      Effacer
    2. Searl a raison de refuter le computationalisme en disant que la cognition n’est pas seulement de la computation. L’argument de la pièce chinoise le montre éloquemment : il y aurait un élément de conscience manquant. C’est-à-dire qu’il pourrait faire de la computation (produire des réponses en chinois à partir d’instructions) sans connaître le chinois, sans avoir conscience de ce qu’il écrit. On ne dirait pas que ce processus est équivalent à la cognition. Searl se trompe toutefois de croire que la cognition n’est même pas *partiellement* de la computation. La cognition serait donc computation + conscience?

      Effacer
    3. C'est ça. Communiquer verbalement est plus qu'un échange de mots (T2). Même plus les échanges de mots ainsi que que l'interaction T3 avec les objects et états dans le monde auxquels réfèrent les mots. Ça ressemble à quelque chose de comprendre les mots, et de vouloir dire ce qu'on veut dire en les prononçant. C'est ce ressenti qui est absent dans l'exécution de l'algorithme T2 par Searle. Même si tout ce que dit Searle est interprétable comme voulant dire quelque chose...

      Effacer
  10. Cher frère cadet

    « la machine n'a pas seulement simulé l'aptitude humaine, mais aussi (1) qu'on peut dire littéralement qu'elle comprend l'histoire et fournit les réponses aux questions »

    Searle ne peut avoir raison car Étienne a dit « T2 + T3 = l’ancrage. L’ancrage + le ressenti = la compréhension » Alors la compréhension nécessite un ressenti et nous ne pouvons prouver qu’une machine a un ressenti, sinon tout ce qui nous entoure aurait un ressenti. L’argument de la chambre chinoise ne va même pas au-delà du T2 alors il est fort peu probable que la machine comprenne l’histoire mais elle peut fournir les réponses en manipulant les symboles. (computation)

    Donc, les programmes ne peuvent « simuler » complètement la cognition humaine. Ça c’est vrai. Ces propriétés formelles n’expliquent pas pourquoi nous sommes capables de faire ce que nous sommes capables de faire. Searle évoque que l’ordinateur de l'expérience de la chambre chinoise accompli davantage que de la computation, ça c’est faux.

    RépondreEffacer
    Réponses
    1. (1) Rien n’est vrai « car Étienne [ou n’Importe qui] le dit »

      (2) À cause du problème des autres on ne peut pas prouver qu’autrui (humain ou non humain) ressent. Mais c’est quoi le «Périscope de Searle »?

      (3) Pourquoi faut-il réussir plus que T2 pour avoir le compréhension?

      (4) Que veut dire « simuler » ?

      Effacer
  11. (1) Rien n’est vrai « car Étienne [ou n’Importe qui] le dit »

    (2) À cause du problème des autres on ne peut pas prouver qu’autrui (humain ou non humain) ressent. Mais c’est quoi le «Périscope de Searle »?

    (3) Pourquoi faut-il réussir plus que T2 pour avoir le compréhension?

    (4) Que veut dire « simuler » ?

    RépondreEffacer
  12. Le texte de Searle semble rapidement rappeler le problème du dualisme cartésien sans pour autant apporter de grandes nouveautés. Il est intéressant sous un certain angle, car il clarifie la conception associée à l'IA forte, soit celle d'associé cognition et computation, mais ne permet pas d'établir de la nouveauté quant à ce qu'est réellement la cognition. Évidemment, ce n'est pas une question facile, et il n'existe toujours pas de réponse satisfaisante à cet égard. La partie intéressante de ce texte, outre l'exemple de la chambre chinoise en soi qui semble être une excellente expérience de pensée pour démontrer l'insuffisance de la computation à expliquer la cognition, repose en fait sur l'association des processus biochimiques à la cognition. C'est tout à fait intuitif d'affirmer que les cerveaux sont des machines et que, par conséquent, les machines peuvent penser. L'intentionnalité est en rapport de dépendance causale avec les processus biochimiques, c'est évidemment vrai. Mais, encore une fois, est-ce suffisant à expliquer la cognition ? N'existe t-il pas de mécanisme non-causaux dans la cognition ? La cognition peut-elle se réduire à un ensemble de mécanismes causaux ? La reproduction de la cognition est simple, concevoir un enfant est une reproduction de la cognition si on veut. L'explication des mécanismes qui sous-tendent la cognition est beaucoup plus complexes. Bref, Searle s'adresse au frère cadet selon moi, sans pour autant arriver à expliquer ce qui sous-tend la cognition dans toute sa complexité.
    Ce que je retiens de ce texte :
    1. La computation n'explique pas la cognition, ce n'est pas une condition suffisante de l'intentionnalité. (Big news.)
    2. L'hypothèse de l'IA forte implique un dualisme.
    3. La cognition a un rapport de dépendance causale aux mécanismes neurobiologiques. (Again, big news.)
    4. Le problème des autres esprits semble bien difficile à saisir pour les partisans de l'IA forte.
    5. Searle ne prend pas de grands risques, il ne cherche pas à définir les conditions nécessaires/suffisantes de l'intentionnalité. C'est tout à son avantage bien sûr, mais c'est ennuyeux.

    RépondreEffacer
    Réponses
    1. Oui, Searle n’explique pas la cognition : il ne fait que de montrer qu’elle ne peut pas être uniquement de la computation. Puis il nous envoient étudier le cerveau (sans dire comment : Semain 4).

      « La cognition peut-elle se réduire à un ensemble de mécanismes causaux ? »

      Y-a-t’il d’utres candidats, à part la magie?

      « L'hypothèse de l'IA forte implique un dualisme. »

      C’est quoi, le dualisme? Physique + Magie?

      Les computationnalistes (= l’IA fort) ont tout simplement supposé que la cognition = l’exécution du bon algorithme. Et Searle a montré que ce n’est pas le cas. Il y a pourtant un élément du Cogito dans sa preuve : C’est quoi?

      Effacer
    2. Il y a bien d'autres candidats, si par ''magie'' vous faite références à des processus qu'on n'est toujours pas en mesure d'expliquer, alors oui, mais en bout de ligne ils seront sans doute causaux. Puisqu'on n'est pas en mesure d'établir la cause d'un effet, on ne peut que référer à de la magie, mais avec une connaissance plus approfondie du cerveau on en viendra certainement à définir ces mécanismes et à les soumettre à des tests empiriques.

      Le dualisme c'est lorsque l'on considère l'existence de deux substances indépendantes l'une de l'autre (dualisme substantiel) dans le cas de Descartes : la pensée (immatérielle) et l'étendue (matériel). Il existe d'autre forme de dualisme qu'on pourrait dire faible, voire ne pas les associer au dualisme, je pense par exemple au monisme spinoziste : une seule substance conçue sous deux attributs (l'essence de la substance) différents, c’est alors une distinction de raison, pas une distinction réelle comme celle des substances.

      L’élément du cogito présent dans la preuve de Searle est celui de l’acte de penser (présence d'états cognitifs), sans pour autant inférer le sum du cogito ergo sum. L’acte de pensée révèle, aussi longtemps qu’il dure, à soi-même sa propre existence en tant qu’entité. Je crois que c’est ce que l’on nomme l’interprétation performative du cogito ?

      Effacer
    3. En sciences cognitives, on ne fait pas la métaphysique. Les humains ont des capacités à faire certaines choses (et pas d’autres). Comment? Pourquoi?

      Le problème facile des sciences cognitives est d’expliquer ces savoir-faire en rétroingénieriant le mécanisme causal qui les produit. Le cerveau les produit (comment? pourquoi?), mais est-ce le seul mécanisme causal capable de les produire ou est-ce qu’il y en a d’autres (les robots T3 ou T4, par exemple)? Tout ça c’est du matériel.

      Ensuite il y a le problème difficile : À part du savoir-faire, les humains (et tous les organismes sentients) sont capables de ressentir. Il faut expliquer causalement cette capacité aussi. Il n’y a pas de doute que ce sont nos cerveaux quiproduisent notre ressenti. Mais comment? Et pourquoi? Et est-ce qu’il y a d’autres mécanismes qui produisent le ressenti (les robots T3 ou T4, par exemple)?

      Donc il y a une « dualité » en compétences cognitives : le savoir-faire et le ressenti. Mais c’est du matériel (donc aucun « dualisme ») qui produit les deux : Comment et pourquoi?

      Searle montre (à l’aide de son « périscope ») qu’il existe un candidat qui n’est pas en mesure de les produire : Un algorithme qui réussit T2 en chinois, peu importe s’il est exécuté par un ordinateur ou par Searle, car Searle n’a qu’à consulter son ressenti pour savoir avec une certitude cartésienne qu’il ne comprend pas le chinois.

      C’est quoi au juste, le périscope de Searle?

      Effacer
    4. Bien que nous ne puissions jamais devenir une autre entité physique que nous-mêmes, s'il y a effectivement des états mentaux qui se produisent uniquement en vertu du fait d’être dans le bon état computationnel, alors nous pouvons entrer dans le même état computationnel que l'entité en question et vérifier s'il possède ou non les états mentaux qui lui sont imputés. C'est le périscope de Searle, et un système ne peut s'en protéger qu'en ne prétendant pas être dans un état mental, simplement parce qu'il est dans un état computationnel, ou en renonçant à la nature mentale de l'état computationnel ; en concédant que c'est juste un autre état inconscient (ou plutôt NON-conscient) qui n’a rien à voir avec l'esprit.)

      Effacer
  13. Le texte de Searle semble rapidement rappeler le problème du dualisme cartésien sans pour autant apporter de grandes nouveautés. Il est intéressant sous un certain angle, car il clarifie la conception associée à l'IA forte, soit celle d'associé cognition et computation, mais ne permet pas d'établir de la nouveauté quant à ce qu'est réellement la cognition. Évidemment, ce n'est pas une question facile, et il n'existe toujours pas de réponse satisfaisante à cet égard. La partie intéressante de ce texte, outre l'exemple de la chambre chinoise en soi qui semble être une excellente expérience de pensée pour démontrer l'insuffisance de la computation à expliquer la cognition, repose en fait sur l'association des processus biochimiques à la cognition. C'est tout à fait intuitif d'affirmer que les cerveaux sont des machines et que, par conséquent, les machines peuvent penser. L'intentionnalité est en rapport de dépendance causale avec les processus biochimiques, c'est évidemment vrai. Mais, encore une fois, est-ce suffisant à expliquer la cognition ? N'existe t-il pas de mécanisme non-causaux dans la cognition ? La cognition peut-elle se réduire à un ensemble de mécanismes causaux ? La reproduction de la cognition est simple, concevoir un enfant est une reproduction de la cognition si on veut. L'explication des mécanismes qui sous-tendent la cognition est beaucoup plus complexes. Bref, Searle s'adresse au frère cadet selon moi, sans pour autant arriver à expliquer ce qui sous-tend la cognition dans toute sa complexité.
    Ce que je retiens de ce texte :
    1. La computation n'explique pas la cognition, ce n'est pas une condition suffisante de l'intentionnalité. (Big news.)
    2. L'hypothèse de l'IA forte implique un dualisme.
    3. La cognition a un rapport de dépendance causale aux mécanismes neurobiologiques. (Again, big news.)
    4. Le problème des autres esprits semble bien difficile à saisir pour les partisans de l'IA forte.
    5. Searle ne prend pas de grands risques, il ne cherche pas à définir les conditions nécessaires/suffisantes de l'intentionnalité. C'est tout à son avantage bien sûr, mais c'est ennuyeux.

    RépondreEffacer
    Réponses
    1. Il y a bien d'autres candidats, si par ''magie'' vous faite références à des processus qu'on n'est toujours pas en mesure d'expliquer, alors oui, mais en bout de ligne ils seront sans doute causaux. Puisqu'on n'est pas en mesure d'établir la cause d'un effet, on ne peut que référer à de la magie, mais avec une connaissance plus approfondie du cerveau on en viendra certainement à définir ces mécanismes et à les soumettre à des tests empiriques.

      Le dualisme c'est lorsque l'on considère l'existence de deux substances indépendantes l'une de l'autre (dualisme substantiel) dans le cas de Descartes : la pensée (immatérielle) et l'étendue (matériel). Il existe d'autre forme de dualisme qu'on pourrait dire faible, voire ne pas les associer au dualisme, je pense par exemple au monisme spinoziste : une seule substance conçue sous deux attributs (l'essence de la substance) différents, c’est alors une distinction de raison, pas une distinction réelle comme celle des substances.

      L’élément du cogito présent dans la preuve de Searle est celui de l’acte de penser (présence d'états cognitifs), sans pour autant inférer le sum du cogito ergo sum. L’acte de pensée révèle, aussi longtemps qu’il dure, à soi-même sa propre existence en tant qu’entité. Je crois que c’est ce que l’on nomme l’interprétation performative du cogito ?

      Effacer
    2. En sciences cognitives, on ne fait pas la métaphysique. Les humains ont des capacités à faire certaines choses (et pas d’autres). Comment? Pourquoi?

      Le problème facile des sciences cognitives est d’expliquer ces savoir-faire en rétroingénieriant le mécanisme causal qui les produit. Le cerveau les produit (comment? pourquoi?), mais est-ce le seul mécanisme causal capable de les produire ou est-ce qu’il y en a d’autres (les robots T3 ou T4, par exemple)? Tout ça c’est du matériel.

      Ensuite il y a le problème difficile : À part du savoir-faire, les humains (et tous les organismes sentients) sont capables de ressentir. Il faut expliquer causalement cette capacité aussi. Il n’y a pas de doute que ce sont nos cerveaux quiproduisent notre ressenti. Mais comment? Et pourquoi? Et est-ce qu’il y a d’autres mécanismes qui produisent le ressenti (les robots T3 ou T4, par exemple)?

      Donc il y a une « dualité » en compétences cognitives : le savoir-faire et le ressenti. Mais c’est du matériel (donc aucun « dualisme ») qui produit les deux : Comment et pourquoi?

      Searle montre (à l’aide de son « périscope ») qu’il existe un candidat qui n’est pas en mesure de les produire : Un algorithme qui réussit T2 en chinois, peu importe s’il est exécuté par un ordinateur ou par Searle, car Searle n’a qu’à consulter son ressenti pour savoir avec une certitude cartésienne qu’il ne comprend pas le chinois.

      C’est quoi au juste, le périscope de Searle?

      Effacer
  14. Dans cette ciélographie, je tenterai d’expliquer l’argument de la chambre chinoise de Searle, comme je le ferais avec un frère cadet. Cette théorie met en scène une personne qui ne parle pas la langue chinoise, tel que Searle lui-même, et qui est enfermée dans une pièce où se trouvent toutes les instructions concernant la syntaxe de cette langue, qu’il peut comprendre. D’un côté de la pièce, il reçoit un texte, et il y répond en fonction des instructions mises à sa disposition. Une fois la réponse assemblée, il la fait sortir de la pièce par une sortie à l’opposé de l’entrée. Une personne qui parle la langue serait à l’origine des textes entrants, qui sont des questions qui seront répondues par Searle, et une autre personne les recevra à la sortie, et pourra comprendre la réponse donnée, sans même se douter que la personne qui a fourni cette dernière ne comprend rien du tout à la langue utilisée.

    Cet argument parallèle ce qu’un ordinateur fait : Il prend des informations données (input) et, grâce à un mécanisme, les transforme et les ressort (output). Cette expérience de pensée indique donc qu’un ordinateur n’a pas besoin de cognitions ou de savoir ce que les tâches qu’il effectue signifient pour les effectuer. Dans le cas de Searle, enfermé dans la chambre chinoise, ne sachant pas ce qu’il dit dans les textes qu’il écrit, il crée une sorte de double conscience : une qui est inconsciente, et qui comprend la langue chinoise, et une qui est intentionnelle, et qui comprend seulement qu’il fait de la manipulation de symboles. Puisque cette ciélographie dépasse déjà les 200 mots maximums, j’en ferai une autre cette semaine pour tenter d’expliquer les failles de cet argument.

    RépondreEffacer
    Réponses
    1. Pas de double conscience. Juste l’exécution d’un algorithme (supposé T2, pas juste questions/réponses) qui reçoit et transmet des symboles qui sont compréhensibles aux sinophones, mais pas aux anglophones, comme Searle. Ça démontre que l’exécution de l’algorithme ne génère pas la compréhension, même si elle génère la capacité T2.

      Effacer
  15. Dans cette ciélographie, je tenterai d’expliquer l’argument de la chambre chinoise de Searle, comme je le ferais avec un frère cadet. Cette théorie met en scène une personne qui ne parle pas la langue chinoise, tel que Searle lui-même, et qui est enfermée dans une pièce où se trouvent toutes les instructions concernant la syntaxe de cette langue, qu’il peut comprendre. D’un côté de la pièce, il reçoit un texte, et il y répond en fonction des instructions mises à sa disposition. Une fois la réponse assemblée, il la fait sortir de la pièce par une sortie à l’opposé de l’entrée. Une personne qui parle la langue serait à l’origine des textes entrants, qui sont des questions qui seront répondues par Searle, et une autre personne les recevra à la sortie, et pourra comprendre la réponse donnée, sans même se douter que la personne qui a fourni cette dernière ne comprend rien du tout à la langue utilisée.

    Cet argument parallèle ce qu’un ordinateur fait : Il prend des informations données (input) et, grâce à un mécanisme, les transforme et les ressort (output). Cette expérience de pensée indique donc qu’un ordinateur n’a pas besoin de cognitions ou de savoir ce que les tâches qu’il effectue signifient pour les effectuer. Dans le cas de Searle, enfermé dans la chambre chinoise, ne sachant pas ce qu’il dit dans les textes qu’il écrit, il crée une sorte de double conscience : une qui est inconsciente, et qui comprend la langue chinoise, et une qui est intentionnelle, et qui comprend seulement qu’il fait de la manipulation de symboles. Puisque cette ciélographie dépasse déjà les 200 mots maximums, j’en ferai une autre cette semaine pour tenter d’expliquer les failles de cet argument.

    RépondreEffacer
    Réponses
    1. Pas de double conscience. Juste l’exécution d’un algorithme (supposé T2, pas juste questions/réponses) qui reçoit et transmet des symboles qui sont compréhensibles aux sinophones, mais pas aux anglophones, comme Searle. Ça démontre que l’exécution de l’algorithme ne génère pas la compréhension, même si elle génère la capacité T2.

      Effacer
  16. Avec l’expérience de la chambre chinoise de Searle, on voit sommairement que la computation est utile à la cognition et que la *capacité* de computation fait sans doute partie de la cognition, mais cela illustre aussi que la cognition n’est pas seulement la computation. Il y a certainement autre chose…
    La capacité de computation est ainsi, au plus, une condition nécessaire, mais pas une condition suffisante, pour qu’il y ait cognition (tout de moins si on penche encore pour le modèle « humain » de la cognition, dans l’optique de vouloir rétro-ingéniérer le système nerveux humain spécifiquement).
    On pourrait dire qu’il manquerait, à prime-abord, une dimension épistémique et herméneutique à l’expérience en question, il manque de *savoir* ce qu’on fait dans cette expérience et *comprendre* ce qui se passe, des conditions qui ne sont pas strictement computationnelles et qui sont présentes chez pratiquement tous les êtres vivants animés. Il y a sans doute un lien entre ces dimensions épistémiques et herméneutiques et le *ressenti* qui a été évoqué à plusieurs reprises déjà dans le cours.

    RépondreEffacer
    Réponses
    1. Oui, la compréhension c'est quelque chose qu'on ressent. C'est en ressentant son absence que Searle pouvait témoigner qu'exécuter l'algorithme ne génère pas la compréhension, même s'il génère la performance T2. (C'est quoi le Périscope de Searle?)

      Effacer
  17. Avec l’expérience de la chambre chinoise de Searle, on voit sommairement que la computation est utile à la cognition et que la *capacité* de computation fait sans doute partie de la cognition, mais cela illustre aussi que la cognition n’est pas seulement la computation. Il y a certainement autre chose…
    La capacité de computation est ainsi, au plus, une condition nécessaire, mais pas une condition suffisante, pour qu’il y ait cognition (tout de moins si on penche encore pour le modèle « humain » de la cognition, dans l’optique de vouloir rétro-ingéniérer le système nerveux humain spécifiquement).
    On pourrait dire qu’il manquerait, à prime-abord, une dimension épistémique et herméneutique à l’expérience en question, il manque de *savoir* ce qu’on fait dans cette expérience et *comprendre* ce qui se passe, des conditions qui ne sont pas strictement computationnelles et qui sont présentes chez pratiquement tous les êtres vivants animés. Il y a sans doute un lien entre ces dimensions épistémiques et herméneutiques et le *ressenti* qui a été évoqué à plusieurs reprises déjà dans le cours.

    RépondreEffacer
    Réponses
    1. Oui, la compréhension c'est quelque chose qu'on ressent. C'est en ressentant son absence que Searle pouvait témoigner qu'exécuter l'algorithme ne génère pas la compréhension, même s'il génère la performance T2. (C'est quoi le Périscope de Searle?)

      Effacer
  18. Searl a raison de refuter le computationalisme en disant que la cognition n’est pas seulement de la computation. L’argument de la pièce chinoise le montre éloquemment : il y aurait un élément de conscience manquant. C’est-à-dire qu’il pourrait faire de la computation (produire des réponses en chinois à partir d’instructions) sans connaître le chinois, sans avoir conscience de ce qu’il écrit. On ne dirait pas que ce processus est équivalent à la cognition. Searl se trompe toutefois de croire que la cognition n’est même pas *partiellement* de la computation. La cognition serait donc computation + conscience?

    RépondreEffacer
  19. Dans le texte de Searle, il cherche à réfuter l’I. A. forte, qu’un ordinateur correctement programmé aurait un esprits exactement au même sens que les humains à l’aide de la réponse des autres esprits puisque l’ordinateur est capable d’avoir des interaction causale et réussir le t2 qui est la capacité verbale et grâce au calcule il est possible d’amener l’ordinateur à simuler ce que l’humain peut reproduire mais il ne s’agit pas de la même intention parce que l’ordinateur ne peut pas comprendre comme dans l’argument de la chambre chinoise et que le robot de t3 par exemple qui ne peut ressentir comme nous sommes capable de le faire mais à cause du problème des autres esprits il est possible de se mettre dans la peau de t3 le robot pour savoir si il peut vraiment avoir du ressentis. Donc c’est là que Searle se trompe avec son argumentation qui n’est utile que pour débattre de la computation mais qu’il y a pourtant une partie de computation dans la cognition.

    RépondreEffacer
    Réponses
    1. C'est quoi, un robot? Et c'est quoi le T2 et le T3? Frère cadet ne comprend pas ce qu'a démontré l'argument de Searle. (Avant de répondre, lis les réponses des autres, et le répliques,)

      Effacer
  20. Suite au cours, je vais tenter d’expliquer à frère cadet ce qu’est le périscope de Searle.
    Le périscope de Searle permet de résoudre le problème des autres esprits.
    Le problème des autres esprits, c’est que nous ne pouvons jamais être sûr à 100% que quoique ce soit d’autre que soit même soit réel ou vrai.
    Ce qui nous prouve que nous sommes réels, c’est la phrase ‘’Je pense, donc je suis’’.
    Le périscope de Searle permet, en quelque sorte de devenir un autre ‘’Je’’ et ce seulement dans le contexte du computationnalisme T2. En d’autres mots, ça nous permet, dans l’exemple de la chambre chinoise (que je n’expliquerai pas puisqu’elle a été expliquée à plusieurs reprises dans les ciélos précédentes.), de ‘’devenir’’ en quelque sorte une machine de Turing.
    C’est possible d’utiliser le périscope de Searle seulement avec le T2, puisque la cognition est indépendante du matériel. Ainsi, puisqu’un programme n’est pas obligé d’être implémenté dans un ordinateur, il peut être ‘’implémenter’’ en quelque sorte dans un humain.
    Ce qui permet à l’humain de ‘’devenir’’ un programme exécutant T2.
    Toutefois, le périscope ne s’en tient qu’au T2, puisque c’est le seul stade du TT qui est totalement indépendant du matériel.
    Pour clarifier encore plus ce que c’est, il serait impossible d’implémenter les programmes d’un robot T3 en soi-même, puisque ceux-ci sont directement dépendant du matériel.
    Ainsi, un humain ne pourrait franchir la barrière des autres esprits dans ce cas puisqu’il ne peut pas devenir un robot.

    RépondreEffacer
    Réponses
    1. Excellente explication du périscope de Searle.

      Le problème des autres esprits concerne l’incertitude concernant le ressenti d’autrui. Tu le confonds avec l’incertitude concernant l’existence du monde « externe » (le scepticisme, le solipsisme). Ce sont liés, mais pas identique. Et dans ce cours, le Cogito ne touche que sur le ressenti d’autrui, pas l’existence du monde. (C’est les sciences cognitives, pas la métaphysique!)

      Effacer
  21. Suite au cours, je vais tenter d’expliquer à frère cadet ce qu’est le périscope de Searle.
    Le périscope de Searle permet de résoudre le problème des autres esprits.
    Le problème des autres esprits, c’est que nous ne pouvons jamais être sûr à 100% que quoique ce soit d’autre que soit même soit réel ou vrai.
    Ce qui nous prouve que nous sommes réels, c’est la phrase ‘’Je pense, donc je suis’’.
    Le périscope de Searle permet, en quelque sorte de devenir un autre ‘’Je’’ et ce seulement dans le contexte du computationnalisme T2. En d’autres mots, ça nous permet, dans l’exemple de la chambre chinoise (que je n’expliquerai pas puisqu’elle a été expliquée à plusieurs reprises dans les ciélos précédentes.), de ‘’devenir’’ en quelque sorte une machine de Turing.
    C’est possible d’utiliser le périscope de Searle seulement avec le T2, puisque la cognition est indépendante du matériel. Ainsi, puisqu’un programme n’est pas obligé d’être implémenté dans un ordinateur, il peut être ‘’implémenter’’ en quelque sorte dans un humain.
    Ce qui permet à l’humain de ‘’devenir’’ un programme exécutant T2.
    Toutefois, le périscope ne s’en tient qu’au T2, puisque c’est le seul stade du TT qui est totalement indépendant du matériel.
    Pour clarifier encore plus ce que c’est, il serait impossible d’implémenter les programmes d’un robot T3 en soi-même, puisque ceux-ci sont directement dépendant du matériel.
    Ainsi, un humain ne pourrait franchir la barrière des autres esprits dans ce cas puisqu’il ne peut pas devenir un robot.

    RépondreEffacer
  22. Voici un résumé de ma compréhension des notions vues en classe :

    Avec l’argument de la chambre chinoise, Searle pensait avoir démontré que la cognition n’était pas du tout de la computation. Or, cela est faux, ce qu’il a démontré, c’est que la cognition n’est pas que de la computation.

    Son argument était le suivant : en effectuant les mêmes calculs que l’ordinateur, je peux affirmer que je ressens ne pas comprendre le chinois, donc l’ordinateur ne peut pas le comprendre non plus.

    Cet argument a finalement démontré que la cognition n’était pas indépendante de son implantation puisqu’elle dépendait d’un système (Searle, ici). Ainsi, le périscope de Searle (le fait qu’il ressent ne pas comprendre le chinois, mais qu’il manipule seulement des symboles) nous permet de prouver que T2 ne comprend pas. Cependant, nous n’avons aucun moyen de prouver que T3 (robot) comprend ou pas puisqu’il est imperméable au périscope de Searle.

    RépondreEffacer
    Réponses
    1. Bonne synthèse, mais un peu flou concernant « le systéme ». La « Réplique Système » était que même si Searle ne comprend pas (le chinois), « le système » le comprend. Mais ayant mémorisé l'algorithme T2, en l'exécutant, c'est Searle, le système. Pourtant, malgré son succès T2 chinois, Searle ne comprend pas le chinois. Donc le système ne comprend pas le chinois.

      Effacer
  23. Ce que j’ai compris de l’argument du système:

    En réponse à la chambre chinoise de Searl, certains ont formulé l’argument du système. Celui-ci vient à la défense du computationnalisme en refutant l’idée qu’il manque l’élément de la compréhension pour que la computation soit équivalente à la cognition. L’argument du système stipule que bien que l’individu ne comprenne pas, c’est le système avec ses instructions et son algorithme qui comprend.

    Searl aurait dû toutefois formuler un contre-argument de ce genre: si l’individu mémorise les instructions, il devient le système, sans plus comprendre. La computation ne pourrait donc pas expliquer l’ensemble de ce qui constitue la cognition.

    RépondreEffacer
  24. Ce que j’ai compris de l’argument du système:

    En réponse à la chambre chinoise de Searl, certains ont formulé l’argument du système. Celui-ci vient à la défense du computationnalisme en refutant l’idée qu’il manque l’élément de la compréhension pour que la computation soit équivalente à la cognition. L’argument du système stipule que bien que l’individu ne comprenne pas, c’est le système avec ses instructions et son algorithme qui comprend.

    Searl aurait dû toutefois formuler un contre-argument de ce genre: si l’individu mémorise les instructions, il devient le système, sans plus comprendre. La computation ne pourrait donc pas expliquer l’ensemble de ce qui constitue la cognition.

    RépondreEffacer
  25. Pour donner suite à ma dernière ciélographie, je vais tenter d’expliquer ici les failles de l’argument de la chambre chinoise de Searle. Premièrement, Searle se trompait en affirmant que l’on ne faisait pas de computation dans nos cognitions. Ce dernier affirmait que la computation n’avait aucun lien avec les cognitions, ce qui n’est pas véridique. En effet, il y aurait une partie de computation dans les actions que nous effectuons et dans les pensées que nous avons. Entre autres, les mathématiciens, lorsqu’ils font des calculassions, utilisent la computation pour trouver les résultats des équations effectuées.

    De plus, l’argument de la chambre chinoise repose sur une définition spécifique de la compréhension expliquée avec le périscope de Searle (qui a été mentionné dans mon commentaire précédant, mais, par suite du cours de cette semaine, je me rends compte que ma compréhension n’était pas exacte). Ce dernier nous offre une solution au problème des autres esprits (disant que, sans être dans la tête d’un autre, on ne peut pas être sûr que cette autre personne a des cognitions), en nous mettant à la place d’une machine de Turing T2, afin de démontrer que cette dernière ne peut pas penser. On devient le système, et on peut donc déterminer si la machine T2 a besoin de penser ou non pour effectuer les tâches qu’elle effectue. Lorsque quelqu’un comme Searle, qui ne parle pas le chinois, est dans la chambre chinoise, la personne en question développe en quelque sorte deux consciences : une qui sait comment parler chinois, du moins de manière syntaxique (qui est gérée par nos «robots» dans notre tête, de manière automatique, comme ceux qui nous disent qui était notre professeur de troisième année), et une autre qui sait qu’elle ne comprend rien au chinois.

    RépondreEffacer
  26. Pour donner suite à ma dernière ciélographie, je vais tenter d’expliquer ici les failles de l’argument de la chambre chinoise de Searle. Premièrement, Searle se trompait en affirmant que l’on ne faisait pas de computation dans nos cognitions. Ce dernier affirmait que la computation n’avait aucun lien avec les cognitions, ce qui n’est pas véridique. En effet, il y aurait une partie de computation dans les actions que nous effectuons et dans les pensées que nous avons. Entre autres, les mathématiciens, lorsqu’ils font des calculassions, utilisent la computation pour trouver les résultats des équations effectuées.

    De plus, l’argument de la chambre chinoise repose sur une définition spécifique de la compréhension expliquée avec le périscope de Searle (qui a été mentionné dans mon commentaire précédant, mais, par suite du cours de cette semaine, je me rends compte que ma compréhension n’était pas exacte). Ce dernier nous offre une solution au problème des autres esprits (disant que, sans être dans la tête d’un autre, on ne peut pas être sûr que cette autre personne a des cognitions), en nous mettant à la place d’une machine de Turing T2, afin de démontrer que cette dernière ne peut pas penser. On devient le système, et on peut donc déterminer si la machine T2 a besoin de penser ou non pour effectuer les tâches qu’elle effectue. Lorsque quelqu’un comme Searle, qui ne parle pas le chinois, est dans la chambre chinoise, la personne en question développe en quelque sorte deux consciences : une qui sait comment parler chinois, du moins de manière syntaxique (qui est gérée par nos «robots» dans notre tête, de manière automatique, comme ceux qui nous disent qui était notre professeur de troisième année), et une autre qui sait qu’elle ne comprend rien au chinois.

    RépondreEffacer
    Réponses
    1. Bonne explication. Mais toujours pas deux consciences ( = deux ressentis). Une seule; celle de Searle, qui comprend l’anglais mais pas le chinois, même lorsqu’il exécute l’algorithme qui est supposé passer T2. Ainsi aucun système qui exécute l’algo T2 (ou n’importe quel algo) ne comprend (il n’a pas le ressenti de la compréhension, ni le ressenti de quoi que ce soit).

      Et il n’y pas de machine de Turing T2. Il y a (supposons) la machine de Turing qui exécute l’algo qui réussit T2. Ne pas confondre la machine de Turing avec le test de Turing -- ni avec la thèse forte de Church/Turing, selon lequel on peut simuler presque tout par une machine de Turing, donc en exécutant un algorithme. Ainsi même si le T3 (Jasmin) – qui est un robot, pas un ordinateur – peut être simulé par un ordinateur, il n’y ta oujours pas le ressenti. Searle pourrait exécuter cet algo de simulation aussi!

      C’est quoi la différence entre un T3 et une simulation d’un T3?

      Effacer
  27. Si j’ai bien compris, le langage est supérieur à la computation dans le sens que la computation fait partie du langage. Ce qui manque c’est le lien entre le symbole et son référent. Par exemple, la capacité de lier sémantiquement le mot pomme (peu importe écrit dans quelle langue) à l’objet auquel il représente physiquement. Une pomme rouge simulée n’a pas de forme physique. Elle n’est que computationnelle, la simulation est issue d’une manipulation des symboles qui sera interprétée par un T3, par exemple. Dans l’argument de Searle, il démontre que la cognition dépend en fait du matériel contrairement à la description du computationnalisme. L’hypothèse faible étant que la cognition c’est ce que les mathématiciens peuvent faire nous démontre que la cognition c’est la computation ainsi que la capacité de lier le symbole à un référant. Searle ouvre la porte vers la biologie et le cerveau pour tenter d’expliquer cette capacité de référencement.

    RépondreEffacer
  28. C'est ça. Communiquer verbalement est plus qu'un échange de mots (T2). Même plus les échanges de mots ainsi que que l'interaction T3 avec les objects et états dans le monde auxquels réfèrent les mots. Ça ressemble à quelque chose de comprendre les mots, et de vouloir dire ce qu'on veut dire en les prononçant. C'est ce ressenti qui est absent dans l'exécution de l'algorithme T2 par Searle. Même si tout ce que dit Searle est interprétable comme voulant dire quelque chose...

    RépondreEffacer
  29. C'est quoi, un robot? Et c'est quoi le T2 et le T3? Frère cadet ne comprend pas ce qu'a démontré l'argument de Searle. (Avant de répondre, lis les réponses des autres, et le répliques,)

    RépondreEffacer
  30. Bonne synthèse, mais un peu flou concernant « le systéme ». La « Réplique Système » était que même si Searle ne comprend pas (le chinois), « le système » le comprend. Mais ayant mémorisé l'algorithme T2, en l'exécutant, c'est Searle, le système. Pourtant, malgré son succès T2 chinois, Searle ne comprend pas le chinois. Donc le système ne comprend pas le chinois.

    RépondreEffacer
  31. Grâce à son argument de la chambre chinoise (que je ne décrirai pas à nouveau, les les autres ciélos l’ayant déjà bien résumé), Searl parvient à démontrer que la cognition ne peut être seulement de la computation.

    Par contre, contrairement à ce qu’il prétend, il n’a pas démontré que la cognition n’a rien à voir avec la computation. Pour cela, on peut simplement prendre l’exemple des mathématiciens, qui font des calculs. On sait qu’au moins dans ce cas précis, les mathématiciens font de la computation. On peut d’ailleurs pour cela se référer à la thèse faible de Turing, selon laquelle tout ce que peuvent faire les mathématiciens peut être réalisé également par des machines de Turing. Il n’y a eu jusqu’à présent aucun exemple permettant de démentir cette thèse, et il est donc raisonnable de considérer qu’on a convenablement rétroingénierié la capacité de calcul et que la computation est bien le mécanisme utilisé par un être humain lorsqu’il effectue un calcul du type 1+1=2. De ce fait, on peut affirmer que la cognition fait au moins en partie appel à de la computation.

    RépondreEffacer
    Réponses
    1. Excellent.

      Mais on n'a pas rétroingénierié la capacité de calcul, car la rétroingénierie cognitive (selon la méthodologie de Turing) ne se fait pas à l'échelle d'un fragment de la cognition (t1) mais à l'échelle du TT total. Les fragments sont sous-déterminés. Il y a maintes façons d'implémenter le calcul.

      Effacer
  32. Grâce à son argument de la chambre chinoise (que je ne décrirai pas à nouveau, les les autres ciélos l’ayant déjà bien résumé), Searl parvient à démontrer que la cognition ne peut être seulement de la computation.

    Par contre, contrairement à ce qu’il prétend, il n’a pas démontré que la cognition n’a rien à voir avec la computation. Pour cela, on peut simplement prendre l’exemple des mathématiciens, qui font des calculs. On sait qu’au moins dans ce cas précis, les mathématiciens font de la computation. On peut d’ailleurs pour cela se référer à la thèse faible de Turing, selon laquelle tout ce que peuvent faire les mathématiciens peut être réalisé également par des machines de Turing. Il n’y a eu jusqu’à présent aucun exemple permettant de démentir cette thèse, et il est donc raisonnable de considérer qu’on a convenablement rétroingénierié la capacité de calcul et que la computation est bien le mécanisme utilisé par un être humain lorsqu’il effectue un calcul du type 1+1=2. De ce fait, on peut affirmer que la cognition fait au moins en partie appel à de la computation.

    RépondreEffacer
    Réponses
    1. Excellent.

      Mais on n'a pas rétroingénierié la capacité de calcul, car la rétroingénierie cognitive (selon la méthodologie de Turing) ne se fait pas à l'échelle d'un fragment de la cognition (t1) mais à l'échelle du TT total. Les fragments sont sous-déterminés. Il y a maintes façons d'implémenter le calcul.

      Effacer
  33. Je trouve la citation suivante particulièrement intéressante :

    “Le problème n'est pas qu'il lui manque une information du second degré pour interpréter ses symboles du premier degré, mais bien que ses symboles du premier degré n'ont pas d'interprétation du tout tant qu'il s'agit de l'ordinateur. Tout ce que l'ordinateur aurait de plus, ce serait encore des symboles. “. Cela illustre bien ce que l’on avait déjà vu en cours concernant le fait de tenter de définir un symbole par d’autres symboles : sans ancrage des symboles dans la réalité, sans faire intervenir un autre mécanisme qu’un modèle purement formel (syntaxique, qui ne s’attache qu’à la forme des symboles), on tourne en rond. Il faut un ancrage dans le monde, une capacité à produire un lien entre un symbole et son référent à partir de ses sens pour être en mesure de produire de la sémantique, c'est-à-dire de comprendre le sens des symboles.

    RépondreEffacer
  34. Je trouve la citation suivante particulièrement intéressante :

    “Le problème n'est pas qu'il lui manque une information du second degré pour interpréter ses symboles du premier degré, mais bien que ses symboles du premier degré n'ont pas d'interprétation du tout tant qu'il s'agit de l'ordinateur. Tout ce que l'ordinateur aurait de plus, ce serait encore des symboles. “. Cela illustre bien ce que l’on avait déjà vu en cours concernant le fait de tenter de définir un symbole par d’autres symboles : sans ancrage des symboles dans la réalité, sans faire intervenir un autre mécanisme qu’un modèle purement formel (syntaxique, qui ne s’attache qu’à la forme des symboles), on tourne en rond. Il faut un ancrage dans le monde, une capacité à produire un lien entre un symbole et son référent à partir de ses sens pour être en mesure de produire de la sémantique, c'est-à-dire de comprendre le sens des symboles.

    RépondreEffacer
  35. Sur texte de John R. Searle “Esprits, cerveaux et programmes”.

    Dans l’exemple que nous propose Searle, des testeurs, lui donnent des histoire en anglais et des histoire en chinois, et des instructions en anglais pour les histoires en chinois. Ensuite, il doit faire des associations entre les histoires de la même langue. Ne comprenant rien au chinois, mais, grâce aux instructions rédigées en anglais, il arrive à faire les associations entre les histoires chinoises.

    Bref, pour l’anglais il y a une vraie “compréhension” et pour le chinois seulement une compréhension formelle, c’est-à-dire, qu'il peut compléter les tâches demandées par les testeur sans comprendre réellement le chinois comme il comprend l’anglais. Il y a une manipulation des symboles (computation) mais pas une réelle compréhension.

    Mon point : l’anglais, qu’il connaît, est une langue qu'il a appris depuis qu’il est né, depuis qu’il a la capacité d’apprendre est donc n’a plus besoin d’instructions pour comprendre l’anglais. Il a appris et manie déjà les symboles qui font référence à la langue anglaise. Donc, il accomplit sensiblement la même chose que pour le chinois. Où je veux en venir, est qu’il n’y a pas vraiment de différences entre l’accomplissement de tâches dans une langue qu’on ne connaît pas, à l’aide d'instructions dans notre langue d’origine, et l’accomplissement des tâches dans notre langue d’origine. On peut opposer une compréhension formelle dans le premier cas à une réelle compréhension dans le deuxième cas, mais, à mon avis, la réelle compréhension n’est qu’une compréhension formelle beaucoup plus élaborée, en raison du temps avec lequel on a pratiqué la langue d’origine, et donc, représente un meilleur maniement des symboles. Mais les deux relèvent de la computation.

    RépondreEffacer
    Réponses
    1. Pas d’histoires, ni en anglais ni en chinois. Pas d’instructions, pas d’associations. Juste un algorithme (c’est quoi?) à exécuter.

      C’est quoi, la computation?

      Effacer
    2. L'algorithme qui réussit T2: T2 c'est quoi?

      Effacer
  36. Pas d’histoires, ni en anglais ni en chinois. Pas d’instructions, pas d’associations. Juste un algorithme (c’est quoi?) à exécuter.

    C’est quoi, la computation?

    RépondreEffacer
  37. L'algorithme qui réussit T2: T2 c'est quoi?

    RépondreEffacer
  38. Searl peut résoudre temporairement le problème des autres esprits (il est impossible d’avoir la certitude que quelqu’un d’autre que soi ressent). Comment ? Grâce à son périscope qui pénètre la barrière des autres esprits et son argument de la chambre chinoise. Il sait/ressent qu'il ne comprend pas le mandarin, mais qu’il fait plutôt seulement manipuler les symboles. Du même coup, Searl démontre que la cognition ne peut être seulement de la computation. Ce ne serait pas une condition suffisante. L’exécution de l’algorithme ne génère pas la compréhension, même si elle génère la capacité T2.

    RépondreEffacer
  39. Searl peut résoudre temporairement le problème des autres esprits (il est impossible d’avoir la certitude que quelqu’un d’autre que soi ressent). Comment ? Grâce à son périscope qui pénètre la barrière des autres esprits et son argument de la chambre chinoise. Il sait/ressent qu'il ne comprend pas le mandarin, mais qu’il fait plutôt seulement manipuler les symboles. Du même coup, Searl démontre que la cognition ne peut être seulement de la computation. Ce ne serait pas une condition suffisante. L’exécution de l’algorithme ne génère pas la compréhension, même si elle génère la capacité T2.

    RépondreEffacer
  40. La cognition n’est pas de la computation, mais on ne peut nier que la computation est une partie de la cognition. Searle ne peut pas affirmer que la machine ne comprend pas, mais lui ne comprend pas. Après, il faut s’entendre ici, Searle n’a pas forcément raison en affirmant que Turing avait tort puisque son argument de la chambre chinoise ne concerne que la linguistique de la langue chinoise. Donc, on peut affirmer que son argument ne tient que jusqu’au T2 de Turing!
    Un algorithme qui réussit T2 en chinois, n’est pas un gage de compréhension puisque Searle lui-même réussit ce test sans le comprendre et il ressent bien qu’il ne comprend pas. Comprendre quelque chose comporte une dimension syntaxique et un ressenti, de là émerge la sémantique. C’est l’ancrage. C'est en ressentant son incompréhension que Searle pouvait affirmer qu’il ne comprenait pas le chinois. Dans ce sens, je doute fort qu’on puisse réellement comprendre sans corps physique.

    RépondreEffacer
  41. « Les affirmations de l’I.A. forte sont donc que l’ordinateur programmé comprend les histoires et que le programme explique en quelque façon l’entendement humain. » Selon moi, je ne crois pas que le fait qu’un ordinateur réponde à une question prouve qu’il comprend nécessairement la question elle-même. Comme le teste de la chambre chinoise le montre, nous pouvons suivre des protocoles pour répondre à des questions en chinois provenant d’un texte écrit lui aussi en chinois, même si nous ne connaissons rien à cette langue étrangère et que nous ne la comprenons pas, seulement grâce au protocole suivit. Les protocoles que suivent les ordinateurs n’en sont en rien différents selon moi. Ils effectuent des taches selon des programmes qui lui ont été enregistrer.
    « Ma calculatrice de bureau à des capacités de calcul, mais pas d’intentionnalité. » Certes nous sommes des machines, mais les machines créées par l’homme comme un ordinateur ou une calculatrice peuvent-ils vraiment avoir une propre intentionnalité, comme le cerveau le fait? Peuvent-ils se donner un propre projet? Peuvent-ils avoir un mouvement de penser et une opinion propre à eux-mêmes? Sont-ils conscients de leur existence? Je ne crois pas qu’un simple programme peut entrainer ce genre de choses, même si certain tentent de le prouver avec l’I.A. forte qui avance que l’ordinateur n’est pas seulement un outil pour l’homme, mais qu’il serait réellement son propre esprit, comprennent et possèdent d’autres états cognitifs.

    RépondreEffacer
  42. « Les affirmations de l’I.A. forte sont donc que l’ordinateur programmé comprend les histoires et que le programme explique en quelque façon l’entendement humain. » Selon moi, je ne crois pas que le fait qu’un ordinateur réponde à une question prouve qu’il comprend nécessairement la question elle-même. Comme le teste de la chambre chinoise le montre, nous pouvons suivre des protocoles pour répondre à des questions en chinois provenant d’un texte écrit lui aussi en chinois, même si nous ne connaissons rien à cette langue étrangère et que nous ne la comprenons pas, seulement grâce au protocole suivit. Les protocoles que suivent les ordinateurs n’en sont en rien différents selon moi. Ils effectuent des taches selon des programmes qui lui ont été enregistrer.
    « Ma calculatrice de bureau à des capacités de calcul, mais pas d’intentionnalité. » Certes nous sommes des machines, mais les machines créées par l’homme comme un ordinateur ou une calculatrice peuvent-ils vraiment avoir une propre intentionnalité, comme le cerveau le fait? Peuvent-ils se donner un propre projet? Peuvent-ils avoir un mouvement de penser et une opinion propre à eux-mêmes? Sont-ils conscients de leur existence? Je ne crois pas qu’un simple programme peut entrainer ce genre de choses, même si certain tentent de le prouver avec l’I.A. forte qui avance que l’ordinateur n’est pas seulement un outil pour l’homme, mais qu’il serait réellement son propre esprit, comprennent et possèdent d’autres états cognitifs.

    RépondreEffacer
  43. Une brève réflexion sur les intersections entre les différentes approches des sciences cognitives à la lumière de la conclusion de l'article "Minds, machines and Searle 2"

    Si l'argument de la chambre chinoise de Searle (CRA) démontre que le pur computationnalisme, dans la mesure où il soutiendrait qu'on pourrait produire un candidat de remplacement à la cognition seulement par le calcul symbolique (la manipulation syntaxique de symboles arbitraires) qui pourrait s'implémenter dans différentes combinaisons de programmes (logiciels) et de supports physiques (le hardware, soit un cerveau, ou une machine de Turing universelle), que le pur computationnalisme donc, manque de quelque chose pour passer avec succès un test de Turing T2 (seulement des correspondances d'expressions écrites). Il manque, outre la performance extérieure à T2, d'un rapport avec l'extérieur (qui pourrait être fourni par la robotique située et l'ancrage des symboles par démarche sensorimotrice), ainsi que le démontre Searle en s'imaginant être une partie de l'exécution du programme en computant syntaxiquement des expressions en chinois, et qu'il n'aurait aucune compréhension (il ne ressentirait, heuristiquement, aucune compréhension, malgré la performance du système de la chambre chinoise incluant Searle).

    Ceci pointe donc que même si il y a implémentation indépendante (plusieurs candidats pourraient implémenter la capacité computationnelle), il faut qu'il y ait une implémentation, mais que cela ne produit pas de la compréhension sémantique, heuristique et des ressentis avec le monde extérieur, seulement un niveau de performance qui pourrait laisser penser que les programmes de recherches computationnels arrivent à fournir un candidat par rétro-ingénierie pour T2, mais sans compréhension (et donc capacité d'apprendre, d'interagir et d'ancrer de nouveaux symboles avec l'extérieur du système de la Chambre chinoise). Le périscope de Searle pour tenter de nous donner un accès par la substitution d'une composante de la computation par lui-même à la question des états mentaux conscients d'autrui auxquels nous n'avons pas accès autrement que béhavioralement ou par entrevue, permet donc en définitive de soutenir qu'il faudra plus que de la computation seule pour passer avec succès T2 (en mobilisant un niveau de plus -T3- pour l'ancrage des symboles et que nous puissions dire qu'il y aurait une "intelligence" au sens ou de l'apprentissage dynamique avec un environnement complexe.

    La question donc: Quel rôle joue pour les protocoles d'expérimentation visant à tester nos candidats causaux pour les capacités T2, le fait d'avoir des modèles mathématiques (en informatique cognitive et théorique) qui permettent de prévoir des niveaux de performances donnés pour les Tests T2? Faut-il toujours désormais (depuis le CRA de Searle) que les tentatives intègrent les systèmes dynamiques ou la robotique incarnée (embodied)? Que faire de la consilience (les réponses convergentes des modèles mathématiques, des savoirs causaux neurophysiologiques et des candidats rétro-ingéniés) entre les différentes approches? Peut-elle être un signe que nous avançons dans la bonne direction, en dehors d'une performance satisfaisante à un test T2?

    RépondreEffacer
  44. Léo Caron-Guillemette1 mai 2022 à 19 h 29

    La thèse de Searle selon laquelle une I.A. ne pourra jamais simuler la conscience humaine me paraît tout à fait juste. Ainsi, l’argument de la chambre chinoise montre qu’il n’est pas logique d’affirmer que la cognition se résume à la computation de sorte que la possibilité d’existence d’une I.A. forte, à savoir une I.A. capable de faire tout ce qu’un humain peut accomplir, est nulle. En effet, à l’aide de son analogie concernant l’utilisation de l’écriture chinoise pour répondre à des questions en ne faisant que suivre des instructions, il illustre le fait que même s’il parvenait à répondre correctement à toutes les questions qui lui sont demandées au point où ses évaluateurs pourraient croire qu’il comprend très bien le chinois, lui-même saurait qu’il ne comprend rien à cette langue et donc que le fait d’arriver à imiter le comportement de quelqu’un qui comprend ne signifie pas que cette compréhension est atteinte. De la même manière, un ordinateur qui réussirait à répondre à des questions sur une histoire donnée de la même façon qu’un humain ne montre en rien qu’il est capable de comprendre véritablement. On comprend donc en quoi son argument est aussi puissant.

    RépondreEffacer
  45. Léo Caron-Guillemette1 mai 2022 à 19 h 29

    La thèse de Searle selon laquelle une I.A. ne pourra jamais simuler la conscience humaine me paraît tout à fait juste. Ainsi, l’argument de la chambre chinoise montre qu’il n’est pas logique d’affirmer que la cognition se résume à la computation de sorte que la possibilité d’existence d’une I.A. forte, à savoir une I.A. capable de faire tout ce qu’un humain peut accomplir, est nulle. En effet, à l’aide de son analogie concernant l’utilisation de l’écriture chinoise pour répondre à des questions en ne faisant que suivre des instructions, il illustre le fait que même s’il parvenait à répondre correctement à toutes les questions qui lui sont demandées au point où ses évaluateurs pourraient croire qu’il comprend très bien le chinois, lui-même saurait qu’il ne comprend rien à cette langue et donc que le fait d’arriver à imiter le comportement de quelqu’un qui comprend ne signifie pas que cette compréhension est atteinte. De la même manière, un ordinateur qui réussirait à répondre à des questions sur une histoire donnée de la même façon qu’un humain ne montre en rien qu’il est capable de comprendre véritablement. On comprend donc en quoi son argument est aussi puissant.

    RépondreEffacer

PLAN DU COURS

  ISC1000-20, hiver 2022:  Catégorisation, communication et conscience Heure:  mardi 18h00-21:00 Salle du cours: DS-4375  Zoom Enseignant:  ...