Thursday 4 January 2018

Semaine 1. Introduction à l’esprit

On commence par s’interroger sur ce que c’est que la conscience? la sensibilité? la cognition? le «problème  corps/esprit» et le «problème des autres esprits»? Et le problème de l’incertitude (Descartes) en science? C’est quoi le Test de Turing et est-ce la solution au problème des autres esprits ?
Suppléments langue française (vidéos) :
Le test de Turing expliqué en moins de 3 minutes     Le modèle Turing    Le jeu d’imitation

23 comments:

  1. Commentaire suite à la lecture de: Turing, A.M. (1950) Computing Machinery and Intelligence. Mind 49 433-460

    Il me semble que le jeu de l'imitation repose sur une définition de l'humain quasiment absente. Alors que la machine doit remplacer A (l'homme), jamais Turing nous informe véritablement sur les caractéristiques de ce même homme que la machine devrait imiter. L'intuition porte néanmoins le lecteur-trice, moi y compris, à assumer que la machine devra reproduire le comportement humain que l'on pourrait considérer comme étant "typique". N'est-ce pas là un grave éceuil au sein du jeu de l'imitation que de devoir, faute de définition, juger la machine au regard d'une vision neuro-typique de l'humain ?
    À cet égard, cette expérience m'apparait au fond comme étant problématique et capacitiste. Un individu aillant un trouble grave du développement, ou encore un individu atteint du locked-in syndrome, ne pourrait peut-être même pas participer à ce jeu (ou alors ne pas être reconnu comme un humain par l'examinateur-trice), alors même que nous reconnaissons unanimement la conscience chez ces individus.

    ReplyDelete
    Replies
    1. Benoit, ce que je fais dans mes cours sur la cognition humaine pour répondre à cette question c'est de choisir quelqu'un dans le cours et le désigner comme étant notre robot pour cette année-ci. Il se porte exactement comme avant, mais nous allons supposer qu'il avait été construit il y a 5 ans dans un laboratoire à MIT.

      L'essentiel du test de Turing est que si on ne pouvait pas distinguer le robot d'un de nous à partir de tout ce qu'il fait et dit, alors il serait irrationnel de conclure qu'il n'a pas le ressenti lorsqu'on apprend qu'il est robot.

      Il ne s'agit pas des caractéristiques -- particuliers ou typiques. Il s'agit de l'incapacité de le distinguer d'un de nous. On pose la question concernant une personne normale car si le robot était paralysé et muet, alors on pourrait facilement le distinguer d'un de nous -- mais peut-être pas le distinguer d'une vraie personne paralysée et muette. (Pour ça il faudrait un neurologiste, et ça ne serait plus le test de Turing.)

      Delete

    2. Sans insister sur les problèmes de handicaps, je crois que la question de la diversité psychologique reste pertinent pour évaluer la valeur du test. Il ne faut pas perdre de vue le fait que plusieurs humains peuvent échouer le test de Turing, pour toute sortes de raisons. Être une personne très introvertie/timide/peu confiante, se faire administrer le test dans une langue autre que sa langue maternelle, très tôt le matin, ou alors qu'on est enrhumé sont quelques facteurs parmi d'autres qui peuvent mener à l'échec de l'identification d'une personne humaine 'normale' au test de Turing. Si on est prêt à attribuer un statut moral à un ordinateur qui réussit le test, que peut-on penser d'un humain qui l'échoue ? Dans les tentatives de jouer au jeu imaginé par Turing (proche du jeu de l'imitation), une personne humaine échouerait à se faire reconnaître comme telle dans 33% des cas si elle jouait contre une machine 'parfaite'. Empiriquement, dans une version du test plus proche de celle dont nous parlions dans le cours (un interrogateur et un sujet), seulement 63% des humains testés dans un test en 2011 ont réussi à convaincre leur interrogateur qu'ils étaient humains, alors que 59% des ordinateurs ont réussi (1). Qu'est-ce que cela implique pour les 27% qui ont échoué que nous ne soyons pas capable de les reconnaître comme des humains, comme des individus qui pensent 'comme nous' ?

      Aussi, j'ai bien aimé la réflexion de J-M Bertrand : dans un tel test, est-ce que les humains et les ordinateurs 'jouent au même jeu' ? Pour passer le test, une personne humaine n'a pas à mentir. L'ordinateur lui doit 'tromper' son interrogateur. Il ne peut répondre la vérité si on lui demande ce qu'il a mangé, ou n'importe quelle autre question relative à des processus physiques typiques des humains. Il doit faire semblant d'être lent en calcul pour imiter les capacités limitées du cerveau humain en mathématique, etc. Bref, l'ordinateur tente de 'tromper' son interrogateur pour passer un 'test', alors que pour l'humain il s'agissait à la base d'un 'jeu' d'imitation, et la connotation des mots 'jeu' et 'test' n'est clairement pas la même...

      Évidemment, l'humain, en plus de pouvoir échouer le test visant à confirmer son identité humaine, n'a aucun espoir de pouvoir se faire passer pour un ordinateur : il serait inévitablement démasqué dès la première question. Que peut-on penser d'une personne qui échouerait à se faire identifier comme un humain en plus de celui permettant de l'identifier comme une machine ? Le cas n'est pas qu'hypothétique : 27% des participants au test de 2011 sont dans cette situation...

      (1) https://fr.wikipedia.org/wiki/Cleverbot#Test_de_Turing

      Delete

    3. "unknown" stp t'identifier pour pour que je puisse t'accoder le crédit pour ta ciélo. Stp cré un compte gmail avec ton nom et ta photo.

      Pour ta question, c'est un malentendu: Le but du TT n'est pas de tromper, mais d'expliquer) le mécanisme qui génère toutes nos capacités cognitives. Il n'est pas un jeu . Turing l'a introduit comme tel, mais ça devient évident qu'il voulait dire quelque chose de beaucoup plus profond que ça: le fait que la seule façon d'inférer si autrui à un esprit c'est à partir de ce qu'il est capable de faire (et dire).

      Delete
    4. J'ai eu des problèmes avec la création du compte, je crois que c'est maintenant réglé.

      Delete
  2. Salut,
    En terme statistique, je crois que les exemples de personnes ''ayant un trouble grave du développement'' peuvent être considérés comme des ''outliers''. Un outlier (donnée aberrante en français) est une donnée (ici un humain) qui dévie considérablement de la moyenne typique des individus. Elle dévie au point que l'on juge, selon un seuil (arbitraire), que la donnée est significativement différente de la valeur typique (ici la moyenne des individus). Autrement dit , l’individu s’écarte ( voir notion d’écart type en statistique) significativement du lot.

    Ensuite, comme dit dans le texte, Turing postule que l’humain n’essaiera pas de berner le juge. Donc, oui il est en autre question de capacité, mais de capacités typiquement humaines. Donc, est-ce que justement une machine sera capable de berner un juge au point que le juge croit qu’A et B répondent de manière typiquement humaine ?

    Un exemple qui tient en compte la notion de capacité et qui va dans l’autre sens:

    Un ordinateur (ou humain) est trop rapide pour répondre à un problème difficilement réalisable pour un humain moyen : il est donc jugé comme outlier selon le juge.

    Bref, ce jeu tient compte ( ou est limité par) du sens commun du juge ; le juge fera (ou pourrait faire) des erreurs lorsque l’humain sortira typiquement du lot. Le sens commun du juge tient compte de ses propres heuristiques (raccourcis mentaux) qui peuvent le mener vers un jugement adéquat ou non.

    ReplyDelete
    Replies
    1. Matthieu, le but du TT en intelligence artificielle n'est pas de berner mais de construire vraiment un robot ayant toutes nos capacités (pour participer dans les interactions qui pourraient en principe durer le long d'une vie). Comme ça le mécanisme du robot expliquerait peut-être le mécanisme dans nos cerveaux.

      Mais ici, dans le contexte du problème des autres esprits des autres espèces, la question n'est pas « est-ce que je peux le distinguer d'un de nous? » (et sinon, d'avouer franchement que je ne sais ni plus ni moins s'il est conscient lorsqu'un me révèle qu'il est robot -- peut-être après beaucoup d'années de connaissance -- que je savais avant.

      Avec les animaux non humains, la question est semblable: on sait qu'ils sont des êtres vivants; on voit qu'ils se portent d'une manière similaire à nous: Est-ce qu'ils ont le ressenti? Et si oui, qu'est-ce qu'ils ressentent?

      Delete
  3. Au début, je trouvais la question de Turing un peu absurde. Comment remplacer la question ''un ordinateur peut-il penser?'' par celle de ''un ordinateur peut-il prendre la place d'un humain au jeu de l'imitation''? Par la suite, j'ai compris que la question que Turing se posait était plutôt: est-ce que si un ordinateur peut se faire passer pour un humain au jeu de l'imitation, alors on peut dire qu'il pense?

    Cette question est très intéressante. Elle m'amène à me poser plusieurs questions: est-ce que réaliser des opérations/performer à une tâche suffit à accorder à un organisme/ordinateur des pensées, un esprit? est-ce que la pensée est quelque chose d'observable? Si oui, y a t-il des critères permettant de juger si l'organisme/l'ordinateur pense ou pas? Quels sont-ils? On peut aussi supposer que si un super-ordinateur est capable de rendre compte de tous ces critères, alors il pense.

    ReplyDelete
    Replies
    1. Clélia, c'est claire que cognition (la pensée) ne se voit pas, sauf par introspection (parce qu'elle est alors ressentie par la personne qui pense). Le problème des autres esprits concerne autrui plutôt que moi: est-ce que lui pense (ou, plus particulièrement, est-ce qu'il ressent?). C'est là que ça implique aussi les espèces autre qu'humain.

      Il y a des raisons de douter qu'un ordinateur (même un « super-ordinateur ») pense (bien que ça reste toujours une possibilité logique).

      Mais ici on pose la question concernant un robot qui réussit le test de Turing: Il est capable de faire (ainsi que de dire) tout ce qu'un humain est capable de faire et de dire, à tel point qu'on est incapable de le distinguer d'un humain à partir de ce qu'il fait (sauf si on ouvre sa tête et constate qu'il y a autre chose là dedans, pas un cerveau -- peut-être juste un ordinateur).

      Le test de Turing -- est-ce que je peux le distinguer le candidat d'un être sensible à partir de son cmportement? -- est un test de la présence d'un autre esprit, la présence du ressenti chez autrui. Il n'est pas une solution au problème des autres esprits. Ce qui réussit le TT n'a pas nécessairement le ressenti. Mais c'est le critère qu'utilisent les êtres humains entre eux. On est en train de se tester à la Turing constamment dans le quotidien..

      Alors quoi pour les êtres non humains?

      Delete
    2. C'est intéressant d'identifier la pensée au ressenti. Cependant si un robot réussi au TT cela ne signifie pas qu'il ressent. Je n'adhère pas au dualisme cartésien, mais peut être que dans ce cas ça pourrait aider de distinguer les deux. Bien que d'un point de vue éthique il vaudrait mieux s'abstenir de me donner un coup de pied en cas de doute de mon appartenance à l'espèce humaine 😉

      Delete
    3. Rien ne peut garantir qu'autrui ressent: même pas le témoignage verbal. Ce n'est que l'indiscernibilité TT qui soutient l'attribution du ressenti entre les humains. Qu'est-ce qui peut le soutenir dans le cas des autres espèces?

      Delete
  4. Ce qui me semble délicat dans le test de Turing est d’assumer la possibilité de concevoir un ordinateur qui puisse réellement berner un être humain sur sa nature, dans tous les cas possibles, et non seulement dans les cas expérimentés. Le fait est que la machine et l’être humain sont constitués différemment, ce qui implique que des différences existent entre les deux. Ces différences, bien qu’elles puissent être difficiles, voire impossibles à percevoir, existent néanmoins. Bien que la différence puisse être imperceptible, il n’en demeure pas moins une confusion d’attribuer une identité entre l’esprit humain et le supposé esprit du robot. Ce n’est pas parce qu’on est incapable de distinguer deux choses qu’elles sont nécessairement identiques.

    ReplyDelete
    Replies
    1. Anne-Kim, tu as raison que le fait qu'on ne peut pas distinguer entre deux choses ne les rend pas identiques.

      Mais les humains varient beaucoup. Ils ne sont pas identiques. Et pourtant nous présumons (et probablement avec raison) qu'ils ressentent tous (sauf lorsqu'ils sont anesthésiés, endormis, dans un coma ou morts). Notre critère est toujours ce qu'il font et disent (le long d'une vie, pas juste lors d'une une brève interaction).

      Qu'est-ce que tu sais à propos du cerveau ou des ordinateurs ou des robots qui impliquerait que si on découvre que Clélia est une robote fabriquée à MIT il y cinque ans, alors elle ne ressent pas, et on peut lui donner un coup de pieds sans remords?

      Delete
    2. C’est vrai que les humains varient beaucoup. Mais on sait qu’ils sont tous constitués de la même façon, c’est-à-dire faits de cellules organiques, avec un système nerveux, un système digestif etc. Ces propriétés (avoir un système nerveux par exemple), me semblent nécessaires pour qu’on puisse attribuer des capacités sensitives. Ce que je veux dire, c’est qu’il ne me semble pas que ce qu’ils font et disent sont vraiment les seuls critères pour attribuer ces capacités. Je sais que je ressens des choses, car j’en fais l’expérience. J’ai un système nerveux et suis constituée de la même façon que les autres êtres humains. Les animaux me ressemblent beaucoup, car leur constitution, surtout celle des mammifères, ressemble à la mienne. Les robots s’éloignent trop de cette constitution pour que je puisse intuitivement croire qu’ils ressentent des choses. Pour ce qui est de l’expérience de pensée qui consiste à faire comme si un étudiant est un robot, en prenant pour acquis que cela est possible (ce qui ne me convint pas de prime abord), on pourrait être trompé par le robot, mais cela n’impliquerait pas qu’il puisse ressentir (sur la base de ce que j’ai dit plus tôt). Si je lui donnais un coup de pied, je n'aurais pas de remord.

      Delete
    3. LE TEST DE TURING

      Tu fais des excellentes observations, Anne-Kim! J'espère que les autres vont entrer dans ce fil de discussion:

           A-K: C’est vrai que les humains varient beaucoup. Mais on sait qu’ils sont tous constitués de la même façon, c’est-à-dire faits de cellules organiques, avec un système nerveux, un système digestif etc.


      Que les autres humains ressentent on le croit (puisqu'on ne peut pas « savoir ») depuis beaucoup plus longtemps que ce que nous savons quoi que ce soit concernant leur constitution physiologique. (C'est sûr qu'on ne cherche pas un bilan d'imagerie cérébrale pour s'assurer qu'on ne devrait pas leur donner un coup de pied!)

           A-K: Ces propriétés (avoir un système nerveux par exemple) me semblent nécessaires pour qu’on puisse attribuer des capacités sensitives.

      Elles me semblent nécessaires aussi, en tant que scientifique. Peut-être qu'elles le sont. (Toutes? lesquelles? comment constater lesquelles?) Mais dans la vie quotidienne ce n'est certes pas sur la base des propriétés neurologiques que je présume que les autres humains ressentent. Je le croyais même avant que je savais que le cerveau existait. Et mes ancêtres le croyaient aussi. Je le croyais sur la base de ce qu'ils faisaient et disaient (ainsi que leur apparence externe) et sa similarité à moi.

           A-K: il ne me semble pas que ce qu’ils font et disent sont vraiment les seuls critères pour attribuer ces capacités.

      Pas les seuls critères, mais les critères primordiaux.

           A-K: Je sais que je ressens des choses, car j’en fais l’expérience.

      Ça c'est le Cogito de Descartes, et de ça tu peux dire indubitablement que tu le sais, plutôt que de juste le croire. Mais pour le ressenti d'autrui, tu ne sais pas. C'est le problème des autres esprits. Tu te fie aux similarités:

           A-K: J’ai un système nerveux et suis constituée de la même façon que les autres êtres humains.

      Oui. Mais (1) s'ils avaient le même cerveau que toi, mais ne faisaient rien (ou pas plus que ce que fait an aspirateur ou un grille pain), alors qu'est-ce que tu croirais?

      Ici on considère l'inverse: (2) s'ils étaient différent à l'intérieur, mais complètement similaire à l'extérieur, de leur apparence ainsi que de ce qu'ils font et disent (le long d'une vie), alors quoi?

      Bref, on parle de Clélia.

           A-K: Les animaux me ressemblent beaucoup, car leur constitution, surtout celle des mammifères, ressemble à la mienne.

      D'accord. Et on reviendra à ça. Mais avant ça, on peut encore poser les mêmes questions (1) et (2) à propos d'eux.

      A-K: Les robots s’éloignent trop de cette constitution pour que je puisse intuitivement croire qu’ils ressentent des choses. Pour ce qui est de l’expérience de pensée qui consiste à faire comme si un étudiant est un robot, en prenant pour acquis que cela est possible (ce qui ne me convint pas de prime abord), on pourrait être trompé par le robot, mais cela n’impliquerait pas qu’il puisse ressentir (sur la base de ce que j’ai dit plus tôt). Si je lui donnais un coup de pied, je n'aurais pas de remord.

      Donc si Clélia te montrait un jour qu'il n'y avait que de la métale dans sa tête et qu'elle avait été construite il y a 5 ans à MIT, tu lui donnerais un coup de pied sans remords? Même si tu la connaisais intimement depuis quatre ans et que ce n'était que maintenant que tu apprenais la vérité?

      Faisons le sondage: Que disent les autres?

      Delete
    4. J'apporte l'idée de la «vallée dérangeante» qui dit que plus un robot ressemble à un humain, mais qu'il agit un peu comme n'étant pas un humain, donc qu'il a des imperfections, et plus il nous paraîtra étrange. La théorie dit aussi que même si on sait qu'un robot est un robot, par son apparence, mais qu'il agit de façon similaire aux humains, surtout en ce qui a trait aux émotions, il nous paraîtra plutôt sympathique. Frapperiez-vous R2D2?

      Bien sûr le test de Turing suppose qu'on construit un robot qui n'a pas d'imperfection apparente. Et comme Anna-Kim l'a dit, il est possible que le système nerveux et les organes des humains soient nécessaire pour qu«'émerge» une conscience. Mais cela fait partie des potentiels candidats au test de Turing. On n'est pas limité aux pièces de métal. On pourrait utiliser des matériaux qui ressemblent à ce qu'a un humain, et on peut aussi reproduire tous les organes, pas seulement le cerveau. On se pose alors la question jusqu'à quel niveau de similitude avons-nous besoin d'aller pour être capable de reproduire les capacités humaines.

      https://fr.wikipedia.org/wiki/Vall%C3%A9e_d%C3%A9rangeante

      Delete
    5. En fait, je dirais que le TT ne suppose pas qu'on crée un robot qui n'a pas d'imperfections apparentes. (L'aspect visuel du robot est justement la seule chose non importante) Si je croise un homme clairement fait de métal, mais qui m'assure qu'il ressentira la douleur si je le frappe ou s'il perd un être cher (comme réagirait n'importe qui), j'aurai un doute.

      Delete
    6. Qu'est-ce que l'empathie envers autrui? Qu'est-ce qui la déclenche? Est-ce que « l'anthropomorphisme » est un défaut où une qualité?

      Delete
  5. COMPUTING MACHINERY AND INTELLIGENCE By A. M. Turing
    Le test de Turing n’est pas une solution au problème des autres esprits. C’est une méthodologie pour reproduire la cognition humaine. Le TT permet de supposer que le prototype de test, soit le robot ou un humain, a la conscience, s’il agit de façon indifférenciable d’un humain. C’est une méthodologie pour les sciences cognitives, car le but étant d’expliquer la cognition, si on arrive à développer un modèle (un robot) qui agit comme agirait un humain, ce modèle est en soi une explication plausible de la cognition. Si on arrive à reproduire la cognition, soit à passer le TT avec un prototype, on peut supposer que ce prototype a la conscience, à même titre qu’on suppose que notre voisin, nos amis et tout autre humain l’a. Par contre, le TT n’est pas une solution au problème des autres esprits, car il ne permet que d’accorder une plausibilité d’avoir la conscience à quelque chose qui agit comme un humain. Donc tout ce qui n’agit pas comme un humain ne passerait pas le test, ce qui écarte d’entrée de jeu toutes les autres espèces. Le TT ne peut évidemment pas fonctionner pour vérifier si les animaux « pensent », car ils ne peuvent communiquer par la parole. On pourrait imaginer le test autrement, et plutôt avoir une tâche ou le candidat doit permettre à des juges de s’accorder une émotion ressentie. Mais encore une fois, il est possible que la communication ne soit pas de même nature, donc qu’on peut mal interpréter la réaction du candidat. Et cette façon de pensée est en lien avec ce que nous discutions dans le cours, soit la différence entre l’hypothèse nulle du ressenti versus celle du non ressenti. Donc si on fait passer un test quelconque à un être quelconque, si on a mal créé le test et qu’on en déduit que l’être en question ne ressent pas, on commet une erreur grave. Il m’apparait donc difficile de tracer une ligne sur l’acceptabilité d’un test pour la sensibilité, le problème des autres esprits. On peut par contre faire toute sorte de tests d’intelligence ou de d’autres capacités, puis d’en déduire toute sorte de chose du niveau cognitif d’un être, mais on ne peut arriver à la conclusion qu’il n’a pas de ressenti, du moins pour les êtres vivants. Et là on est dans le scepticisme.

    ReplyDelete
    Replies
    1. Je répond ici car je suis en parfait accord avec Benjamin.

      D'après ma compréhension du texte, Turing propose une alternative à la question "une machine peut-elle penser ?", supposée impossible à répondre, en la question "peut-on différencier cette machine d'un être humain ?", qui vient avec une méthode simple pour obtenir une réponse.
      Je crois que l'idée ici n'est pas tant de discuter de la "conscience des robots", mais d'inspecter la façon dont nous attribuons la conscience aux autres esprits. Nous appliquons pour ce faire une série d'heuristiques basées sur notre propre comportement, et valorisons la ressemblance au détriment de la différence. À vrai dire, nous procédons à des variantes de TT tous les jours, si l'on remplace la conscience par n'importe quel autre attribut que nous inspectons chez les autres. Je suis en ce moment même en pleine tentative d'une variante du TT qu'on pourrait appeler le "TT de philosophie" : étudiant en neurosciences expérimentales, je viens vers vous pour discuter de philosophie de l'esprit et d'informatique fondamentale. Le but du jeu, pour moi, est de vous convaincre (et surtout Dr. Harnad), que je fais de la philosophie. Le but du jeu, pour vous, est de choisir si vous m'attribuez cette propriété ou non. Mon seul et unique moyen de gagner à ce jeu est de comprendre ce que vous faites quand vous faites de la philosophie et de le reproduire suffisamment bien (comprendre et reproduire sont ici liés, j'utilise "comprendre" dans le sens de "produire un modèle efficace de"). En fait, ce qui vous intéresse vraiment n'est pas de savoir si je fais de la philosophie, mais de savoir "comment" je la fais. Si je le fais de la même façon que vous, vous direz "tu fais de la philosophie", si je le fais d'une façon différente de vous vous direz "tu ne fais pas de la philosophie, tu te contentes d'exécuter des instructions rigides et totalement stupides bien que complexes" ou encore "tu te contentes de répéter ce que je viens de dire à l'interrogative, tu fais de la psychanalyse". Lorsqu'il s'agit d'attributs touchant à la pensée, cet ensemble de facteurs invisibles et chaotiques qui régissent le comportement, la question du "comment" atteint rapidement ses limites, et l'interrogation se tourne alors vers ce qui reste d'accessible : est-ce que cette chose produit le comportement que j'attend de voir ? Suit-elle les règles de mon modèle interne de la conscience/la philosophie/la femme ?

      Delete
    2. Je ne sais pas modifier mon commentaire, mais je voulais ajouter ceci à mon exemple sur la philosophie : http://www.elsewhere.org/pomo/ ;)

      Delete
    3. Benjamin, il n'y a pas de solution certaine au problème des autres esprits, mais ça n'implique pas qu'on est destiné à un état d'incertitude et de scepticisme dans toutes nos interactions avec autrui. Non seulement par le raisonnement mais par notre perception, qui est formée par l'évolution darwinienne, nous sommes prédisposés à appercevoir les autres humains comme étant des êtres sensibles (c'est à dire, comme ayant le ressenti). C'est pour ça que, même si on apprend que Frédéric est un robot fabriqué à MIT, on continue à l"appercevoir comme étant sensible. On n'a pas beaucoup plus de choix dans ça que l'on a concernant notre propre sens de libre arbitre: On ne peut qu'apercevoir ce qu'on fait (exprès) comme ayant été causé par notre propre volonté et non pas par une autre cause.

      (Aurais-tu des hypothèse biologiques pour l'effet de la « valée dérangeantet »?)

      Yann, oui, nous sommes tout le temps en train de faire le TT dans nos interactions avec les autres humains. Alors à quel point est-ce que nous sommes vraiment capable de (ou même disposé à) se « mettre dans la peau » d'autrui? Est-ce que toute perception sociale est de l'anthropomorphisme (ou de « l'égomorphisme » ) projettant notre point de vue sur autrui? (Mais faisons la distinction entre la question du ressenti et la question de succès dans les rôles sociaux, culturels et intellectuels qu'on joue entre nous.)

      Delete
    4. J'ai l'impression que c'est une sorte de dissonance cognitive. C'est assez ressemblant à un humain pour qu'on est la perception de la catégorie humain. Mais vraiment trop bizarre/différent, alors on essaie d'adapter notre catégorie, mais notre définition ne change pas pour autant. Peut-être que la catégorie résiste au changement car la catégorie «humain» serait spéciale, vu que c'est important en terme de reproduction d'être capable de reconnaître un membre de l'espèce.

      Delete