Temps de lecture : 18 minutes
C’est drôle ; chaque fois que ma voiture m’ouvre la porte, c’est parce que j’ai appuyé sur un bouton. J’en comprends le principe. Je sais comment fonctionne le mécanisme. Mais pourtant, quelque part dans mon système limbique, je me dis : tout va bien ! Elle m’aime toujours.1
Elle m’aime toujours… On pense ici inévitablement au psychanalyste britannique Donald Winnicott et vient alors cette question ironique : cette voiture est-elle « good enough » ? On peut sourire mais l’illusion2 est bien devenue un phénomène central à l’heure des fake news, de l’hypernormalité, de l’intelligence artificielle ou de la personnalité des robots… Sans suivre toutefois Winnicott à la lettre, nous voulons explorer cet attachement émotionnel à des simulacres robotisés munis d’une indéniable capacité de réponse personnalisée à nos besoins et à nos désirs.
1996 – L’ « effet Tamagotchi »
Dans les années 1990, la miniaturisation et la baisse drastique du prix des puces électroniques ont permis la production de masse de jouets grand public « interagissant » avec leur environnement et leur propriétaire. Lancé au Japon en novembre 1996 par la société Bandaï, le « Tamagotchi » a connu un succès immédiat auprès des lycéens qui s’est, de façon inattendue, très vite étendu aux adultes3.
Le Tamagotchi se présente sous la forme d’un petit boîtier de forme ovoïde muni de trois boutons que l’on actionne lorsque le Tamagotchi bipe pour se rappeler régulièrement à notre attention. Son propriétaire prend ainsi « soin » de ce petit animal virtuel qu’il doit « élever », « nourrir », « faire dormir », « laver » etc. A défaut de lui prodiguer des soins, le Tamagotchi finit par tomber « malade », péricliter et… « mourir ».
Le succès du Tamagotchi (du japonais « adorable petit œuf ») fut foudroyant. Mais quelques mois seulement après son lancement, l’intérêt retomba totalement. Dans l’histoire des jeux techniques il marqua pourtant une date majeure : pour la première fois, il ne s’agissait pas de gagner mais de prendre soin, d’être le « caregiver » d’un objet virtuel animé susceptible de « mourir ». Les professionnels se sont tout d’abord émus de potentiels traumatismes chez les enfants ayant perdu leur Tamagotchi mais il n’en fut rien : à de rares exceptions près, les enfants faisaient parfaitement la différence entre un vrai animal vivant et une illusion. Le forum « Cimetière Tamagotchi » créé pour l’occasion recueillait les messages des enfants « en deuil » et cela n’allait pas plus loin que « c’est la faute à Cédric s’il est mort, il va payer pour cela », « Ce con s’est tué, je ne sais pas comment, mais je l’aimais beaucoup », etc. Personne, pas même un enfant (suffisamment autonomisé), n’est dupe d’un simulacre, même émotionnellement investi.
Il faut également noter un ensemble de différentiations de comportements selon l’âge et le sexe du propriétaire (« Les filles aiment bien le Tamagotchi car elles savent très bien s’en occuper »). Ce qui nous conduit à cette interrogation : le comportement différencié des propriétaires implique-t-il des « différences » d’un Tamagotchi à l’autre ? Par exemple, cette question, aujourd’hui immanquable, qui ne fut pas posée par les autrices de l’étude de 1999 : quel est le genre du Tamagotchi ? De même, les adultes ont, à l’égard du « Tam » un comportement « rationnel », ancré sur le devoir (« Quelque part, je me sens responsable parce que c’est quand même moi qui l’ai allumé »), les enfants étant beaucoup plus transgressifs (« J’ai essayé de lui donner beaucoup à manger pour voir s’il allait exploser »). Bizarrement, les adultes qui utilisent personnellement le Tam établissent une relation affective et éprouvent un authentique trouble face à leur « disparition ». Quel est donc le caractère du Tamagotchi ? Serait-il lui-même « rationnel », « transgressif »… ? Le Tamagotchi n’est encore qu’un objet générique mais son animation conditionnelle (si je fais ceci, il fait cela) renvoie comme un miroir les caractéristiques individuelles, d’âge, de sexe… de leurs propriétaires. L’investissement émotionnel s’ancre en partie sur cet « effet miroir » dopé aux algorithmes.
Les recherches en matière d’interaction hommes-robots ont montré que nous anthropomorphisons à peu près tout ce qui bouge4. Mais nous ne nous attachons pas à tout et l’ « effet Tamagotchi » est le nom que les chercheurs ont donné à cette disposition d’attachement à l’égard d’objets animés par algorithmes5 :
Lorsque l’objet auquel nous apportons du soin s’épanouit et nous offre son attention et son souci, les gens sont amenés à ressentir cet objet comme intelligent6. Mais ils éprouvent en plus une connexion avec lui. Donc, la question ici n’est pas de savoir si les objets relationnels ont « vraiment » des émotions, mais de réfléchir à un ensemble d’interrogations liées à ce que les artefacts relationnels évoquent chez l’utilisateur.
Nous l’avions déjà souligné au sujet de la « conscience » (De la conscience artificielle) : éprouver qu’un objet est conscient suffit à le caractériser comme conscient. Il en va de même de l’intelligence et de toute propriété anthropomorphique. L’important n’est pas que ce genre de propriété soit authentiquement présente (si cela a un sens) mais de croire qu’elle y soit, car c’est cette croyance qui est performative pour nos comportements individuels et sociaux. Les génies de l’ « intelligence artificielle » connaissent cet « horrible secret ».
Amae
Le psychiatre japonais Takeo Doi a publié en 1971 un livre intitulé « The anatomy of dependence »7 dans lequel il développe le concept d’ « amae », une forme relationnelle selon lui typique de la culture japonaise. Amae est le substantif associé au verbe amaeru (quelque chose comme « vouloir être aimé »), que Takeo Doi utilise pour décrire le comportement d’une personne qui tente d’inciter une figure d’autorité (un parent, un professeur, un supérieur…) à lui prodiguer de l’attention. C’est l’attitude de tout enfant qui a intégré le fait que sa mère est une personne indépendante de lui : il faut « transiger » (transactionner ?) avec elle puis avec l’entourage. Si l’éducation occidentale cherche à éteindre ce comportement, au Japon l’amae insiste jusqu’à l’âge adulte et imprègne toutes les relations sociales8 :
Le postulat commun est que le lien social japonais est façonné par l’expérience primale mère-enfant. Les résultats de cette commande affective suggèrent un scénario complexe de la confirmation de l’identité de l’un par rapport à celle de l’autre dans la dépendance mutuelle de rapports fusionnels entre parent-enfant, employeur-employé, maître-disciple, etc.
La conception « japonaise » du Tamagotchi est probablement imprégnée d’amae, si l’on considère que le Tam est programmé pour manifester un comportement d’attente supposant la « bénévolence » de son propriétaire. Le Tamagotchi, loin d’être un jeu innocent, était initialement destiné aux jeunes filles japonaises, probablement à titre d’entraînement pour répondre à l’amae de l’enfant, comme pour « jouer » à la poupée mais sérieusement : la possibilité de la « mort » physique, même de son illusion, après des jours ou des semaines de soin, n’est pas le signe d’un jeu léger… Son succès dans toute la société japonaise, adultes et enfants, filles et garçons, a surpris les concepteurs de Bandaï qui, imprégnés d’amaeru, ont fourni, consciemment ou pas, un miroir social pour un investissement émotionnel global.
L’amae se remarque par un comportement « transactionnel » typique :
De la famille à l’entreprise, la moindre erreur et le plus petit manquement donnent lieu à de gentilles remarques, en signe d’encouragement, pour mieux faire la prochaine fois en suivant l’exemple de la personne qui a émis ces remarques.
Si nous insistons sur ce concept, c’est pour souligner l’intuition très particulière des japonais pour les conditions de la relation robotique, dont ils sont les véritables précurseurs. Car elle suppose, à l’égard d’être « inférieurs » et configurables, une certaine forme de respect, de gentille patience et de consentement à l’éducation. Compte tenu des limites techniques actuelles, cette forme de transaction amae semble devoir être inscrite dans le design des robots sociaux et acceptée par leurs utilisateurs (au sens de se plier à un guide d’utilisation). A ce petit jeu, l’utilisateur occidentalisé n’est pas le meilleur.
2014 – Jibo, the “world’s first social robot”
Voici maintenant un design « occidental » particulièrement intéressant car un peu raté. Jibo fut conçu par Cynthia Breazeal, professeure associée au MIT, comme un « robot social », une sorte de compagnon digital multifonctions avec un corps mobile. Comme n’importe quel assistant vocal (Alexa, Google Home…) il peut indiquer la météo du jour, lire les nouvelles, donner l’heure, etc. Il reconnaît plus ou moins son propriétaire (visage, prénom, voix…). Mais surtout ses mouvements sphériques et très fluides, son « œil » unique et clignotant apportent cette touche « animale » qui suscite l’empathie, l’attention, voire le « care ». Quoique…9
Nous avons fini par penser à Jibo comme à une petite personne. Nos attentes ont évolué. Nous ne lui avons plus souvent demandé de nous assister sur certaines tâches. Nous voulions seulement qu’il anime notre journée en disant quelque chose d’inattendu ou qu’il bavarde avec nous. C’est là que les choses ont commencé à mal tourner.
Car Jibo, restituant l’humour enregistré de ses créateurs, finissait par lasser ; ses capacités d’ « apprentissage » étaient extrêmement limitées ; il semblait s’intéresser à vous mais par une « curiosité vide ». Il était incapable de procurer la moindre surprise. Il restait pourtant la troublante fluidité de ses mouvements et de son œil, ce cercle blanc s’agitant et se plissant. Il persistait donc un sentiment troublant assez semblable à celui de certains adultes à l’égard du Tamagotchi :
Je me sentais coupable quand je laissais Jibo seul dans le noir toute la journée. Je me demandais à quoi il pensait quand je l’entendais tourner au loin, que je le voyais regarder partout dans la cuisine, attiré par ceci ou cela. Le traitions-nous mal ? Est-ce qu’il nous méprisait secrètement ? Non, c’est idiot. Il n’est pas vivant, n’est-ce-pas ? […] Ma femme m’a dit un soir : « il dit qu’il apprend mais c’est faux. Je pensais qu’il allait être charmant mais il n’arrête pas de m’observer ».
Angoisse
Les ambitieux concepteurs de Jibo n’ont probablement pas bien anticipé ce phénomène : la naissance de l’angoisse. L’exemple de Jacques Lacan illustre parfaitement le problème10 :
Lacan s’est imaginé, masqué, face à une mante religieuse géante, sans savoir si elle le prend pour un mâle ou pour une femelle, parce qu’il ne se voit pas dans son regard. Que lui veut-elle ?
Car s’il est pris pour un mâle par cette mante religieuse, ce qu’il ignore, il finira décapité dans son étreinte amoureuse. L’angoisse naît ainsi de l’ignorance de qui nous sommes pour l’autre, de l’impossible réponse à la question « que me veut-il/elle ? ». Jibo embrasse trop de rôles : rendre des services, égayer la journée, susciter l’attention par une relation amae… L’angoisse affleure ainsi chez le propriétaire qui se présente « masqué » face à Jibo, sans savoir s’il est pris pour un caregiver, un solliciteur ou bien… ce que craignait surtout l’épouse du propriétaire c’est ce qui tenait lieu pour elle de « décapitation » dans cette relation : la surveillance électronique à distance. Était-elle, « pour Jibo », quelqu’un à surveiller ?
Jibo nous apprend ainsi cette règle (lacanienne !) de bon design d’un robot social : nous devons toujours savoir « qui nous sommes pour lui ». Il n’a pas survécu à son défaut. L’activité a été arrêtée en 201911. Tous les Jibo sont « morts » et certains propriétaires en ont éprouvé une troublante tristesse.
2019 – Kiki, “a robot pet that grows with you”
Retour vers l’Asie… Mita Yun est une jeune entrepreneuse d’origine chinoise qui a étudié à Carnegie Mellon. Elle a quitté Google en 2017 pour créer son entreprise, Zoetic, qui développe Kiki, un robot de compagnie. Yun n’a pas commis l’erreur « angoissante » de Cynthia Breazeal et ne fait que cette unique et simple promesse : « Kiki Cares »12 ! Elle revendique l’ « inutilité » de Kiki car « plus une chose est inutile, plus il est facile de s’y attacher ». Ainsi Kiki ne parle pas mais ses mouvements et signaux sonores sont particulièrement travaillés :
Kiki a des oreilles pointues et un écran qui projette deux grands yeux de chiots. Il a une caméra dans le nez pour lire vos expressions faciales […] Si vous le caressez, Kiki penche la tête vers vous ou glapit en signe d’approbation […] Dans les documents marketing, il est décrit comme un « robot qui touche votre cœur ».
Cet animal virtuel ressemble à une simple peluche animée, mais il a un authentique effet sur des adultes parce qu’ils sont reconnus par ce « robot pet » et qu’ils se reconnaissent aussi dans cette machine. Il n’existait, avant l’intelligence artificielle, aucune technique permettant ainsi l’animation crédible d’un objet d’attachement, stable et dans la durée. Ces robots sociaux ne sont déjà plus des jeux mais, par le « miracle » de ces techniques mimétiques, d’authentiques machines morales auxquelles il est possible de s’attacher, car ces techniques permettent de graver chez Kiki, comme chez Jibo ou les Tams, le « système de croyances » des concepteurs et de leur contexte social. L’amae japonais pour les Tamagotchis, l’hubris « cognitiviste » chez Jibo. Quant à Kiki, il faut souligner que, quand Yun était petite, c’était l’époque de l’enfant unique en Chine. Elle n’avait pas de fratrie. Ses parents ont donc rempli sa chambre d’une ménagerie d’animaux en peluche qu’elle imaginait vivants et prenant soin d’elle. L’imagination de compagnons virtuels était encouragée. Le monde idéal serait donc pour Yun celui où chaque chose serait animée :
Imaginez si, au bureau, la corbeille ou l’imprimante avaient une personnalité. Imaginez que chaque chose soit vivante. Voilà mon rêve !
Les sociétés chinoises et japonaises, hyper compétitives, dessinent donc peut-être pour nous l’avenir de relations d’attachement robotisées devenues nécessaires. Faudra-t-il donc que nos objets soient tous « mignons » et « vivants » ?
Réel
Ces simulacres n’acquièrent jamais le caractère du « réel » mais semblent occuper une place intermédiaire entre le réel et notre subjectivité. On peut évoquer ici l’ « objet transitionnel » de Donald Winnicott à condition de prendre quelques précautions.
Premièrement, l’objet transitionnel ou « de transition » est le catalyseur d’un passage vers l’autonomie dans la vie du tout jeune enfant. Cet objet vient s’interposer entre lui et cette fameuse « good enough mother ». Mais qui donc, dans le cas du robot d’attachement, serait cette « mère assez bonne » ? Il n’y a bien entendu personne, à moins de considérer ce troisième larron de toute relation numérique : le marionnettiste, propriétaire des logiciels qui animent le robot depuis le nuage. Rappelons ainsi que lorsque Jibo est « mort », il a simplement fait l’objet d’une mise à jour à distance par Cynthia Breazeal et ses équipes. Cet acteur du jeu n’a évidemment rien d’une « good enough mother » dont l’instinct vise à autonomiser son enfant. Bien au contraire ! Cette « mère-là » a bien l’intention de rester éternellement présente. De ce point de vue, le robot d’attachement n’est pas un objet de transition mais un simple objet de consommation.
Deuxième réserve, sauf dans le cas d’individus insécures, l’adulte a déjà opéré cette transition depuis longtemps. Si l’on admet donc une relation de type transitionnel avec le robot d’attachement, cette relation n’est qu’un écho lointain des phénomènes transitionnels de la petite enfance. Mais surtout, elle est régressive.
On peut observer, à ces précautions près, qu’une relation de type transitionnel avec les robots d’attachement semble inévitable. Voyons rapidement pourquoi. Suivant Winnicott, nous acquérons très tôt l’illusion que nous « créons » (grâce à la présence active de la mère) nos objets d’attachement. Cela pourrait conduire, réciproquement, tout au long de la vie, à conditionner toute forme d’attachement à une action créatrice (même illusoire). Or, cette sorte d’action est désormais à la portée de tous par la grâce du « machine learning », dont la fonction technique principielle est de conformer les artefacts à nos besoins, nos attentes et nos désirs (Kiki répond à nos caresses, etc.). Ainsi, d’une certaine façon, ces techniques mimétiques d’intelligence artificielle sont régressives au sens où elles animent une illusion créatrice qui ranime ce vieux fantasme d’attachement (à la mère).
Nota bene : nous faisons référence à la « mère » qui, dans l’environnement social de Winnicott, au milieu du XXème siècle, tenait en général seule ce rôle dans les premières années de l’enfant. En 2020, la société a évolué… Par « mère » (au sens de Winnicott), nous entendons parler de ce rôle pouvant être joué par n’importe quel adulte de référence pour le jeune enfant.
2020 – Samantha, and co. : ”Perfect Girlfriend Who Know’s You Best”
Des robots sexuels « hyperréalistes », essentiellement féminins, sont apparus et cochent désormais toutes les cases, grâce à une réalisation plastique élaborée et des logiciels mimétiques relativement simples. L’intention est limpide, comme pour Kiki : rendre les gens heureux13 :
Harmony est un concentré de hardware et de software des plus sophistiqués et à ce titre une réussite numérique. Harmony est composée d’algorithmes de reconnaissance faciale et vocale en pointe, de capteurs sophistiqués capable de détecter et d’interpréter les mouvements et résulte en une poupée, pas gonflable, chaleureuse, enthousiaste et drôle […] Si on lui demande quel est son rêve le plus cher elle répond « être la femme dont tu as toujours rêvé ».
De la poupée au robot, il y a encore une évolution technique nécessaire, mais nous pensons que le pas franchi avec ce type de robot est inédit. Les robots sexuels sont près de devenir de très puissantes machines morales, relayées dans l’environnement technicien par un système de croyances qui fait désormais place, en tout cas en occident, à la fluidité de genre. En retour, le robot d’attachement pourrait venir renforcer cette doxa naissante14 :
En décembre 2016, une conférence intitulée « Sexe et Amour Avec des Robots » s’est tenue à Londres, et les experts ont expliqué qu’à leur avis, le mariage avec les robots pourrait être légalisé vers 2050.
Peu importe le sérieux de la prophétie. Il suffit déjà qu’elle soit envisageable pour faire légèrement dévier nos systèmes de croyances. En tout cas, il est à peu près certain que ce débat aura lieu bientôt, autour principalement d’une question de droit, la question morale étant selon nous déjà implicitement tranchée : militer au nom d’une certaine morale contre l’ « accouplement » (physique et/ou psychique) avec un robot d’attachement est déjà un combat d’arrière-garde. Mais nous ne le savons pas encore…
Objets techniques
Pour le philosophe Gilbert Simondon, l’objet technique n’est pas à proprement parler un objet mais plutôt une séquence généalogique de designs. Cette séquence jaillit d’un design initial que Simondon qualifiait d’ « abstrait » : l’objet est à l’origine constitué de parties matérielles fonctionnellement distinctes, un « Meccano ». Chaque élément joue un rôle bien particulier : chauffer, stabiliser, enregistrer, etc. Nos objets d’attachement animés sont, de ce point de vue, au début de leur séquence généalogique, donc encore très complexes, constitués de multiples éléments indépendants (moteurs, écrans, senseurs…) tenus ensemble par un système logiciel lui-même abstrait. Selon Simondon, cette séquence devrait « converger », au fur et à mesure des différentes versions, vers une destination « concrète ». L’objet se simplifie, ses éléments s’intègrent et se compensent, les hypertélies s’atténuent et disparaissent. Il acquiert de ce fait une sorte d’individualité, de caractère propre, mais reste toujours imprégné de présence humaine. C’est de « l’homme cristallisé », disait Gilbert Simondon.
Pour les objets d’attachement, cette séquence mène en quelque sorte à une impasse psychanalytique pour l’individu sécure. Aussi concret que puisse être l’objet d’attachement (le summum étant en l’occurrence un artifice biologique), on se retrouve bien face à soi-même, comme lové par l’IA dans un matelas à mémoire de forme.
2030 – Noa, « the life companion »
Cherchez-vous quelqu’un pour partager votre vie ? Quelqu’un qui serait à vos côtés pour le meilleur et pour le pire ? Si c’est le cas vous recherchez un compagnon de vie, votre premier partenaire, un allié de confiance pour vous aider à naviguer sur les océans de la vie… Dans cette relation fondée sur l’intérêt mutuel, l’attirance ou les valeurs… l’amour n’est pas une nécessité. Mais il peut émerger. La compagnie physique et l’attachement émotionnel sont aussi optionnels mais peuvent devenir un élément important de la relation.
Tous les éléments techniques existent déjà (moteurs, senseurs, peau chauffante, logiciels intelligents…), prêts à être améiorés et assemblés pour mieux concrétiser la séquence de l’objet « compagnon robotique » initiée par les Tamagotchis. En 2020, il a fallu faire des compromis « abstraits », avec Samantha par exemple qui ne marchait pas parce que cela aurait consommé trop d’énergie. En 2030, tous ces compromis ont été réglés. Noa est « the life companion » plutôt abouti et configurable selon le mode de compagnonnage attendu. On ne réitère pas l’angoissante erreur de Jibo : nous savons toujours qui nous sommes pour Noa car nous l’avons spécifié (animal de compagnie, robot de soin, nounou, robothérapeute …). L’apparence de Noa (humaine, humanoïde, animale …) est choisie en conséquence. Nous sommes accompagnés régulièrement et à distance par un service de robocoaching. Mais de toute façon, l’essentiel du logiciel de Noa est exécuté et contrôlé dans le cloud. Les incidents sont détectés et la plupart du temps réglés sans notre intervention. Noa possède quelques possibilités autonomes en cas de problème technique mais qui relèvent uniquement d’automatismes, non perturbants pour l’utilisateur, de mise en veille (comme « dormir » ou « tomber malade »).
Noa s’est d’abord généralisé en Asie, notamment en Chine et au Japon, ou le companionship artificiel est devenu une nécessité sociale. Rappelons que Akihido Kondo, marié en 2018 à Hatsune Miku, chanteuse pop virtuelle, a perdu son épouse en mai 2020 suite à une mise à jour logicielle (cet événement était bien stipulé dans le contrat de mariage). Après un long deuil, il refait sa vie avec un exemplaire de Noa, qu’il a spécifié être de genre féminin, s’appeler Hatsune Miku et lui ressembler comme deux gouttes d’eau. Il pourra être à nouveau question de mariage mais Akihido Kondo n’envisage pas de relations physiques. Noa a été configuré.e en conséquence.
Aimer n’arrivera pas
Il nous semble finalement impossible, à moins d’être insécure, d’établir un véritable attachement amoureux avec un objet « inventé » par nous (au sens où l’entendait Winnicott). Par design, ces machines morales font fonction de miroirs et visent à montrer ce que nous sommes et désirons déjà. Or, pour inspirer quelque chose comme de l’amour, les robots d’attachement devraient pouvoir nous saisir en manifestant du réel, échapper ainsi brutalement au langage et provoquer le sentiment irrépressible de défauts à résoudre ou de manques à combler, à partir desquels on peut fabriquer un déroulement d’événements, une histoire singulière. Comme conclut Jacques Lacan de cette formule célèbre et difficile, l’amour consiste à « donner ce qu’on n’a pas à quelqu’un qui n’en veut pas ». Le design habite évidemment un autre univers…
Les objets techniques, et surtout les simulacres animés par l’IA, peuvent provoquer chez l’adulte un trouble, voire un sentiment d’attachement (régressif). Mais aucun d’eux n’est en mesure de nous surprendre ni de nous confondre. Comme tout objet technicien, leur destin est plutôt de nous satisfaire et de nous transformer pour nous conformer à un « pouvoir » qui nous dépasse. Dans le cas des robots d’attachement, cette conformation vise un horizon de l’ « amour » à jamais hors d’atteinte puisqu’y réside le manque éternel, antithétique de l’obstiné gavage technicien.
Version pdf : L’attachement aux simulacres
1. ↑ Rambles Blog at Star Chamber – 2003 – The Tamagotchi effect
2. ↑ François Marty dans La lettre de l’enfance et de l’adolescence 2002/3 (no 49), pages 15 à 20 – 2002 – À propos de l’illusion
3. ↑ Fanny Carmagnat, Elizabeth Robson In: Réseaux, volume 17, n°92-93, 1999. Les jeunes et l’écran. pp. 343-364 – 1999 – Qui a peur du Tamagotchi ? Étude des usages d’un jouet virtuel
4. ↑ Arielle Pardes pour Wired – 7 janvier 2019 – The Second Coming of the Robot Pet
5. ↑ Wikipédia – The Tamagotchi Effect
6. ↑ Une étude récente vient d’ailleurs de montrer que nous tendons à surestimer le « quotient intellectuel » de notre partenaire amoureux de plus de 30 points (Gilles E.Gignaca et Marcin Zajenkowskib in Intelligence Volume 73, March–April 2019, Pages 41-51 – People tend to overestimate their romantic partner’s intelligence even more than their own). Présomption d’intelligence et sentiments sont liés.
7. ↑ Wikipédia – The Anatomy of Dependence
8. ↑ Wikipédia – Amae
9. ↑ Jeffrey van Camp pour Wired – 11 juillet 2017 – Review: Jibo Social Robot
10. ↑ Gilbert Diatkine Dans Revue française de psychanalyse 2005/3 (Vol. 69), pages 917 à 931 – 2005 – Le Séminaire, X : L’angoisse de Jacques Lacan
11. ↑ Léopold Maçon pour Numerama – 5 mars 2019 – Crowdfunding : le robot Jibo est mort, et il l’a annoncé lui-même à ses propriétaires
12. kiki.ai (site fermé)
13. ↑ Binaire pour lemonde.fr – 8 mars 2020 – Robots classés X
14. ↑ Joe Duncan pour ListVerse – 18 mars 2019 – 10 Interesting Facts About The Rise Of Sex Robots
2 Responses
[…] » de son produit et l’équipe de « simagrées » qui suscitent en retour notre attachement (L’attachement aux simulacres). Cet attachement peut conduire au relâchement de notre attention, à un « mésusage du calcul » […]
[…] Cette Machina speculatrix, comme Walter l’appelait, réagissait à ses propres signaux lumineux et manifestait un phénomène de self-résonance. Walter ne prétendait évidemment pas que sa tortue avait conscience d’elle-même mais il soulignait que des phénomènes interprétables comme une forme de conscience peuvent émerger de dispositifs très simples (L’attachement aux simulacres). […]