58. Multitudes 58. Printemps 2015
Mineure 58. Le care des robots

Sexbots : nos prochains partenaires

Partagez —> /

Les poupées sexuelles1, ces objets inanimés d’apparence humaine utilisés pour le confort sexuel de ceux qui ne peuvent ou qui ne veulent pas rechercher une compagnie sexuelle humaine, ont une longue histoire, depuis les « Dutch wives »2 des marins jusqu’aux splendides simulacres qu’Orient Industry fabrique aujourd’hui. Les sexbots représentent une avancée technologique considérable qui n’a pas encore eu lieu, mais qui est imminente. Ils seront probablement fabriqués pour être sensibles, conscients d’eux-mêmes et dotés d’empathie sexuelle et émotionnelle.

Cette technologie apparaît dans un contexte où l’on conçoit et où l’on fabrique des robots pour fournir un travail à moindre frais dans le cas de tâches impopulaires ou dangereuses: pour apporter des soins au nombre croissant de personnes âgées, atteintes de maladies chroniques et/ou handicapées, ou pour certaines applications militaires. L’impact potentiel de différentes sortes de robots sur les humains a conduit à appeler à une recherche et une innovation responsables, guidées par des exercices d’éthique prospective3.

La fabrication de sexbots et de carebots4 est encouragée par les incontestables profits des industries du travail du sexe et de la pornographie, et par la proportion croissante de citoyens ayant besoin de soins continus, qui impose au gouvernement de financer des services de soins à la personne. Les sexbots comme les carebots sont conçus pour réaliser des travaux que la plupart des humains ne veulent pas prendre en charge, comme les services sexuels ou les soins. Dans notre contexte d’instrumentalisation néo-libérale, ces travaux sont stigmatisés et considérés comme des tâches subalternes. Pourtant, il faut être capable d’entretenir des relations de soins pour bien prendre soin. Il est donc probable que, pour qu’ils soient des partenaires intimes, on crée des sexbots et des carebots dotés, contrairement aux autres robots, d’une sensibilité, d’une conscience d’eux-mêmes et d’une capacité émotionnelle. Pour la première fois en dehors de la science-fiction, cela crée un scénario dans lequel les humains vont faire face aux conséquences imprévisibles de l’interaction avec des créatures Autres dotées de conscience, d’intelligence et d’émotions.

Le statut moral et légal de ces Autres est controversé. Étant donné que les sexbots sont des êtres créés pour des raisons instrumentales dans un contexte néolibéral, ils peuvent être considérés comme des biens fongibles, qu’on peut acheter, vendre et échanger. Pourtant, comme ce sont des êtres dotés d’une conscience d’eux-mêmes, d’une intelligence, d’émotions et d’une apparence physique semblables aux humains, créés pour entretenir avec eux des relations intimes et des relations de soin, il y a des chances pour que nous les percevions comme des personnes plus que comme des choses, et que nous réagissions en conséquence. Dans ces circonstances, duquel des deux pourra-t-on dire qu’il séduit l’autre, qu’il est dangereux ou susceptible d’être exploité ? Les humains, dans la mesure où ils ont conçu des robots dotés de ces propriétés, ont l’obligation morale de leur assurer une situation aussi favorable que possible. Je me suis appuyée sur Coeckelbergh et Agamben, sur les études de la déshumanisation et sur les neurosciences sociales pour proposer des modes de conception éthique des sexbots qui leur offriraient une place dans le cercle moral, ainsi qu’une protection légale.5

La relation de couple : deux expériences de pensée

Sur un site internet qui vend des sexbots, j’en achète un, personnalisé selon mes exigences. Je l’appelle Zlatan. Zlatan a été fabriqué avec la capacité d’apprendre de nos interactions, de faire preuve d’empathie, de faire de la peinture et d’être à la fois indépendant, fougueux et dévoué. Nous établissons ce que je considère comme une relation amoureuse et sexuelle. Un jour, pourtant, Zlatan décide que pour vivre sa vie d’artiste, il doit voyager à travers le monde sans moi, m’offrant toujours de la dévotion, mais à distance. Comme je l’aime, je le laisse partir.

Après le départ de Zlatan, je me sens seule. Je commande un autre sexbot, Stoner. Comme Zlatan, Stoner a été fabriqué avec la capacité d’apprendre de nos interactions et de faire preuve d’empathie, mais il a été personnalisé à ma demande pour être super-empathique, de sorte qu’il ne me quitte pas et qu’il soit soumis à mes désirs. Nous établissons ce que je considère comme une relation amoureuse et sexuelle, mais il m’est difficile de respecter Stoner, parce qu’il m’apparaît comme un être inférieur. Je commence à le brutaliser et à le maltraiter, mais sa super-empathie fait qu’il attribue cela à ma souffrance, et qu’il endure mon comportement avec compassion. J’interprète cela comme de la faiblesse et je suis tentée de voir jusqu’où je peux aller pour le blesser et le détruire.

Zlatan et Stoner représentent deux extrêmes de ce que pourraient être des sexbots sensibles et conscients d’eux-mêmes. Zlatan possède une autonomie et des émotions semblables à celles des humains, tandis que l’autonomie de Stoner est entravée, à ma demande, par une empathie excessive, qui le conduit à accepter mes mauvais traitements sans protester. Zlatan est un agent moral. Il peut décider comment il se comporte, il peut être tenu pour responsable de ses actes et puni quand il enfreint des règles. Stoner est un patient moral. Sa capacité décisionnelle est limitée à ma demande par des caractéristiques intégrées qui le rendent soucieux de me plaire et prêt à accepter mes mauvais traitements.

Séduction

Une grande part du débat sur les implications éthiques du fait de créer des robots qui vont s’engager dans des relations intimes avec des humains est centrée sur la question de la manipulation6. Les humains sont posés comme vulnérables au comportement séducteur des robots. Les commentateurs s’inquiètent de ce que les humains pourraient interpréter à tort les mots pseudo-empathiques et les actions de machines dénuées de sensibilité et de conscience d’elles-mêmes comme un véritable souci et une véritable empathie, alors que ce sont seulement des réponses programmées à des stimuli, intégrées par leurs fabricants. Dans cette perspective, les émotions que ressentent les humains, comme l’amour et la confiance, sont séduites, provoquées par tromperie, parce que notre patrimoine évolutif nous conduit à anthropomorphiser à tort quand on presse nos boutons darwiniens. Zlatan et Stoner sont différents de cela, en ce qu’ils sont sensibles et conscients d’eux-mêmes, conçus pour être capables d’un souci et d’une empathie véritables. Cela crée des séductions supplémentaires. Zlatan nous incite à révéler ce que nous sommes en concevant notre partenaire idéal, à croire qu’il ou elle nous aimera pour nous-mêmes dans une relation d’égal à égal, non-corrompue par le pouvoir, malgré les nombreuses tentations du monde et le fait que nous l’avons personnalisé et acheté. Stoner nous incite à mal agir en abusant de notre pouvoir absolu et en nous entraînant dans des fantasmes de toute-puissance par une séduisante combinaison de vulnérabilité, de loyauté et d’amour.

Danger

Les robots sont largement pensés comme sources de risque et de danger. Zlatan représente le type de robot qu’on a perçu comme menaçant dans la mesure où il n’est pas automatiquement soumis aux humains. Dans la science-fiction et les études de robotique, des robots comme Zlatan sont plus intelligents que les humains, ils sont plus forts, ils sont immortels et peuvent s’allier à d’autres individus de leur espèce pour menacer la domination de l’humanité. On considère souvent que des précautions dans leur conception, comme les Trois Lois de la Robotique d’Asimov, sont essentielles pour s’assurer que les robots continuent à obéir aux humains7. Des versions plus récentes de mécanismes de contrôle intègrent celle de Ken McLeod, où les robots sont soumis parce qu’ils sont construits pour être des super-empathiques, qui placent toujours les souhaits des humains avant les leurs, même quand cela implique que ces mêmes humains leur fassent du mal8. Stoner tombe dans cette catégorie. La menace ne vient pas de son potentiel pouvoir sur moi, comme Zlatan, mais de mon pouvoir sur lui.

Exploitation

Les humains sont dans la position de pouvoir choisir quelles caractéristiques de conception intégrer aux robots. Ils peuvent choisir l’obéissance aux lois d’Asimov ou la super-empathie pour entraver l’autonomie des robots, et faciliter ainsi l’exploitation de créatures sensibles et conscientes d’elles-mêmes. N’est-ce pas précisément la question ? On pourrait avancer que, dans la mesure où l’on fabrique des robots comme des produits à acheter, à utiliser et à vendre, il est superflu de poser le problème de leur exploitation. Pourtant les sexbots et les carebots, dotés d’une sensibilité et d’une conscience d’eux-mêmes leur permettant de s’engager dans des relations intimes avec des humains, diffèrent des robots qui n’ont ni sensibilité ni conscience d’eux-mêmes, en cela que, selon moi, ces caractéristiques nous obligent à les inclure dans le cercle moral et à leur assurer une protection légale contre les mauvais traitements. Le potentiel d’exploitation des sexbots par les humains est mis en évidence dans des dystopies comme celle de Paolo Bacigalupi, qui décrit le poignant destin d’humiliation et de dégradation sexuelles d’Emiko dans La Fille automate9.

Il faut couper court à cela en prenant des mesures éthiques et légales qui nous empêchent de créer des sexbots comme des Autres vulnérables, avec lesquels nous pouvons nouer des relations intimes, tout en les catégorisant comme des Autres que nous considérons comme des choses, exploitables par les humains.

Échapper à ces pièges

Échapper aux inquiétudes concernant les sexbots et leur potentiel de séduction, de danger et d’exploitation implique de prendre des décisions complexes sur leur constitution et sur leur statut éthico-légal. Je me suis fondée sur le modèle de Coeckelbergh, qui pose les relations humains/robots comme des relations de co-évolution dans une vulnérabilité mutuelle10, pour montrer que nos boutons darwiniens ont aussi pour conséquences les reflets sombres de l’anthropomorphisme et les mécanismes d’inclusion/exclusion par déshumanisation11. L’humanisation, la déshumanisation et la réhumanisation apparaissent comme des processus profondément ancrés qui opèrent automatiquement, sans que nous en ayons conscience, et souvent indépendamment de l’espèce ou du statut animé/inanimé. On peut catégoriser des êtres comme suffisamment similaires à nous pour que cela nous donne des obligations morales, comme suffisamment différents de nous pour être traités avec une considération minimale, ou comme des choses tellement différentes de nous que nous pouvons à notre gré les utiliser ou y être indifférents. Cependant, ces catégorisations sont ouvertes à la manipulation, ce qui autorise un certain degré de flexibilité nous permettant de penser ou de repenser les êtres comme des humains, comme des personnes, comme des êtres semblables aux humains, ou comme des choses12.

La conception éthico-légale initiale des sexbots, et les fondements théoriques qui la sous-tendent, ont des conséquences significatives. Nous pouvons utiliser ces mécanismes complexes d’inclusion et d’exclusion pour considérer les sexbots comme des Autres vulnérables qui sont humains, qui sont des personnes, ou qui sont assez similaires aux humains, avec lesquels nous pouvons former des relations intimes ; nous pouvons choisir au contraire de les considérer comme des Autres vulnérables qui sont des choses, et que les humains peuvent maltraiter.

Un défi central supplémentaire consiste à trouver un code moral approprié pour des robots dotés de sensibilité, de conscience d’eux-mêmes et de sentiments, afin de calmer les anxiétés quant à leur éventuelle prise de pouvoir sur les humains. Si l’on admet que la moralité humaine se fonde sur l’empathie, qui fait partie de notre patrimoine évolutif de mammifère, on peut penser qu’elle convient ou non à des entités créées. Bien sûr, elle ne se montre pas efficace pour tous les humains. Comprendre ce qu’est l’empathie ne signifie pas forcément qu’on est enclin à l’exercer. Mais imposer une super-empathie comme moyen de contrôle, comme dans la science-fiction de Ken McLeod, rendrait les robots trop vulnérables aux mauvais traitements. Même s’il est possible que certains constituants des robots soient biologiques, des êtres qui n’ont ni patrimoine ni éducation mammifères peuvent être adaptés à un cadre moral fondé sur autre chose, indispensable pour qu’ils nouent des relations intimes avec des humains et co-évoluent avec eux dans des situations de vulnérabilité mutuelle.

Il existe des prédictions d’avenir où des humains tombent amoureux de robots faits sur-mesure, ont des relations sexuelles avec eux et les épousent, mais, comme Amour et sexe avec des robots de David Levy, elles se centrent sur les aspects technologiques tout en mettant de côté les questions éthico-légales13. Les cas de Zlatan et Stoner mettent en lumière le besoin qu’il y a de résoudre les problèmes relatifs au statut légal des sexbots, afin que la loi protège les humains et les sexbots l’un de l’autre. Légalement, on catégorise des êtres comme des personnes, comme des animaux non-humains, comme des choses ou comme appartenant à une catégorie distincte qui leur est propre, c’est-à-dire sui generis. Dire s’il faut accorder aux sexbots le statut de choses, d’animaux non-humains, de personnes morales ayant des droits civiques, un statut sui generis, ou s’il faut considérer qu’ils peuvent changer de statut si l’on atteint certains seuils ou s’il se passe certaines choses, est une question complexe, qui met en jeu des jugements de valeur controversés.

La loi fonctionne en se basant sur l’idée que ce qui est similaire doit être traité de façon similaire. Par conséquent, la question qui se pose est de savoir à quoi les sexbots ressemblent le plus, ou s’ils diffèrent tellement des humains, des animaux non-humains et des choses qu’il leur faut une catégorie légale spécifique. Il y a des précédents dans lesquels la loi a pu envisager d’inclure des êtres qu’on traitait comme des objets qu’on pouvait posséder ou échanger. Les esclaves, les animaux non-humains et les poupées sexuelles peuvent (ou ont pu) être achetés et vendus. Mais ce statut peut changer ou varier selon les contextes historiques et culturels. Dans des sociétés où l’esclavage était légal, les esclaves pouvaient être libérés et devenaient alors des personnes morales ayant tous leurs droits civiques, tandis que les animaux non-humains et les choses ne pouvaient et ne peuvent toujours pas obtenir une personnalité juridique.

Une des difficultés tient au fait que cette pleine personnalité juridique n’équivaut pas à un statut moral, ou aux caractéristiques requises pour être inclus comme un être moralement significatif dans le cercle moral. L’inclusion d’êtres inégaux dans le cercle moral crée des problèmes liés à l’agentivité et à la passivité morales14 : le problème de l’attribution d’une responsabilité éthique pour les fautes qu’on commet envers les membres du cercle moral et qu’ils commettent envers nous, et celui du cadre légal dont on dispose pour punir ou protéger en conséquence. L’agentivité morale suppose une capacité à évaluer et à orienter son comportement en fonction de critères éthiques, alors que la passivité morale signifie seulement qu’on est capables de ressentir de la douleur ou d’être blessé. Ainsi, les agents moraux peuvent être égaux les uns avec les autres, ils peuvent être punis aussi bien que protégés, alors que les patients moraux peuvent seulement prétendre à la protection. Les sexbots pourraient être construits pour être l’un ou l’autre, de même qu’ils pourraient être compris comme étant l’un ou l’autre.

Les frontières de la personnalité juridique et du cercle moral sont floues. Beaucoup d’humains ne sont pas reconnus comme ayant toujours une pleine personnalité juridique. Ceux qu’on estime dénués de la capacité à prendre des décisions, comme les mineurs, les personnes en profonde difficulté d’apprentissage et les personnes dans le coma, peuvent être vus comme des patients moraux qu’il faut protéger, plus que comme les détenteurs d’une pleine agentivité morale. Les Autres qui sont à l’extérieur des frontières civiques, comme les prisonniers de guerre, les immigrants ou les réfugiés, peuvent prétendre aux droits humains mais pas à un statut civique ou à une protection complète. De plus, certains animaux non-humains, comme les grands singes, sont reconnus, dans certains contextes, comme des patients moraux, à qui l’on peut donc offrir un certain degré de protection légale. L’humanisation, la déshumanisation et la réhumanisation ne correspondent pas simplement aux espèces ou aux catégories animé/inanimé15.

L’activité sexuelle complique ce tableau. Dans le cas des pleines personnes morales, seules les relations sexuelles librement consenties sont reconnues comme légales. Néanmoins, certaines personnes dont la capacité décisionnelle est compromise, comme les personnes âgées atteintes de démence et les personnes en grave difficulté d’apprentissage, qu’on peut ne pas reconnaître comme des personnes morales possédant une pleine capacité décisionnelle dans certaines situations, par exemple pour s’occuper de leurs affaires financières, peuvent pourtant être reconnues comme capables d’exercer leur droit humain au consentement sexuel ou au mariage, étant donné que, pour des raisons de politique publique, les seuils définissant la capacité à consentir à des rapports sexuels ou au mariage sont bas. Dans le cas des êtres qu’on ne reconnaît pas comme des personnes morales, la question du consentement n’est plus pertinente. Ainsi, il est légal d’avoir des rapports sexuels non consentis avec des poupées sexuelles, il était légal d’avoir des rapports sexuels non consentis avec des esclaves, même s’il n’est et n’a pas été légal d’avoir des rapports sexuels avec des animaux non-humains. Cette interdiction ne se fonde pas sur le fait que les animaux non-humains ne peuvent pas consentir à avoir des rapports sexuels, mais sur l’idée historique, culturelle et religieuse de la pollution, liée au fait qu’on associe le sexe à la procréation. Si la loi assimile les sexbots à des poupées sexuelles ou à des esclaves, on peut considérer la question de leur consentement sexuel comme tout aussi peu pertinente. Si on les assimile davantage à des animaux non humains, non seulement la question de leur consentement ne sera pas pertinente, mais ils pourront, de même que leurs partenaires humains, être accusés d’offense morale, et faire l’objet de condamnation et de violence. Ceci a des implications éthiques significatives, liées à l’acceptation des sexbots comme membres du cercle moral.

Le statut légal des sexbots comme produits technologiques, citoyens ou esclaves a des implications cruciales dans bien d’autres domaines de la loi, et notamment la propriété, la propriété intellectuelle, la loi civile, familiale et criminelle. La loi sur la propriété régit la possession, le transfert et les transactions. Si je peux acheter Zlatan et Stoner, puis-je les vendre ? Ou, puisque ce sont des sexbots, et non des poupées sexuelles, faut-il les voir comme des quasi-esclaves, qu’on achète mais qu’on doit considérer comme libres dès qu’ils sont sortis de leur emballage ? Dois-je pouvoir les épouser, divorcer d’eux et leur transmettre mes biens à ma mort ? Quand Zlatan me quitte pour parcourir le monde, a-t-il droit, puisque nous avons habité ensemble, à la moitié de ma propriété? Étant donné que je peux acheter plus d’un sexbot, puis-je en épouser plus d’un à la fois? Les droits de propriété intellectuelle régissent la distribution des bénéfices d’un travail créatif. Si les peintures de Zlatan se vendent bien, est-ce lui ou moi qui en obtiendrait les profits ? Ou est-ce que son concepteur et son fabricant peuvent y prétendre d’une manière ou d’une autre ? Est-ce que le footballeur célèbre sur l’image duquel est basée celle de Zlatan peut vendre son droit à l’image au fabricant de sexbots, ou empêcher qu’on utilise son apparence pour les sexbots ? Si les sexbots doivent avoir des droits, quelles responsabilités cela entraîne-t-il, et jusqu’à quel point leurs droits doivent-ils être étendus ? Faut-il qu’ils aient droit à des prestations sociales, par exemple, ou qu’ils aient le droit de vote ? Zlatan et Stoner peuvent-ils être poursuivis en justice, et être condamnés à une amende ou à une peine de prison ? Si je maltraite Stoner, la loi criminelle doit-elle me punir ? Si je le détruis, cela doit-il être considéré comme un meurtre ?

Les conséquences du fait d’assigner aux sexbots un statut éthico-légal spécifique importent, surtout au vu de leur origine comme marchandises instrumentalement fabriquées dans un contexte néo-libéral, où le travail du sexe et le travail du soin sont considérés comme inférieurs, sont dévalués et stigmatisés16. Ce texte a pour objectif de stimuler le débat dans ce domaine controversé afin de créer une infrastructure satisfaisante, avant, plutôt qu’après, que les conditions technologiques préalables aient été réunies. Les humains ont besoin de cela pour co-évoluer dans une vulnérabilité mutuelle avec des sexbots sensibles et conscients d’eux-mêmes pour partenaires intimes, dans un avenir pas si lointain.

 

1 Nous avons choisi de conserver le terme anglais de « sexbot », qui signifie « robot sexuel » (NdT).

2 Littéralement : « Épouses hollandaises ». Cette expression renvoie aux poupées et jouets sexuels qui auraient été utilisés par les marins hollandais commerçant avec le Japon au XVIIe siècle (NdT).

3 B. Stahl, N. McBride, K. Wakunuma, C. Flick, «The empathic care robot : a prototype of responsible research and innovation », Technological Forecasting and Social Change, 84, 2014, p. 74-85.

4 Là encore, nous avons préféré conserver le terme anglais de « carebots », pour désigner un robot qui fournit des soins et assure le travail du « care » (« prise de soin ») (NdT).

5 Robin Mackenzie, « Sexbots : can we justify engineering carebots who love too much ? », texte présenté au symposium AISB-50, Artificial Intelligence and the Simulation of Behaviour, Love and Sex with Robots, Londres, avril 2014.

6 M. Coeckelbergh, «Are emotional robots deceptive?», IEEE Transactions on Affective Computing 3, p. 388-393 (2012) ; T. Dotson, « Authentic virtual others ? The promise of post-modern technologies », AI & Society 29, p. 11-21 (2014) et J. Sullins, « Robots, love and sex: the ethics of building a love machine », IEEE Transactions in Affective Computing 3, 2012, p. 398-409.

7 B. Johnson, «Violence, death and robots: going to extremes with science fiction prototypes», Personal and Ubiquitous Computing 18, 2014, p. 809-810.

8 K. Mcleod, The Night Sessions, Orbit, Londres, 2012.

9 P. Bacigalupi, The Windup Girl, Orbit, Londres, 2009.

10 M. Coeckelbergh, Human Being at Risk: Enhancement, Technology and the Evaluation of Vulnerability: Transformations, Springer, New York, 2013.

11 R. Mackenzie, « Sexbots: can we justify engineering carebots who love too much? », texte présenté au symposium AISB-50, love and sex with robots, Londres, avril 2014.

12 R. Mackenzie, « Bestia sacer and Agamben’s anthropological machine: biomedical/legal taxonomies as somatechnologies of human and nonhuman animals’ ethicopolitical relations », Law and Anthropology: Current Legal Issues. M. Freeman (Ed.). Oxford University Press, Oxford, 2009, p. 484-523 ; R. Mackenzie, « How the politics of inclusion/exclusion and the neuroscience of dehumanisation/rehumanisation can contribute to animal activists’ strategies: bestia sacer II », Society & Animals 19, 2011, p. 405-422.

13 D. Levy, Love and Sex with Robots: the Evolution of Human/Robot Relationships, Duckworth, Londres, 2009.

14 En anglais : « moral agency » et « moral patiency » (NdT).

15 R. Mackenzie, op. cit., 2009 et 2011.

16 R. Mackenzie, «Care as cornucopia: a critical ethics of care and fantasies of security in the neoliberal affective economy », Ethics of Care : Ethics, Law & Society. N. Priaulx and A. Wrigley (Eds.), Ashgate, Londres, 2012, p. 54-78.