@Morgana Talbot Autant la sex-doll, oui c'est un sex toy, c'est une machine et dans la tête des utilisateurs ça risque de rester une machine.
Par contre la poupée petite amie, ça c'est plus problématique de ne pas légiférer dessus si ça commence à être répandu, surtout si le propriétaire éprouve des émotions vis à vis de cette poupée et qu'il l'humanise. Si le propriétaire commence à l'habiller, à aller en vacances ou au resto avec, en parle avec ses proches, a des discussions poussées avec, et qui lui cogne dessus, ben même si le robot n'aura jamais mal, on peut quand même se dire que le type est en train de battre sa femme virtuelle (vu que pour le type c'est sa femme).
Ou alors on légifère sur le fait que les machines doivent rappeler constamment à l'utilisateur qu'elle ne sont que des machines et qu'ils peuvent bien faire ce qu'ils veulent avec leur électronique.
Sinon je pense que l'être humain pourrait assez facilement les considérer, en dépit du bon sens, comme des êtres d'émotions, surtout si l'IA est performante et de plus en plus subtile. Il y a déjà des gens qui n'arrivent pas à manger des lapins en chocolat Lindt car ils sont trop mignons, alors un humanoïde qui parle et agit comme nous...
Edit: par contre quand je parle de légiférer, ça ne serait pas pour viol au pénal au même niveau qu'une victime humaine. Ca ne serait pas non plus au même niveau que la maltraitance animale. Mais qu'il y ait quand même quelque chose pour dire que frapper sa compagne humanoïde, non ce n'est pas non plus normal.
Et quand je parlais d'une alarme en cas d'acte sexuel alors que l'IA a dit non, c'était plus pour faire débander le mec ou lui foutre la honte auprès de ses voisins qu'autre chose. Juste quelque chose qui signifie: non ça ce n'est pas bien.