in

Le chatbot sud-coréen “Lee Luda” a été tué pour avoir craché de la haine

Un chatbot mettant en vedette le personnage d’un étudiant de 20 ans a été fermé pour avoir utilisé une gamme choquante de discours de haine, y compris avoir dit à un utilisateur qu’elle «déteste vraiment» les lesbiennes. Le prochain Web des relations. Le robot sud-coréen, qui s’appelait Lee Luda, a également été surpris en train d’utiliser un discours de haine contre des personnes trans, noires et handicapées. Lee Luda avait attiré «plus de 750 000» utilisateurs depuis son lancement le mois dernier. Scatter Lab, le développeur du chatbot, a mis Lee Luda hors ligne après avoir reçu de nombreuses plaintes d’utilisateurs. “Nous nous excusons profondément pour les remarques discriminatoires à l’encontre des minorités”, a déclaré Scatter Lab dans un communiqué. “Cela ne reflète pas les pensées de notre entreprise et nous continuons les mises à jour afin que les mots de discrimination ou de discours de haine ne se répètent pas.” Sans surprise, à ce stade, les chatbots ont de graves limitations, même les robots les plus avancés ne peuvent pas imiter la parole humaine sans quelques hoquets. Lee Luda en est une version extrême, bien sûr, ce qui rend d’autant plus choquant que Scatter Lab envisage de ramener le bot à la vie dans un proche avenir. N’avons-nous rien appris de Tay? Big Damn – Nous n’avons pas eu la chance de rencontrer Lee Luda avant qu’il ne soit mis hors ligne … et nous sommes à peu près sûrs que c’était pour le mieux. En plus de qualifier les lesbiennes de “dégoûtantes”, Lee Luda a également décidé de partager ses réflexions sur les Noirs avec une insulte raciale sud-coréenne. Interrogé sur les personnes trans, Lee Luda a répondu: “Beurk, je les déteste vraiment.” Seconde Agence de presse Yonhap, Lee Luda a été formé aux conversations d’une autre application Scatter Lab appelée Science of Love qui analyse le niveau d’affection dans les conversations entre jeunes partenaires. Le but était de faire en sorte que Lee Luda ait une voix authentique, mais Scatter Lab semble avoir un peu rendu le bot purée De plus, certains utilisateurs de Science of Lab travailleraient sur un procès dans lequel leurs informations sont utilisées pour le bot … donc l’idée a peut-être été plutôt mauvaise depuis le début. Quelques leçons à apprendre – Le temps, comme on dit, est un cercle plat. La raison pour laquelle nous ne sommes pas du tout surpris par le problème du discours de haine de Lee Luda est que c’est une situation que nous avons vue se reproduire plus d’une fois auparavant. Vous vous souvenez de la tentative de Microsoft de créer un chatbot alimenté par l’IA, Tay? Microsoft préférerait que vous ne le fassiez pas – le bot a été fermé après avoir fait de très nombreuses déclarations racistes et haineuses Le problème est bien plus important que les simples chatbots – l’IA, en général, a tendance à refléter le parti pris de ceux qui le créent, et parfois avec des résultats dangereux. Cela a vraiment du sens: nous formons l’intelligence artificielle sur des modèles humains, et les humains sont intrinsèquement biaisés. Il est encore plus dangereux de prétendre que ces préjugés peuvent être résolus d’un simple claquement de doigts. Lorsque Lee Luda sera enfin ressuscité, il sera choquant que ses préjugés ne persistent pas dans le code. Cependant, certains chatbots sont en fait un substitut digne de l’interaction humaine, alors peut-être qu’il y a encore de l’espoir pour Lee Luda. Nous ne parierions pas là-dessus, cependant.