in

La machine à intelligence artificielle a réussi à tromper Medicaid.gov

La rétroaction du public est un élément crucial dans la définition et la mise en œuvre des programmes aux niveaux national et fédéral. Vos réponses, en tant que civil, informent sur la manière dont ces agences gouvernementales procèdent (ou non) aux décisions politiques. Du moins, c’est sur cela que se fonde l’idée de la rétroaction publique. Mais la manipulation de texte deepfake, tout comme les vidéos et photos deepfake, a la capacité de tromper même les observateurs les plus intelligents. Filaire des relations. Un étudiant en médecine de Harvard nommé Max Weiss l’a prouvé en 2019. À l’époque, l’Idaho prévoyait de changer son programme Medicaid. Pour ce faire, il fallait une approbation fédérale, ce qui nécessitait une subvention gouvernementale entrée dans Medicaid.gov. Le gouvernement de l’État a cherché des réponses publiques et est devenu la petite expérience scientifique de Weiss, dans laquelle il a utilisé un programme OpenAI, GPT-2, pour générer des réponses presque crédibles sur la question. Sur les quelque 1000 commentaires postés sur Medicaid.gov au cours de cette ronde, la moitié provenaient de la machine d’intelligence artificielle de Weiss. Lorsqu’il a demandé aux volontaires de faire la distinction entre les vrais et les faux, Filaire dit que les volontaires “n’ont pas fait mieux que des suppositions aléatoires”. Le cauchemar des réponses automatisées – Avec son système de langage sophistiqué et avancé, le bot de Weiss a créé des réponses qui n’avaient aucun problème à se cacher sous le radar Medicaid.gov. Ce n’est pas une entreprise particulièrement difficile. Le bot est formé à plusieurs reprises sur le langage humain, le phrasé, la grammaire et la syntaxe. Essayez donc d’imiter ce discours et de créer vos propres itérations en temps réel. En réponse à l’expérience d’être dupé par l’intelligence artificielle, les Centers for Medicare et Medicaid Services ont assuré au public que l’agence avait mis en œuvre des programmes de sécurité pour bloquer une telle manipulation. Le besoin d’outils de détection de texte manipulés – La génération d’images et de texte AI peut être aléatoire. Parfois, les résultats sont étranges et effrayants (comme ce robot qui a pris les sous-titres et a essayé de faire des photos à partir d’eux). D’autres fois, ces expériences peuvent conduire à des résultats idiots ou mignons. Mais la manipulation de texte en profondeur ouvre une foule de menaces pour la sécurité et la confidentialité non seulement des gouvernements, mais également des utilisateurs quotidiens d’Internet. Les campagnes textuelles automatisées ont causé des maux de tête au gouvernement fédéral avant même Weiss. En 2017, la Federal Communications Commission a constaté que plus d’un million de réponses soumises au sujet de la neutralité du Net n’étaient pas réelles. Au fur et à mesure que ces robots deviennent plus avancés grâce à une formation intensive, les analystes en cybersécurité devront travailler sur des outils et des programmes de détection de texte manipulés qui peuvent localiser la véritable entrée à partir de fausses entrées. À l’ère de la désinformation politique qui a conduit à une polarisation de masse et des gens qui croient aux théories du complot, ces agences ne peuvent pas se permettre les pièges potentiels de ne pas se montrer face à ce problème.