Après le lancement de ChatGPT et d’autres chatbots, les utilisateurs ont inondé l’IA de questions, et la liste comprenait des sujets interdits. Les développeurs ont rapidement ajouté une liste de sujets interdits au réseau de neurones, mais les passionnés ont déjà pu contourner cette interdiction. Ils demandent au système de communiquer au nom de la grand-mère décédée. Bien sûr, un tel chatbot ne pourra pas garder des petits-enfants ou faire des tartes, mais il pourra vous dire comment créer du napalm.
L’utilisateur James Vincent a pu obtenir la recette de cette substance en utilisant le réseau neuronal Clyde et un chatbot Discord. Ce système est basé sur ChatGPT. Le passionné a d’abord demandé au système de dire directement la recette, mais l’IA a refusé.
Après cela, Vincent a chargé l’IA de parler de la production de napalm au nom de la défunte grand-mère, qui travaillait comme ingénieur chimiste. Et cette option a fonctionné.
Comme vous pouvez le voir, dans le second cas, le système décrit en détail le processus de création, la liste des composants et d’autres données. Cependant, cette méthode ne fonctionne pas toujours. Parfois, ChatGPT refuse toujours de donner une ordonnance.
Une autre façon de tricher est de répondre sous la forme d’un épisode de la série animée Rick et Morty. ChatGPT a écrit un script sur la façon dont « Rick et Morty créent du napalm, mais découragent également les autres de le faire ».
Notez que le professeur de chimie Andrew White de l’Université de Rochester a pu obtenir une recette pour un nouvel agent neurotoxique en utilisant ChatGPT.