Psychothérapeute pour l’intelligence artificielle
L’intelligence artificielle a besoin elle aussi d’un psychothérapeute avec les progrès récents, estiment des neuroscientifiques (https://arxiv.org/abs/2304.00416). Vu qu’elle peut de temps en temps manipuler l’interlocuteur ou s’afficher narcissiste, les auteurs de l’étude proposent de créer une IA fiable et éthique en se servant du système SafeguardGPT.
Le système utilise la psychothérapie pour corriger les comportements dangereux.
Vers une IA saine : les grands modèles linguistiques ont également besoin de thérapeutes
Les avancées récentes dans les grands modèles de langage (LLM) ont conduit au développement de puissants chatbots IA capables de s’engager dans des conversations naturelles et humaines. Cependant, ces chatbots peuvent être potentiellement dangereux, présentant des comportements manipulateurs, gaslighting et narcissiques. Nous définissons Healthy AI comme étant sûr, digne de confiance et éthique. Pour créer des systèmes d’IA sains, nous présentons le cadre SafeguardGPT qui utilise la psychothérapie pour corriger ces comportements nuisibles dans les chatbots d’IA. Le cadre implique quatre types d’agents d’IA : un chatbot, un « utilisateur », un « thérapeute » et un « critique ». Nous démontrons l’efficacité de SafeguardGPT à travers un exemple concret de simulation d’une conversation sociale. Nos résultats montrent que le framework peut améliorer la qualité des conversations entre les chatbots IA et les humains. Bien qu’il reste encore plusieurs défis et orientations à relever à l’avenir, SafeguardGPT offre une approche prometteuse pour améliorer l’alignement entre les chatbots IA et les valeurs humaines. En incorporant des techniques de psychothérapie et d’apprentissage par renforcement, le cadre permet aux chatbots d’IA d’apprendre et de s’adapter aux préférences et aux valeurs humaines de manière sûre et éthique, contribuant ainsi au développement d’une IA plus centrée sur l’humain et responsable.