
Des failles de sécurité dans les IA génératives existent que ce soit dans ChatGPT ou Google Bard par exemple.
Il semble que l’histoire se répète. Une fois de plus, des experts en cybersécurité ont identifié une vulnérabilité dans les modèles de langage propulsés par l’intelligence artificielle.
Suite à la mise en évidence de méthodes permettant de contourner les défenses des chatbots, c’est désormais une autre forme de vulnérabilité qui a été décelée par ces spécialistes. Ces modèles de langage, tels que Bard ou ChatGPT, sont susceptibles d’être détournés par des individus ayant des compétences en informatique ou en cybersécurité. Cette technique de détournement a été nommée « Indirect Prompt Injection ».
L’Indirect Prompt Injection : une astuce ingénieuse mais potentiellement préjudiciable. Quand on dialogue avec un chatbot propulsé par une IA générative, on soumet généralement une demande textuelle. Ces commandes, connues sous le nom de « prompts », guident le système pour répondre à votre requête. Afin de prévenir les utilisations malveillantes, ces chatbots sont équipés de mécanismes de défense qui bloquent les réponses si le prompt semble malveillant. Par exemple, ni ChatGPT ni Google Bard ne fourniraient des instructions pour commettre un crime.
Bien que ces mécanismes de défense soient efficaces pour la majorité des utilisateurs, la récente révélation faite par les chercheurs est préoccupante. Plutôt que de soumettre un prompt direct, il est apparemment possible de donner des directives cachées (via un PDF ou un site web, par exemple) à un modèle, le poussant ainsi à outrepasser ses défenses. De nombreux cas d’Indirect Prompt Injection ont été signalés, et il semble que ce ne soit que la pointe de l’iceberg.
Une tendance en augmentation et grâce à cette méthode, les opportunités de malversations sont vastes : vol d’informations, lancement de codes malicieux ou altération de données. Vijay Bolina, en charge de la sécurité chez Google DeepMind, confirme la gravité de cette menace. Si auparavant cette technique d’injection était vue comme « préoccupante », elle est désormais perçue avec une grande alarme. En effet, bien que rare par le passé, cette méthode est devenue plus courante depuis la possibilité de relier ces modèles de langage à Internet et à diverses extensions.
Bien qu’il n’existe pas de remède universel, Bolina affirme que Google DeepMind s’attelle à la conception de modèles d’IA aptes à détecter de telles manœuvres malveillantes. C’est une éternelle course entre les fournisseurs de technologie et les cybercriminels, avec une interrogation persistante : qui prendra l’avantage sur l’autre ?
Source : Wired Cet article en français a été généré par une Intelligence artificielle (Shellbots.ai) à partir de la source énoncée.