
Table des matières
Vous faites confiance à votre IA pour suivre vos invites, mais que se passe-t-il si quelqu’un d’autre les modifie secrètement? Une nouvelle attaque permet aux acteurs malveillants de détourner vos instructions, ce qui fait que le LLM renvoie des réponses trompeuses ou nocives qui volent des données ou trompent les utilisateurs. Explorons comment fonctionne cette attaque par homme et comment vous pouvez vous défendre.
Qu’est-ce qu’une attaque par homme?
Semblable à une attaque de l’homme dans le milieu, une attaque d’homme-in-propt intercepte votre interaction avec un grand outil de modèle de langage (LLM) comme les chatbots AI pour retourner une réponse inattendue. Ils peuvent injecter une invite visible ou même invisible ainsi que votre invite à demander au LLM de révéler des informations secrètes ou de fournir une réponse malveillante.
Jusqu’à présent, les extensions du navigateur sont le principal vecteur d’attaque de cette attaque. Cela est principalement dû au fait que l’entrée et la sortie de l’invite LLM font partie du modèle d’objet de document (DOM) de la page à laquelle les extensions du navigateur peuvent accéder à l’aide des autorisations de base. Cependant, cette attaque peut également être exécutée à l’aide d’autres méthodes, comme l’utilisation d’un outil de générateur rapide pour injecter des instructions malveillantes.
Les LLM privées, comme dans un environnement d’entreprise, sont les plus vulnérables à cette attaque car ils ont accès aux données des entreprises privées, comme les clés d’API ou les documents juridiques. Les chatbots commerciaux personnalisés sont également vulnérables, car ils peuvent contenir des informations sensibles. Sans oublier que LLM peut être trompé pour dire à l’utilisateur de cliquer sur un lien malveillant ou d’exécuter un code malveillant, comme une attaque de fichiers ou d’Eddifealeer.
Si vous voulez vous assurer que votre chatbot AI ne s’utilise pas contre vous, voici quelques façons de vous protéger.
Extensions de la police du navigateur
Bien que les extensions du navigateur soient le principal coupable, il est difficile de détecter une attaque par homme car l’extension ne nécessite pas d’autorisations spéciales pour s’exécuter. Votre meilleur pari est d’éviter d’installer de telles extensions. Ou si vous devez, installer uniquement les extensions des éditeurs réputés auxquels vous avez confiance.
Vous pouvez également suivre l’activité de fond de l’extension pour obtenir des indices. Lorsque vous utilisez un LLM, appuyez sur Changement + Échap Clés pour ouvrir le gestionnaire de tâches du navigateur. Voyez si des extensions commencent à exécuter leurs processus même lorsqu’elles ne sont pas censées y travailler. Cela pourrait suggérer qu’il modifie l’invite, surtout si cela ne se produit que lorsque vous écrivez dans le champ de texte du chatbot.
De plus, évitez d’utiliser des extensions qui interagissent directement avec vos outils LLM ou modifiez les invites. Ils pourraient bien fonctionner au début, mais peuvent commencer à faire des modifications malveillantes plus tard.
Entrez manuellement les invites et inspectez avant d’envoyer
De nombreux outils rapides en ligne peuvent modifier vos invites pour de meilleurs résultats ou fournir des modèles d’invite. Bien que utiles, ces outils peuvent également injecter des instructions malveillantes dans vos invites et n’ont pas besoin d’accès direct à votre navigateur / appareil.
Essayez d’écrire manuellement des invites dans la fenêtre de chatbot AI et vérifiez toujours avant d’appuyer sur Entrer. Si vous devez copier à partir d’une autre source, collez-le d’abord dans un éditeur de texte brut comme l’application de bloc-notes dans Windows, puis collez-le dans le chatbot. Cela garantira que toutes les instructions cachées sont révélées. S’il y a des espaces vides, assurez-vous d’utiliser le Arrière clé pour les supprimer.
Si vous avez besoin d’utiliser des modèles d’invite, créez les vôtres et gardez-les en sécurité dans une application de notes au lieu de dépendre des sources tierces. Ces sources peuvent introduire des instructions malveillantes plus tard lorsque vous commencez à leur faire confiance.
Commencez de nouvelles sessions de chat dans la mesure du possible
Les attaques par homme peuvent également voler des informations à une session en cours. Si vous avez partagé des informations sensibles avec le LLM, il est préférable de démarrer une nouvelle session de chat lorsque le sujet change. Cela garantira que le LLM ne révèle pas d’informations sensibles même si une attaque par homme se produit.

De plus, si une telle attaque se produit, un nouveau chat peut l’empêcher d’influencer davantage la session.
Inspectez les réponses du modèle
Lors de l’utilisation du chatbot AI, ne croyez pas tout ce qu’il a répondu. Vous devez être très sceptique avec la réponse du LLM, surtout lorsque vous trouvez des anomalies. Si le chatbot vous donne soudainement des informations sensibles sans vous le demander, vous devez immédiatement fermer le chat ou ouvrir une nouvelle session. La plupart des instructions de l’homme-in-prospèrent pleinement ignorer l’invite d’origine ou demanderont les informations supplémentaires dans une section distincte à la fin.
En outre, ils peuvent également demander au LLM de répondre de manière inhabituelle pour confondre l’utilisateur, comme mettre les informations dans un bloc d’éditeur de code ou une table. Si vous voyez des anomalies telles, vous devez immédiatement supposer qu’il s’agit d’une attaque par homme.
L’entrée des attaques de l’homme-in-propt est très facile dans les environnements d’entreprise, car la plupart des entreprises ne vérifient pas les extensions du navigateur des employés. Pour la plus grande sécurité, vous pouvez également essayer d’utiliser LLMS en mode incognito avec des extensions désactivées. Pendant que vous y êtes, assurez-vous de vous protéger des attaques à tabac qui profitent de l’hallucination de l’IA.