
Table des matières
De nombreuses personnes se sont tournées vers les chatbots IA pour discuter de tout, aussi personnel soit-il. Ils pensent principalement que c’est anonyme, sécurisé et privé. La vérité est que la confidentialité des chatbots IA n’est pas si privée, et cette récente violation massive le prouve.
Plus de 300 millions de discussions exposées
L’application de chat très populaire Chat & Ask AI, qui s’appuie sur plusieurs modèles d’IA, a connu une faille choquante en janvier 2026. Un utilisateur a accédé à plus de 300 millions de chats d’au moins la moitié des 50 millions d’utilisateurs de l’application. Il s’agissait notamment de requêtes occasionnelles et de discussions beaucoup plus personnelles, notamment sur les questions médicales, de santé mentale, de finance et d’activités illégales.
La bonne nouvelle est que le chercheur, qui s’appelle simplement Harry, n’accédait pas aux données de l’application à des fins malveillantes. Au lieu de cela, il l’a fait pour exposer la vulnérabilité afin que les développeurs puissent la corriger.
Pourtant, cette vulnérabilité montre à quel point il est facile pour les pirates d’accéder en un rien de temps à des millions de messages de discussion privés.
Dans ce cas, Chat & Ask AI avait un problème de configuration de Google Firebase. C’est courant et Codeway, la société derrière l’application, l’a corrigé immédiatement après qu’Harry les ait informés de la vulnérabilité.
La prochaine fois que quelqu’un découvrira une vulnérabilité, cela pourrait ne pas se terminer de la même manière. Cela pourrait signifier que vos discussions « privées » sur l’IA sont divulguées au monde entier.
Ce n’est pas la première brèche ou fuite. Des centaines de milliers de conversations privées Grok sont apparues dans les résultats de recherche Google. Quelque chose de similaire s’est produit avec les utilisateurs de ChatGPT.
Parfois, il s’agit d’une simple erreur de configuration. Dans d’autres cas, les utilisateurs ne comprennent pas quand ils partagent des discussions, ils les partagent publiquement et pas seulement avec des amis sélectionnés. Par exemple, de nombreux utilisateurs pensaient à tort que Discover Feed de Meta AI partageait uniquement des discussions avec leurs amis. Au lieu de cela, les discussions étaient partagées avec tous les utilisateurs.
Les chatbots IA stockent plus que vous ne le pensez
Les chatbots prétendent souvent garder vos données privées, mais avez-vous lu les conditions ? Je déteste lire de longues conditions d’utilisation et politiques de confidentialité, mais je le fais quand même. Je veux savoir quelles données sont stockées et pourquoi. Il existe des moyens de rendre ce processus moins fastidieux, ce que je recommande vivement.
Dans la plupart des cas, à moins que vous ne vous désinscriviez, tout ce dont vous discutez est un jeu équitable pour la formation en IA. Plus vous interagissez, plus les modèles d’IA apprennent à interagir correctement avec les humains. Ils obtiennent également plus d’informations dans l’ensemble. Par exemple, OpenAI indique que certaines données personnelles peuvent être utilisées dans la formation de modèles.

Si vous disposez d’un compte, gratuit ou premium, la plupart des plateformes d’IA collectent :
- Nom, nom d’utilisateur, adresse IP, empreinte digitale du navigateur, etc.
- Préférences personnelles, telles que la personnalité préférée, les goûts/aversions et tout ce dont vous lui dites de se souvenir pour référence future, comme les allergies lors de la recherche de recettes
- Données des fichiers téléchargés, y compris les documents sensibles
- Toutes les discussions, quel que soit leur sujet
- Détails financiers, si vous utilisez les fonctionnalités agents des chatbots IA pour effectuer des achats
Le problème suivant est que ces données sont stockées indéfiniment. Vous pouvez supprimer une discussion, mais cela ne signifie pas qu’elle n’est pas toujours stockée quelque part et utilisée à des fins de formation ou pour personnaliser votre expérience.
Il est facile de penser que vous parlez simplement à un robot. Je comprends. Il est facile de discuter avec l’IA. Mais la confidentialité de ces chatbots IA n’est pas garantie, et de vrais humains pourraient voir ces discussions un jour. La leçon est que vous n’êtes jamais vraiment anonyme, même lorsque vous parlez avec l’IA.
Les applications de chat tierces sont encore plus risquées
Je ne prétends pas que Google, OpenAI, Meta ou toute autre société à l’origine de modèles d’IA populaires soient complètement sécurisés ou ne se soucient même pas de votre vie privée. Mais lorsque vous commencez à utiliser des chatbots IA via des applications tierces, vous mettez encore plus votre vie privée en danger.
Des applications comme Chat & Ask AI combinent plusieurs modèles en un seul. C’est un excellent moyen d’obtenir le meilleur de tout en un seul endroit. J’ai trouvé des applications comme celle-ci très utiles pour comparer des modèles et voir lesquels donnent les meilleurs résultats, comme avec Yupp.

J’entre pleinement conscient que mes données ne sont pas seulement collectées par l’application tierce, mais également par tous les modèles que j’utilise. Votre vie privée est aussi sécurisée que le maillon le plus faible.
Mon conseil est que chaque fois que vous utilisez une application de chat IA tierce pour accéder à d’autres modèles, soyez encore plus prudent. Ne partagez jamais rien de personnel.
Des informations que je ne partagerais jamais avec les chatbots IA
Je ne suis pas surpris que les utilisateurs partagent trop lorsqu’ils discutent avec l’IA. Cela ne semble pas réel, alors quel est le mal ? Permettez-moi d’utiliser les médias sociaux comme exemple. Les utilisateurs supposent que seuls leurs amis voient ce qu’ils publient. Pourtant, ils sont choqués lorsqu’un employeur voit soudainement un message controversé ou qu’un cambrioleur profite de leur message « en vacances ».
Tout ce que vous partagez en ligne pourrait devenir public. Les paramètres de confidentialité aident à verrouiller les choses, mais ce n’est pas une garantie. Si une plateforme rencontre une vulnérabilité, tout pourrait être public. Et comme les plateformes d’IA ne savent pas toujours clairement quels types de données elles utilisent pour la formation, je vous suggère fortement de ne partager aucun des éléments suivants :
- Tous les détails d’identification personnelle, comme le nom, l’adresse, le numéro de téléphone, etc.
- Tous les détails financiers
- Réponses de sécurité, mots de passe ou noms d’utilisateur (n’utilisez pas non plus l’IA pour générer des mots de passe)
- Activités illégales
- Documents confidentiels pour le travail ou votre vie personnelle
- Informations sur la santé, y compris la santé mentale
Considérez la confidentialité des chatbots IA comme celle d’un forum public. Si vous faites cela, vous serez beaucoup plus en sécurité.
Utiliser les chatbots IA en toute sécurité
Les chatbots IA entièrement hors ligne sont vos options les plus sûres, bien qu’elles soient plus limitées. Tout est traité localement, ce qui réduit les risques pour la vie privée. Vous pouvez même les exécuter sur Android.
Si ce n’est pas une option, restez fidèle aux applications de chat officielles du fournisseur d’un modèle. Celles-ci ont tendance à mieux respecter les lois sur la confidentialité que les applications tierces aléatoires qui accèdent simplement aux modèles.
Je suggère également de désactiver l’historique des discussions, si possible. Cela empêche le chatbot d’apprendre et de stocker autant d’informations. Supprimez au moins votre historique de discussion lorsque vous avez terminé.
Optez pour des chatbots IA qui accordent la priorité à la confidentialité. Par exemple, le chatbot Lumo de Proton qui utilise un cryptage sans accès pour garantir que vos discussions restent privées. Ou essayez la recherche privée AI de Brave pour les discussions cryptées qui sont supprimées après 24 heures.
L’IA fait désormais partie de nos vies, pour le meilleur ou pour le pire. Maintenant, nous devons simplement nous rappeler que discuter avec un ordinateur ne signifie pas que les conversations sont privées.








