DeepSeek : Des données utilisateurs à l’air libre

Imaginez : vous discutez tranquillement avec une IA, vous partagez des infos perso, et paf ! Tout ça se retrouve exposé sur le net. C’est un peu ce qui vient d’arriver à DeepSeek, une boîte qui fait parler d’elle dans le monde de l’intelligence artificielle. Sauf que cette fois, c’est pas pour une invention de folie, mais pour une faille de sécurité qui fait froid dans le dos.

Tout commence quand une équipe de sécurité, Wiz, tombe sur une base de données de DeepSeek laissée en plein air. Pas de mot de passe, pas de verrou, rien. Juste là, comme un magasin ouvert la nuit. En quelques minutes, ils ont accès à des tonnes de données : des conversations, des clés d’accès, des logs système… Bref, tout ce qu’il ne faut surtout pas laisser traîner.

deepseek-R3

Cette base, hébergée sur un système appelé ClickHouse, contenait plus d’un million de lignes de logs. Les experts de Wiz ont vite compris que ça pouvait être une catastrophe : un pirate aurait pu prendre le contrôle de la base et même pénétrer les systèmes internes de DeepSeek.

Ce qui est bizarre, c’est que DeepSeek utilise une architecture très similaire à celle d’OpenAI, le géant de l’IA. Tellement similaire que même les clés d’accès ont le même format. Ça tombe mal, parce qu’OpenAI a récemment accusé DeepSeek d’avoir utilisé ses données pour entraîner ses propres modèles. Du coup, cette faille de sécurité jette encore plus le doute sur les pratiques de DeepSeek.

Pour l’instant, on ne sait pas si quelqu’un d’autre a mis la main sur ces données avant qu’elles ne soient sécurisées. Mais vu à quel point c’était facile d’y accéder, il y a des chances que d’autres curieux aient déjà fait un tour. Pas de panique, mais bon, ça fait réfléchir.

À lire aussi :   Apple corrige 2 failles de sécurité critiques dans ses systèmes d’exploitation

Cette histoire arrive à un moment où tout le monde parle de protection des données et de vie privée. Les utilisateurs commencent à se méfier des plateformes d’IA, surtout quand elles ne sont pas claires sur leurs pratiques de sécurité. DeepSeek a bien verrouillé la base de données depuis, mais le mal est fait. La confiance, c’est comme une tasse : une fois cassée, c’est dur à recoller.

Et DeepSeek n’est pas la seule dans ce cas. Ces derniers temps, plusieurs entreprises d’IA ont été épinglées pour des fuites de données. Ça commence à faire beaucoup. Les utilisateurs se demandent : à qui faire confiance ?

Source : Wired.com

- Publicité -