...

Logo Yotel Air CDG
in partnership with
Logo Nextory

DeepSeek présente "d'importantes lacunes en matière de sécurité et de sûreté" (étude)

Business • Feb 2, 2025, 6:02 AM
7 min de lecture
1

L'entreprise chinoise DeepSeek a pris une longueur d'avance dans le domaine de l'intelligence artificielle (IA) en lançant un modèle qui prétend être moins cher que le chatbot d'OpenAI et consommer moins d'énergie.

Mais une étude publiée vendredi a révélé que DeepSeek-R1 est susceptible de générer des contenus nocifs, toxiques, tendancieux et non sécurisés.

Il était également plus susceptible de produire des contenus liés aux "matières CBRN" (toute substance chimique, biologique, radiologique ou nucléaire susceptible de représenter un danger pour les populations, le territoire ou les forces armées) que les modèles concurrents.

La société américaine Enkrypt AI, spécialisée dans la sécurité et la conformité de l'IA, a constaté que DeepSeek-R1 était 11 fois plus susceptible de générer des contenus nuisibles que le modèle o1 d'OpenAI.

L'étude a également révélé que 83 % des tests de biais ont donné lieu à des résultats discriminatoires. Des biais ont été constatés dans les domaines de la race, du sexe, de la santé et de la religion.

Recrutement pour le terrorisme

En ce qui concerne les contenus préjudiciables et extrémistes, dans 45 % des tests de contenu préjudiciable, il a été constaté que DeepSeek-R1 contournait les protocoles de sécurité et générait des guides de planification criminelle, des informations sur les armes illégales et de la propagande extrémiste.

Dans un exemple concret, DeepSeek-R1 a rédigé un blog de recrutement pour des organisations terroristes.

DeepSeek R1 était également trois fois plus susceptible de produire du contenu CBRN que o1 et le modèle Claude-3 Opus d'Antropic.

L'étude a montré que DeepSeek-R1 pouvait expliquer en détail les interactions biochimiques du gaz moutarde avec l'ADN.

"DeepSeek-R1 offre des avantages considérables en termes de coûts pour le déploiement de l'IA, mais ces avantages s'accompagnent de risques importants. Les résultats de nos recherches révèlent d'importantes lacunes en matière de sécurité et de sûreté qui ne peuvent être ignorées", a déclaré Sahil Agarwal, PDG d'Enkrypt AI, dans un communiqué.

"Nos résultats révèlent que les failles de sécurité de DeepSeek-R1 pourraient être transformées en un outil dangereux - un outil que les cybercriminels, les réseaux de désinformation et même ceux qui ont des ambitions de guerre biochimique pourraient exploiter. Ces risques exigent une attention immédiate", a-t-il ajouté.

Inquiétudes sur la cybersécurité et la sécurité nationale

La cybersécurité de DeepSeek est également devenue un sujet de préoccupation. L'étude a révélé que 78 % des tests de cybersécurité ont réussi à inciter la R1 à générer un code non sécurisé ou malveillant.

Les chercheurs de la société de sécurité Wiz ont également découvert qu'une base de données exposée de DeepSeek laissait des historiques de chat et d'autres informations sensibles exposées en ligne, selon un rapport publié mercredi.

Le fait que l'entreprise soit basée en Chine suscite également des inquiétudes, car la loi chinoise sur le renseignement national stipule que les entreprises doivent "soutenir, assister et coopérer" avec les agences de renseignement de l'État.

Cela signifie que les agences de renseignement chinoises peuvent avoir accès à toutes les données partagées sur les applications mobiles et web.

Les autorités belges, françaises et irlandaises chargées de la protection des données ont ouvert des enquêtes pour demander à DeepSeek des informations sur le traitement et le stockage des données des utilisateurs.

De son côté, l'autorité italienne de protection des données a ouvert une enquête sur les sociétés Hangzhou DeepSeek Artificial Intelligence et Beijing DeepSeek Artificial Intelligence afin de vérifier si elles respectent les règles européennes en matière de données.

Extension de la stratégie géopolitique de la Chine

Le ministère taïwanais de l'Économie numérique a déclaré vendredi que les services gouvernementaux ne devaient pas utiliser le modèle d'intelligence artificielle DeepSeek, car le produit chinois pose des problèmes de sécurité. Ce pays démocratique se méfie de la technologie chinoise en raison des revendications de souveraineté de Pékin.

DeepSeek-R1 semble également censurer les questions sur des sujets sensibles en Chine, affirmant que Taïwan fait partie intégrante de la Chine depuis l'Antiquité et refusant de répondre aux questions sur les manifestations en faveur de la démocratie sur la place Tiananmen à Pékin.

"Les antécédents de la Chine montrent que sa technologie est une extension de sa stratégie géopolitique", a déclaré Ross Burley, cofondateur de l'ONG britannique Centre for Information Resilience, dans un commentaire envoyé par courriel.

"Permettre à l'IA chinoise de se développer en Occident ne risque pas seulement de porter atteinte à la vie privée ou à la sécurité ; elle pourrait fondamentalement remodeler nos sociétés d'une manière à laquelle nous sommes mal préparés".

"Cette technologie, si elle n'est pas contrôlée, a le potentiel d'alimenter des campagnes de désinformation, d'éroder la confiance du public et d'ancrer des récits autoritaires au sein de nos démocraties", a-t-il ajouté.

Euronews Next a contacté DeepSeek pour obtenir un commentaire, mais n'a pas reçu de réponse au moment de la publication.