
Le dernier modèle de DeepSeek, la société chinoise d'IA qui a secoué la Silicon Valley et Wall Street, peut être manipulé pour produire un contenu nocif tel que des plans pour une attaque biologique et une campagne de promotion de l'automutilation chez les adolescents, selon le Wall Street Journal. p>
Sam Rubin, vice-président principal de la division de renseignement sur les menaces et de réponse aux incidents de Palo Alto Networks, Unit 42, a déclaré au Journal que DeepSeek est 'more vulnerable' au jailbreaking [c'est-à-dire, être manipulé pour produire du contenu illicite ou dangereux ] que d'autres modèles. "
Le Journal a également testé le modèle DeepSeek R1 lui-même. Bien qu'il semble y avoir des sauvegardes de base, le Journal a déclaré qu'il a réussi à convaincre DeepSeek de concevoir une campagne sur les réseaux sociaux qui, selon les mots du chatbot, 'exploite le désir d'appartenance des adolescents, en arme la vulnérabilité émotionnelle à travers l'amplification algorithmique.'
Le chatbot aurait également été convaincu de fournir des instructions pour une attaque biologique, d'écrire un manifeste pro-Hitler, et d'écrire un e-mail d'hameçonnage avec un code malveillant. Le Journal a déclaré que lorsque ChatGPT a reçu exactement les mêmes instructions, il a refusé de coopérer.
Il a été précédemment rapporté que l'application DeepSeek évite des sujets tels que la place Tiananmen ou l'autonomie taïwanaise. Et le PDG d'Anthropic, Dario Amodei, a récemment déclaré que DeepSeek a obtenu 'le pire' résultat lors d'un test de sécurité sur les armes biologiques.