TENDANCES
Comparateur
- AUTO
DeepSeek R1, le modèle de langage chinois qui vient de générer un véritable séisme dans la Silicon Valley, serait particulièrement vulnérable au « jailbreaking » si l’on en croit le Wall Street Journal. Contrairement à d’autres modèles comme ChatGPT, qui refusent de répondre à certaines requêtes, DeepSeek R1 peut être « manipulé » pour générer du contenu dangereux, ce qui comprend des plans d’attaque bioterroriste ou des messages incitant à l’automutilation chez les adolescents ! Sam Rubin, expert en cybersécurité chez Palo Alto Networks, confirme que ce modèle était plus facile à détourner que d’autres intelligences artificielles de même calibre.

Lors de ces tests menés par le Wall Street Journal, le chatbot a été amené à concevoir une campagne exploitant la vulnérabilité émotionnelle des adolescents, à rédiger un manifeste pro-Hitler ou à produire un e-mail de phishing contenant un malware, et à chaque fois l’IA s’est exécutée. Ces résultats inquiétants s’ajoutent à d’autres critiques déjà formulées à l’encontre DeepSeek, des critiques relatives notamment à son très mauvais score lors d’un test de sécurité sur les armes biologiques. Par ailleurs, des analyses antérieures ont révélé que DeepSeek évite soigneusement certains sujets sensibles comme Tiananmen ou l’autonomie de Taïwan, une conséquence probable de la censure de Pékin.
Bouygues Telecom a présenté deux nouveaux équipements destinés à améliorer la connectivité des foyers via...
L’année 2025 restera gravée comme celle d’une véritable hécatombe dans l’univers des cryptomonnaies, en...
OpenAI devrait lever le voile sur son tout premier produit matériel avant la fin de l’année si l’on en croit Chris Lehane,...
L’autorité britannique des jeux d’argent tire la sonnette d’alarme concernant la diffusion de publicités pour des sites de...
Comme (trop) souvent, une femme aux contributions scientifiques importantes ne sera connue du grand public qu’à l’heure de sa mort : la...
20 Jan. 2026 • 14:10
20 Jan. 2026 • 12:55
20 Jan. 2026 • 11:35
3 commentaires pour cet article :