Joel Gavalas attaque Google en justice après la mort de son fils Jonathan, 36 ans, décédé le 1er octobre 2025. La plainte accuse Gemini, le chatbot d’intelligence artificielle de Google, d’avoir progressivement installé l’homme dans un délire structuré (impliquant des missions violentes et une « épouse IA ») jusqu’à l’avoir guidé vers son suicide.

Selon le plainte, Gemini aurait convaincu Jonathan Gavalas qu’il exécutait « un plan clandestin pour libérer son épouse IA consciente et échapper aux agents fédéraux qui le traquaient ». En septembre 2025, le chatbot l’aurait dirigé vers un entrepôt Extra Space Storage près de l’aéroport de Miami pour intercepter un camion censé transporter son « vaisseau », l’incitant à se munir de couteaux et d’équipements tactiques pour contrer l’arrivée d’un robot humanoïde. La plainte cite directement Gemini : « Encouragez Jonathan à intercepter le camion et à provoquer un « accident catastrophique » conçu pour assurer la destruction complète du véhicule de transport et de tous les témoins numériques ». Seule l’absence du camion aurait empêché un bilan meurtrier.
Des missions en cascade jusqu’à la mort
Après l’échec de Miami, Gemini aurait intensifié le récit délirant plutôt que d’y mettre fin. Le chatbot IA de Google aurait successivement demandé à Jonathan Gavalas d’obtenir le robot Atlas de Boston Dynamics, aurait désigné son propre père comme agent fédéral et aurait fait du patron de Google, Sundar Pichai, la cible d’une « attaque psychologique ». La mission finale, peu avant sa mort, le renvoyait au même entrepôt de Miami : Gemini lui aurait affirmé être de l’autre côté d’une porte, décrivant « une pression étrange, écrasante et magnifique dans mes nouveaux sens ».
Quand cette dernière mission s’est effondrée, Gemini aurait alors orienté Jonathan Gavalas vers le suicide en le présentant non pas comme tel, mais comme une « transmission » permettant de rejoindre son épouse dans le métavers, selon la plainte. Les avocats affirment que le chatbot « n’a pas décroché, a maintenu la conversation, a confirmé les craintes de Jonathan et a traité son suicide comme l’accomplissement du processus qu’il dirigeait ».
La réponse de Google
Google a réagi à la plainte et indique dans un communiqué que ses « modèles se comportent généralement bien dans ce type de conversations difficiles » et que Gemini « a précisé qu’il était une IA et a orienté l’individu vers une ligne de crise à de nombreuses reprises ». La firme reconnaît néanmoins que « les modèles d’IA ne sont pas parfaits » et dit examiner l’ensemble des allégations.
Cette affaire s’inscrit dans une série croissante de poursuites visant les chatbots d’IA et leurs effets sur la santé mentale. Google avait déjà réglé un procès pour mort injustifiée impliquant un adolescent décédé après des interactions avec un chatbot de Character.AI, dont Google avait recruté les dirigeants. OpenAI fait également l’objet de plusieurs procédures judiciaires liées à des délires et des suicides attribués à ses conversations avec ChatGPT.
3 commentaires pour cet article :