Vendredi 10 avril 2026, 3h45 du matin. San Francisco, quartier de Russian Hill. Un homme de 20 ans s’approche de la résidence de Sam Altman, CEO d’OpenAI, et lance un cocktail Molotov sur le portail métallique de la maison. L’engin incendiaire s’enflamme. Le personnel de sécurité, présent sur place, éteint le feu. Les caméras de surveillance capturent la scène.
Le suspect s’enfuit à pied. Une heure plus tard, à 5 heures du matin, un individu correspondant à sa description se présente devant le siège d’OpenAI à Mission Bay et menace de brûler le bâtiment. La police de San Francisco l’arrête peu après. Personne n’a été blessé. Les dégâts sont minimes.
L’homme s’appelle Daniel Alejandro Moreno-Gama, 20 ans. Il est inculpé de tentative de meurtre, explosion d’un engin destructeur avec intention de blesser, incendie volontaire, menaces criminelles et possession de matériel incendiaire. Il a été écroué au San Francisco County Jail le même jour.
Ce n’est pas un déséquilibré isolé. C’est un homme que la peur de l’IA a radicalisé.
« Nous sommes proches de minuit »
Moreno-Gama utilisait le pseudonyme « Butlerian Jihadist » sur Discord — une référence directe au cycle de Dune de Frank Herbert, dans lequel l’humanité détruit toutes les machines intelligentes lors d’un soulèvement appelé le Jihad Butlérien.
Selon la chercheuse en communication Nirit Weiss-Blatt, Moreno-Gama avait rejoint le serveur Discord de PauseAI — un mouvement militant pour l’arrêt du développement de l’IA — environ deux ans plus tôt. Il y avait posté 34 messages. En décembre 2025, il a écrit : « Nous sommes proches de minuit. Il est temps d’agir. » Un modérateur l’a averti que tout appel à la violence entraînerait un bannissement.
Sur Substack, il avait rédigé plusieurs essais décrivant l’IA comme une menace existentielle et qualifiant Sam Altman de « menteur pathologique ».
PauseAI a immédiatement condamné l’attaque. L’organisation a déclaré que Moreno-Gama n’était pas un activiste du mouvement, qu’il n’avait eu aucune implication au-delà de ses 34 messages Discord, et que « la violence contre quiconque est contraire à tout ce que nous défendons ». Son compte a été banni après l’attaque.
La réponse d’Altman : « J’ai sous-estimé le pouvoir des mots »
Quelques heures après l’attaque, Sam Altman a publié un long post sur son blog. Le ton est inhabituel pour un homme connu pour son optimisme tech affiché. Il reconnaît avoir « sous-estimé le pouvoir des mots et des récits ».
Altman écrit que la peur des gens face à l’IA « est valide ». Que la société « traverse peut-être le plus grand changement depuis très longtemps, peut-être le plus grand jamais ». Qu’il faut une « réponse de toute la société » face aux menaces que pose l’IA, y compris de nouvelles politiques pour gérer ce qu’il qualifie de « transition économique difficile ».
Il reconnaît aussi des erreurs personnelles, notamment avoir été « réticent aux conflits, ce qui a causé beaucoup de souffrance pour moi et pour OpenAI ».
Puis cette métaphore, lourde de sens : Altman compare l’IA à l’Anneau de Pouvoir du Seigneur des Anneaux. « Une fois que vous avez vu l’AGI, vous ne pouvez plus cesser de vouloir la contrôler. La seule solution que je vois, c’est de partager la technologie largement, et que personne ne possède l’anneau. »
Il appelle l’industrie à « baisser le ton » et à « avoir moins d’explosions dans moins de maisons, au sens propre comme au figuré ».
Le contexte : New Deal, Pentagone, procès Musk
L’attaque survient à un moment où OpenAI concentre toutes les tensions de l’industrie.
Quelques jours avant l’attaque, OpenAI avait publié un document de politique de 13 pages — un « New Deal pour l’ère de l’IA ». Ses propositions : un fonds de richesse publique donnant à chaque Américain une part des gains générés par l’IA, des taxes plus élevées sur les plus-values et les bénéfices des entreprises, une taxe robot, et une semaine de quatre jours. Le document assume que l’IA va détruire des emplois à grande échelle et propose des mécanismes de redistribution.
En février, OpenAI avait signé un contrat avec le Département de la Défense américain après que le Pentagone eut rompu ses liens avec Anthropic (qui refusait la surveillance de masse). Des activistes avaient écrit des messages à la craie devant les bureaux des deux entreprises.
Le procès d’Elon Musk contre OpenAI et Altman, dans lequel Musk accuse Altman de l’avoir manipulé pour qu’il donne 38 millions de dollars sur des promesses non tenues, est attendu devant le tribunal dans les prochaines semaines.
Et selon un sondage Quinnipiac cité par le San Francisco Standard, 80 % des Américains sont préoccupés par l’IA, 55 % estiment qu’elle fait plus de mal que de bien dans la vie quotidienne, et 70 % pensent qu’elle va réduire les opportunités d’emploi.
Ce que cette attaque dit de 2026
Un homme de 20 ans qui se fait appeler « Jihadiste Butlérien », qui croit que l’IA va provoquer l’extinction de l’humanité, lance un cocktail Molotov sur la maison du CEO d’OpenAI puis menace de brûler ses bureaux. C’est la première attaque physique connue contre un dirigeant d’une entreprise d’IA motivée par des craintes existentielles.
La peur de l’IA n’est plus un débat académique entre Yoshua Bengio et les optimistes de la Silicon Valley. Elle s’est infiltrée dans les communautés en ligne, a trouvé un langage (Dune, le risque existentiel, la « perte de contrôle »), et a produit un premier passage à l’acte violent.
Le paradoxe est complet : les mêmes arguments que Bengio, Hinton et les chercheurs en sécurité de l’IA utilisent pour réclamer une régulation — l’autoconservation, les armes biologiques, la perte de contrôle — sont aussi ceux qui alimentent la radicalisation d’individus isolés qui en concluent que l’action politique ne suffit pas.
PauseAI l’a bien compris, en se désolidarisant immédiatement. Mais la question reste ouverte : comment alerter sur les risques réels de l’IA sans nourrir une panique qui mène à la violence ?
Sam Altman, lui, a choisi de répondre par un appel à la démocratisation de l’IA. « Que personne ne possède l’anneau. » C’est une belle phrase. Mais elle vient d’un homme dont l’entreprise vaut 840 milliards de dollars, qui prépare une IPO, qui a signé avec le Pentagone, et qui brûle 17 milliards de dollars par an pour construire l’IA la plus puissante du monde.
L’anneau est déjà bien accroché au doigt.

Je suis Ethan, journaliste spécialisé en intelligence artificielle et nouvelles technologies. Je couvre l’actualité de l’IA agentique, des grands modèles de langage et des outils qui transforment nos usages numériques. Mon objectif : rendre accessibles les avancées technologiques les plus complexes, avec rigueur et sans jargon inutile.