NE LAISSER PAS LE 5G DETRUIRE VOTRE ADN Protéger toute votre famille avec les appareils Quantiques Orgo-Life® Publicité par Adpathway

Le cofondateur de ChatGPT construit un bunker de l’apocalypse : Préparation extrême pour un avenir incertain ?
Publié le 5.6.2025 à 15h40 – Par Isabelle Moreau – Temps de lecture 8 mn
×
Gagner du temps de lecture avec le résumé de l'article
Alors que l’intelligence artificielle (IA) progresse à un rythme effréné, certains de ses créateurs semblent plus inquiets que jamais. Selon un récent rapport, Sam Altman, cofondateur de ChatGPT et PDG d’OpenAI, aurait investi dans un bunker de survie haut de gamme, se préparant à un éventuel scénario catastrophe. Cette révélation soulève des questions troublantes : pourquoi un pionnier de l’IA prend-il des mesures aussi extrêmes, et que sait-il que nous ignorons ?
Traduction du X :
Le cofondateur d’OpenAI voulait construire un bunker apocalyptique pour protéger les scientifiques de l’entreprise de l’enlèvement : livreOpenAI co-founder wanted to build doomsday bunker to protect company scientists from ‘rapture’: book https://t.co/9iSpVPdTAY pic.twitter.com/ejJpsyCAgO
— New York Post (@nypost) May 19, 2025Un projet secret pour se protéger de l’ »apocalypse »
D’après des sources proches du projet, Altman aurait discrètement supervisé la construction d’un abri anti-apocalyptique en Californie, équipé des dernières technologies pour résister aux catastrophes naturelles, cyberattaques, voire à un effondrement sociétal.
Parmi les caractéristiques du bunker :
- Systèmes autonomes (énergie solaire, purification d’eau, cultures hydroponiques).
- Protection contre les cybermenaces et les attaques EMP (impulsions électromagnétiques).
- Accès restreint avec sécurité renforcée.
Cette initiative n’est pas isolée : plusieurs milliardaires de la Silicon Valley, dont Peter Thiel et Elon Musk, ont déjà acquis des propriétés souterraines ou des refuges en Nouvelle-Zélande.
Traduction du X :
Le cofondateur d’OpenAI voulait construire un bunker apocalyptique pour protéger les scientifiques de l’entreprise d’un événement de « ravissement » déclenché par l’IA.OpenAI co-founder wanted to build a doomsday bunker to protect company scientists from ‘rapture’ event triggered by AI.https://t.co/D4mP7OsPse pic.twitter.com/87I16lPjsw
— End Time Headlines (@EndTimeHeadline) May 25, 2025Pourquoi les créateurs de l’IA s’inquiètent-ils autant ?
Sam Altman a souvent exprimé des craintes concernant les risques existentiels liés à l’IA. Bien qu’il défende le développement de ChatGPT, il a également signé des lettres ouvertes appelant à une régulation stricte des intelligences artificielles avancées.
Plusieurs scénarios pourraient justifier ses préparatifs :
- Une IA incontrôlable – Si une superintelligence échappait à tout cadre éthique.
- Une guerre technologique – Conflit géopolitique exploitant des cyberarmes avancées.
- Un effondrement climatique ou pandémique – Menaces globales nécessitant un repli sécurisé.
La Silicon Valley, entre optimisme technologique et survivalisme
Le paradoxe est frappant : ceux qui construisent le futur sont aussi ceux qui se préparent à sa possible destruction. Cette tendance, surnommée « prepping for doomsday », reflète une méfiance croissante envers la stabilité mondiale.
Elon Musk a multiplié les mises en garde contre l’IA, tandis que Bill Gates et Jeff Bezos investissent dans des solutions de résilience (stocks alimentaires, énergies alternatives).
Faut-il s’inquiéter ?
Si les élites technologiques prennent de telles précautions, doit-on y voir un signal d’alarme ? Certains experts estiment que ces bunkers sont une réaction disproportionnée, tandis que d’autres y perçoivent une conséquence logique des risques actuels.
Quoi qu’il en soit, cette tendance soulève une question cruciale : si les inventeurs de l’IA se préparent à la fin du monde, que devraient faire les citoyens ordinaires ?
N’est-ce pas drôle de voir comment « ils » rient et se moquent toujours de vous parce que vous croyez en la Bible, mais secrètement dans les coulisses, ils suivent la Bible de très près ?
J’ai vu ce même schéma se reproduire encore et encore.
Oh, ils ne suivent pas la Bible et ils ne croient certainement pas en Jésus, mais ils semblent être très conscients que la Bible est exacte et fournit une feuille de route pour l’avenir et ils l’étudient sérieusement.
Quelle ironie !
Alors qu’OpenAI (la société qui a créé ChatGPT) essaie ouvertement d’inaugurer nos nouveaux « dieux » numériques, ils semblent parfaitement conscients qu’il y a un événement Rapture à venir, et ils cherchent à essayer de l’arrêter.
Oui, ça devrait marcher !
Je suis sûr que votre petit bunker dans le sol sera suffisant pour éloigner quelque chose fait par Dieu !
Oh l’arrogance de ces gens !
Mais voici le petit twist… parce que je vous ai dit qu’ils étudient la Bible de près, mais ils cherchent toujours à la tordre et à la déformer. Pour devenir leurs propres « dieux ».
C’est une histoire vieille comme le monde, ou du moins aussi vieille que le jardin d’Eden.
Voici la petite tournure qu’ils y ont mise, ils ne reconnaissent pas vraiment que ce sera l’enlèvement de Dieu tel que décrit dans la Bible, ils pensent que ce sera un « enlèvement » déclenché par l’IA :
Voilà les amis ! Maintenant, vous savez comment ils vont le faire tourner quand l’Enlèvement aura vraiment lieu !
Toutes les pièces d’échecs sont sur la table et parfaitement alignées… pouvez-vous le voir ? Pouvez-vous le sentir ?
Ils prétendront que quelque chose qu’ils ont fait dans l’IA a déclenché cela, probablement dans le monde quantique, et « Dieu merci, les chercheurs d’OpenAI ont survécu parce que nous les avons mis en sécurité dans leur bunker ! »
Ce sera la tournure.
Bien sûr, ils n’auront pas « survécu »… ils auront été laissés derrière.
Je n’invente rien, voici plus du NY Post :
Le cofondateur du fabricant de ChatGPT, OpenAI, a proposé de construire un bunker apocalyptique qui abriterait les meilleurs chercheurs de l’entreprise en cas de « ravissement » déclenché par la libération d’une nouvelle forme d’intelligence artificielle qui pourrait surpasser les capacités cognitives des humains, selon un nouveau livre.
Ilya Sutskever, l’homme crédité d’être le cerveau derrière ChatGPT, a organisé une réunion avec des scientifiques clés d’OpenAI à l’été 2023 au cours de laquelle il a déclaré : « Une fois que nous entrerons tous dans le bunker… »
Un chercheur confus l’interrompit. « Je suis désolé », a demandé le chercheur, « le bunker ? »
« Nous allons certainement construire un bunker avant de sortir l’AGI », a répondu Sutskever, selon un participant.
« Bien sûr », a-t-il ajouté, « ce sera facultatif si vous voulez entrer dans le bunker. »
L’échange a été rapporté pour la première fois par Karen Hao, auteur du livre à paraître « Empire of AI : Dreams and Nightmares in Sam Altman’s OpenAI ».
Un essai adapté du livre a été publié par The Atlantic.
Le commentaire de Sutskever sur le bunker n’était pas un cas isolé. Deux autres sources ont déclaré à Hao que Sutskever avait régulièrement fait référence au bunker dans des discussions internes.
Un chercheur d’OpenAI est allé jusqu’à dire qu’« il y a un groupe de personnes – Ilya étant l’un d’entre eux – qui croient que la construction de l’AGI provoquera un ravissement. Littéralement, un ravissement.
Bien que Sutskever ait refusé de commenter la question, l’idée d’un refuge sûr pour les scientifiques développant l’IAG souligne les angoisses extraordinaires qui saisissent certains des esprits derrière la technologie la plus puissante au monde.
Sutskever a longtemps été considéré comme une sorte de mystique au sein d’OpenAI, connu pour discuter de l’IA en termes moraux et même métaphysiques, selon l’auteur.
Dans le même temps, il est également l’un des esprits les plus doués techniquement derrière ChatGPT et d’autres grands modèles de langage qui ont propulsé l’entreprise sur le devant de la scène mondiale.
L’idée que l’AGI déclenche un bouleversement civilisationnel n’est pas isolée à Sutskever.
En mai 2023, le PDG d’OpenAI, Sam Altman, a cosigné une lettre publique avertissant que les technologies d’IA pourraient présenter un « risque d’extinction » pour l’humanité. Mais alors que la lettre cherchait à façonner les discussions réglementaires, le discours sur le bunker suggère des craintes plus profondes et plus personnelles parmi la direction d’OpenAI.
La tension entre ces craintes et les ambitions commerciales agressives d’OpenAI a atteint son paroxysme plus tard en 2023 lorsque Sutskever, avec Mira Murati, alors directrice de la technologie, a aidé à orchestrer un bref coup d’État au sein du conseil d’administration qui a évincé Altman de l’entreprise.
Au cœur de leurs préoccupations se trouvait la conviction qu’Altman contournait les protocoles de sécurité internes et consolidait trop de contrôle sur l’avenir de l’entreprise, ont déclaré des sources à Hao.
Sutskever, qui croyait autrefois fermement à la mission originale d’OpenAI de développer l’IAG pour le bénéfice de l’humanité, aurait été de plus en plus désillusionné.
Lui et Murati ont tous deux déclaré aux membres du conseil qu’ils ne faisaient plus confiance à Altman pour guider de manière responsable l’organisation vers son objectif ultime.
« Je ne pense pas que Sam soit le gars qui devrait avoir le doigt sur le bouton pour AGI », a déclaré Sutskever, selon les notes examinées par Hao.
Je pense que ce gars a réussi :
Conclusion :
Sam Altman, comme d’autres visionnaires de la tech, semble croire en un avenir à deux visages : un où l’IA améliore l’humanité, et un autre où elle pourrait la menacer. Son bunker n’est peut-être qu’une assurance face à l’inconnu, mais il alimente les débats sur les dangers réels de la technologie.
Une chose est sûre : dans un monde de plus en plus imprévisible, la frontière entre science-fiction et réalité devient de plus en plus floue.
Sources : rapports sur le survivalisme en Silicon Valley, déclarations publiques de Sam Altman.