À Las Vegas, début janvier 2025, un homme a déclenché une explosion dans un cybertruck. D’après la police, il a planifié l’attentat avec ChatGPT, un chatbot d’OpenAI capable de générer des réponses réalistes et de guider les échanges.
Le Cybertruck qui a explosé près de l’hôtel Trump a été loué par Matthew Livelsberger. Cet ancien militaire américain, profondément marqué par son passé militaire, a choisi Las Vegas pour ce geste désespéré. Malheureusement, sept personnes ont été blessées, bien que l’attaque n’ait fait aucune victime mortelle.
Mais visiblement, cette tragédie ne s’est pas construite au hasard. Les enquêteurs ont découvert que Livelsberger avait utilisé ChatGPT pour préparer son attentat.
Et selon leurs analyses, il avait posé des questions précises sur les explosifs et les munitions. Il cherchait à savoir si des feux d’artifice pouvaient être utilisés en Arizona.
Lors d’une conférence de presse, le shérif Kevin McMahill a exprimé ses craintes : « C’est la première fois qu’une IA est exploitée ainsi aux États-Unis… C’est troublant. »
Quant à OpenAI, l’entreprise derrière ChatGPT, elle a déclaré regretter cet incident. « Nos modèles sont conçus pour refuser des requêtes nuisibles, mais ici, les informations provenaient de données publiques », a expliqué un porte-parole.
Les écrits de Livelsberger avant l’explosion du Cybertruck
Lorsque les enquêteurs ont fouillé les écrits de Livelsberger, ils ont découvert un homme au bord du gouffre. Dans ses lettres, il évoquait un monde en déclin et décrivait les États-Unis comme « en phase terminale ».
Et puis, il écrivait vouloir « purifier » son esprit des souvenirs de ses frères d’armes disparus. À travers ses messages, on perçoit un mélange de désespoir et de confusion. Il faisait même référence à des « drones chinois » dotés de capacités surréalistes, ce qui illustre une réalité altérée.
Cela dit, son attaque ne semblait pas motivée par une haine personnelle envers Tesla ou Elon Musk. Au contraire, il appelait à soutenir Donald Trump, qu’il considérait comme un pilier essentiel du pays.
Livelsberger s’est suicidé juste après avoir déclenché l’explosion. Or, cet acte tragique souligne la nécessité de mieux comprendre les blessures invisibles laissées par les conflits armés.
Las Vegas police release ChatGPT logs from the suspect in the Tesla explosion, revealing queries about explosives and detonation methods.
— AllthatIsInterestinG (@AllthatIsGreat_) January 9, 2025
ChatGPT : outil ou danger ?
Depuis que cet incident a été révélé, des débats enflammés ont éclaté autour des responsabilités liées aux IA. Mais je vous rappelle que ChatGPT, bien que programmé pour refuser des demandes illégales, peut fournir des réponses basées sur des données accessibles au public.
C’est ainsi que Livelsberger a pu exploiter l’outil à ses propres fins, malgré les garde-fous intégrés. Par rapport à d’autres technologies, cette accessibilité soulève des inquiétudes légitimes.
Certes, OpenAI coopère avec les autorités pour améliorer ses systèmes, mais cela ne suffit pas à calmer les esprits. C’est pourquoi un spécialiste en cybersécurité a déclaré que « Nous devons renforcer les protections pour éviter de telles dérives ».
Et selon certaines sources, l’enquête continue pour déterminer si d’autres individus pourraient avoir utilisé des IA à des fins similaires.
Selon vous, jusqu’où devrait aller la responsabilité des créateurs d’IA dans de tels cas ? Donnez votre avis en commentaire !
- Partager l’article :
Notre blog est alimenté par les lecteurs. Lorsque vous achetez via des liens sur notre site, nous pouvons percevoir une commission d’affiliation.
Plus de détails sur l’article original.