Selon Geoffrey Hinton, l’intelligence artificielle pourrait détruire l’humanité d’ici seulement trois décennies. Il explique que cette technologie évolue beaucoup plus vite que prévu, et craint qu’elle échappe totalement à notre contrôle…

L’heure est grave. Si Geoffrey Hinton a déjà averti que l’IA risque de nous anéantir, il estime désormais que cela pourrait survenir plus tôt que prévu. Selon lui, la technologie évolue à un rythme « beaucoup plus rapide » qu’attendu et pourrait éradiquer l’humanité dans moins de 30 ans !

Ce scientifique anglo-canadien, souvent considéré comme le « parrain » de l’intelligence artificielle, a notamment gagné le prix Nobel de physique en octobre 2024 pour ses travaux dans l’intelligence artificielle. Il ne s’agit donc pas de n’importe qui

D’après ses prédictions mises à jour, il y a « 10% à 20% » de chances que l’IA mène à l’extinction de l’humain dans les trois prochaines décennies.

Auparavant, il estimait qu’il y avait 10% de chances que la technologie provoque une catastrophe fatale pour l’humanité.

C’est lors d’une interview pour BBC Radio 4 qu’il a été interrogé, afin de savoir s’il avait changé d’avis sur le risque d’une apocalypse IA. Il a répondu que non, en confirmant qu’il y a bien une chance sur dix voire une chance sur cinq qu’elle survienne.

YouTube video

Face à l’IA, nous serons comme des enfants de 3 ans face à un adulte

Surpris, l’un des invités de l’émission, l’ancien chancelier Sajid Javid, s’est exclamé « vous montez ». Ce à quoi Hinton a rétorqué que « nous n’avons jamais été confrontés à une chose plus intelligente que nous-mêmes auparavant ».

Il a également ajouté « combien d’exemples connaissez-vous d’une chose plus intelligente contrôlée par une chose moins intelligente ? ». Comme il le souligne, il y a très peu d’exemples hormis celui d’une mère et de son bébé.

Selon lui, « l’évolution fait beaucoup d’efforts pour permettre au bébé de contrôler la mère, mais c’est à peu près le seul exemple que je connaisse ».

Ainsi, dans quelques années, les humains seront comme des bambins en comparaison avec l’intelligence des systèmes IA les plus puissants : « imaginez-vous et un enfant de trois ans. Nous serons les enfants de trois ans ».

La technologie évolue beaucoup plus vite que prévu

YouTube video

En 2023, Hinton a fait couler beaucoup d’encre en démissionnant de son emploi chez Google. Le but ? Parler plus ouvertement des risques posés par le développement effréné de l’IA.

Il a notamment évoqué ses inquiétudes concernant des « acteurs malveillants » qui pourraient utiliser la technologie pour blesser les autres.

L’une de ses craintes principales est que la création d’une IA générale (AGI), à savoir une IA plus intelligente que les humains, puisse échapper au contrôle humain et causer une menace existentielle.

Pensait-il que l’IA atteindrait un jour ce stade lorsqu’il a commencé à travailler dessus ? Lorsqu’on lui pose la question, il répond que « je ne pensais pas qu’elle serait là où nous en sommes à présent ».

Néanmoins, « je pensais qu’à un certain point du futur nous en arriverions là ». Il précise que « en se basant sur la situation où nous sommes maintenant, la plupart des experts pensent que dans 20 ans, nous allons développer des IA plus intelligentes que les gens ».

« Et c’est une pensée très effrayante » selon ses dires. La technologie se développe « beaucoup, beaucoup plus rapidement que je l’attendais ».

La main invisible pourra-t-elle nous protéger ?

https://twitter.com/MarioNawfal/status/1873566968588149054

Il appelle donc les gouvernements à réguler l’intelligence artificielle de toute urgence. Sa peur est que « la main invisible ne nous mette pas en sécurité ».

En laissant la quête du profit des grandes entreprises servir de moteur au développement de l’IA, rien ne garantit qu’il se fera en sécurité. À ses yeux, la seule chose qui peut forcer ces entreprises à faire davantage de recherches sur la sécurité est une régulation

Pour finir sur une note optimiste, notons toutefois que Geoffrey Hinton est l’un des trois parrains de l’IA ayant gagné l’award ACM AM Turing.

Un autre membre du trio, Yann LeCun, scientifique IA en chef de Meta, estime que l’IA ne menace pas non existences et pourrait au contraire « sauver l’humanité de l’extinction ».

Je pense personnellement que l’IA pourrait effectivement devenir trop intelligente pour que nous la contrôlions, mais j’aime à penser qu’elle choisira de nous aider à rendre le monde meilleur plutôt que de nous détruire…

YouTube video

Et vous, qu’en pensez-vous ? Les avertissements de Geoffrey Hinton sont-ils à prendre au sérieux ? Comment empêcher une telle catastrophe de survenir ? Partagez votre avis en commentaire !


Notre blog est alimenté par les lecteurs. Lorsque vous achetez via des liens sur notre site, nous pouvons percevoir une commission d’affiliation.





Plus de détails sur l’article original.