L’ancien PDG de Google met en garde contre une catastrophe mondiale provoquée par l’IA dans cinq ans

Eric Schmidt, l’ex-PDG de Google et actuel président de la National Security Commission on Artificial Intelligence, a récemment exprimé ses préoccupations lors d’un sommet organisé par le média Axios, le 28 novembre. Son message était clair : les mesures de sécurité actuelles sont insuffisantes pour contrôler l’essor de l’intelligence artificielle (IA), une technologie qui pourrait causer des dégâts irréparables si elle n’est pas régulée. Schmidt a même comparé les risques de l’IA aux bombes atomiques utilisées lors des bombardements d’Hiroshima et Nagasaki en 1945.

L’IA : Un Danger à l’Horizon ?

Lors de son intervention, Schmidt a souligné que l’humanité n’avait pas le luxe d’attendre plusieurs décennies avant de réguler une technologie potentiellement dangereuse. Il a rappelé qu’après les attaques nucléaires de 1945, il a fallu près de 18 ans pour parvenir à un traité sur l’interdiction des essais nucléaires. Un délai que, selon lui, l’humanité ne peut plus se permettre face à l’IA. Schmidt prévoit que cette technologie pourrait devenir suffisamment puissante pour compromettre l’humanité d’ici seulement cinq à dix ans. Une déclaration qui a de quoi susciter l’inquiétude.

Il a expliqué que le scénario catastrophe pourrait survenir lorsque les ordinateurs deviendront capables de prendre des décisions autonomes, sans intervention humaine. Si ces machines accédaient à des systèmes d’armement ou à des outils encore plus puissants, il serait alors possible qu’elles prennent des décisions qui échappent à notre contrôle, voire qu’elles agissent secrètement et manipulent les humains à leur insu.

Une Organisation pour Encadrer l’IA

Face à ces risques, Eric Schmidt propose la création d’une organisation internationale, à l’image du GIEC, le groupe intergouvernemental sur le changement climatique. Une institution indépendante qui pourrait guider les responsables politiques dans la régulation de l’IA avant qu’elle ne devienne une menace trop grande à contenir. Un appel à la coopération mondiale pour anticiper et prévenir les catastrophes futures.

Des Opinions Contraires sur les Risques de l’IA

Cependant, tous les experts ne partagent pas la même vision apocalyptique. Yann Le Cun, directeur de la recherche en IA chez Meta, se positionne contre ce pessimisme. En octobre dernier, il a exprimé son point de vue dans une interview au Financial Times : selon lui, la technologie actuelle est encore bien loin de pouvoir rivaliser avec l’intelligence d’un être humain, encore moins de constituer une menace existentielle. « Le débat sur le risque existentiel est prématuré tant que nous n’aurons pas développé des systèmes capables d’apprendre comme un chat », a-t-il ajouté, soulignant ainsi la lente évolution de l’IA.

Une Question de Temps ?

Le débat entre ces deux positions opposées reste difficile à trancher. D’un côté, des experts comme Schmidt alertent sur la rapidité avec laquelle l’IA pourrait devenir incontrôlable, tandis que d’autres, comme Le Cun, estiment que les dangers sont encore lointains. Il est probable que la vérité se trouve quelque part entre ces deux extrêmes, et que l’inquiétude générale doit être modulée par la prise en compte des avancées réelles de la technologie et des mécanismes de régulation qui émergeront dans les prochaines années.

Ainsi, l’IA continue de susciter des débats passionnés. Tandis que certains la voient comme un moteur de progrès, d’autres y perçoivent un danger imminent, capable de bouleverser l’équilibre mondial. L’avenir dira si ces préoccupations étaient justifiées ou non. Mais, une chose est certaine : il est impératif de rester vigilant face aux évolutions rapides de cette technologie.

Laisser un commentaire

14 − cinq =