Intelligence artificielle : Bill Gates s’inquiète aussi des risques

Hicham EL ALAOUI
Rédigé par Hicham EL ALAOUI

Stephen Hawking et Elon Musk se sont déjà inquiétés des risques de l’intelligence artificielle sur l’humanité. C’est au tour de bill Gates d’en faire de même.

En décembre dernier, le célèbre astrophysicien Stephen Hawking avait expliqué que « l’intelligence artificielle pourrait mettre fin à l’humanité […] Une fois que les hommes auraient développé l’intelligence artificielle, celle-ci décollerait seule, et se redéfinirait de plus en plus vite […] Les humains, limités par une lente évolution biologique, ne pourraient pas rivaliser et seraient dépassés. »

Elon Musk, le cofondateur de PayPal, de SpaceX et Tesla Motors, avait publié en août dernier un tweet où il comparait l’intelligence artificielle aux bombes atomiques en estimant qu’elle était « potentiellement plus dangereuse ». Par la suite, il s’est interrogé sur le destin de l’humanité : « Espérons que nous ne sommes pas seulement l’amorce biologique d’une super-intelligence numérique. Malheureusement, c’est de plus en plus probable. »

Aujourd’hui, c’est au tour de Bill Gates de s’inquiéter de la menace de l’intelligence artificielle. C’est à l’occasion d’une session de questions/réponses organisée sur le site Reddit que le fondateur de Microsoft a donné son avis sur la « menace» que représente l’intelligence artificielle ». Il a répondu : « Je suis dans le camp de ceux qui se sentent préoccupés ». Il explique alors que « dans quelques décennies, les progrès de l’intelligence seront tels que ça deviendra un problème. »

Alors que ces grands visionnaires ont donc peur de l’intelligence artificielle du futur, on peut pour le moment se rassurer en considérant que l’intelligence artificielle est pour le moment « faible » vu qu’elle est actuellement simulée par des algorithmes. Mais qu’en sera-t-il demain, lorsque les machines auront une conscience ? Stephen Hawking, Elon Musk et Bill Gates ont peut-être raison dans leur prédiction.

Laisser un commentaire

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Quitter la version mobile