Abonnez-vous au podcast « Choses à Savoir Sciences » pour ne rater aucun nouvel épisode: |
S’abonner | |
S’abonner | |
S’abonner | |
S’abonner | |
S’abonner | |
S’abonner |
.
Il faut d’emblée dire que la « singularité technologique » est une hypothèse et uniquement une hypothèse. Certainement pas une certitude. Selon cette théorie, l’invention de l’intelligence artificielle déclencherait un emballement du développement technologique qui aurait des conséquences imprévisibles pour les hommes.
Pour faire simple au-delà d’un certain niveau de développement technologique et d’intelligence artificielle, l’homme ne pourrait plus maitriser la suite et potentiellement disparaitre.
Au-delà de ce point, la « supraintelligence » s’auto-améliorerait. Elle évoluerait technologiquement à une vitesse incompréhensible pour les humains. On assisterait alors à une « explosion d’intelligence » dont la puissance serait bien plus grande que celle des hommes qui seraient dépassés et peut-être anéantis.
Cette notion de singularité technologique a été envisagée par différentes scientifiques notamment par, parmi les premiers, John von Neumann dans les années 1950. Plus récemment l’astrophysicien Stephen Hawking a fait part de ses inquiétudes quant à l’existence imminente d’une intelligence «complète» qui dépasserait celle de l’homme, limité par le carcan de son évolution naturelle, biologique.
Quant à savoir quand aura-t-elle lieu, nul ne le sait, si toute fois elle a lieu. Des futurologues et transhumanistes évoque les années 2030.
Mais beaucoup d’autres scientifiques ne partagent pas la crainte liée à la singularité technologique. Ceux-là pensent plutôt que le développement de l’intelligence artificielle conduira à la résolution des problèmes majeurs de l’humanité. Que l’homme pourra toujours influer sur le développement technologique, car celui-ci ne se déploie pas de façon autonome.
Should we take generic or original brand remedies