Quand l'IA dominera le monde

L'IA nous remplacera t-elle un jour, ou restera-t-elle un simple outil ? La question est délicate, mais quelques éléments de réponse existent déjà.

Quand l'IA dominera le monde

Il y a déjà près de 3 ans et demi, le 28 février 2017, on pouvait lire sur la page d’accueil de Bloomberg l’article suivant : "JPMorgan Software Does in Seconds What Took Lawyers 360,000 Hours".

Article de Bloomberg
Article de Bloomberg

Au même moment, on pouvait lire sur le site de la BBC "The robot lawyers are here - and they’re winning". Cela a de quoi inquiéter.

L’IA a-t-elle atteint un niveau suffisant pour remplacer des humains dans des secteurs que l’on pensait pourtant inaccessible à la machine ?  Allons nous bientôt tous devenir une forme dépassée d’intelligence ? Peut-être, mais avant toute chose posons quelques définitions.

Une IA faible est une intelligence artificielle se concentrant sur une tâche spécifique. Par opposition, une IA forte serait une intelligence générale, pouvant s’attaquer à n’importe quel problème et/ou possédant la conscience d’elle-même. Ce niveau correspond à celui d’une intelligence humaine et on considère généralement qu’une machine atteint ce stade si elle est capable de passer le fameux test de Turing.

Enfin, on appelle supraintelligence ou superintelligence une IA capable de s’auto améliorer et qui atteindrait donc des niveaux de très loin supérieurs à ceux de l’intelligence humaine.

Aujourd’hui, à l’aube de la troisième décennie du XXIème siècle, toutes les intelligences artificielles sont encore faibles, et la question que tous se posent est la suivante : L’apparition de ces nouvelles formes d’intelligence est-elle seulement possible, et si oui, quand aura-t-elle lieu ?

"Singularité". Vous avez sans doute déjà entendu ce mot popularisé par le transhumaniste américain Ray Kurzweil en 2005 dans son livre The Singularity is Near: When Humans Transcend Biology. Le terme est aujourd’hui dans l’esprit de tous ceux s’intéressant un tant soit peu à l’IA.

Ray Kurzweil, futurologue transhumaniste américain | © Reuters
Ray Kurzweil, futurologue transhumaniste américain | © Reuters

Cette singularité n’est pas difficile à concevoir. Imaginez une courbe croissante représentant l’évolution de la puissance des IA à travers le temps. La singularité représente le point d’inflexion de cette courbe à partir de laquelle la croissance de celle-ci devient exponentielle.

Pour les singularitaristes, cette explosion s’explique par le fait qu’à partir d’un certain niveau d’intelligence, une IA devient capable de s’auto-améliorer. La nouvelle version étant systématiquement plus intelligente que la précédente, l’intelligence du programme tendrait vers l’infini extrêmement rapidement, reléguant l’intelligence humaine pourtant dominante pendant des millions d’années à un niveau relativement ridicule.

Pour discuter de la légitimité de cette théorie et savoir si un supercalculateur sera un jour en mesure soit d’anéantir l’humanité ou de régler tous ses problèmes, il faut remonter un peu le temps et comprendre son histoire.

Les dates que l’on retient en général sont la victoire de Deep Blue contre Kasparov en 1997 et la victoire d’AlphaGo contre Lee Sedol en 2016. Que l’on utilise des jeux pour déterminer la puissance d’une IA n’a rien d’étonnant : les échecs ont longtemps été le symbole de l’intelligence humaine. On peut donc comprendre l’engouement qu’a provoqué la défaite du meilleur joueur du monde contre un ordinateur, en 1997. La victoire d’AlphaGo pouvait alors en est la suite logique, me direz-vous, mais ce n'est pas aussi simple. En raison de la complexité mathématique bien supérieure du jeu de Go, nombreux étaient ceux qui croyaient que cette victoire n’arriverait pas aussi rapidement.

Match entre Lee Sedol et AlphaGo | © Google
Match entre Lee Sedol et AlphaGo | © Google

En 2015, un colloque d’experts sur le sujet estimait qu’il faudrait encore 12 ans pour battre l’homme au jeu de Go. Un an plus tard, AlphaGo leur a prouvé le contraire.

Face aux progrès exponentiels de l'IA, faut-il craindre l’arrivée de Skynet et la fin du monde ? Pas tout à fait. En réalité, : en 1967, le mathématicien et chercheur en IA Marvin Minsky déclarait : "Dans 3 à 8 ans nous aurons une machine avec l’intelligence générale d’un être humain moyen." Depuis, les périodes d’euphorie et de pessimisme alternent régulièrement.

Hauts et bas de l'IA depuis 1950
Hauts et bas de l'IA depuis 1950

Pour en revenir à des dates plus récentes, avant 2012 et la popularisation du système de réseaux de neurones (Deep Learning), peu nombreux étaient ceux qui défendaient une évolution aussi rapide que celle que nous avons connue. L’introduction de cette nouvelle technologie rebat complètement les applications théoriques de l’IA : ce n’est plus un ingénieur, aussi brillant soit-il, qui code l’intégralité de l'algorithme. Grâce à la quantité phénoménale de data fournies par les NTIC (nouvelles technologies de l'information et de la communication), cet algorithme peut apprendre par lui-même, à la manière d’un véritable cerveau humain.

Une des applications donne le vertige : une IA peut tout à fait apprendre à coder, et ainsi, potentiellement déjà créer une version améliorée d’elle-même (voir l’article "DeepMind’s Newest AI Programs Itself to Make All the Right Decisions" sur Singularity Hub )

Alors que va-t-il se passer ? Honnêtement, personne ne le sait vraiment, et c’est sans doute cette incertitude qui rend le sujet aussi passionnant.

Hugues P.