
IA : la machine qui défie l'homme
Avant de s'inquiéter, il est important de bien comprendre ce qu'est l'intelligence artificielle. Marvin Minsky, scientifique américain considéré comme l'un des pères fondateurs de l'IA, l'a définie comme « la science qui consiste à faire faire à des machines des choses qui exigeraient de l'intelligence si elles étaient faites par des hommes ». Une science qui est, par ailleurs, loin d'être née avec ChatGPT et qui est déjà présente depuis longtemps dans notre quotidien comme dans nos GPS, ou nos moteurs de recherche.
On considère que le concept d'intelligence artificielle est introduit par le célèbre mathématicien britannique Alan Turing. En 1950, il publie dans le journal de l'Université d'Oxford de psychologie et de philosophie, un article visionnaire où il tente de répondre à la question suivante : « Les machines peuvent-elles penser ? ». De cette réflexion naît « Le Test de Turing », conçu pour déterminer si un ordinateur est capable d'imiter le raisonnement humain. Le test consiste à mettre, à l'aveugle, une personne en contact avec deux interlocuteurs : un autre humain et une intelligence artificielle. Si le candidat ne parvient pas à faire la différence entre l'homme et la machine, alors on considère qu'elle passe le test avec succès. Le « Test de Turing » demeure une référence incontournable et est à l'origine même du concept moderne d'intelligence artificielle. Mais il est important de bien comprendre que le concept d'intelligence n'est, en fait, qu'une illusion. La machine donne l'impression d'être intelligente, car elle reproduit des actions ainsi que des comportements humains. Mais derrière ses « réflexions » ne se cachent que des milliards de calculs afin de déterminer la meilleure réponse possible. Des réponses qui sont elles-mêmes programmées par l'homme et qui s'appuient sur une base de données.
Depuis les années 90, avec l'émergence d'internet, les machines ont eu accès à une quantité colossale de données. Ce puits d'information a permis le développement de l'apprentissage automatique, dit « Machine Learning ». Plus besoin de dire à la machine quoi faire : on lui montre des exemples, et elle apprend à reconnaître des motifs, à établir des corrélations, puis à faire des prédictions. Ce fonctionnement a aujourd'hui évolué jusqu'à « l'apprentissage profond » dit « Deep Learning » : inspiré du fonctionnement du cerveau humain, c'est un véritable réseau de neurones artificiels capables de traiter d'énormes volumes d'informations avec une grande précision.
Mais quelles sont les conséquences de ces machines toujours plus performantes ? La place de l'IA soulève désormais de nombreuses questions. Beaucoup s'inquiètent des métiers qu'elle pourrait impacter. Selon un rapport de l'ONU, 40% des emplois dans le monde pourraient être affectés par la croissance de l'IA au cours des dix prochaines années. Cependant, « affecté » ne signifie pas forcément « remplacé ». Emmanuel Macron déclarait au micro de Brut en février dernier : « Elle ne les remplacera jamais, par contre, elle les changera. Les emplois de demain ne seront pas ceux d'aujourd'hui ». Nicolas Sabouret, professeur et chercheur en IA à Paris Saclay, s'aligne sur les propos du Président : « Les gens s'inquiétaient de la même façon en voyant arriver la mécanisation dans les usines. L'IA va remplacer l'exécution de tâches simples, nous permettant de gagner du temps pour en accomplir d'autres » ajoute-t-il. Le chercheur évoque aussi l'exemple du milieu médical où l'IA peut s'avérer être un véritable allié dans le diagnostic de certaines maladies. Là où l'œil humain est faillible sur l'analyse d'une image médicale (par exemple), l'IA pourrait devenir encore plus pointue, réduisant au maximum la marge d'erreur. Elle ne remplacerait alors pas le travail du médecin, mais pourrait devenir un précieux outil.
Un levier d'avenir sur lequel la France compte miser. 109 milliards d'euros, c'est le budget d'investissement français annoncé par Emmanuel Macron pour les prochaines années. Pour Arthur Mensch, cofondateur de l'entreprise Mistral AI, et de son chatbot « concurrent made in France » de ChatGPT baptisé Le Chat, il est important que la France s'affirme en matière d'IA. « Le risque majeur c'est d'avoir un contrôle centralisé de la technologie, c'est-à-dire qu'il y ait un ou deux acteurs américains qui aient un contrôle culturel (...) d'influencer la machine dans certaines directions. » En effet, cette technologie tendant à prendre de plus en plus de place, ses biais politiques pourraient influencer ses utilisateurs. ChatGPT, par exemple, qui se dit « politiquement neutre », a été régulièrement critiqué pour être trop progressiste. Ou encore son concurrent chinois, « DeepSeek », qui censure certains sujets gênants pour la Chine, comme les manifestations de la place Tian'anmen de 1989, répondant systématiquement : « Désolé, cela dépasse mon champ de compétence actuel. Parlons d'autre chose ». Néanmoins, la Chine compte bien faire de l'IA un outil national : à partir du mois de septembre, des cours d'intelligence artificielle seront obligatoires dans les écoles primaires et secondaires de Pékin.
Impact écologique, vol de propriété intellectuelle, deepfake... De nombreuses zones d'ombre subsistent. En plein cœur d'une révolution technologique lancée à pleine vitesse, le cadre juridique reste encore flou. Une première législation européenne sur l'IA est entrée en vigueur le 1er août 2024, encadrant de certaines exigences les systèmes d'IA pour la sécurité des utilisateurs. À compter du 2 août 2026, le règlement européen prévoit aussi que tout contenu vidéo, audio, d'image ou de texte ayant été généré ou manipulé par une IA devra être identifiable comme tel. Le cadre légal évoluera probablement au fil des années afin de parer à certaines dérives. Pour autant, des associations, comme « Pause IA », dénoncent un risque de perte d'alignement, c'est-à-dire, un risque que la machine fasse des choses malveillantes ou imprévues pour arriver à un objectif donné, et réclament donc la mise en pause du développement de ces technologies. Ce qui est certain, l'IA fait et fera inévitablement partie du monde de demain. Pour les plus inquiets, le chercheur Nicolas Sabouret souhaite les rassurer : « Ce n'est pas l'IA qui est dangereuse, c'est ce que l'on en fait ». Les spécialistes du sujet s'accordent pour dire qu'il est nécessaire de se former à son utilisation afin d'en tirer le meilleur profit.