Ça semble racoleur, comme titre, mais c’est une question que j’ai récemment entendue, à la télévision le 17 Mars, dans une émission sérieuse, C Politique sur France 5, d’autant plus sérieuse que Michel Serres en était l’invité. Le sujet portait essentiellement sur le Grand Débat (on me pardonnera cette monomanie que j’espère passagère). La discussion arrive sur le sujet du dépouillement — nécessairement automatique, étant donné le volume — des contributions à ce débat et sur les biais possibles. Michel Serres intervient en disant :
je ne suis pas complètement sûr que les ordinateurs puissent tricher.
Je pensais naïvement que c’était de l’ironie, surtout de la part de M. Serres, mais le débat a été rapidement esquivé, à coups de « ah ça, je ne sais pas. Quand je ne sais pas, je ne dis rien ». (voir le replay à partir de 48’30s). J’en étais estomaqué. Le doute est donc resté, pour le téléspectateur comme pour les intervenants sur le plateau. Oui, finalement, personne n’exclut que les systèmes informatiques mis en œuvre se mettent à tricher. Il faut dire que les outils de traitement automatique de ces données textuelles avaient été précédemment baptisées de « puissants algorithmes d’intelligence artificielle ». Alors si c’est de l’Intelligence Artificielle, elle va certainement se retourner contre nous, prendre le pouvoir… Ou pas, mais quoi qu’il en soit, on ne peut pas savoir, nous les humains.
Ce passage est totalement à l’unisson du navrant gloubiboulga qu’on nous sert à longueur de journée sur l’IA. Comme par exemple ce sondage qui indique d’un européen sur quatre est prêt à être gouverné par une IA. A question idiote, réponse idiote, me dira-t-on, mais quand même, comment peut-on sérieusement mettre de telles sornettes dans la tête des gens ? Est-il possible qu’on se calme un peu sur ce sujet ?
L’IA c’est un ensemble de techniques, une manière de programmer des ordinateurs, c’est-à-dire de leur faire faire ce qu’on a décidé qu’ils fassent, en tant qu’humains. Rien de plus. Une IA, ou plus exactement un système informatique qui intègre des modules d’IA, ce n’est rien de plus qu’un tournevis. Un outil. Si vous vous en servez mal (à dessein ou non), ça peut faire mal (on peut blesser avec un tournevis). S’il est mal conçu, il peut casser quand vous vous en servez et ne pas faire ce que vous voulez (monter ce meuble en kit, par exemple). Oui, tout ça peut arriver. Pourtant on ne pose pas la question à des milliers de gens de savoir s’ils veulent être gouvernés par un tournevis. Arrêtons les fantasmes.
Et pour revenir sur le sujet initial du Grand Débat, ne perdons pas de vue plusieurs aspects : d’une part il y a plusieurs biais inhérents à la construction de ces données (représentativité, etc). De plus, l’état de l’art de la technologie ne permet pas aujourd’hui de prendre en compte les subtilités du langage, comme je l’ai souligné (et quiconque a déjà dialogué avec un chatbot ne peut qu’en être persuadé). Enfin, n’oublions pas le calendrier : si la société de service (Qwam CI) qui fait l’analyse automatique du Grand Débat a moins de deux semaines pour rendre ses comptages (avant fin Mars, donc), la société de sondages (Opinion Way) a, elle, un mois pour rendre ses conclusions. Si « triche » il doit y avoir, les analystes auront un avantage considérable en temps sur les techniciens compteurs de mots.
Pour conclure, je ne saurai que reprendre le titre du livre de Luc Julia, « l’intelligence artificielle n’existe pas » (First Editions), ce qu’il démontre assez bien, entre un règlement de comptes avec quelques pontes d’Apple et une promotion pour son nouvel employeur (on lui pardonnera volontiers, étant donné le message qu’il porte). Je le cite :
Tout est parti d’un immense malentendu. En 1956, lors de la conférence de Dartmouth, John Mc Carthy a convaincu ses collègues d’employer l’expression « intelligence artificielle » pour décrire une discipline qui n’avait rien à voir avec l’intelligence. Tous les fantasmes et les fausses idées dont on nous abreuve aujourd’hui découlent, selon moi, de cette appellation malheureuse.