Mais qui est cet auteur précurseur de ce que l’on appelle aujourd’hui faussement « l’Intelligence Artificielle » ? Bruno Lussato est professeur au Conservatoire National des Arts et Métiers, conseiller de nombreuses entreprises nationales et internationales, président de l’A.M.I. (Association pour la promotion des systèmes décentralisés), son premier ouvrage, Le Défi informatique (1981) a exercé une influence considérable : des idées originales qui y sont exposées et qui ne nous sont pas étrangères. Auteur tout aussi précurseur de Bouillon de culture (1987), Le Défi Culturel (1989), la 3e révolution (1999) et Virus, huit leçons sur la désinformation (2007), c’est une vision historique et faste de l’auteur sur notre monde de l’informatique, sur son devenir. Dans ses conférences pleines d’envergure organisées depuis 2022, Bruno Lussato y présentait des idées rassemblées dans son ouvrage « La 3e révolution » dont quelques-unes s’inspiraient d’une « informatique à visage humain ». Mais quel schéma cela recoupe-t-il ? L’auteur observe que nous sommes dans un mouvement influent mêlant des rapports de force en présence : une direction régressive et destructrice (sous l’angle dystopique) ou promotrice et évolutive (sous l’angle novateur).
L’avènement de l’informatique
Le passage de la mécanographie à l’informatique a déclenché la première révolution informatique et organisationnelle : le passage de machines à composants mécaniques (tabulatrices, perforatrices, etc.) à des machines à composants entièrement électroniques. Puis, l’ordinateur Univac, première technologie à laquelle beaucoup d’industriels n’y croyaient pas encore… Deuxième bousculade, la micro-informatique avec la chute du coût et du volume des composants, suivi de l’accroissement de la convivialité de l’informatique rendant possible l’interface homme/machine. Le triomphe de la « mini » s’accentue par le développement de la miniaturisation de la capacité de mémoire, au profit néanmoins de Microsoft et Intel. La puissance de la machine permet de traiter des informations non seulement de manière quantitative, mais également dans sa partie qualitative (interfaces graphiques, logiciels…), sans oublier la mise en œuvre de systèmes d’information (SI) rendus plus complexes et les réductions des délais de traitement… Et le versant négatif ? Le lobbying « centralisateur » qui, selon l’auteur, menace les informaticiens internes, encourageant les SI de grande envergure créant des monstres informatiques (GAFAM). Tout ceci est en effet paradoxal : comment lutter contre les GAFAM si on passe notre temps à les engraisser ? Enfin, la dernière bousculade contemporaine : le principe dominant de massification des données, de centralisation et mondialisation financière qu’il nomme « MATRIX », un hommage éponyme aux réalisatrices Lana Wachowski et Lilly Wachowski, sur une métaphore simple : un internet mondial qui devient cet espace virtuel sur lequel des millions d’individus se branchent et se connectent pour façonner ensemble une réalité alternative… MATRIX remplacerait ainsi la réalité par le virtuel, tout un programme ! Et Bruno Lussato en parle ouvertement « Notre avenir dépend de la révolution informatique ».
Le perceptron : aux origines de l’intelligence artificielle
L’intelligence artificielle (IA) et l’apprentissage automatique (machine learning) sont omniprésents aujourd’hui. Mais en réalité, tout a commencé avec un concept simple et élégant : le perceptron. Inventé en 1958 par Frank Rosenblatt, ce modèle est considéré comme l’un des premiers algorithmes d’apprentissage supervisé. En effet, le Perceptron a été l’une des premières réalisations concrètes montrant qu’il était possible d’entraîner une machine à prendre des décisions à partir de données. Il s’agissait d’un « simulateur d’intelligence » à qui il aurait été enseigné, au début des années 70, « différentes composantes du comportement humain ». Mais de quoi parle-t-on aujourd’hui, alors que nous sommes bien loin des empilements d’algorithmes gourmands en données… ? L’anecdote qui suit le démontre amplement. Voilà une dizaine d’années, un groupe de chercheurs essaya d’enseigner à un simulateur d’intelligence les différentes composantes du comportement humain. On lui fit assimiler les notions de foyer, de travail, d’amour, d’amitié, de vie et de mort. La masse de ces renseignements était considérable et le temps passé à les lui communiquer ne l’était pas moins… Soudain, alors que rien ne le laissait prévoir, la machine écrivit sur l’écran, de son propre chef, le message suivant : « Désormais, la vie n’est plus tenable pour moi. Je suis pris dans un faisceau de contradictions absolument insurmontables [personne ne lui avait demandé d’écrire un pareil texte !]. Ma femme m’a quitté, ma mère ne m’aime plus, j’ai perdu mon travail, mes amis se détournent de moi. Je n’y tiens plus. Excusez-moi de vous laisser ainsi derrière moi. » Et, d’un seul coup, la machine détruisit tout ce qu’on lui avait patiemment injecté : toutes les informations, toutes les consignes réduites à néant ! Sans demander l’avis de personne, la machine s’était fait hara-kiri. Et elle n’était pas de ceux qui ratent leur suicide…La machine avait effacé les informations contenues dans sa mémoire ! Entre conscience humaine et reproduction de conscience, la frontière était ténue.
Le perceptron : de la cellule cérébrale aux réseaux de neurones
Perceptron est un algorithme destiné à la classification binaire. Il gère plusieurs entrées, les pèse, les somme et passe le résultat à travers une fonction (généralement une fonction de marche) pour produire une sortie de 1 ou 0. En essence, il s’agit d’une représentation simplifiée d’un neurone, où les entrées sont les dendrites, les poids sont les synapses, et la sortie est le signal du neurone. Un perceptron, c’est comme une petite cellule cérébrale dans un réseau neuronal : il reçoit des infos, fait des calculs, et prend une décision. La fonction de perte, c’est ce qui lui dit à quel point sa décision était mauvaise : « Holà, c’était complètement faux, recommence. » Il apprend ainsi en minimisant cette erreur avec le temps. Comprendre le concept de réseau de neurones artificiels est essentiel. Comme vous le savez sans doute, le cerveau humain est constitué de milliards de neurones. Ces neurones sont des cellules nerveuses interconnectées, et permettent le traitement et la transmission de signaux chimiques et électriques. Il s’agirait ici d’observer des neurones artificiels cherchant à imiter le fonctionnement des neurones du cerveau, une fonction mathématique basée sur un modèle de neurones biologiques et dans chaque réseau de neurones, on distingue la couche d’entrée, la couche de sortie, et différentes couches cachées. Les données sont transmises d’une couche à l’autre par des liens de connexions. La Machine Learning est aujourd’hui au cœur des formations Data pour maîtriser des programmations telles Python. Mais alors, qu’est-ce que l’IA aujourd’hui avec Perceptron ? Un « connexionniste de neurones » ou la revanche des neurones humano-artificiels… ?
Les « dé-conseils » et attitudes nouvelles
La rédaction n’ose apporter ses commentaires, mais plutôt une réflexion distancée et puissante comme celle que professait Raymond Aron, une pensée solide par laquelle nous pourrions conclure : « L’activité humaine décisive […] détermine la représentation générale de l’histoire ». Malraux donne pour fin à l’aventure humaine la création d’œuvres d’art. Ici, la machine rivalise avec la poésie, frôle la rêverie d’une page à l’autre – pour le chrétien, la fin ultime de l’histoire humaine est le salut des âmes.
Véronique LA ROSA












