creation_ai
d'après "La Création d'Adam", par Michel Ange. Source partielle: PNG Mart (Auteur inconnu)
Avertissement:

Cette page est en cours de rédaction (et en l'état assez peu avancée).

Certaines des formulations présentes dans cette page doivent être considérées plus comme des hypothèses de travail que comme des conclusions corroborées par des faits, compte tenu de la faible disponibilité des données pertinentes qui tiennent du secret commercial. Par ailleurs ce sujet évolue rapidement et certains éléments pourraient mériter une actualisation.

Il est difficile définir le terme "intelligence artificielle" d'autant que le premier terme "intelligence" est lui même quasiment indéfinissable (1). Une pirouette consiste précisément à définir l'IA comme la réalisation par une machine de tâches considérées comme exigeant des processus mentaux de haut niveau tels que ceux que les humains peuvent mettre en œuvre (Minsky, 1972), ce qui demande à définir l'intelligence...

Cependant, même si certaines recherches concernant l'IA peuvent avoir comme objet de comprendre les processus cognitifs mis en œuvre par les être vivants l'IA ne se limite pas à imiter ces processus; d'une certaine façon, c'est le résultat qui compte.

Dans l'état une machine susceptible d'accomplir (ou d'imiter les résultats de) l'ensemble des processus mentaux de haut niveau n'existe pas (et n'est sans doute pas près d'exister ?), par contre les machines spécialisées sont nombreuses:
- les agents conversationnels se sont beaucoup développés récemment (leurs prémices se contentaient de traduire d'une langue à une autre ou entre l'écrit et l'oral): leur but est de produire un discours répondant à des demandes elles même formulées sous forme d'un discours. Ils bénéficient d'une forte visiblité dans la mesure où on a toujours considéré que le langage était le propre de l'Homme (2) et qu'il est le support de la pensée abstraite;
- l'analyse et la production d'images, éventuellement animées (une prémice est représentée par la reconnaissance faciale ou l'identification d'objets);
- l'écriture musicale, la reproduction de la voix;
-

"Eliza" est un des premiers agents conversationnels ; il a été créé en 1966 par Joseph Weizenbaum. C'est un agent "fermé" dont tous les algorithmes sont programmés au départ pour simuler un psychothérapeute rogérien; ce choix permet au programme de construire des réponses reprenant en miroir les questions de son interlocuteur, ce qui les dispense d'être basées sur un contenu original. Ironiquement, lorsque le programme ne peut construire une réponse élaborée il la remplace par un laconique "je comprends" (alors qu'en fait il n'a pas "compris" grand chose). Une autre manière de décrire Eliza est de considérer que cet agent utilise un corpus de données mots et phrases défini au départ et des algorithmes de traitement. L'agent repére certains mots ou phrases proposés à travers les formulations de l'utilisateur et construit à partir d'autres mots et phrases (et parfois les mêmes) une réponse incitant à poursuivre le dialogue. Données et algorithmes de traitements sont entièrement définis au départ. Ces agents ont été nommés en utilisant les termes de système expert, un vocabulaire moins utilisé de nos jours. Une des limites de cette approche est la nécessité pour un système expert de prévoir toutes les situations ou de trouver une échappatoire face à une situation non gérée; si Eliza s'en sort par un illusoire «je comprend», l'échappatoire pour le pilote automatique d'un avion risque d'être liée à un crash; hors plus les données à traiter sont nombreuses et complexes, moins il est possible d'en faire le tour.

Les agents conversation-nels sont susceptibles de dialoguer de manière assez convaincante avec des humains
L'évolution a consisté à utiliser les potentialités de la machine pour lui permettre de modifier et augmenter elle-même ses données et une partie de ses algorithmes de traitement; cette évolution nécessite une ou plusieurs phases dites "d'apprentissage".

L'auto-modification du traitement est souvent liée à une architecture différente de celle utilisée au début de l'histoire (de l'informatique); l'algorithmique classique se base sur un traitement séquentiel. Un traitement parallèle peut être réalisé par des "réseaux de neurones artificiels" imitant le fonctionnement d'un cerveau biologique; il s'agit plus précisément d'une imitation de la circulation de l'information par une modélisation mathématique (Peyré, ) et non d'une imitation physique du fonctionnement (3), l'architecture restant celle d'une machine de von Neumann. L'information est répartie sur des noeuds du réseau (neurones artificiels) agencés en couches (il existe en fait différents types de neurones formels: linéaires, à seuil, à impulsion, ... et différents types de réseaux correspondant à différent modes de circulation de l'information). Globalement le traitement parallèle permet de modéliser l'apprentissage plus facilement et plus rapidement qu'un traitement séquentiel. L'inconvénient est que le traitement réalisé par la machine devient opaque à un observateur humain et peut ne pas donner de résultats reproductibles.

En prenant l'exemple de Chat GPT, une première phase d'apprentissage consiste à prédire le token suivant (un token est défini comme un morceau de texte: plus finement un mot, une partie d'un mot, ou de la ponctuation). les tokens sont reliés les uns aux autres dans un champ sémantique, par un vecteur ce qu'on peut se représenter comme une sorte d'équation (ex: roi - homme + femme = reine). Après cet entrainement l'outil est capable de produire du texte semblable à celui qui a été proposé dans cette première phase. D'une certaine façon l'ensemble de ces relations pourrait ressembler aux réseaux sémantiques construits par les humains pour représenter visuellement des connaissances, sauf que la machine n'a aucune représentation du sens, elle n'a pas de vision du monde et ses choix sont fondés sur un calcul de la probabilité de réussite. Dans la seconde phase les textes fournis prennent le format d'une requête ce qui oriente l'outil vers la pratique d'un dialogue. La troisième phase consiste à classer les réponses pertinentes et celles qui ne le sont pas. Ce dernier type d'entrainement se poursuit en phase d'exploitation, l'utilisateur étant invité à exprimer sa satisfaction ou son insatisfaction par rapport à la réponse de la machine (pouce levé ou abaissé).

Globalement, la réussite s'appuie sur une énorme base de textes analysés et représentés, que finalement seule la machine peut se représenter et traiter, alors qu'Eliza s'appuyait sur une base de mots bien plus limitée mais dont l'utilisation conçue par le programmeur était plus performante. La nature du fonctionnement n'est pas fondamentalement différente.

La mise à disposition des utilisateurs potentiels d'outils généralistes susceptibles de modifier en profondeur les pratiques d'évaluation et d'entrainement (des élèves et des enseignants) ne peut évidemment être ignorée par un site comme Didac-TIC dont les pages d'annales de sujets de baccalauréat bénéfient d'une fréquentation considérable.

() Définir l'intelligence renvoie à une conception du monde. Les différentes cultures ont en ce domaine des réponses très différentes.

() Il faudrait alors ajouter un nouveau démenti à l'analyse freudienne des revers subits par l'égoïsme naïf de l'humanité: la Terre n'est pas le centre de l'univers; l'Homme n'a pas une place privilégiée dans l'ordre de la création... (Sigmund Freud, Introduction à la psychanalyse, 1916).

() Quelques processeurs ont cependant été conçus et gravés dans le silicium en utilisant une structure en réseau comme le ZISC (1995). Les memristors (2008) pourraient aussi être utilisés pour construire des réseaux de neurones plus proches du fonctionnement biologique qu'une modélisation mathématique sur un ordinateur classique.

↑ Leïla Marchand. 2022. ChatGPT : plongée dans les entrailles du chatbot qui bouleverse la tech. Les Echos.

↑ Gabriel Peyré. Les mathématiques des réseaux de neurones.

IA et baccalauréat ↑ 

Nous nous sommes livrés à quelques évaluations de la pertinence des réponses de certains agents de conversation (chatbots) généralistes. Ces évaluations ont été réalisés avec comme seules données fournies celles de la question posée (le prompt). Il est peu probable que ces outils généralistes disponibles sur le web aient étés entrainés spécifiquement sur le domaine que constitue la question de type 1 du baccalauréat de spécialité SVT (les résultats obtenus sont cependant loin d'être déshonorants). En conséquence, d'une part les performances de ces outils dans le domaine qui nous intéresse pourraient facilement être améliorées par un entrainement spécifique, d'autre part en absence de cet entrainement, l'utilisation de ces outils constitue une absudité extraordinairement coûteuse en moyens et en énergie. Certains agents conversationnels disponibles sur le web offrent la posibilité de les entrainer, ce qui consomme très certainement mois de ressources.

Corrigé de la question 1 du sujet donné le 19 juin 2024 en métropole, de la question 1 du sujet donné le 20 juin 2024 en métropole.

L'utilisation de ces agents pour répondre à l'exercice 2 du baccalauréat est moins évidente dans la mesure ou il s'agit d'analyser un ensemble de documents qui peuvent se présenter sur forme de textes, de tableaux, de diagrammes ou graphiques (images), de schémas.

Avec certains outils comme ChatDOC il est possible charger le sujet entier (ou mieux la seule question 2) pour ensuite préciser ce qui est attendu sous forme de questions posées. La source principale de données de ChatDOC est un document .pdf. Cet agent est capable de suggérer lui-même des questions. Sans surprise il le fait pour les documents qu'il a le plus de facilités à analyser. Il peut facilement résumer un texte ou fournir une déduction satisfaisante à partir d'un tableau de données. L'analyse des images est payante.

Les sujets de baccalauréat comportent de nombreuses images (graphiques, parfois des shémas fonctionnels), mais si un logiciel peut facilement proposer une variété de graphiques construits à partir d'un tableau de données (n'importe quel tableur le fait et on ne parle même pas d'IA), l'inverse est complexe: dans un sujet de bac les images sont des bitmap (images par points) c'est à dire que la structure des illustrations est perdue (et avec elle les données qui ont permis de générer ces illustrations). Le plus rapide pour traiter un exercice de baccalauréat de type 2 avec l'aide d'un agent conversationnel serait sans doute de rédiger soi-même un texte structuré sur une analyse document par document puis de demander à l'agent d'en faire une synthèse, ce qui contourne tout ce qui concerne la reconnaissance d'image (à suivre).

Stuart Russell & Peter Norvig. 2022. Artificial Intelligence: A Modern Approach, 4th US ed.

arxiv.org/abs/2409.00729

"Le Chat"
Developpé par la société française Mistral, il est évidemment particulièrement performant en français.

"ChatGPT"
L'un des agents conversationnels les plus connus, développé par Open AI, une société américaine. Le statut et les liens commerciaux de la société sont très évolutifs et ont donné lieu à de multiples controverses: Elon Musk, l'un de ses fondateurs l'a quitté, John Schulman aussi. Microsoft y a beaucoup investit et en 2024 un partenariat est développé avec le Pentagone.

"ChatDOC"
Une interface développée par Open AI orientée vers l'analyse des documents PDF en utilisant les outils de la même société (GPT-4o, DALL-E).

Ethique, politique, respect des données personnelles ↑ 

Comme de nombreux outils disponibles gratuitement sur le web, nombre d'agents intelligents sont opaques sur l'utilisation des données personnelles. Au mieux l'outil utilisera les questions posées pour s'entrainer et enrichir ses bases de données, au pire...

La plupart de ces outils sont fournis par des entreprises basées au Etats-Unis; par les temps qui courent ce point doit plus que nous interroger.

Une limitation partielle de l'intrusion de ces outils dans vos donnéers personnelles est praticable en utilisant un intermédiaire: DuckDuckGo (une société privée capitaliste basée aux Etats-Unis et liée à Microsoft, Amazon et eBay !) offre un moteur de recherche alternatif (utilisant ou non l'indexation de Google), mais aussi une interface garantissant la non utilisation des conversations par les agents conversationnels vers lesquels, elle transmet les requêtes (GPT-4o, Llama 3.3, Claude 3, o3-mini, Mistral), l'absence d'identification (connection) de l'utilisateur et le non enregistrement de l'adresse IP (Duck AI).

Toute entreprise basée en Europe offre évidemment de meilleures garanties de respect de la législation européenne sur le respect des données personnelles qu'une entreprise américaine ou chinoise. Une incitation à encourager l'entreprise française "Mistral" dont l'agent conversationnel est directement accessible par l'interface web "Le Chat". Les reproches fait à l'Europe sur une protection des données (qui constituerait une entrave à la liberté d'entreprendre) par certains citoyens des Etats-Unis (au nom d'un libertarisme exacerbé) appellent des réponses fermes de notre part dans nos actions quotidiennes. A vous d'agir.

A noter aussi que le moteur de recherche sur le web "Qwant" derrière lequel est une société française, utilise l'IA pour présenter une information directe en rapport avec les liens (redirections sur des sites web) présentés ensuite. Un gros reproche que j'ai à faire à Qwant est qu'il indexe très mal le site Didac-TIC; Qwant s'appuie aussi beaucoup en l'état sur l'indexation du web par Bing (Microsoft).

2018. RGPD: de quoi parle-t-on ? CNIL.
RGDP: Réglement Général sur la Protection des Données Personnelles. Une présentation claire et officielle du problème.

2018. Duck AI ou duck.ai
Un intermédiaire qui protège partiellement nos données personnelles tout en nous laissant dépendants des Etats-Unis; inutile si vous utilisez Le Chat (Mistral AI).

Adresse de cette page: http://www.didac-tic.fr/ai/index.php