La machine et l’animal.
Résumé
Comme Yann Le Cun et les principaux mathématiciens qui travaillent à la nouvelle IA l'ont très bien expliqué (voir le débat au Collège de France : Le travail au XXIème siècle : Droit, techniques, écoumène), les travaux qu’ils mènent se basent presque entièrement sur des « recherches d’optima ». Il s’agit de méthodes largement empruntées à la physique mathématique (ondelettes, renormalisation...) et énormément enrichies par le talent d’une très grande quantité de chercheurs à travers le monde. L’IA dite générative, comme les Large Language Models (LLM ou ChatGPT et similaires), utilise aussi différentes théories des graphes aléatoires, qui reposent sur des méthodes d'optimalité spécifiques (optimized trade-off, maximal coupling…) conjointes à des statistiques. Dans le numérique en général, les applications vont de l'analyse et de l'administration des réseaux Internet aux applications d'IA les plus récentes, dont les LLM. Les résultats peuvent être tout à fait imprévisibles, comme la plupart des phénomènes émergents en physique. Nous esquisserons la différence entre l'imprévisibilité des nombreux phénomènes émergents décrits dans l'inerte et la production de nouveauté dans l'état vivant de la matière. Les premiers, produits sur la base de critères de maximalité ou de probabilités (le plus grand nombre de connexions, les chemins les plus courts dans un graphe… parfois avec un peu d’aléatoire ajouté de l’extérieur), obligent à suivre des moyennes ou émergent conformément à des champs moyens. On laissera à l’auditoire le soin de discuter de la comparaison possible avec la cognition animale (ou humaine).