Variation culturelle et fragmentation de l'environnement symbolique.
Résumé
Quoiqu’on puisse peut-être encore quelques temps les considérer comme incommensurables avec les créations culturelles humaines, les nouveaux artefacts pseudo-culturels non humains issus des méthodes d’apprentissage profond ont ceci d’inédits qu’ils peuvent être produits à échelle industrielle et pourront bientôt surpasser en nombre les créations humaines.
Ces objets pseudo-culturels, auxquels s’ajoutent leurs pendants sociaux (profils artificiels, bots, communautés humaines à la cohésion assurée par des algorithmes, communautés de profils hybrides d’IA et d’humains, etc.) participent d’une chimérisation de l’environnement symbolique dont on évalue difficilement les conséquences à moyen et long termes : s’il est possible de générer tous les objets pseudo-culturels possibles, s’il est possible de confiner les populations dans des communautés, nous orienterons-nous vers une problématique du partage de biens culturels (communs et produits) plutôt que d’une culture commune partagée ?
La fragmentation culturelle, bien plus encore que la génération de contenus malveillants (fake news, trolls industrialisés), apparait en effet comme un des principaux dangers visibles de l’IA générative, non parce qu’elle en porterait dans son ADN les principes, mais en raison de la convergence des agendas scientifique et économique qui président à son essor. Ils reposent tous deux sur une volonté assumée de satisfaire tous les individus appréhendés comme des usagers (ou des clients). L’examen de la littérature scientifique en traitement automatique des langues atteste en effet que l’enjeu actuel n’est pas tant les performances génératives que la diversification de l’offre pour une mise en conformité culturelle des contenus aux usagers-cibles (culture LLM, annotations perspectivistes, impact du framework professionnel DEI – Diversity, Equity, and Inclusion, etc.) car contrairement aux idées reçues, l’IA générative ne s’affranchit pas complètement de l’étape décisive du pré-traitement des données d’entrée, lesquelles conditionnent les sorties en dépit de l’opacité des traitements.
Selon cette lecture, le danger de la génération par IA ne serait pas de concurrencer l’expression culturelle humaine mais d’attenter à l’organisation sociale. Elle conduit à envisager la problématique en termes d’encerclement cognitif et l’inscrit dans le champ de la « guerre cognitive », c’est-à-dire l’étude des offensives destinées à transformer irrémédiablement la manière de penser de populations afin de les affaiblir ou les rendre sensibles à de nouvelles idées.