index - Confiance.ai Accéder directement au contenu

Un collectif français d’envergure inédite pour concevoir et industrialiser des systèmes à base d’intelligence artificielle de confiance

Une stratégie nationale au service de l’ingénierie française

Pilier technologique du Grand Défi « Sécuriser, certifier et fiabiliser les systèmes fondés sur l’intelligence artificielle » lancé par l’Etat, Confiance.ai est le plus gros programme de recherche technologique du plan #AIforHumanity qui doit faire de la France un des pays leader de l’intelligence artificielle (IA)

Relever le défi de l’industrialisation de l’IA

Le déploiement à très grande échelle de systèmes industriels intégrant de l’IA est un enjeu crucial de compétitivité industrielle, économique et de souveraineté nationale. Le programme Confiance.ai porte donc une ambition forte : lever les verrous associés à l’industrialisation de l’IA et doter les acteurs industriels français de méthodes outillées adaptées à leurs ingénieries et construites sur des bases technologiques indépendantes. L’originalité du programme repose sur sa stratégie intégrative : il traite les défis scientifiques relatifs à l’IA de confiance et apporte des solutions tangibles, applicables dans le monde réel et industrialisables.

Fédérer les forces vives

Le programme Confiance.ai rassemble un collectif d’acteurs académiques et industriels français majeurs des domaines de la défense, des transports, de l’industrie manufacturière et de l’énergie qui ont décidé de mutualiser leurs savoir-faire scientifiques et technologiques de pointe. Le programme s’appuie sur une ingénierie et une culture mathématiques fortes associée à une excellence en intelligence artificielle pour établir de manière solidement argumentée la confiance dans les systèmes. Il est en cela, le symbole de l’approche culturelle française en matière de validation de l’intelligence artificielle.

 

Dernières publications

 

Mots-clés

AI-Based Systems Data Stream Processing Explicability Trustworthiness Attributes Computer vision Robustesse Artificial Intelligence Neural ODEs Engineering Processes Deep learning Computer Vision and Pattern Recognition Trustworthiness Assessment Distributed learning Counterfactuals Assurance case Adversarial attack Bayesian Optimization Distributed Machine Learning Data trustworthiness Fiabilité Conformal prediction Calibration Arcadia Method AI-Systems Engineering Federated Learning Bias Detection FOS Computer and information sciences AI-Based Critical Systems Evaluation Sûreté Embarqué Automated vehicle Robustness Branch-and-Bound algorithm Computer Vision AI engineering Complexity Explainability Attack transferability Bayesian inference Adversarial examples Anomaly Detection Adversarial Attacks Explainable AI Data Quality System Identification Concepts Generative Models Data Analysis Neural network Anomaly detection Artificial intelligence Recurrent Neural Networks Embedded AI Decision tree Enalty Bayesian Neural Networks Cryptography and Security Critical systems Adversarial Training Mixed Integer Programming GPU Explicabilité Semantic segmentation Sûreté de fonctionnement Deep neural network classifiers Data-driven reachability Neural Network Christoffel functions AI System Characterization Distribution based method Case-based Data Stream Data Visualization AI Machine Learning Confiance Adversarial physical attack AI component evaluation methodology Contextual Evaluation XAI Confiance explicabilité Conformal Prediction Monitoring AI-based systems Adversarial attacks Fault detection Reliability Explanations Example-based Long Short-Term Memory ODD Custom search space Anomaly Intelligence Articifielle Fault tolerant systems Deep Reinforcement Learning Realization theory Fault tolerance Cycle-accurate simulator Deep Reinforcement Learning Robustness Adversarial Attacks Adversarial Training