index - Confiance.ai Accéder directement au contenu

Un collectif français d’envergure inédite pour concevoir et industrialiser des systèmes à base d’intelligence artificielle de confiance

Une stratégie nationale au service de l’ingénierie française

Pilier technologique du Grand Défi « Sécuriser, certifier et fiabiliser les systèmes fondés sur l’intelligence artificielle » lancé par l’Etat, Confiance.ai est le plus gros programme de recherche technologique du plan #AIforHumanity qui doit faire de la France un des pays leader de l’intelligence artificielle (IA)

Relever le défi de l’industrialisation de l’IA

Le déploiement à très grande échelle de systèmes industriels intégrant de l’IA est un enjeu crucial de compétitivité industrielle, économique et de souveraineté nationale. Le programme Confiance.ai porte donc une ambition forte : lever les verrous associés à l’industrialisation de l’IA et doter les acteurs industriels français de méthodes outillées adaptées à leurs ingénieries et construites sur des bases technologiques indépendantes. L’originalité du programme repose sur sa stratégie intégrative : il traite les défis scientifiques relatifs à l’IA de confiance et apporte des solutions tangibles, applicables dans le monde réel et industrialisables.

Fédérer les forces vives

Le programme Confiance.ai rassemble un collectif d’acteurs académiques et industriels français majeurs des domaines de la défense, des transports, de l’industrie manufacturière et de l’énergie qui ont décidé de mutualiser leurs savoir-faire scientifiques et technologiques de pointe. Le programme s’appuie sur une ingénierie et une culture mathématiques fortes associée à une excellence en intelligence artificielle pour établir de manière solidement argumentée la confiance dans les systèmes. Il est en cela, le symbole de l’approche culturelle française en matière de validation de l’intelligence artificielle.

 

Dernières publications

 

Mots-clés

Influence Functions Mixed Integer Programming Recurrent Neural Networks Data Quality AI-based systems Adversarial examples Explanations Distributed Machine Learning Adversarial Attacks Complexity Fault tolerance Artificial intelligence Artificial Intelligence Counterfactuals Data-driven reachability Machine Learning Computer Vision and Pattern Recognition Data Visualization Deep neural network classifiers AI System Characterization ODD Intelligence Articifielle Ingénierie algorithmique de l’IA Computer vision Deep Reinforcement Learning Cycle-accurate simulator Anomaly detection Computer Vision Trustworthiness Assessment XAI Adversarial attacks Bayesian inference Robustness Long Short-Term Memory Critical systems Branch-and-Bound algorithm Enalty Bayesian Neural Networks Confiance Sûreté de fonctionnement Sûreté Example-based Embarqué Custom search space Federated Learning Explainable AI Explainability Embedded AI System Identification Generative Models Explicabilité Adversarial physical attack Evaluation Confiance explicabilité Data Analysis Hardware Adversarial Training Engineering Processes Concepts Gas Distribution Monitoring Case-based Arcadia Method Robustesse Fault detection FOS Computer and information sciences Data Stream Processing Neural Network Bias Detection Automated vehicle Christoffel functions AI engineering Explicability Calibration AI-Based Critical Systems Distributed learning Semantic segmentation AI Neural ODEs AI component evaluation methodology Fiabilité Realization theory Attack transferability Conformal Prediction GPU Anomaly Data Stream Fault tolerant systems Distribution based method Deep Reinforcement Learning Robustness Adversarial Attacks Adversarial Training Bayesian Optimization Adversarial attack Neural network AI-Based Systems Contextual Evaluation Conformal prediction Deep learning Trustworthiness Attributes Decision tree Anomaly Detection Cryptography and Security