Prochaine session état de l’art Machine Learning and Cybersecurity: why and how with scikit-learn les 23 et 24 septembre

Prochaine session executive education Apprentissage automatique, les briques technologiques pour les PME le 25 septembre

Prochaine édition SPOC Impact du numérique sur l’environnement à partir du 29 septembre

Prochaine session deeptech Scikit-learn, la boîte à outils de l’apprentissage automatique avancé les 6 et 7 octobre

Prochaine session deeptech Analyse des données de santé sensibles par l’apprentissage fédéré le 8 octobre

Toutes nos formations

Biais dans les algorithmes IA : du diagnostic à la réparation

 Module état de l'art 
Maîtrisez l'art de détecter et corriger les biais en IA, des données à la discrimination algorithmique, avec une approche théorique et pratique adaptée à vos cas d'usage métier pour une intelligence artificielle plus équitable et performante.

Session:

Aucune session disponible actuellement.

Contactez-nous !

Objectifs

Ambition : appréhender les techniques et méthodes de détections et de réparation des biais dans les algorithmes en IA. Les biais ne sont pas uniquement provoqués par les données d’entraînement, ils peuvent arriver par la segmentation propre aux algorithmes; il faut donc se poser la question de l’identification des biais sans prérequis. Le module intègre une partie théorique pour appréhender ensuite les questions à se poser en partant des cas d’usages de l’entreprise.

Mots-clés : IA, biais.

Connaissances acquises : des méthodes et métriques pour analyser et réparer des biais dans les algorithmes en IA.

Public cible : ingénieurs R&D et chercheurs.

Pré-requis

  • une connaissance générale des biais, de l’IA Act et des principes éthiques ;
  • savoir programmer en Python.

Programme

Partie 1 : Théorie

  • Principes sur les métriques des biais (par exemple : métriques contrefactuelles) et provenances possibles des biais (labellisation, algorithmes, données)
  • Impacts de l’IA Act (juriste ou cellule veille de l’entreprise)
  • Détection : comment identifier des sous populations de façons automatiques, impact sur les organisations
  • Méthodes de réparations : amélioration des jeux de données, régularisation de l’algorithme, corrections post-algorithme
  • Partie 2 : Atelier d’échange sur cas pratiques

    • Présentations des usages et parcours client du système décisionnel (responsables et développeurs de projets de l’entreprise)
    • Sélection d’un cas d’usage et canevas pour un diagnostic amont
    • Atelier red teaming : mise en situation d’audit avec deux équipes

    Conclusions : intégrant des éléments de gouvernance

Intervenant(s)

  • Benoît Rottembourg

    Responsable du projet pilote Regalia à Inria

    Benoît Rottembourg est responsable du projet pilote Regalia, à Inria, depuis 2020. Ce projet vise à fournir un environnement logiciel d’audit des algorithmes des plateformes numériques à destination des autorités de régulation françaises et européennes.

    Titulaire d’un doctorat en mathématiques appliquées de Sorbonne Université et d’un diplôme d’ingénieur en informatique de l’ENSIIE, il commence sa carrière en tant qu’enseignant chercheur à l’ENSTA. Il rejoint le secteur privé en 1998 en dirigeant successivement les équipes de data science du groupe Bouygues, d’Eurodécision et du groupe Maersk au Danemark. Il y développe des logiciels de pricing et de revenue management dans les secteurs du transport, de la distribution, des médias et du loisir.

  • Jean-Michel Loubes

    Directeur de recherche Inria

    Jean Michel Loubes est professeur de Mathématiques Appliquées à l’Institut de Mathématiques de Toulouse, porteur de la Chaire “Fair and Robust Learning” au sein de l’Institut d’Intelligence Naturelle et Artificielle de Toulouse (ANITI).. Il a dirigé l’équipe de Statistique et Probabilités de 2008 à 2012. Il a travaillé sur les méthodes d’estimation et les vitesses optimales en Machine Learning. Ses recherches actuelles portent sur l’application de la théorie du transport optimal en Machine Learning et sur les problématiques de “fairness” et de robustesse de l’Intelligence Artificielle.

    Il a été responsable régional de 2012 à 2017 de l’Agence de Valorisation des Mathématiques du CNRS et siège depuis 2019 au Comité Scientifique de l’Institut des Sciences Mathématiques et de leur Interaction (INSMI) du CNRS.

1 j
750 / pers.

Aucune session disponible actuellement.

Contactez-nous

Informations pratiques

  • Tarif : 750 € par participant ;
  • Tarifs dégressifs à partir de 5 personnes (-10% de 5 à 9 inscrits, -20% plus de 10 inscrits) ;
  • Partenariat avec le pôle Systematic et le pôle Aktantis : les entreprises membres du pôle bénéficient d’un tarif privilégié de 600 € ;
  • Durée : 1 journée (6 heures de 9h à 12h et de 14h à 17h) ;
  • Lieu : uniquement en présentiel ;
  • Nombre de participants : jusqu’à 12 personnes ;
  • Privatisation : La privatisation de cette formation est possible au sein d’une même entreprise à partir de dix participants.