[Formation] Enjeux éthiques de l’intelligence artificielle
Informations
- Code formation : FFCNCERCERXBD16
- Prix : 2 050 €
- Durée : 2 jour(s)
- Stage inter entreprise
-
Prochaine(s) session(s) :
- Du 12/11/2024 au 13/11/2024 à Paris
- Du 19/05/2025 au 20/05/2025 à Paris
- Du 04/12/2025 au 05/12/2025 à Paris
Présentation
IA génératives, destruction d’emplois, robots tueurs, véhicules autonomes, justice prédictive, l’intelligence artificielle génère des angoisses et appelle à un encadrement règlementaire pour garantir son caractère éthique.
Les enjeux éthiques de l’IA concernent une multitude de concepts différents. Tantôt il est question de la discrimination raciale d’un logiciel de recrutement; tantôt de l’avenir de l’humanité face à des robots plus intelligents que les humains. Aussi passionnantes soient-elles, les discussions sur la singularité technologique et l’avenir de l’humanité restent éloignées de la réalité de l’IA d’aujourd’hui même si l’avènement de modèles de très grande taille (du type ChatGPT) soulève de nouvelles inquiétudes.
Objectifs
- Examiner les trois principaux problèmes éthiques et juridiques qui entourent les algorithmes : les biais algorithmiques, l’explicabilité et la responsabilité
- Identifier les enjeux sociétaux tels que l’impact de l’intelligence artificielle sur l’emploi, le copyright, et la démocratie
- Examiner les questions et les solutions techniques, de gouvernance et de régulation qui encadreront l’IA dans différents cas d’usage (santé, transport, finance, justice, défense, administration publique)
- Distinguer les risques et les mesures de protection pour participer à l’élaboration d’une étude d’impact IA éthique d’un système de gestion des risques requis par le futur règlement européen AI Act
- Identifier les outils indispensables à l’implémentation de modèles et d’architectures adaptés aux problèmes considérés
-
Programme
Introduction
- En quoi l’IA est-elle différente d’autres transformations technologiques ?
- Qu’entend-on par « éthique », et quelle est la différence entre l’éthique et le droit (RGPD, droits fondamentaux, devoir de loyauté, etc.) ?
- Rappel des principaux types d’IA : symbolique, apprentissage machine (machine learning), approches hybrides, leurs forces et faiblesses en matière éthique
- Principaux accords et recommandations internationaux sur l’IA éthique :
- Ligne directrice du groupe d’experts (HLEG) de la Commission Européenne
- Recommandation OCDE
- Principes Asilomar
Intelligence artificielle et avenir du travail
- IA et « petites mains » qui étiquettent et nettoient les données
- Trappe Malthusienne, innovation, et effet de l’IA sur l’emploi
Grands sujets pour l’IA éthique
- Biais algorithmiques
- Explicabilité des algorithmes
- Responsabilité
- Cas particulier des modèles de fondation (par ex. ChatGPT)
Cas d’usage
- Voiture autonome
- IA en tant qu’outil de recrutement
- Reconnaissance faciale dans les aéroports
- Détection de fraud eou de criminalité
Comment concevoir une approche éthique « by design » ?
- Solutions technologiques pour intégrer l’équité dans l’algorithme
- Solutions de gouvernance
- Étude d’impact
- Analyse de risques
- Prise de responsabilité interne (accountability)
- Supervision d’autorités de régulation
Synthèse et conclusion
-
Points forts
Formation basée sur la recherche récente permettant d'appréhender les enjeux juridiques et éthiques et les impacts sociétaux de l'intelligence artificielle.
-
Modalités pédagogiques
Les enseignants privilégient une approche interactive (dialogue socratique) et les études de cas, avec un niveau de participation élevé des stagiaires. Les enseignements seront en français, mais l’anglais sera très présent.
-
Public cible et prérequis
Cette formation s’adresse autant aux ingénieurs et data scientists qu’aux responsables data, product owners, responsables innovation et transformation digitale et investisseurs qui seront impliqués dans les projets IA susceptibles d’avoir un impact sur les personnes ou sur la société.
Une formation de base sur le RGPD est souhaitable pour tirer pleinement profit de la formation.
-
Responsables
Winston MAXWELL
Directeur d’études en droit et numérique à Telecom Paris. Il coordonne un groupe multidisciplinaire d’enseignants chercheurs travaillant sur l’éthique de l’IA. Il est ancien avocat associé, notamment chez Hogan Lovells et siège notamment au comité d’IA éthique du groupe Orange. Il participe aux travaux de l’AFNOR, de CEN/CENELEC et de l’OCDE en matière d’IA de confiance.