FFCNCERCERXBD17
Stage inter entreprise
Durée :
2 jour(s)
Présentation
L’objectif de la formation est de doter des juristes ou responsables des risques ou de la conformité des outils nécessaires à la compréhension des technologies d’intelligence artificielle déployées dans leur entreprise ou chez leurs clients, afin de mieux en saisir les implications juridiques et éthiques.
La formation aborde les problématiques juridiques par des exemples en présentant les principales applications de l’intelligence artificielle ainsi que les risques et les questions qu’elle suscite. Les concepts de traitement des données personnelles, loyauté, biais, discrimination, explicabilité et responsabilité feront l’objet d’une attention particulière.
Objectifs
- Prendre en compte l’histoire et le contexte du développement de l’intelligence artificielle
- Identifier la terminologie employée
- Utiliser les fondamentaux de la technologie
- Identifier les principaux enjeux juridiques et éthiques de l’intelligence artificielle
- Lister les questions juridiques à se poser lors de la construction d’un projet
- Définir une politique de gouvernance des outils d’intelligence artificielle
-
Programme
Introduction
Histoire et contexte
Terminologie
- Big data
- Intelligence artificielle faible / intelligence artificielle forte
- Apprentissage-machine (machine learning)
- Classification/régression
- Données structurées/non structurées
- Apprentissage supervisé/non supervisé, apprentissage par renforcement
- Variables, vecteurs, étiquettes
Principaux modèles d’apprentissage : approche pour non scientifiques
- Régression linéaire
- Régression logistique
- Arbres de décision
- Forêt aléatoire d’arbres
- Réseaux de neurones
- Apprentissage par renforcement
- Large language models (ChatGPT)
Construction d’un modèle d'apprentissage et points de vigilance juridiques et éthiques
Cas d’usage de l’intelligence artificielle
- Automatisation des processus
- Reconnaissance de caractères
- Traitement du langage naturel (NLP)
- Chatbots/agents conversationnels
- Apprentissage-machine (machine learning)
L’IA abordée par l’expérimentation : cas pratique pour non scientifique
Principales problématiques juridiques et éthiques de l’intelligence artificielle
- Traitement des données personnelles
- Loyauté, biais et discrimination
- Responsabilité
- Explicabilité
- Risque particuliers de modèles dits « de fondation »
Cadre réglementaire actuel et orientations sur le cadre à venir : règlement IA Act européen, Principes et chartes éthiques internationales
Cas d’usage et les problématiques juridiques soulevées
- Credit scoring
- Reconnaissance faciale
- Conseil en investissement
- Conformité (lutte contre la fraude et l’anti-blanchiment)
Définir une politique de gouvernance des outils d’intelligence artificielle
- Cartographie des risques liés à l’intelligence artificielle
- Intégration de l’éthique « by Design »
- Création d’un comité de gouvernance de l’IA et nomination d’un dirigeant responsable
- Réalisation d’audits
- Formalisation du processus par l’établissement de règles internes écrites
Synthèse et conclusion
-
Points forts
Formation donnant à travers des cas concrets et des exemples les bases pour identifier les concepts technologiques clés et comprendre les enjeux juridiques de l'intelligence artificielle.
-
Modalités pédagogiques
Les enseignants privilégient une approche interactive (dialogue socratique) et les études de cas, avec un niveau de participation élevé des étudiants. Les enseignements seront en français, mais l’anglais sera très présent.
-
Public cible et prérequis
La formation s’adresse aux avocats, juristes, responsables et membres des équipes risques ou conformité.
Aucun prérequis en matière scientifique n’est requis, l’objectif de la formation étant de présenter de façon intuitive la technologie.
-
Responsables
Winston MAXWELL
Directeur d’études en droit et numérique à Telecom Paris. Il coordonne un groupe multidisciplinaire d’enseignants chercheurs travaillant sur l’éthique de l’IA. Il est ancien avocat associé, notamment chez Hogan Lovells et siège notamment au comité d’IA éthique du groupe Orange. Il participe aux travaux de l’AFNOR, de CEN/CENELEC et de l’OCDE en matière d’IA de confiance.
Xavier VAMPARYS
Diplômé de l’ESSEC, de l’Université Columbia et du Centre des Hautes Études d’Assurances, il a exercé comme avocat aux barreaux de Paris et New York avant de rejoindre le secteur de la finance. Il est aujourd’hui chargé de mission intelligence artificielle.
Prochaine(s) session(s)
- Du 16/06/2025 au 17/06/2025 à Paris
- Du 11/12/2025 au 12/12/2025 à Paris