FFCNCERCERXBD17

Stage inter entreprise

Prix 2024 :

2 050 €

Comment financer sa formation ?

Durée :

2 jour(s)

Prochaine(s) session(s)

  • Du 18/11/2024 au 19/11/2024 à Paris
  • Du 16/06/2025 au 17/06/2025 à Paris
  • Du 11/12/2025 au 12/12/2025 à Paris

Présentation

L’objectif de la formation est de doter des juristes ou responsables des risques ou de la conformité des outils nécessaires à la compréhension des technologies d’intelligence artificielle déployées dans leur entreprise ou chez leurs clients, afin de mieux en saisir les implications juridiques et éthiques.

La formation aborde les problématiques juridiques par des exemples en présentant les principales applications de l’intelligence artificielle ainsi que les risques et les questions qu’elle suscite. Les concepts de traitement des données personnelles, loyauté, biais, discrimination, explicabilité et responsabilité feront l’objet d’une attention particulière.

Objectifs

  • Prendre en compte l’histoire et le contexte du développement de l’intelligence artificielle
  • Identifier la terminologie employée
  • Utiliser les fondamentaux de la technologie
  • Identifier les principaux enjeux juridiques et éthiques de l’intelligence artificielle
  • Lister les questions juridiques à se poser lors de la construction d’un projet
  • Définir une politique de gouvernance des outils d’intelligence artificielle
  • Programme

    Introduction

    Histoire et contexte

    Terminologie

    • Big data
    • Intelligence artificielle faible / intelligence artificielle forte
    • Apprentissage-machine (machine learning)
    • Classification/régression
    • Données structurées/non structurées
    • Apprentissage supervisé/non supervisé, apprentissage par renforcement
    • Variables, vecteurs, étiquettes

    Principaux modèles d’apprentissage : approche pour non scientifiques

    • Régression linéaire
    • Régression logistique
    • Arbres de décision
    • Forêt aléatoire d’arbres
    • Réseaux de neurones
    • Apprentissage par renforcement
    • Large language models (ChatGPT)

    Construction d’un modèle d'apprentissage et points de vigilance juridiques et éthiques

    Cas d’usage de l’intelligence artificielle

    • Automatisation des processus
    • Reconnaissance de caractères
    • Traitement du langage naturel (NLP)
    • Chatbots/agents conversationnels
    • Apprentissage-machine (machine learning)

    L’IA abordée par l’expérimentation : cas pratique pour non scientifique

    Principales problématiques juridiques et éthiques de l’intelligence artificielle

    • Traitement des données personnelles
    • Loyauté, biais et discrimination
    • Responsabilité
    • Explicabilité
    • Risque particuliers de modèles dits « de fondation »

    Cadre réglementaire actuel et orientations sur le cadre à venir : règlement IA Act européen, Principes et chartes éthiques internationales

    Cas d’usage et les problématiques juridiques soulevées

    • Credit scoring
    • Reconnaissance faciale
    • Conseil en investissement
    • Conformité (lutte contre la fraude et l’anti-blanchiment)

    Définir une politique de gouvernance des outils d’intelligence artificielle

    • Cartographie des risques liés à l’intelligence artificielle
    • Intégration de l’éthique « by Design »
    • Création d’un comité de gouvernance de l’IA et nomination d’un dirigeant responsable
    • Réalisation d’audits
    • Formalisation du processus par l’établissement de règles internes écrites

    Synthèse et conclusion

  • Points forts

    Formation donnant à travers des cas concrets et des exemples les bases pour identifier les concepts technologiques clés et comprendre les enjeux juridiques de l'intelligence artificielle.

  • Modalités pédagogiques

    Les enseignants privilégient une approche interactive (dialogue socratique) et les études de cas, avec un niveau de participation élevé des étudiants. Les enseignements seront en français, mais l’anglais sera très présent.

  • Public cible et prérequis

    La formation s’adresse aux avocats, juristes, responsables et membres des équipes risques ou conformité.

    Aucun prérequis en matière scientifique n’est requis, l’objectif de la formation étant de présenter de façon intuitive la technologie.

  • Responsables

    • Winston MAXWELL

      Directeur d’études en droit et numérique à Telecom Paris. Il coordonne un groupe multidisciplinaire d’enseignants chercheurs travaillant sur l’éthique de l’IA. Il est ancien avocat associé, notamment chez Hogan Lovells et siège notamment au comité d’IA éthique du groupe Orange. Il participe aux travaux de l’AFNOR, de CEN/CENELEC et de l’OCDE en matière d’IA de confiance.

    • Xavier VAMPARYS

      Diplômé de l’ESSEC, de l’Université Columbia et du Centre des Hautes Études d’Assurances, il a exercé comme avocat aux barreaux de Paris et New York avant de rejoindre le secteur de la finance. Il est aujourd’hui chargé de mission intelligence artificielle.

Prochaine(s) session(s)

  • Du 18/11/2024 au 19/11/2024 à Paris
  • Du 16/06/2025 au 17/06/2025 à Paris
  • Du 11/12/2025 au 12/12/2025 à Paris

Vous êtes intéressé(e) et/ou vous voulez procéder à une inscription ?

N'hésitez plus et complétez le formulaire. Nous revenons vers vous ensuite pour répondre à vos questions et/ou compléter votre inscription.
Ordre
  • Participant

  • Participant

  • Participant

Nous sommes également à votre disposition par téléphone

Appelez le +33 (01) 75 31 95 90