Composante
Formation continue Panthéon-Sorbonne (FCPS)
Présentation
Cette formation permet d’acquérir les fondamentaux juridiques, opérationnels et techniques nécessaires au bon déploiement d’un système d’IA. La réglementation européenne définie un cadre spécifique d’obligations en fonction du risque du système et de l’opérateur concerné. La formation est une initiation pour comprendre et être à jour du cadre réglementaire autour de la mise en conformité d’un système d’IA à haut risque et des différentes mesures applicables aux autres types de systèmes d’IA.
La mise en œuvre de ces règles ne doit cependant pas plonger les acteurs économiques dans l’insécurité juridique ni entraver l’innovation.
Prochaines sessions (sous réserve d'un nombre suffisant d'inscrits) :
24 et 25 octobre 2025 - en présentiel
19 et 20 décembre 2025 - à distance
Les inscriptions sont ouvertes.
Inscriptions : formations.courtes1@univ-paris1.fr
Objectifs
Cette formation a pour objectif de comprendre et d’appréhender les dispositions prévues par le Règlement sur l’intelligence artificielle (RIA), publié le 12 juil. 2024 et entrant en application le 02 août 2026, relatif à la mise sur le marché ou la mise en service de systèmes d’IA, et les différentes obligations nécessaires de mettre en œuvre au sein des administrations, des entreprises et de toutes entités souhaitant déployer des systèmes d’intelligence artificielle, voire utiliser des modèles d’intelligence artificielle générative (telle que ChatGPT, DeepSeek, Gemini, Mistral, etc.).
Savoir-faire et compétences
- Connaissance du cadre juridique relatif aux systèmes d’IA (SIA) ;
- Étude de la notion de système d’IA, en fonction du risque et des différents rôles ;
- Maîtrise des grands principes du RIA, dont les SIA à haut risques et ceux interdits ;
- Connaissance des obligations applicables aux modèles d’IA (not. IA génératives) ;
- Connaissance des obligations de transparence applicables à certains systèmes d’IA ;
- Acquisition d’une vision stratégique et opérationnelle en matière de gouvernance de la démarche intégrée à une personne morale.
Les + de la formation
Plus de 80 % de nos intervenants sont des professionnels du secteur.
Organisation
Membres de l’équipe pédagogique
M. Bertrand CASSAR, responsable pédagogique, docteur en droit, co-directeur des diplômes universitaires « Transformation numérique du droit » et « Data / IA, Droit du numérique » à l’université Paris 1 Panthéon-Sorbonne
Contact : bertrand.cassar @ univ-paris1.fr
M. Yannick MENECEUR, magistrat, maître de conférences associé en droit du numérique à l’université de Strasbourg
Éventuel : Me Pascal ALIX, avocat, chargé de séminaire en droit de l’IA à l’université Paris 1 - Panthéon-Sorbonne
Programme
Modalités pédagogiques :
Formation de deux jours en présentiel ou en distanciel selon les dates de session.
Tout au long de la formation les stagiaires seront confrontés à des études de cas pratiques. Le dernier jour, un test écrit sur les différents sujets abordés durant la formation sera proposé aux stagiaires.
Une attestation de formation est délivrée à l’issue de la formation.
PROGRAMME
JOUR 1
Présentation générale du RIA - YME
- Le fondement du RIA, les lignes directrices du GEHN IA
- Le RIA, une vision produit et une approche par les risques
- Définition d’un système d’IA, selon l’UE, le Conseil européen, l’Unesco et l’OCDE
- Les principales définitions au cœur du RIA
Classifier un système d’IA en fonction du risque - PAL
- S’assurer de la qualification d’un algorithme en tant que système d’IA
- La pyramide des risques
- Atelier – Identifier différents types d’algorithmes
Définir le rôle d’un opérateur et les obligations y afférents - BCA
- Comprendre le rôle des différents opérateurs d’un système d’IA
- Les obligations des fournisseurs et des déployeurs
- Les autres obligations applicables aux importateurs, distributeurs et mandataires
Les systèmes d’IA interdits - YME
- Les différents types de systèmes d’IA interdits
- Les actions à mettre en œuvre, du décommissionnement à l’alerte auprès des autorités
Les obligations de transparence de certains systèmes d’IA - YME
- Les obligations spécifiques à certains systèmes d’IA pour les fournisseurs ou les déployeurs
- Les systèmes d’IA dit à risque minime et l’usage d’un éventuel code de conduite
- Atelier – Identifier les systèmes d’IA interdits, à haut risque ou ayant certaines obligations
JOUR 2
Définir une gouvernance interne - BCA
- La maîtrise de l’IA, l’humain au cœur du dispositif
- Le soutien à l’innovation au sein du RIA
- Adopter une gouvernance transversale dédiée au différents types de SIA
Les systèmes d’IA à haut risque - BCA
- Les différents types de systèmes d’IA à haut risque
- Les exigences applicables aux SIA à haut risque
- Les principales obligations en fonction du rôle de l’opérateur
Les modèles d’IA à usage général - PAL
- La notion de modèle d’IA à usage général
- La notion de modèle d’IA à usage général présentant un risque systémique
- Les obligations attendues et les interrogations sur les enjeux de PI
- Atelier – Intégration par un fournisseur de système d’IA d’un modèle d’IA à usage général
Les sanctions et l’impact réputationnel - PAL
- Les mesures ou les sanctions administratives
- L’importance de la portée extra-territoriale du RIA
▶ Évaluation : quiz, cas pratiques ou exercices
Admission
Conditions d'admission
Pré-requis :
Formation juridique de niveau Master 1 ou équivalent ou pratique professionnelle en tant que délégué à la protection des données.
Public cible
- Délégués à la protection des données (DPD, Digital Protection Officer [DPO])
- Délégués à l’éthique numérique (DEN, Digital Ethics Officer [DEO])
- Directeurs juridiques
- Avocats, magistrats ou professionnels du droit
- Responsables ou chargés de conformité
- Responsables des services informatiques ou de la cybersécurité (DSI/RSSI)
- Experts concernés par l’un des domaines prévus par l’annexe III du RIA
- Étudiants en droits
Tarifs
1380 €