← Retour aux formations Enjeux éthiques et légaux de l’IA générative

Enjeux éthiques et légaux de l’IA générative

Module 6 Débutant ~1 heure

Découvrez les risques et responsabilités de l’IA générative : biais, RGPD, propriété intellectuelle et bonnes pratiques pour un usage responsable.

Objectifs pédagogiques

À l’issue de ce module, les participants seront conscients des risques et responsabilités liés à l’utilisation de l’IA générative. Ils sauront : - Identifier les principaux enjeux éthiques : le risque de biais dans les modèles et leurs outputs, les problèmes de désinformation (deepfakes, infox), le respect de la dignité et le risque de remplacement des emplois, etc. Par exemple, comprendre que les biais présents dans les données d’entraînement peuvent amener l’IA à produire des contenus discriminatoires ou inexacts. - Comprendre les enjeux juridiques et de conformité : la question de la protection des données (s’assurer de ne pas exposer de données sensibles en utilisant un service cloud d’IA, conformité RGPD), la propriété intellectuelle des contenus générés (droits d’auteur sur une image ou un texte produit par IA), et la réglementation à venir. On évoquera notamment les initiatives comme le projet de règlement AI Act de l’UE sur l’intelligence artificielle et ses dispositions concernant l’IA générative. - Adopter de bonnes pratiques pour une utilisation responsable de l’IA : validation humaine des contenus générés, transparence vis-à-vis des utilisateurs (indiquer qu’un texte a été produit par IA), éviter les usages contraires à l’éthique de l’entreprise, etc.

Prérequis

Aucun prérequis technique. Module accessible à tous, bien que la compréhension des mécanismes de base (Module 1) aide à saisir l’origine de certains problèmes (biais, hallucinations…).

Format & méthodes pédagogiques

Table ronde interactive. Ce module peut se faire en présentiel ou en visioconférence avec un outil favorisant les échanges (par ex. sondages en direct, chat). - Le formateur introduit chaque sous-thème avec quelques diapositives ou exemples concrets : p.ex. il montre une image générée controversée, ou cite un incident (une IA conversationnelle ayant tenu des propos déplacés) pour lancer la discussion. - Les participants sont encouragés à partager leurs réactions et questions. Des cas pratiques brefs peuvent être proposés : « Un collaborateur utilise ChatGPT pour rédiger une offre commerciale et y insère sans le savoir des informations confidentielles, quels sont les risques ? » – le groupe discute des implications et propose des solutions (former l’employé, paramétrer des restrictions, etc.). - Un focus est fait sur la législation : le formateur résume les obligations légales actuelles (RGPD concernant les données personnelles, droit d’auteur…) et les évolutions à venir (par ex. le futur AI Act européen). - Des mini-quiz dilemmes peuvent être utilisés : le formateur pose une situation et des choix (A ou B), les participants votent sur ce qu’ils feraient, puis on révèle la bonne pratique recommandée.

Modalités d'évaluation

Évaluation surtout formative et participative : - Durant la session, le formateur pose des questions ouvertes pour vérifier la compréhension (« Pourquoi est-il important de vérifier une réponse de l’IA avant de la publier ? »…). La pertinence des réponses permet d’estimer l’assimilation. - En fin de module, un petit quiz individuel peut être proposé (par ex. 5 questions à choix multiple ou vrai/faux sur les points clés : « Peut-on librement utiliser une image générée par IA à partir d’un prompt reprenant un personnage sous copyright ? »). - Un tour de table final peut servir d’auto-évaluation réflexive : chaque participant cite une précaution qu’il s’engage à prendre dans son usage de l’IA. Cette restitution garantit que chacun a retenu au moins un enseignement pratique du module.

Réserver cette formation →