Sommaire
L'explosion de l'IA generative avec ChatGPT, Midjourney, DALL-E et Stable Diffusion a pose un defi majeur au legislateur europeen. L'AI Act y repond avec un cadre specifique pour les modeles d'IA a usage general (GPAI) et des obligations de transparence renforcees.
L'IA generative dans l'AI Act
L'AI Act ne classe pas directement l'IA generative dans une categorie de risque unique. Au lieu de cela, il introduit le concept de "General Purpose AI" (GPAI) — des modeles capables de realiser une variete de taches sans avoir ete conçus pour un usage specifique.
ChatGPT (OpenAI), Claude (Anthropic), Gemini (Google), Mistral et d'autres modeles de fondation entrent dans cette categorie. Les obligations varient selon que le modele est considere comme presentant un "risque systemique" ou non.
blog_article10_info_text
Classification des modeles GPAI
L'AI Act distingue deux categories de modeles GPAI :
blog_article10_tool1_title
blog_article10_tool1_desc
blog_article10_tool2_title
blog_article10_tool2_desc
blog_article10_tool3_title
blog_article10_tool3_desc
GPT-4, Gemini Ultra et les modeles de grande taille sont susceptibles d'etre classes "a risque systemique". Les modeles plus petits ou specialises relevent generalement de la categorie standard.
Obligations de transparence (Article 50)
L'Article 50 de l'AI Act impose des obligations de transparence specifiques pour les systemes d'IA generative :
blog_article10_quote
- blog_article10_transparency1
- blog_article10_transparency2
- blog_article10_transparency3
- blog_article10_transparency4
Ces obligations s'appliquent que vous soyez fournisseur du modele (OpenAI, Anthropic) ou que vous l'integriez dans vos propres produits.
Regles specifiques aux modeles GPAI
Les fournisseurs de modeles GPAI doivent se conformer a un ensemble d'obligations techniques et documentaires :
| blog_article10_table_category | blog_article10_table_obligations | blog_article10_table_examples |
|---|---|---|
| blog_article10_row1_category | blog_article10_row1_obligations | blog_article10_row1_examples |
| blog_article10_row2_category | blog_article10_row2_obligations | blog_article10_row2_examples |
| blog_article10_row3_category | blog_article10_row3_obligations | blog_article10_row3_examples |
blog_article10_p4_2
Deepfakes et contenus synthetiques
L'AI Act porte une attention particuliere aux deepfakes. Toute personne qui genere ou manipule des contenus image, audio ou video avec de l'IA doit clairement indiquer que ce contenu a ete genere ou manipule artificiellement.
La creation de deepfakes sans marquage constitue une infraction. Les amendes peuvent atteindre 15 millions d'euros. Les plateformes doivent mettre en place des systemes de detection.
- blog_article10_deepfake1
- blog_article10_deepfake2
- blog_article10_deepfake3
Des exceptions existent pour les usages artistiques et satiriques, mais le principe reste : la transparence est la regle, l'opacite l'exception.
Checklist de conformite IA generative
Utilisez cette checklist pour verifier votre conformite :
blog_article10_tip_text
Votre IA generative est-elle conforme ?
Notre audit evalue la conformite de vos usages d'IA generative et vous fournit un plan d'action detaille.
Demarrer l'audit gratuitL'IA generative est au coeur des preoccupations de l'AI Act. Que vous developpiez ou utilisiez ces outils, la transparence et la documentation sont vos meilleures allies pour rester conforme.