Menu
25 mars 2025

Newsletter Mars 2025

INTELLIGENCE ARTIFICIELLE

➡️Recommandations de la CNIL relatives au développement d’une IA innovante et responsable en Europe :

Le 7 février 2025, la CNIL a publié deux nouvelles recommandations afin de mettre en place un usage de l’IA qui serait respectueux des données personnelles.

Les entreprises utilisent en effet de plus en plus des systèmes d’IA dans le cadre des ressources humaines, de la gestion, de surveillance ou encore du recrutement. Ces systèmes sont susceptibles d’utiliser les données personnelles des individus.

  1. Recommandations relatives aux obligations d’information des personnes concernées pour le traitement des données dans les systèmes d’IA

  2. Recommandations relatives au respect et à faciliter l’exercice des droits des personnes concernées.

Les systèmes d’IA qui utilisent des données personnelles dans le cadre de l’entrainement de leurs modèles ont l’obligation d’informer les personnes concernées.

La fourniture d’information peut prendre la forme d’information individuelle (courriels ou lettres envoyés pour premier contact, message vocal pré-enregistré, formulaire en ligne) ou d’information générale (bannière sur le site web, panneau d’affichage public).

L’accès à l’information doit être transparent et facile permettant ainsi aux personnes concernées de prendre des décisions éclairées concernant leurs données.

En outre, ces recommandations rappellent l’adaptation nécessaire des entreprises dans le cadre de la transparence et la protection des données de leurs employés.

Il est ainsi recommandé d’adopter des mesures concrètes telles que notamment :

  • Une cartographie des usages de l’IA au sein des locaux ;

  • Une fourniture d’information, dans un but de transparence, afin d’informer les utilisateurs de l’utilisation de leurs données ;

  • Le respect de l’exercice des droits des usagers par les usagers ;

  • Une anonymisation des données dès la conception des modèles d’IA.

Ces recommandations s’inscrivent dans un cadre plus large de régulation de l’IA en Europe visant à assurer un déploiement éthique et responsable de l’IA.

RETOUR D’EXPERTISE FIRSH : FIRSH accompagne ses clients dans le cadre de leur démarche responsable des usages de l’IA. Cette démarche est gagnante tant pour l’entreprise, les collaborateurs que les usagers. La confiance dans l’IA s’acquiert ainsi.

En savoir plus 👉 IA et RGPD : la CNIL publie ses nouvelles recommandations pour accompagner une innovation responsable | CNIL

➡️Rapport de l’OCDE sur les enjeux de la PI face à l’IA entrainée sur des données issues du scraping :

L’essor de l’IA générative repose sur l’utilisation de volumes massifs de données pour entraîner des modèles toujours plus performants. Or, une grande partie de ces données est collectée via des techniques de scraping, soulevant des préoccupations croissantes notamment en matière de droit d’auteur, de protection des bases de données, de marques et de respect de la vie privée.

🔍 Qu’est-ce que le « scraping » ?

L’extraction automatisée de données sur le web et autres sources numériques à l’aide de logiciels ou de scripts. Cette méthode est caractérisée par :

✔️ L’automatisation : récupération rapide et en grande quantité avec peu d’intervention humaine.

✔️ La scalabilité : possibilité d’extraire des données depuis de multiples sources simultanément.

Que propose ce rapport ?

  • État des lieux : des enjeux majeurs à l’intersection de l’IA et de la propriété intellectuelle (PI).

  • Analyse : des différentes techniques de scraping, de leurs usages et des acteurs impliqués.

  • Panorama : des réponses juridiques et réglementaires adoptées à travers le monde.

  • Recommandations : pistes de réflexion pour encadrer ces pratiques tout en favorisant l’innovation technologique.

💡 Principaux enjeux identifiés par l’OCDE :

  • Flou juridique croissant : les législations varient selon les pays, rendant incertaine la qualification juridique du scraping à des fins d’IA.

  • Risque accru de violation des droits de PI : de nombreuses œuvres protégées se retrouvent intégrées dans les jeux de données d’entraînement sans le consentement des ayants droit.

  • Multiplication des contentieux : de grands acteurs de la tech sont aujourd’hui poursuivis pour l’utilisation de données protégées dans l’entraînement de leurs modèles.

  • Besoin de cadre réglementaire et d’outils de protection.

RETOUR D’EXPERTISE FIRSH : FIRSH accompagne de nombreux acteurs de l’IA utilisant le scraping dans le modèle d’entrainement de leur outil afin de s’assurer de la conformité à la réglementation. Une documentation juridique adaptée est clé dans ce type d’activité.

En savoir plus 👉 https://www.oecd.org/content/dam/oecd/en/publications/reports/2025/02/intellectual-property-issues-in-artificial-intelligence-trained-on-scraped-data_a07f010b/d5241a23-en.pdf

➡️Publications par la Commission européenne de deux documents accompagnant la mise en œuvre du Règlement de l’IA :

L’IA Act est la première règlementation au monde visant à encadrer l’intelligence artificielle pour établir un cadre juridique uniforme, en particulier pour le développement, la mise sur le marché, la mise en service et l’utilisation de système d’intelligence artificielle, dans le respect des valeurs de l’Union européenne.

L’ IA Act s’applique à tous les acteurs de la chaîne de valeur du systèmes d’IA et ce même s’ils sont originaires d’un pays hors UE et dès lors que les données de sortie générées par l’IA ont vocation à être utilisées sur le territoire de l’UE

1️ Lignes directrices sur les pratiques interdites en matière d’IA (dispositions entrées en vigueur le 2 février 2025) :

Certaines utilisations de l’IA sont jugées incompatibles au respect des droits fondamentaux, et sont donc prohibées (art. 5 AI Act). Ces lignes directrices détaillent les pratiques interdites par l’AI Act, notamment :

Manipulation cognitive et comportementale : IA exploitant des vulnérabilités psychologiques pour influencer les décisions des utilisateurs de manière nuisible ;

Notation sociale : l’évaluation des citoyens par des autorités publiques sur la base de leur comportement social ou d’autres critères non pertinents ;

Reconnaissance biométrique en temps réel dans l’espace public : l’utilisation d’outils d’identification faciale par les forces de l’ordre, sauf rares exceptions strictement encadrées.

En savoir plus 👉 https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-prohibited-artificial-intelligence-ai-practices-defined-ai-act

2️ Recueil de pratiques de maîtrise de l’IA, résultant d’une enquête auprès des organismes signataires du Pacte sur l’IA.

Ce recueil vise à encourager les bonnes pratiques et l’échange entre les fournisseurs et les déployeurs de systèmes d’IA ; et contribue à la mise en œuvre de l’article 4 du Règlement sur l’IA.
Il sera mis à jour régulièrement.

En savoir plus 👉 https://digital-strategy.ec.europa.eu/en/library/living-repository-foster-learning-and-exchange-ai-literacy

DONNEES PERSONNELLES

➡️Interprétation large de la CNIL de la notion de « donnée personnelle » :

Le 15 mars 2019, la CNIL a été saisie d’une plainte contre la société Qwant qui a développé un moteur de recherche lancé en 2013 anonymisant les données collectées avant de les transmettre à Microsoft. La plainte portait sur la qualification des données transmises : étaient-elles vraiment anonymes ?

Deux investigations ont révélé que les données transmises à Microsoft étaient essentiellement techniques, permettant :

  • L’affichage de publicités contextuelles liées aux recherches des utilisateurs.

  • La comptabilisation du nombre d’affichages publicitaires.

🔍 Aux termes d’analyses techniques approfondies, la CNIL a conclu que les données transmises n’étaient pas anonymes mais seulement pseudonymes. Qwant n’avait pas mentionné dans sa politique de confidentialité la finalité publicitaire de cette transmission, ni la base légale du traitement, ce qui a conduit la CNIL à proconcer un rappel aux obligations légales à l’égard du moteur de recherche.

🚨 Cette affaire souligne l’importance de la transparence et de la conformité légale dans le traitement des données personnelles. Une donnée, si elle se rapporte à une personne, remplit l’un des critères essentiels de la qualification de « donnée personnelle ». Son traitement permet en particulier de traiter cette personne d’une manière différente, par exemple en lui affichant une publicité ciblée.

En savoir plus 👉 QWANT : la CNIL estime que le moteur de recherche traite des données personnelles et lui adresse un rappel à ses obligations légales | CNIL

➡️Sanctions des professionnels de santé par la CNIL en 2024 et Règlement modifiant l’écosystème des données de santé :

En 2024, la CNIL a prononcé 84 sanctions, pour un total de 55,2 millions d’euros d’amende. Parmi elles, le secteur de la santé a été particulièrement scruté, avec des sanctions visant aussi bien des professionnels de santé individuels que des organismes plus structurés.

💡 Des sanctions qui visent des manquements variés

Les motifs des sanctions vont de l’absence de sécurisation des données au non-respect des droits des patients sur l’accès à leur dossier médical.

Quelques exemples marquants :

Professionnels libéraux : plusieurs chirurgiens-dentistes, médecins et un orthophoniste ont écopé d’amendes de 2 000 à 5 000 euros pour des manquements au RGPD et un manque de coopération avec la CNIL.

Établissements et entreprises : une clinique et un organisme de formation ont été sanctionnés à 15 000 euros pour des défauts de coopération et de sécurité des données.

Manquements majeurs : un éditeur de logiciel médical a été condamné à 800 000 euros d’amende pour l’absence d’autorisation de la CNIL concernant un entrepôt de données de santé.

Le RGPD s’applique à tous ! Que ce soit pour un médecin en exercice individuel ou un grand groupe de santé, la mise en conformité avec le RGPD est nécessaire.
📌 Les bonnes pratiques à adopter :

  • Sécuriser les données des patients 🔐

  • Respecter les droits des personnes (accès, effacement, information) 📄

  • Encadrer les relations avec les sous-traitants 📑

  • Anticiper les attentes de la CNIL, notamment sur l’IA en santé, sujet phare de son Plan stratégique 2025-2028

En outre, le 11 février 2025 le Parlement européen et le Conseil de l’UE ont adopté un règlement relatif à l’espace européen des données de santé.

Celui-ci va impacter tous les acteurs de la chaîne :

➡️ Les patients qui se voient accorder de nouveaux droits sur leurs données,

➡️ Les professionnels du soin qui pourront obtenir et partager plus d’informations sur leurs patients,

➡️ Les acteurs du dossier médical électronique qui voient leurs produits soumis à un nouveau cadre règlementaire,

➡️ Pour ceux qui détiennent les données de santé (organismes publics et sociétés privées) se voient imposer une obligation de donner accès aux données qu’ils détiennent. Cette obligation est assortie de lourdes sanctions allant jusqu’à 20 Millions d’euros ou 4% de CA.

A noter, que les droits de PI et le secret d’affaires ne pourront pas toujours faire obstacle à l’accès.

RETOUR d’EXPERTISE FIRSH : FIRSH fait une veille spécifique sur la réglementation en devenir. L’usage de l’IA en santé est nécessaire pour faire avancer la médecine, lutter contre les déserts médicaux, et augmenter l’accès à la médecine préventive. Une IA bien entrainée peut détecter des cancers avant l’œil humain même ceux d’un expert du sujet depuis 40 ans…FIRSH est fière d’accompagner des clients qui ont développé des IA prédictives.

En savoir plus👉 Les sanctions prononcées par la CNIL | CNIL et https://eur-lex.europa.eu/legal-content/FR/TXT/PDF/?uri=OJ:L_202500327

PROPRIETE INTELLECTUELLE

➡️Droit d’auteur : Les Birkenstock à la mode du droit d’auteur ?

La Cour fédérale de justice allemande (BGH) a tranché le 20 février 2025 : les sandales Birkenstock ne peuvent pas être considérées comme des « œuvres d’art » protégées par le droit d’auteur.
Selon la Cour, une œuvre doit refléter une liberté de création artistique dépassant les simples exigences techniques ou fonctionnelles pour bénéficier de cette protection.

⚖️ Implications juridiques :

Distinction entre design fonctionnel et œuvre d’art : Un design, aussi iconique soit-il, ne devient pas automatiquement une œuvre protégée.

Un seuil de créativité exigé : La protection par le droit d’auteur suppose un degré d’originalité suffisant, ce que Birkenstock n’a pas démontré.


🔍 À suivre : Le BGH a récemment saisi la CJUE (I ZR 96/22 USM Haller) pour préciser le niveau d’exigence en matière de protection des objets de design. La Cour européenne pourrait remettre en cause cette approche stricte et favoriser une protection plus large des objets utilitaires.

🥐 Et en droit français ?

Si le droit allemand et le droit français présentent des différences, ils reposent sur des principes similaires en matière de protection des œuvres de « design ». En France, comme en Allemagne, les créateurs doivent démontrer un degré suffisant d’originalité et de créativité pour bénéficier du droit d’auteur. À défaut, ils peuvent se tourner vers d’autres mécanismes juridiques, tels que la protection par le droit des marques, des dessins et modèles, la concurrence déloyale et le parasitisme, pour sécuriser leurs créations.

RETOUR D’EXPERTISE FIRSH :  Des alternatives juridiques nécessaires : Marques, dessins et modèles ou encore concurrence déloyale et parasitisme restent des leviers clés pour protéger un design fonctionnel.

Lire le jugement en entier (en allemand) 👉 https://juris.bundesgerichtshof.de/cgi-bin/rechtsprechung/document.py?Gericht=bgh&Art=en&nr=140774&pos=0&anz=1

➡️Du droit d’auteur sur une Amélie Poulain en Zorro ?

Le 19 décembre 2024, le Tribunal judiciaire de Paris a rendu une décision attendue dans l’affaire opposant UGC Images et les co-auteurs du film « Le Fabuleux Destin d’Amélie Poulain » à la société ME Group France. En cause ? L’utilisation d’un personnage rappelant fortement l’héroïne du film dans une campagne publicitaire.

⚖️ Enjeux juridiques :

Le Tribunal a écarté la contrefaçon, estimant que le personnage d’Amélie Poulain ne présentait pas une originalité suffisante pour être protégé par le droit d’auteur. Une décision qui rappelle que tous les personnages de fiction ne bénéficient pas automatiquement d’une protection juridique.

En revanche, la société ME Group France a été condamnée pour parasitisme. En reprenant les codes visuels du personnage (jeune femme brune, yeux foncés, tenue sombre, présence dans un photomaton) et en revendiquant ouvertement son inspiration, elle a cherché à capitaliser sur la notoriété du film.

ME Group France devra verser 25 000 euros de dommages-intérêts et supprimer le spot publicitaire litigieux.

🔍 Que faut-il retenir ?

Un personnage de fiction ne bénéficie de la protection du droit d’auteur que s’il est suffisamment original.
Même en l’absence de contrefaçon, le parasitisme économique peut être sanctionné.
L’utilisation d’un univers cinématographique célèbre dans une stratégie marketing doit être encadrée pour éviter toute exploitation abusive.

Une décision qui rappelle l’importance de la propriété intellectuelle dans la création et l’exploitation d’œuvres emblématiques.

Lire le jugement en entier 👉 TJ Paris, 19 décembre 2024, n°22/13834 

➡️Droit d’auteur : IA et Droit d’auteur : la place de l’artiste !

Le 30 janvier 2025, le US Copyright Office (USCO) a, pour la première fois, reconnu la protection d’une image générée par IA. La plateforme Invoke a convaincu l’USCO du rôle déterminant de l’intervention humaine dans le processus de création, ouvrant ainsi la voie à une protection sous le droit d’auteur.

🔍 Que faut-il retenir ?

Intervention humaine : Bien que l’image ait été générée par IA, l’utilisation de l’outil d’« inpainting » et le travail de sélection, d’organisation et de coordination de Kent Keirsey, CEO d’Invoke, ont démontré un contrôle créatif suffisant.

Processus de création : 35 prompts ont été nécessaires pour modifier l’image initiale, et le choix des éléments était sous contrôle humain.

Protection étendue : La protection vaut pour l’ensemble de la composition et non pour les éléments pris séparément.

⚖️ Enjeux juridiques :

✅ Évaluation au cas par cas : Chaque œuvre générée par IA sera examinée en fonction du degré d’implication humaine.

✅ Précédent créé : Cette décision ouvre la voie à la protection des œuvres hybrides créées avec l’IA.

✅ L’intervention humaine devient clé : L’USCO exige un contrôle humain sur la sélection, l’agencement et la modification des éléments générés par IA. Où fixer la limite entre contribution humaine et génération automatique ?

À noter

  • L’affaire Jason Allen, dont l’image générée par IA s’est vue refuser la protection par le droit d’auteur en l’absence d’intervention humaine, est en appel. Une décision qui pourrait préciser les conditions d’octroi de la protection du droit d’auteur aux créations issues d’une collaboration IA et humain.
  • En 2019, l’informaticien Stephen Thaler a créé un système d’IA, Creativity Machine qui a généré en autonomie l’œuvre intitulée « A recent Entrance to Paradise ». Thaler a demandé à l’USCO de protéger par le droit d’auteur l’œuvre.

Après un rejet de la part du USCO pour défaut d’intervention humaine dans la création de l’œuvre, Thaler a interjeté appel.

Le 18 mars 2025, US District Court of Appeals of Columbia Circuit a rejeté la protection par le droit d’auteur d’une œuvre générée en autonomie par l’IA, Creativity Machine.

Cette décision rappelle que la paternité humaine est une exigence fondamentale prévue au sein même du Copyright Act. Pour bénéficier d’une protection au titre du droit d’auteur, la création doit être créée par, en premier lieu, un être humain qui doit avoir une intention, donc ne pas être une machine !


🥐 Et en France ?

Cette décision relance le débat sur la protection des œuvres assistées par IA et pourrait influencer la manière dont les tribunaux français interprètent l’originalité de ces œuvres.


Plusieurs questions se posent :

🔹 Quel seuil de créativité humaine faut-il atteindre pour revendiquer un droit d’auteur ?
🔹  Peut-on admettre qu’une œuvre 100 % humaine soit jugée banale, alors qu’une création IA-assistée pourrait être protégée ?

En savoir plus👉 https://publicrecords.copyright.gov/detailed-record/37990563

ACTUALITES « FIRSH »

Firsh qui fête ses 2 ans ce mois-ci s’agrandit à nouveau en accueillant Samuel Brami, en qualité de collaborateur.

Avocat au Barreau de Paris depuis janvier 2024, Samuel Brami est spécialisé en droit de la propriété intellectuelle, des médias, des nouvelles technologies et des données personnelles ainsi qu’en droit commercial.

Fort de ses expériences en PI et médias, il vient renforcer l’équipe sur les projets IA, media & Entertainment.

Retrouvez les interventions et contributions de Firsh pour faire avancer le droit et l’innovation :

➡️ Le 18 mars, Claire Poirson, notre associé, a animé une formation sur le Droit de l’intelligence artificielle chez Side Quest – formations.

Au programme :

  • IA Act : Comprendre les nouvelles obligations et le calendrier d’application

  • Propriété intellectuelle : Qui détient les droits sur les œuvres générées par l’IA ?

  • RGPD & IA : Comment concilier protection des données et IA générative ?

  • Déontologie des avocats & IA : Garantir le secret professionnel face aux nouveaux outils

➡️ Dans le cadre de son laboratoire d’innovation, FIRSH a publié son premier Livre Blanc  et signe le lancement officiel de FIRSH LAB qui publie sa première étude en choisissant pour objet de travail un sujet de société aux multiples enjeux : les deepfakes (hypertrucages générés par l’intelligence artificielle). Abordant l’un des futurs sujets majeurs de nos sociétés, ce Livre Blanc a nécessité un travail de fond pendant plus de 6 mois et la réalisation d’une étude approfondie auprès de multiples experts français et internationaux de l’intelligence artificielle sur les aspects techniques, sociologiques, économiques et juridiques des deepfakes.  La réflexion juridique qui s’y dégage procède d’une fine analyse de la législation , de la doctrine et des décisions de justice. Le Livre Blanc donne donc des recommandations juridiques et pratiques à l’attention des pouvoirs publics, des entreprises ainsi qu’à tout individu intéressé par le sujet..

N’hésitez pas à nous contacter sur le mail suivant pour recevoir un exemplaire du Livre Blanc 👉 contact@FIRSH.LAW

➡️ En Mars, Firsh a notamment assisté ses clients sur les projets suivants :

  • Initiation de l’implémentation d’une IA dans un groupe de sociétés de production et audiovisuel ainsi que des formations pour utiliser au mieux ce nouvel outil.

  • Plaidoirie d’arbitrage devant la Chambre de Commerce et d’Industrie de Paris dans un dossier de rupture brutale et abusive d’un contrat de distribution de logiciel.

  • Plaidoirie devant la Cour d’Appel de Toulouse dans le cadre d’une liquidation d’astreinte de produits non rappelés.

  • Négociation d’un accord transactionnel dans le cadre d’un litige d’implémentation d’une solution IT.

  • Négociation d’un accord commercial de DRH externalisé pour un grand opérateur de plateformes on sales

 

📢 Pour nous suivre sur LinkedIn et recevoir notre lettre d’information, c’est ici : https://www.linkedin.com/company/firshlaw/  .

📢 Il n’y a pas de collecte directe de vos données personnelles et donc pas d’emailing de la part de Firsh !

Nos Actualités
18 juin 2024
CONFERENCE AVEC LE COLLECTIF FAKE OFF – QUE PEUT LE DROIT FACE A LA DESINFORMATION ?
Lire la suite
24 septembre 2024
Clonage des voix d’artistes décédés : entre risques juridiques et dilemmes éthiques (Interview, Le Point)
Lire la suite
9 septembre 2024
Newsletter RENTREE 2024
Lire la suite