Newsletter n°10 (octobre 2024)
✨INTELLIGENCE ARTIFICIELLE✨
➡️La FTC sanctionne DoNotPay, le fameux « robot-avocat »
Les États-Unis ont sanctionné DoNotPay, une start-up qui prétendait pouvoir remplacer les avocats grâce à son service d’intelligence artificielle.
Le 25 septembre 2024, DoNotPay a accepté de payer une amende de 193 000 dollars et de cesser d’affirmer que son IA pouvait remplacer des professionnels du droit. La Federal Trade Commission (FTC) a reproché à la société de faire de la publicité trompeuse, car son service n’a bénéficié d’aucune formation juridique et n’a pas été développé avec des bases légales à jour.
Fondée en 2015, DoNotPay aidait originellement à contester des amendes de stationnement, avant d’étendre ses services pour inclure des procédures comme des divorces ou des plaintes judiciaires.
Ce n’est pas la première fois que la start-up DoNotPay fait parler d’elle. L’an dernier, la start-up s’est faite remarquer en affirmant pouvoir offrir à ses clients des arguments juridiques adaptés « en direct » durant les audiences.
En savoir plus 👉 DoNotPay | Federal Trade Commission (ftc.gov)
➡️L’établissement d’un nouveau cadre réglementaire en matière d’IA aux Etats-Unis
Le 29 septembre 2024, Gavin Newsom, Gouverneur de Californie, a opposé son veto sur SB 1047, l’un des efforts les plus ambitieux à ce jour pour établir un cadre réglementaire complet en matière d’intelligence artificielle (IA) aux États-Unis.
Outre SB 1047, Newsom a également signé en septembre 18 autres projets de loi sur l’IA lesquels sont susceptibles d’avoir un impact considérable.
Plusieurs secteurs seront impactés par ces lois, notamment :
Les Medias & l’Entertainment :
L’un des projets de loi établit des exigences accrues en matière de consentement pour l’utilisation de « répliques numériques » (« digital replica » en anglais : il s’agit du clonage par l’IA d’une personne ou d’un objet afin de simuler sa présence) dans les médias et les contenus de divertissement, notamment dans les films. En outre, il est également prévu d’interdire l’utilisation commerciale non autorisée de la réplique numérique d’une personne décédée et d’imposer des dommages-intérêts d’un montant égal à 10 000 dollars ou d’un montant égal aux dommages réels subis, le montant le plus élevé étant retenu.
Les Deepfakes & la Pornographie :
Les projets de lois prévoient l’interdiction de l’utilisation de l’IA dans la création de pornographie enfantine ainsi que des sanctions pénales pour la création de pornographie intégrant des deepfakes. En outre, il sera exigé aux plateformes de médias sociaux de fournir un mécanisme de signalement de la deepfake pornography et qu’elles retirent immédiatement ce type de contenu de leurs plateformes.
Les Elections & la Désinformation
« La protection de l’intégrité des élections est essentielle à la démocratie, et il est essentiel de veiller à ce que l’IA ne soit pas déployée pour saper la confiance du public par la désinformation – en particulier dans le climat politique tendu actuel », a déclaré Newsom, « Ces mesures aideront à lutter contre l’utilisation néfaste des deepfakes dans les publicités politiques et d’autres contenus, l’un des nombreux domaines dans lesquels l’État se montre proactif pour favoriser une IA transparente et digne de confiance. »
Il sera notamment exigé des grandes plateformes en ligne qu’elles bloquent les contenus propageant la désinformation électorale pendant des périodes précises (notamment avant et après une élection) et qu’elles qualifient certains contenus supplémentaires « d’inauthentiques » ou de « faux ». Le projet de loi exige également que les plateformes mettent en place des procédures de signalement de ces contenus. Enfin, il sera également exigé la divulgation de toute publicité de campagne réalisée en tout ou en partie à l’aide de l’IA.
En savoir plus 👉 les équipe de FIRSH font une veille juridique sur le droit comparé en matière IA. Stay stuned !
➡️L’ANSSI a publié un guide sur les recommandations de sécurité pour un système d’IA générative
Bien que l’IA connaisse un popularité grandissante, les risques d’atteintes à la sécurité existent et sont non négligeables. Ainsi, il apparait nécessaire de devoir adopter une certaine prudence quant à son déploiement dans un système d’information existant.
A ce titre, l’ANSSI a publié un guide de recommandations pour un système d’IA générative permettant de promouvoir les bonnes pratiques à mettre en œuvre.
Voici quelques recommandations générales mises en avant dans son guide :
-
Évaluer le niveau de confiance des bibliothèques et modules externes utilisés dans le système d’IA ;
-
Appliquer les principes de DevSecOps sur l’ensemble des phases du projet. Par exemple, en mettant en œuvre une gestion sécurisée des secrets utilisés dans toutes les phases du projet.
En savoir plus 👉 Recommandations de sécurité pour un système d’IA générative | ANSSI (cyber.gouv.fr)
Conseil Firsh : Firsh vous accompagne dans toutes les problématiques juridiques que vous pourriez avoir en matière d’intelligence artificielle et cybersécurité en anticipant la réglementation à venir notamment NIS 2
✨NOUVELLES TECHNOLOGIES✨
➡️Blocage de sites internet vendant des billets pour les JO sans autorisation
Est-il possible d’empêcher l’accès à des sites internet vendant des billets pour les JO sans autorisation ?
Le Tribunal Judiciaire de Paris a répondu par l’affirmative à cette question à la demande du Comité d’organisation des Jeux olympiques et paralympiques de Paris 2024 (COJOP) dans une décision en date du 29 juillet 2024.
Le Tribunal constate les atteintes graves aux droits exclusifs du COJOP, au moyen d’un service de communication au public en ligne, causant ainsi un dommage ainsi qu’un trouble manifestement illicite.
Les juges se fondent sur la loi du 21 juin 2004 pour la confiance dans l’économie numérique et ordonnent aux fournisseurs d’accès internet (Orange, Bouygues, Free…) de mettre en place des mesures de blocage d’accès aux sites, notamment par le blocage des noms de domaines, sous un délai de trois jours, et ce jusqu’au dernier jour des jeux olympiques (actuellement prévu pour le 08 septembre 2024).
Lire la décision 👉 29 juillet 2024 Tribunal judiciaire de Paris RG n° 24/09234
Conseil Firsh : Les PV de constat dans ce type de dossiers sont cruciaux. L’urgence de réaction également pour saisir en référé le tribunal compétent. Certains fournisseurs demandent le paiement des frais de blocages ou de levées d’anonymat.
✨DONNEES PERSONNELLES ✨
➡️ La CNIL inflige une amende de 800 000 € à Cegedim Santé
Par une décision en date du 5 septembre 2024, La Commission nationale de l’informatique et des libertés (Cnil) a infligé une amende de 800 000 € à Cegedim Santé, une entité spécialisée dans les logiciels médicaux et la gestion de rendez-vous pour les professionnels de santé.
Cette sanction fait suite à des manquements concernant le traitement de données de santé non anonymes, utilisées sans autorisation pour produire des études et des statistiques. La CNIL retient notamment que les données étaient pseudonymisées, permettant potentiellement de réidentifier les personnes concernées.
Pour déterminer cette sanction, la CNIL a considéré la gravité des faits, le volume important des données collectées et le caractère sensible des informations (antécédents médicaux, diagnostics, prescriptions, etc.).”
Parole d’experte FIRSH : Si vous souhaitez traiter des données personnelles dans le domaine de la santé, veillez à vous assurer du cadre légal du traitement, Firsh vous assiste le cas échéant.
Lire la décision 👉 Délibération SAN-2024-013 du 5 septembre 2024
➡️L’autorité de contrôle a-t-elle l’obligation d’adopter une mesure correctrice en cas de violation de données à caractère personnel ?
Dans un arrêt rendu en date du 26 septembre 2024, la CJUE répond à cette question par la négative.
Elle considère qu’en cas de constatation d’une violation de données à caractère personnel, l’autorité de contrôle n’est pas dans l’obligation d’adopter une mesure correctrice lorsqu’une telle intervention n’est pas appropriée, nécessaire ou proportionnée pour remédier à l’insuffisance constatée et garantir le plein respect du RGPD.
En outre, à titre exceptionnel et compte tenu des circonstances, l’autorité peut décider de ne pas adopter de mesure correctrice sous deux conditions cumulatives : premièrement, la violation doit être corrigée et, deuxièmement, la conformité des traitements doit être assurée.
Parole d’experte FIRSH : Dans l’hypothèse où vous constatez une violation de données à caractère personnel, palliez rapidement les erreurs et gardez précieusement toutes les preuves de la correction de la violation ainsi que la conformité des traitements afin de bénéficier de l’exception susmentionnée. Il convient également de notifier le cas échéant à la CNIL.
Lire l’arrêt 👉 Arrêt CJUE du 26 septembre 2024, C 768/21
✨PROPRIETE INTELLECTUELLE✨
➡️Dessins et modèles / Droit d’auteur : Contrefaçon du design d’une chaise reproduite dans des boutiques de donuts
Le 13 septembre 2024, le Tribunal de Lille a reconnu la contrefaçon de droit d’auteur d’une chaise BABA reproduite dans les boutiques de la société Royal Donuts France.
Une société d’ameublement commercialise des chaises nommées « BABA » aux formes arrondies, dans une matière molletonnée et présentant notamment un creux au milieu du dossier. La société de Donuts a équipé ses boutiques de chaises similaires afin de rappeler la forme de la fameuse pâtisserie.
Les juges du fond ont notamment considéré que, bien que les deux chaises ne soient pas identiques, il subsiste toutefois une impression générale de ressemblance en raison de leurs formes, leurs structure et le contraste des matériaux.
Lire le jugement 👉 Tribunal judiciaire de Lille, 13 septembre 2024, 23/09494
Parole d’experte FIRSH : la reproduction, même similaire, d’un meuble protégé par le droit de la propriété intellectuelle peut être sanctionné au titre de la contrefaçon de droit d’auteur. Attention à l’envie de copier à moindre cout un meuble et n’oubliez pas que les réseau social permet d’entrer chez vous très facilement !
➡️Droit d’auteur : 1er jugement en Europe sur l’utilisation d’œuvres préexistantes dans les jeux de données d’entraînements de l’IA
L’IA soulève de nombreux questionnements en droit d’auteur, notamment celle de la réutilisation d’œuvres préexistantes au sein des jeux de données d’entraînement.
L’IA intervenant dans la phase de création artistique fonctionne dans une démarche d’apprentissage nommée le « machine learning. » Dans un premier temps, il existe une phase dite « input » où l’IA est nourrie de multiples œuvres (notamment des œuvres protégées par le droit d’auteur). Ensuite, l’IA va analyser, décortiquer, enregistrer des caractéristiques communes à ces œuvres préexistantes afin d’obtenir une œuvre nouvelle par la suite nommée « un output ».
En intégrant des œuvres préexistantes au sein de programmes d’entraînement d’IA sans l’autorisation des titulaires de droit, il existe une hypothèse de contrefaçon de droit d’auteur.
En l’espèce, le photographe Robert Kneschke assigne LAION 5B (association créant des jeux de données d’IA) en justice afin de faire retirer ses œuvres du jeu de données d’entraînement.
Le Tribunal d’Hambourg nous a offert une décision inédite : Au titre de l’exception de data mining et de la fouille de données à des fins scientifiques, les juges autorisent l’entraînement des modèles d’apprentissages d’IA sur des photographies préexistantes protégées par le droit d’auteur.
Parole d’experte FIRSH Cette décision est quelque peu étonnante dans la mesure où la finalité scientifique peut être contestable. Il reste à voir si le demandeur fera appel de la décision…
Lire le jugement 👉 District Court of Hamburg (Kneschke v. LAION)
✨ ACTUALITES « FIRSH » ✨
Retrouvez les interventions et contributions de Firsh pour faire avancer le droit et l’innovation :
➡️ Claire Poirson, notre associée fondatrice, est ravie d’avoir pu apporter un éclairage juridique sur les arnaques par deepfake dans le cadre du JT de 20h de TF1 du 24 septembre 2024.
En savoir plus 👉 Fausses vidéos : attention aux pièges | TF1 INFO
➡️ Claire Poirson a également eu le plaisir d’être interviewée par la journaliste Laurence Neuer pour Le Point, sur les implications juridiques des deepfakes clonant la voix ou le visage d’artistes décédés.
En savoir plus 👉 Clonage des voix d’artistes décédés : entre risques juridiques et dilemmes éthiques (lepoint.fr)
➡️ Nous sommes fières d’accompagner la société Ana Healthcare, lauréat des Concours d’innovation de l’Etat faisant partie des 177 projets lauréats qui seront soutenus par l’Etat via France2030. Le projet d’Ana Healthcare consiste dans le développement d’une plateforme spécialisée dans le réemploi des données médicales pour accélérer la recherche clinique.
➡️ En septembre, Firsh a notamment assisté ses clients sur les projets suivants :
-
Négociation des termes d’un contrat-cadre entre un designer de parfums et une grande marque dans le domaine des cosmétiques et de la parfumerie
-
Négociation d’accords de confidentialité pour un client innovant dans le domaine de la réduction de la consommation d’’énergie et de l’environnement
- Négociation d’un protocole transactionnel avec un prestataire de service intervenant simultanément pour plusieurs marques de luxe en violation de sa clause de non-concurrence
-
Expertise « affaires publiques » dans le domaine de l’interdiction des plastiques à horizon 2025 en application de la Loi Climat et Résilience
-
Expertise « affaires publiques » dans le domaine de la transparence dans la publicité dans les médias
📢 Pour nous suivre sur LinkedIn et recevoir notre lettre d’information, c’est ici : https://www.linkedin.com/company/firshlaw/.
📢 Il n’y a pas de collecte directe de vos données personnelles et donc pas d’emailing de la part de Firsh !