Deepfake Droit à l'image

Deepfakes et droit à l’image - Le deepfake :  une technologie aux frontières du droit

Le deepfake : Définition et enjeux

Les deepfakes, contraction de deep learning et fake, désignent des contenus visuels ou sonores créés à partir d’intelligence artificielle, dans le but de simuler la voix, le visage ou les gestes d’une personne identifiable, souvent à son insu.

Juridiquement, la loi sur l’intelligence artificielle (IA Act) du 12 juillet 2024 de l’Union européenne définit le deepfake comme « un contenu image, audio ou vidéo généré ou manipulé par l'IA qui ressemble à des personnes, des objets, des lieux, des entités ou des événements existants et qui semblerait faussement authentique ou véridique aux yeux d'une personne »

Ces contenus, bien que parfois utilisés à des fins artistiques ou éducativespeuvent parfois porter atteinte aux droits des personnes concernées.  

Quels droits sont en jeu ?

Les deepfakes sont susceptibles de porter atteinte à une pluralité de droits :

Les atteintes aux droits par le deepfake peuvent relever, à la fois du droit à l’image, du droit à la vie privée, des données à caractère personnel, ou même de la propriété intellectuelle.

Globalement, les deepfake peuvent également engendrer des atteintes aux droits de la personnalité.

En fonction des cas, la diffusion d’images truquées ou créées sans autorisation de la personne concernée peut constituer une atteinte à leur droit, particulièrement si le contenu est de nature sexuelle ou humiliant.

Aussi, certaines utilisations soulèvent la question de l’atteinte aux principes de liberté d’expression ou de liberté de la presse, lorsque la frontière entre satire, information et manipulation est franchie.

Usages positifs et dérives du deepfake

Utilisations encadrées : exemples d’usage positif du deepfake

●      Reconstitution historique, illustration pédagogiqueexploitation commerciale dans le cinéma..

●      Accessibilité renforcée via doublages intelligents et traductions automatiques de contenu vidéo.

Usages illicites / questionnables : cas précis et exemples des dérives du deepfake

●      Diffusion de l’image d’une personne dans des vidéos à caractère sexuel sans consentement : « revenge porn » et « sextorsion » 

●      Création de faux propos politiques portant atteinte à la sécurité publique ou à la réputation de personnalités publiques : si certains deepfake pourrait rentrer dans le champ de la simple caricature d’autres soulève la question de la désinformation.

●      Utilisation dans le cadre de fraudes et d'usurpation d'identité : dans cette situation les escrocs peuvent se faire passer pour une autre personne afin d’extorquer de l’argent

Par exemple, récemment, des escrocs ont ainsi arnaqué une multinationale de 26 millions de dollars en se faisant passer pour des cadres supérieurs de l’entreprise.

D’autres ont arnaqué une femme ayant versé 830 000 euros à un faux Brad Pitt.

Enfin, les donateurs d’une collecte de dons fictive lors des incendies ayant ravagé la ville de Los Angeles début 2025 ont été les victimes d’un deepfake.

Ces pratiques peuvent entraîner des poursuites pénales, des dommages et intérêts, et des sanctions telles que des peines d’emprisonnement et des amendes.

Quid du deepfakes de personnes décédées ?

Alors que l’intelligence artificielle est aujourd’hui susceptible de créer des images et vidéos à partir de celles de personnes décédées, il est logique de se demander si les héritiers du défunt peuvent bénéficienr de recours contre l’utilisation de cette image par un deepfake.

A la rentrée 2021, dans l’émission « l’Hotel du Temps » diffusée sur France Télévision, le présentateur interviewait des célébrités décédées pour certaines…il y a plusieurs décennies.

Le présentateur évoquait dans la presse que « beaucoup de choses sont faites avec l’intelligence artificielle qui sont en général des gags sur Youtube. Moi j’ai décidé de l’utiliser dans un but positif et le champ est énorme, aussi bien à la télévision, dans la pédagogie que dans les musées.. »

Ainsi, le programme proposait de faire revivre des stars de la culture et du spectacle en invitant le téléspectateur à redécouvrir ces personnalités cultes à l’occasion d’interviews, de duplex mêlant interview sous forme de deepfake et séquences d’archives professionnelles, familiales ou historiques.

En droit français, le droit à l’image - portant sur sa captation, sa conservation, sa reproduction et son utilisation - s’éteint à la mort de la personne. Il est intrinsèquement attaché à la personne.

La Cour de Cassation est formelle sur ce point. Elle a estimé en 2018 que « le droit à l’image, attribut de la personnalité, s’éteint au décès de son titulaire et n’est pas transmissible à ses héritiers ».

En ce sens, les héritiers n’ont en principe pas la possibilité d’agir en justice contre l’utilisation de l’image du défunt notamment forme de deepfake..

La jurisprudence a toutefois eu l’occasion de considérer qu’une action leur était offerte si la reproduction de l’image du défunt par le deepfake portait atteinte à la mémoire du mort ou au respect qui lui est dû.

Ainsi, l’utilisation de l’image des personnes décédées sous forme de deepfake n’est pas illégale en soi. Les héritiers peuvent toutefois agir en justice dès lors qu’ils estiment qu’elle porte atteinte à la mémoire du mort ou du respect qui lui est dû. Ils peuvent à ce titre demander l’obtention de dommages et intérêts.  

AI Act européen et encadrement législatif 

Face à une démocratisation de la technologie de l’intelligence artificielle par le recours à des outils accessibles au grand public, l’Union européenne a réagi en adoptant, le 13 juin 2024 l’IA Act.

Ce texte européen s’appliquant aux États de l’Union européenne met en avant la difficulté à concilier la protection de la liberté d’expression de chacun et la nécessité de lutter contre les contenus manipulés par l’intelligence artificielle.

L’AI Act prévoit une obligation de transparence : tout contenu généré ou manipulé par IA, notamment un deepfake, devra être clairement signalé.

Le droit pénal réprime depuis longtemps le fait de fait de publier, par quelque voie que ce soit, le montage réalisé avec les paroles ou l’images d’une personne sans son consentement, s’il n’apparaît pas à l’évidence qu’il s’agit d’un montage ou s’il n’en est pas fait la mention. La loi a cependant évolué afin de s’adapter à l’évolution technologique et l’arrivée de l’intelligence artificielle en réprimant plus largement le fait de publier un contenu visuel ou sonore généré par un traitement algorithmique et représentant l’image ou les paroles d’une personne sans son consentement s’il apparait à l’évidence qu’il s’agit d’un contenu généré algorithmiquement ou s’il n’en est pas expressément fait mention.

Droit français : quand le deepfake devient-il illicite ?

Le deepfake est illicite et susceptible d’être réprimé par la loi française dès lors qu’il :

-       Usurpe l’identité d’une personne (226-4-1 du Code pénal) : la médiatisation récente du « faux Brad Pitt » a mis la lumière sur une arnaque de plus de 800 000 euros lors de laquelle, en recourant au deepfake, une personne se faisait passer pour la star américaine et demandait à une femme de lui verser de l’argent. 

-       Porte atteinte à la vie privée de la personne (article 9 du Code Civil) : parallèlement à l’infraction de montage et l’usurpation d’identité, l’atteinte à la vie privée de la personne faisant l’objet d’un deepfake est susceptible d’être invoquée devant les juges. L’atteinte à la vie privée est notamment invocable dans le cas d’un deepfake ayant traité la voix d’une personne sans son consentement. Les juges ont déjà eu l’occasion de reconnaître que la voix était un élément attaché à la personne et composante de sa vie privée.

-       Contrefait l’œuvre d’un artiste, d’un auteur (L.335-2 du Code de la propriété intellectuelle) : renvoie à la situation pour laquelle un contenu protégé par le droit d’auteur est utilisé par l’intelligence artificielle afin de générer. Cependant, si le contenu généré par deepfake s’apparente à une parodie, une caricature, un pastiche, alors les exceptions à l’application du droit d’auteur peuvent avoir vocation à faire échec à une action en contrefaçon de droits d’auteur.

Solutions technologiques et détection

Comment savoir si c'est un deepfake ? Solutions technologiques et détection

Des outils émergent pour empêcher l’atteinte aux droits via la détection automatisée des incohérences dans les vidéos. Ces technologies visent à limiter la diffusion d’images manipulées et à préserver l’intégrité des informations diffusées dans le domaine public. Voici quelques exemples :

·      clignement des yeux : dans une vidéo trafiquée, le clignement des yeux est incohérent voir absent. Le regard ne suit pas la direction du visage… Autre indice : les yeux sont souvent pixélisés.

·      L’audio comporte des distorsions audio. La bande son de la vidéo comporte des échos ou des éléments sonores ne correspondant pas à l’image.  

·      Les textures : L’IA a encore du chemin à faire sur les détails comme les pores de la peau ou l’individualisation des dents lors d’un sourire…

Il existe de nombreux logiciels pour détecter les deepfakes. Cette technologie évoluant rapidement, attention à choisir un outil récent et performant.

Conclusion : Vous pensez être victime d’un deepfake ?    

Si vous pensez être victime d’un deepfake, il est essentiel de réagir rapidement. Ces contenus manipulés peuvent gravement nuire à votre image, à votre vie privée ou à votre réputation professionnelle.

Face à ce type d’atteinte numérique, les recours juridiques existent, mais ils nécessitent une expertise précise. Consulter un avocat spécialisé en droit des médias et en droit à l’image en droit des médias vous permettra de comprendre vos droits, d’identifier les responsabilités en jeu et de mettre en œuvre les actions nécessaires pour faire cesser la diffusion et obtenir réparation. Le professionnel du droit est votre meilleur allié pour faire valoir vos intérêts !

FAQ Deepfake, Droit à l’image

Que faire si vous êtes victime ?

Voici les étapes à suivre si un deepfake porte atteinte à vos droits :

  1. Demander le retrait immédiat de la vidéo litigieuse.

  2. Conserver la preuve de la diffusion de l’image (captures, URL, date, témoin).

  3. Porter plainte auprès des autorités compétentes.

  4. Saisir la CNIL en cas d’atteinte aux données à caractère personnel.

  5. En référé, demander à la juridiction de grande instance de cesser l’atteinte et d’ordonner la suppression du contenu.

  6. Réclamer une réparation du préjudice sous forme de dommages et intérêts (préjudice moral, atteinte à l’image, à l’honneur, ou à l’intimité de la vie privée).





Suivant
Suivant

La présomption d'innocence et la presse