Un post récent d’Elon Musk a fait sensation en partageant une publicité parodique contenant une deepfake de Kamala Harris. Cette vidéo soulève des questions sur les implications des deepfakes et la nécessité de les réglementer, particulièrement en période électorale.


La vidéo, visionnée plus de 150 millions de fois, utilise une voix factice de Kamala Harris pour critiquer la diversité, le président Joe Biden et les politiques frontalières, en intégrant des extraits modifiés de ses discours. Les réactions sont partagées : certains considèrent cela comme une menace grave nécessitant une réglementation stricte, tandis que d’autres y voient une parodie légitime.


Lisa Gilbert, co-présidente de l’organisation de défense des consommateurs Public Citizen, a déclaré à NBC News : « C’est l’un des deepfakes politiques les plus en vue jusqu’à présent, et il concerne une candidate présidentielle majeure. L’audio synthétique trompeur a été reposté par le propriétaire de la plateforme, ce qui rend les enjeux vraiment élevés. »


Un représentant de la campagne de Harris a confirmé que l’audio était faux et que la vidéo n’était pas une véritable publicité de campagne. Il a ajouté : « Nous croyons que le peuple américain veut la vraie liberté, opportunité et sécurité que la vice-présidente Harris offre ; pas les mensonges manipulés et faux d’Elon Musk et de Donald Trump. »


L’utilisation des deepfakes pour cibler les politiciens n’est pas nouvelle. Alexandria Ocasio-Cortez a été visée par des images sexuellement suggestives et des vidéos pornographiques fausses, tandis que des images générées par IA montrant Donald Trump fuyant la police ont également circulé. Ces manipulations soulèvent des questions sur l’impact des deepfakes sur la perception publique et la confiance dans les médias.
Avant un discours de Joe Biden annonçant sa décision de ne pas se représenter, une deepfake le montrant en train de proférer des insultes a été postée sur X, accumulant plus de 20 millions de vues sans étiquette claire indiquant qu’il s’agissait d’un contenu falsifié. PBS a rapidement démenti cette vidéo, affirmant qu’elle ne tolère pas la modification trompeuse de ses contenus.


Les plateformes de médias sociaux, telles que X et Meta, ont des politiques contre le partage de médias manipulés, mais la mise en œuvre de ces politiques reste inégale. X autorise les comptes parodiques à condition qu’ils se distinguent clairement, tandis que Meta exempte les contenus satiriques et parodiques de ses règles sur les médias manipulés.


Les deepfakes ont souvent été critiqués pour leur potentiel à tromper et harceler, notamment par le biais d’appels automatiques utilisant des voix factices pour désinformer les électeurs. Par exemple, un appel automatique dans le New Hampshire utilisant une deepfake de Biden pour inciter les démocrates à ne pas voter a conduit à des accusations criminelles et une amende de 6 millions de dollars.


Le gouverneur de Californie, Gavin Newsom, a réagi à la publication de Musk en déclarant que manipuler une voix dans une publicité devrait être illégal et qu’il prévoit de signer une loi à cet effet. Dix-huit États ont déjà adopté des réglementations sur les deepfakes dans les élections, et six autres ont des lois en attente. Au niveau fédéral, la sénatrice Amy Klobuchar et le sénateur Josh Hawley ont proposé une législation similaire.
Les législations des États varient : certains, comme le Texas, criminalisent les deepfakes, tandis que d’autres, comme l’Utah, imposent des sanctions civiles. Certaines lois permettent les deepfakes étiquetés clairement, d’autres font des exceptions pour les parodies, et certaines ne s’appliquent qu’aux 30 jours précédant une élection.


En réponse aux critiques de Newsom, Musk a affirmé que « la parodie est légale en Amérique. » Ni X ni Musk n’ont répondu aux demandes de commentaires.

Share.
Leave A Reply

Exit mobile version