L’été dernier, Paul Skye Lehrman et Linnea Sage, un jeune couple marié de Manhattan, ont vécu une expérience choquante qui a mis en lumière les dangers croissants de l’intelligence artificielle (IA) dans l’industrie du divertissement. En se rendant à un rendez-vous médical, ils ont écouté un podcast sur la montée de l’IA et les menaces qu’elle représente pour les écrivains, les acteurs et d’autres professionnels du divertissement. Ce sujet n’était pas seulement d’intérêt général pour eux; il les touchait personnellement, étant eux-mêmes acteurs de voix.
Alors qu’ils écoutaient attentivement, le podcast a pris une tournure inattendue. L’animateur a mené une interview approfondie avec un chatbot nommé Poe, dont la voix était une réplique exacte de celle de M. Lehrman. La révélation a été un choc total pour le couple. « Il interviewait ma voix au sujet des dangers de l’I.A. et des dommages qu’elle pourrait causer à l’industrie du divertissement, » a déclaré M. Lehrman. « Nous avons arrêté la voiture et sommes restés assis là, absolument stupéfaits, essayant de comprendre ce qui venait de se passer et ce que nous devions faire. »
Cette situation soulève des questions alarmantes sur l’usage de l’IA pour créer des clones vocaux sans consentement. Les avancées rapides de la technologie permettent désormais de générer des voix synthétiques qui sont presque indiscernables de celles des véritables acteurs. Pour Lehrman et Sage, cette réalité s’est concrétisée de la manière la plus perturbante possible. Ils affirment qu’une entreprise d’IA a créé des clones de leurs voix sans leur permission, les poussant à engager des poursuites judiciaires. L’entreprise en question nie toute malversation.
L’incident soulève plusieurs problèmes éthiques et légaux. Premièrement, l’usage non autorisé de la voix de quelqu’un constitue une violation flagrante des droits de propriété intellectuelle et de la vie privée. Les voix des acteurs, comme leurs visages ou leurs signatures, font partie intégrante de leur identité professionnelle et personnelle. Utiliser ces voix sans permission équivaut à un vol d’identité.
Deuxièmement, la montée des technologies de clonage vocal pose une menace directe aux moyens de subsistance des acteurs de voix et des autres professionnels de l’industrie du divertissement. Si les entreprises peuvent créer des répliques parfaites des voix humaines sans frais récurrents, elles pourraient potentiellement remplacer les acteurs humains par des alternatives synthétiques, réduisant ainsi la demande pour des voix authentiques et nuisant gravement à l’industrie.
Enfin, l’utilisation de ces technologies sans cadre réglementaire approprié ouvre la porte à des abus potentiels. Les voix clonées peuvent être utilisées pour produire des contenus trompeurs ou nuisibles, allant des fausses déclarations à la manipulation d’opinions publiques.
Pour Paul Skye Lehrman et Linnea Sage, le combat est désormais lancé pour protéger leurs voix et, par extension, leur carrière. Leur bataille juridique pourrait bien définir un précédent crucial pour la protection des droits des professionnels de l’audio face aux avancées technologiques de l’IA.
En conclusion, l’incident impliquant Lehrman et Sage met en lumière les dangers réels et immédiats que l’IA pose dans le domaine du podcasting et de l’industrie du divertissement en général. Il est crucial que les législateurs, les professionnels de l’industrie et les entreprises technologiques collaborent pour établir des règles claires et éthiques régissant l’utilisation des technologies de clonage vocal. Sans cela, le risque de voir l’identité vocale humaine être exploitée de manière abusive continuera de croître, menaçant les moyens de subsistance de nombreux professionnels et la confiance du public dans les médias numériques.

