pixel

IA : OpenAI (ChatGPT) présente un outil de clonage de la voix

Date:

Pages jaunes
Trans Afrique

OpenAI, géant de l’intelligence artificielle (IA) générative et éditeur de ChatGPT, a présenté vendredi un outil de clonage de voix, dont l’utilisation sera restreinte pour empêcher des fraudes ou des crimes, comme l’usurpation d’identité.

Baptisé « Voice Engine », ce modèle d’IA peut reproduire la voix d’une personne à partir d’un échantillon audio de 15 secondes, selon un communiqué d’OpenAI sur les résultats d’un test à petite échelle.

« Nous reconnaissons que la capacité de générer des voix ressemblant à celles de personnes comporte de sérieux risques, qui sont particulièrement importants en cette année électorale », a déclaré l’entreprise basée à San Francisco.

L'intelligence artificielle (IA) est déjà entrée dans l'agriculture, Magazine Pages Jaunes

 

 

A lire: L’intelligence artificielle (IA) est déjà entrée dans l’agriculture

 

 

« Nous travaillons avec des partenaires américains et internationaux issus du gouvernement, des médias, du divertissement, de l’éducation, de la société civile et d’autres secteurs et nous prenons en compte leurs commentaires au fur et à mesure que nous développons l’outil ».

En cette année électorale cruciale dans le monde, les chercheurs en désinformation craignent une utilisation abusive des applications d’IA générative (production automatisée de textes, images, etc), et notamment des outils de clonage de voix, qui sont bon marché, faciles à utiliser et difficiles à retracer.

OpenAI a assuré avoir adopté « une approche prudente et informée » avant une diffusion plus large du nouvel outil « en raison du potentiel d’utilisation abusive des voix synthétiques ».

Cette présentation prudente intervient après un incident politique majeur, quand un consultant travaillant pour la campagne présidentielle d’un rival démocrate de Joe Biden a mis au point un programme automatisé qui usurpait l’identité du président américain, en campagne pour sa réélection.

Le français Mistral, désormais soutenu par Microsoft, lance une IA , Magazine Pages Jaunes

 

A lire: Le français Mistral, désormais soutenu par Microsoft, lance une IA conversationnelle

 

 

La voix imitant celle de Joe Biden appelait des électeurs pour les inciter à s’abstenir lors de la primaire du New Hampshire.

Les Etats-Unis ont depuis interdit les appels par des voix clonées, générées par de l’IA, afin de lutter contre les arnaques politiques ou commerciales.

OpenAI a précisé que les partenaires qui testent « Voice Engine » ont accepté des règles exigeant notamment le consentement explicite et informé de toute personne dont la voix est dupliquée et la transparence pour les auditeurs: ils doivent savoir clairement que les voix qu’ils entendent sont générées par l’IA.

« Nous avons mis en place un ensemble de mesures de sécurité, y compris une marque en filigrane pour pouvoir retracer l’origine de tout son généré par Voice Engine, ainsi qu’un contrôle proactif de son utilisation », a insisté OpenAI.

En octobre dernier, la Maison Blanche avait dévoilé des règles et principes pour encadrer le développement de l’IA, dont celui de la transparence.

Joe Biden s’était ému à l’idée que des criminels ne s’en servent pour piéger des personnes en se faisant passer pour des membres de leur famille.

 

Source: Agence France-Presse

- Pub -
Pages jaunes

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

Partager :

spot_imgspot_img

Populaires

Dans la même catégorie
Associé

Moqué sur l’IA, Google prend sa revanche et redevient incontournable

L’irruption de ChatGPT a pris Google de vitesse. Moqué...

OpenAI lance un réseau social de vidéos IA, Sora, sur un marché déjà saturé

OpenAI a dévoilé mardi une nouvelle application mobile, baptisée...

TikTok : derrière l’accord, encore beaucoup de questions

Cession de TikTok aux États-Unis : un décret qui...

YouTube entre dans une nouvelle ère d’IA, avec un arsenal de nouveaux outils

YouTube et l’IA générative : mardi, la plateforme a...