OpenAI Desenvolve Software Capaz de Clonar Vozes Humanas, mas Retém Lançamento devido a Temores de Manipulação Eleitoral

A OpenAI afirmou ter desenvolvido uma ferramenta capaz de clonar vozes humanas a partir de apenas 15 segundos de áudio gravado, mas ainda não a lançou publicamente por medo de que seja mal utilizada, especialmente durante as eleições de 2024.

Chamada de Engine de Voz, o software foi desenvolvido pela primeira vez em 2022 e integrado ao recurso de texto para fala do ChatGPT.

Porém, a partir do final de 2023, a OpenAI “começou a testá-lo privadamente com um pequeno grupo de parceiros confiáveis”, afirmou o gigante da inteligência artificial em um post no blog anteriormente relatado pelo The Guardian. A empresa disse ter ficado “impressionada” com as aplicações da Engine de Voz, que incluíram fornecer assistência de leitura para não leitores, servir como ferramenta educacional para crianças e traduzir conteúdo.

Em um dos casos de uso mais impressionantes, pesquisadores do Instituto de Neurociências Norman Prince em Rhode Island usaram um clipe de baixa qualidade de 15 segundos de uma jovem dando uma apresentação na escola, que desde então perdeu a voz devido a um tumor cerebral vascular, para “restaurar” sua fala.

No entanto, a OpenAI ainda não lançou a Engine de Voz para o público em geral por conta dos “riscos sérios, que estão especialmente em destaque em um ano de eleições”, conforme o post do blog.

“Estamos optando por pré-visualizar, mas não lançar amplamente esta tecnologia neste momento”, disse a OpenAI, “para fortalecer a resiliência da sociedade contra os desafios trazidos por modelos generativos cada vez mais convincentes.”

Não ficou imediatamente claro quando a OpenAI iria estrear a Engine de Voz em uma escala maior, embora em um futuro próximo, ela tenha dito: “Encorajamos medidas como a eliminação gradual da autenticação baseada em voz como medida de segurança para acessar contas bancárias e outras informações sensíveis.”

“Esperamos iniciar um diálogo sobre o uso responsável de vozes sintéticas e como a sociedade pode se adaptar a essas novas capacidades”, acrescentou a OpenAI. “Com base nessas conversas e nos resultados desses testes em pequena escala, tomaremos uma decisão mais informada sobre se e como implantar essa tecnologia em grande escala.”

Já o uso da IA gerou desinformação, incluindo quando uma imagem deepfake de Donald Trump resistindo à prisão enquanto sua esposa Melania gritava com a polícia viralizou.

Como resultado, o Google atualizou sua política no ano passado para exigir que “todos os anunciantes eleitorais verificados” “divulgassem proeminentemente” quando seus anúncios usassem IA. No entanto, a OpenAI não seguiu o exemplo.

A startup sediada em São Francisco, no entanto, assegurou em seu post no blog que seus parceiros com acesso exclusivo à Engine de Voz concordaram com políticas de uso que proíbem a imitação de outra pessoa ou organização sem consentimento ou direito legal.

“Estamos colaborando com parceiros dos EUA e internacionais de governos, mídia, entretenimento, educação, sociedade civil e além para garantir que estamos incorporando seus feedbacks enquanto construímos”, garantiu a OpenAI.

Representantes da OpenAI se recusaram a comentar além do post no blog da empresa.