A OpenAI promete manter um controle sobre o Voice Engine até que medidas de segurança eficazes possam ser implementadas para prevenir falsificações enganosas
Nesta sexta-feira
(29), a OpenAI, empresa que desenvolveu o ChatGPT, revelou uma nova ferramenta
que tem suscitado tanto fascínio quanto preocupação: o Voice Engine. Esta
tecnologia, segundo a empresa, é capaz de replicar a voz de uma pessoa com base
em uma amostra de apenas 15 segundos de áudio. Contudo, a OpenAI promete manter
um controle estrito sobre a ferramenta até que medidas de segurança eficazes
possam ser implementadas para prevenir falsificações de áudio com o intuito de
enganar ouvintes desavisados.
O anúncio foi feito por meio de uma postagem no blog da
OpenAI, onde foram compartilhados os resultados de um teste em pequena escala
que demonstrou a capacidade do Voice Engine em imitar vozes humanas, relata a Folha de S.
Paulo. A empresa, sediada em San Francisco, nos Estados Unidos,
reconheceu os riscos associados à geração de fala semelhante às vozes reais das
pessoas, destacando a sensibilidade do momento, especialmente em um ano de
eleições. "Reconhecemos que gerar fala que se assemelha às vozes das
pessoas apresenta sérios riscos, que estão especialmente em destaque em um ano
de eleições", afirmou a OpenAI.
Em resposta às preocupações levantadas
por pesquisadores da desinformação, a empresa assegurou estar tomando medidas
cautelosas e consultando uma variedade de partes interessadas, incluindo
governos, mídia, entretenimento, educação e sociedade civil, para garantir que
o lançamento do Voice Engine seja feito de forma responsável e segura.
"Temos consciência dos sérios riscos envolvidos na geração de vozes
sintéticas e estamos adotando uma abordagem cautelosa e informada para um
lançamento mais amplo devido ao potencial de uso indevido", afirmou a
OpenAI.
Fonte: Brasil 247 com informações da Folha de S. Paulo
Nenhum comentário:
Postar um comentário