Jovem simula traição e mostra lado sombrio da IA: clonar vozes custa cerca de R$ 20. A brincadeira pode se tornar perigosa, pois criminosos estão utilizando a ferramenta para aplicar golpes
via Tilt
A clonagem de vozes por inteligência artificial (IA) não é novidade, inclusive, alguns softwares já permitem gravar áudios a partir de segundos de fala e estão sendo usados para pegadinhas entre amigos. Mas, a brincadeira pode se tornar perigosa, pois criminosos estão utilizando a ferramenta para aplicar golpes.
Recentemente, a influenciadora digital Mia Dio disse ter descoberto uma traição do namorado usando IA. A jovem norte-americana de 22 anos foi apelidada de “gênio” por usuários no TikTok, onde acumula 5,2 milhões de seguidores.
Em vídeo, Mia contou que o namorado estava agindo de forma suspeita, então ela decidiu usar a tecnologia para “clonar” sua voz e ligar para um amigo dele — que confirmou que o rapaz teria beijado outra pessoa. No entanto, tudo não passou de uma brincadeira.
Segundo o Daily Mail, a jovem afirmou que o namorado e o amigo estavam envolvidos no plano desde o início. Ela ainda acrescentou que queria compartilhar o truque para qualquer um que não tivesse certeza sobre o comportamento de seu parceiro.
O vídeo já acumula 2,7 milhões de visualizações e quase 320 mil curtidas. Nos comentários, os seguidores elogiaram a influenciadora: “Garota, você inteligente. Você merece algo melhor!”, disse um.
“Comecei a pensar em cenários da minha própria vida em que uma imitação de voz de IA teria sido útil. Pensei em um ex que havia me traído e como esse tipo de tecnologia teria me poupado muito tempo. Decidimos tentar com a voz dele e ficamos chocados com a proximidade dos resultados – e tivemos a ideia do vídeo fictício da pegadinha juntos”, disse.
Assista ao vídeo:
@miadio I cloned my boyfriends voice using #AI to find out if he was cheating on me. #fyp #cheating #boyfriend #voicecloning ♬ original sound – Mia Dio
Ainda ao tabloide britânico, Mia afirmou ter usado um software chamado ElevenLabs, que custou cerca de US$ 4 (aproximadamente R$ 19,60).
Como é possível copiar a voz de alguém?
↗ As ferramentas mais avançadas exigem conhecimentos de programação, não sendo acessíveis para todos. No entanto, não é difícil encontrar serviços com esta finalidade na internet.
↗ Para fazer essa cópia, pode-se usar a tecnologia do tipo deepfake, em que é possível manipular áudios e simular determinadas vozes, dificultando a distinção se aquela voz é realmente da pessoa.
↗ Quanto melhor a qualidade do áudio de voz e a duração dele, melhor o resultado. Então, a inteligência artificial é usada para aprender com esse áudio e gerar novos arquivos com a voz clonada.
Cuidado com golpes
↗ Desconfie de mensagens com caráter de urgência. Golpistas usam situações emergenciais, como problemas de crédito, situações com parentes, para convencer mais rápido as vítimas.
↗ Use palavras-chave, ou pelo menos faça perguntas pessoais como o nome do primeiro animal de estimação ou a cor do primeiro carro.
↗ Faça chamada de vídeo antes de fazer qualquer tipo de transferência em dinheiro, por exemplo.
Acompanhe Pragmatismo Político no Instagram, Twitter e no Facebook
via Tilt
A clonagem de vozes por inteligência artificial (IA) não é novidade, inclusive, alguns softwares já permitem gravar áudios a partir de segundos de fala e estão sendo usados para pegadinhas entre amigos. Mas, a brincadeira pode se tornar perigosa, pois criminosos estão utilizando a ferramenta para aplicar golpes.
Recentemente, a influenciadora digital Mia Dio disse ter descoberto uma traição do namorado usando IA. A jovem norte-americana de 22 anos foi apelidada de “gênio” por usuários no TikTok, onde acumula 5,2 milhões de seguidores.
Em vídeo, Mia contou que o namorado estava agindo de forma suspeita, então ela decidiu usar a tecnologia para “clonar” sua voz e ligar para um amigo dele — que confirmou que o rapaz teria beijado outra pessoa. No entanto, tudo não passou de uma brincadeira.
Segundo o Daily Mail, a jovem afirmou que o namorado e o amigo estavam envolvidos no plano desde o início. Ela ainda acrescentou que queria compartilhar o truque para qualquer um que não tivesse certeza sobre o comportamento de seu parceiro.
O vídeo já acumula 2,7 milhões de visualizações e quase 320 mil curtidas. Nos comentários, os seguidores elogiaram a influenciadora: “Garota, você inteligente. Você merece algo melhor!”, disse um.
“Comecei a pensar em cenários da minha própria vida em que uma imitação de voz de IA teria sido útil. Pensei em um ex que havia me traído e como esse tipo de tecnologia teria me poupado muito tempo. Decidimos tentar com a voz dele e ficamos chocados com a proximidade dos resultados – e tivemos a ideia do vídeo fictício da pegadinha juntos”, disse.
Assista ao vídeo:
Ainda ao tabloide britânico, Mia afirmou ter usado um software chamado ElevenLabs, que custou cerca de US$ 4 (aproximadamente R$ 19,60).
Como é possível copiar a voz de alguém?
↗ As ferramentas mais avançadas exigem conhecimentos de programação, não sendo acessíveis para todos. No entanto, não é difícil encontrar serviços com esta finalidade na internet.
↗ Para fazer essa cópia, pode-se usar a tecnologia do tipo deepfake, em que é possível manipular áudios e simular determinadas vozes, dificultando a distinção se aquela voz é realmente da pessoa.
↗ Quanto melhor a qualidade do áudio de voz e a duração dele, melhor o resultado. Então, a inteligência artificial é usada para aprender com esse áudio e gerar novos arquivos com a voz clonada.
Cuidado com golpes
↗ Desconfie de mensagens com caráter de urgência. Golpistas usam situações emergenciais, como problemas de crédito, situações com parentes, para convencer mais rápido as vítimas.
↗ Use palavras-chave, ou pelo menos faça perguntas pessoais como o nome do primeiro animal de estimação ou a cor do primeiro carro.
↗ Faça chamada de vídeo antes de fazer qualquer tipo de transferência em dinheiro, por exemplo.
Acompanhe Pragmatismo Político no Instagram, Twitter e no Facebook