Embora o avanço da tecnologia seja benéfico em diversas vertentes, ele também acaba trazendo mais armas e ferramentas para pessoas de caráter ruim. Atualmente a tecnologia de Inteligência Artificial (IA) está no centro das discussões em relação a essa balança, principalmente com casos crescentes e mais preocupantes de uso inadequado.
Um desses usos inadequados está em fazer ligações utilizando técnicas de IA para realizar golpes, muitas vezes se fazendo passar por uma pessoa de verdade. Diante disso, a Federal Communications Commission (FCC) declarou uma guerra contra esse tipo de comunicação e já declarou que ela é agora ilegal.
Leia também:
“Conversar com mortos” via Inteligência artificial, essa é a ideia da HereAfter AI
Golpistas usam deepfake para roubar mais de R$ 120 milhões de uma empresa
Nova medida é apenas uma extensão de uma lei existente
Essa batalha contra as chamadas automáticas ganhou um novo capítulo com a recente declaração da FCC categorizando as vozes geradas por Inteligência Artificial como “artificiais” e, portanto, consideradas ilegais quando usadas em golpes de chamadas automatizadas.
Essa medida não será suficiente para impedir de forma completa que essas chamadas fraudulentas continuem acontecendo, mas ainda assim marca um avanço bem significativo na regulamentação desse tipo de atividade.
Porém, a nova diretriz, embora anunciada recentemente, não representa exatamente uma regra completamente nova. Isso porque a FCC não tem autoridade para criar regras arbitrariamente.
A medida chega como uma extensão lógica da Lei de Proteção ao Consumidor de Telecomunicações, que já proíbe mensagens artificiais e pré-gravadas enviadas indiscriminadamente para números de telefone. Mas, até então, existiam algumas dúvidas e questionamentos na interpretação de se as vozes clonadas por IA se enquadravam nessa categoria de ilegalidade ou não.
O impulso para essa ação foi, em parte, catalisado por um incidente de alto perfil envolvendo uma chamada falsa do Presidente Biden para cidadãos de New Hampshire, instruindo-os a não votar nas primárias. Embora esse caso tenha recebido atenção significativa, é crucial entender que mesmo se a ligação tivesse sido realizada por um imitador de Biden ou uma gravação manipulada, ela teria sido ilegal, de acordo com as leis existentes.
No entanto, para que tais casos sejam efetivamente processados, é fundamental que haja evidências substanciais. Antes dessa declaração da FCC, o uso de vozes clonadas por IA em chamadas automáticas poderia não ter sido inequivocamente ilegal.
Por exemplo, uma chamada automatizada com a voz de um médico lembrando de uma consulta futura poderia não ter sido considerada ilegal. No entanto, agora, o fato de a voz ser artificialmente gerada por IA seria um fator adicional contra o réu durante um processo legal.
A luta contra o uso de IA em golpes
A decisão da FCC visa desencorajar o uso indevido da IA e garantir a plena proteção dos consumidores contra chamadas fraudulentas. Além disso, esclarece que a Lei de Proteção ao Consumidor de Telecomunicações não faz exceções para tecnologias que pretendem fornecer o equivalente a um agente ao vivo, impedindo assim que empresas explorem brechas nas regras.
Confira um trecho da decisão abaixo:
“Nossa conclusão desencorajará usos negativos de IA e garantirá que os consumidores estejam totalmente protegidos pela TCPA quando receberem tais chamadas. E também deixa claro que a TCPA não permite nenhuma exceção para tecnologias que pretendem fornecer o equivalente a um agente ao vivo, impedindo assim que empresas inescrupulosas tentem explorar qualquer ambiguidade percebida em nossas regras da TCPA. Embora a clonagem de voz e outros usos de IA em chamadas ainda estejam evoluindo, já vimos seu uso de maneiras que podem prejudicar exclusivamente os consumidores e aqueles cuja voz é clonada. A clonagem de voz pode convencer a parte chamada de que uma pessoa confiável, ou alguém que eles se importam, como um membro da família, quer ou precisa que eles tomem alguma ação que não tomariam de outra forma. Exigir consentimento para tais chamadas equipa os consumidores com o direito de não receber tais chamadas ou, se o fizerem, o conhecimento de que devem ter cuidado com elas.”
Eles ressaltam que é importante reconhecer que a clonagem de voz e outros usos da IA em chamadas estão evoluindo rapidamente, e a regulamentação precisa acompanhar essas mudanças para proteger os consumidores. A clonagem de voz pode ser utilizada para persuadir indivíduos a tomarem ações que não tomariam de outra forma, portanto, exigir consentimento para tais chamadas é essencial para garantir essa proteção.
No entanto, essa capacidade regulatória da FCC enfrenta ameaças iminentes, com uma decisão pendente da Suprema Corte que poderia limitar drasticamente o poder das agências reguladoras nos Estados Unidos. Isso ressalta a importância de manter uma estrutura regulatória robusta para combater ameaças como chamadas automáticas fraudulentas.
Nos Estados Unidos eles aconselham fortemente que a pessoa que receber uma chamada automática com IA deverá gravá-la e denunciá-la ao escritório do procurador-geral local, já que esses órgãos estão cada vez mais engajados na luta contra golpistas que utilizam chamadas automáticas para enganar os consumidores.
Fonte: techcrunch
Deixe seu comentário