Especialistas em IA exigem legislação contra deepfakes
Especialistas da comunidade de inteligência artificial (IA) divulgaram uma carta aberta exigindo leis mais rigorosas para punir deepfakes. Eles estão preocupados com o impacto que vídeos falsos possam gerar no futuro.
A preocupação surge em seguida a diversos usos ilegais de deepfakes na internet, um problema que só tende a se agravar no futuro.
Leia mais: As 10 criptomoedas para investir em janeiro de 2024
Comunidade quer legislação contra deepfakes
Ao todo, mais de 688 pessoas que trabalham no ramo de IA assinaram a carta. O texto diz que “deepfakes se tornaram um grande problema para a sociedade e governos impor obrigações em toda a cadeia de produção para evitar sua proliferação”.
Além disso, eles querem que conteúdos que mostrem abuso sexual de crianças sejam criminalizados, independente de mostrarem pessoas reais ou fictícias. Outras sugestões incluem, por exemplo, penas para quem criar ou espalhar deepfakes que causem danos.
Uma pessoa da OpenAI e duas do Google DeepMind assinaram a carta. Ela é mais um exemplo de como a indústria de IA está preocupada com as formas danosas com que é possível usar suas ferramentas. E, claro, com as repercussões legais para elas no futuro.
Deepfakes causam danos
Um exemplo de como deepfakes poderão impactar no futuro ocorreu no Twitter (X), nos últimos dias de janeiro de 2024. Na época, um usuário da rede social postou diversos vídeos pornográficos criados por IA com a cantora Taylor Swift.
Mas esse uso não é o único a preocupar a comunidade. A proximidade das eleições presidenciais dos EUA fez com que empresas como a OpenAI proibissem o uso de suas ferramentas de IA para a criação de conteúdo político.
A empresa, assim como diversas outras do setor, tem medo de que seus modelos de linguagem sejam usados para espalhar informações falsas. Há poucos dias, ela se reuniu com a Microsoft, Google, Meta, Twitter (X) e várias outras para a criação de um protocolo de combate comum aos deepfakes.
A ideia é evitar que o episódio Taylor Swift se repita. Na época, o tuíte com os deepfakes originais ficou mais de 12h no ar antes de sua remoção. Mas aí o estrago já estava feito e várias cópias do material continuavam disponíveis no microblog.
A Meta também sofre com problemas semelhantes. A política de desinformação da empresa era vaga demais, o que fez com que ela permitisse que um vídeo editado do presidente americano Joe Biden com informações falsas permanecesse meses no ar.
O artigo Especialistas em IA exigem legislação contra deepfakes foi visto pela primeira vez em BeInCrypto Brasil.