Meta enfrenta escrutínio legal à medida que os avanços da IA levantam preocupações sobre a segurança infantil

As preocupações com a segurança infantil surgem em meio aos rápidos avanços da inteligência artificial envolvendo texto e IA generativa.

Um grupo de 34 estados dos Estados Unidos está movendo uma ação judicial contra o Facebook e a proprietária do Instagram, Meta, acusando a empresa de se envolver em manipulação inadequada de menores que usam as plataformas. Este desenvolvimento ocorre em meio a rápidos avanços em inteligência artificial (IA) envolvendo tanto IA de texto quanto gerativa.

Representantes legais de vários estados, incluindo Califórnia, Nova York, Ohio, Dakota do Sul, Virgínia e Louisiana, alegam que a Meta utiliza seus algoritmos para promover comportamento viciante e impactar negativamente o bem-estar mental das crianças por meio de seus recursos no aplicativo, como o botão “Curtir”.

Os litigantes governamentais estão prosseguindo com a ação legal, apesar do principal cientista de IA da Meta ter se pronunciado recentemente, dizendo que as preocupações sobre os riscos existenciais da tecnologia ainda são “prematuros”, e a Meta já utilizou a IA para abordar questões de confiança e segurança em suas plataformas.

Captura de tela do processo. Fonte: CourtListener

Advogados dos estados estão buscando diferentes indenizações, restituições e compensações para cada estado mencionado no documento, com valores variando de US$ 5.000 a US$ 25.000 por ocorrência alegada. O Cointelegraph entrou em contato com a Meta para obter mais informações, mas ainda não recebeu uma resposta.

Enquanto isso, a Internet Watch Foundation (IWF) do Reino Unido expressou preocupações sobre a proliferação alarmante de material de abuso sexual infantil (CSAM) gerado por IA. Em um recente relatório, o IWF revelou a descoberta de mais de 20.254 imagens de CSAM geradas por IA em um único fórum da dark web em apenas um mês, alertando que esse aumento no conteúdo perturbador tem o potencial de inundar a internet.

A organização pediu cooperação global para combater o problema de CSAM, sugerindo uma estratégia multifacetada, incluindo ajustes nas leis existentes, melhorias na educação das forças de segurança e implementação de supervisão regulatória para modelos de IA.

A respeito dos desenvolvedores de IA, o IWF aconselha a proibição de IA de gerar conteúdo de abuso infantil, excluindo modelos associados e focando na remoção desse material de seus modelos.

O avanço dos geradores de imagens de IA melhorou significativamente a criação de réplicas humanas realistas. Plataformas como Midjourney, Runway, Stable Diffusion e Dall-E da OpenAI são exemplos populares de ferramentas capazes de gerar imagens realistas.

Colecione este artigo como NFT para preservar este momento na história e mostrar seu apoio ao jornalismo independente no espaço cripto.

VEJA MAIS:

Você pode gostar...