OpenAI tem até 30 de abril para cumprir as leis da UE, e especialistas dizem ser ‘quase impossível’

Reguladores italianos afirmam que o ChatGPT deve cumprir as regulamentações locais e de privacidade do GDPR até 30 de abril, mas especialistas em IA dizem que a arquitetura do modelo torna tal conformidade quase impossível.

A OpenAI pode enfrentar em breve seu maior desafio regulatório, já que as autoridades italianas insistem que a empresa tem até 30 de abril para cumprir as leis locais e europeias de proteção de dados e privacidade, uma tarefa que especialistas em inteligência artificial (IA) dizem ser quase impossível.

As autoridades italianas emitiram uma proibição geral dos produtos GPT da OpenAI no final de março, tornando-se o primeiro país ocidental a rejeitar totalmente os produtos. A ação ocorreu após uma violação de dados em que os clientes do ChatGPT e GPT API podiam ver dados gerados por outros usuários.

Acreditamos que o número de usuários cujos dados foram realmente revelados a outra pessoa é extremamente baixo e entramos em contato com aqueles que podem ser afetados. Levamos isso muito a sério e estamos compartilhando detalhes de nossa investigação e plano aqui. 2/2 https://t.co/JwjfbcHr3g

 

— OpenAI (@OpenAI) 24 de março de 2023

Segundo uma tradução do Bing do pedido italiano que ordena que a OpenAI interrompa suas operações do ChatGPT no país até que possa demonstrar conformidade:

 

“Em sua ordem, a SA italiana destaca que nenhuma informação é fornecida aos usuários e titulares de dados cujos dados são coletados pela Open AI; mais importante, não parece haver base legal que sustente a coleta e o processamento massivos de dados pessoais para ‘treinar’ os algoritmos nos quais a plataforma se baseia.”

A reclamação italiana continua afirmando que a OpenAI também deve implementar medidas de verificação de idade para garantir que seu software e serviços estejam em conformidade com os próprios termos de serviço da empresa, que exigem que os usuários tenham mais de 13 anos.

Para alcançar conformidade de privacidade na Itália e em todo o restante da União Europeia, a OpenAI terá que fornecer uma base para seus processos abrangentes de coleta de dados.

De acordo com o Regulamento Geral de Proteção de Dados (GDPR) da UE, as empresas de tecnologia devem solicitar o consentimento do usuário para treinar com dados pessoais. Além disso, as empresas que operam na Europa também devem dar aos europeus a opção de não participar da coleta e compartilhamento de dados.

Segundo especialistas, isso será um desafio difícil para a OpenAI, porque seus modelos são treinados em enormes conjuntos de dados, que são coletados da internet e transformados em conjuntos de treinamento. Essa forma de treinamento em caixa-preta visa criar um paradigma chamado “emergência”, onde características úteis se manifestam de maneira imprevisível nos modelos.

 

“GPT-4…exibe comportamentos emergentes”.

 

Espere, espere, espere, espere. Se não conhecemos os dados de treinamento, como podemos dizer o que é “emergente” versus o que é “resultado” dele?!?!
Acho que eles estão se referindo à ideia de “emergência”, mas ainda estou incerto sobre o que isso significa. https://t.co/Mnupou6D1d

 

— MMitchell (@mmitchell_ai) 11 de abril de 2023

Infelizmente, isso significa que os desenvolvedores raramente têm como saber exatamente o que está no conjunto de dados. E, como a máquina tende a combinar vários pontos de dados ao gerar saídas, pode estar além do escopo dos técnicos modernos extrair ou modificar partes individuais dos dados.

Margaret Mitchell, especialista em ética de IA, disse ao MIT Technology Review que “a OpenAI vai achar quase impossível identificar os dados de indivíduos e removê-los de seus modelos.”

Para alcançar a conformidade, a OpenAI terá que demonstrar que obteve os dados usados ​​para treinar seus modelos com o consentimento do usuário – algo que os trabalhos de pesquisa da empresa mostram que não é verdade – ou demonstrar que tinha um “interesse legítimo” em coletar os dados em primeiro lugar.

Lilian Edwards, professora de direito da internet na Universidade de Newcastle, disse à MIT Technology Review que a disputa é maior do que apenas a ação italiana, afirmando que “as violações da OpenAI são tão flagrantes que é provável que este caso acabe no Tribunal de Justiça da União Europeia, a mais alta corte da UE.”

Isso coloca a OpenAI em uma posição potencialmente precária. Se não conseguir identificar e remover dados individuais conforme solicitações do usuário, nem fazer alterações nos dados que deturpam as pessoas, pode se ver incapaz de operar seus produtos ChatGPT na Itália após o prazo de 30 de abril.

Os problemas da empresa podem não parar por aí, já que os reguladores franceses, alemães, irlandeses e da UE também estão atualmente considerando ações para regular o ChatGPT.

VEJA MAIS:

Você pode gostar...