Como as proteções legais de IA do Google podem mudar as proteções de arte e direitos autorais

Em meio a inúmeras acusações legais em torno de seus serviços de IA, o Google mantém sua posição, prometendo proteger seus usuários.

O Google tem enfrentado uma onda de processos recentemente à medida que as implicações da inteligência artificial gerativa (IA) sobre direitos autorais e privacidade se tornam mais claras.

Diante do debate cada vez mais intensificado, o Google não só defendeu suas práticas de treinamento de IA, mas também prometeu proteger os usuários de seus produtos de IA gerativa contra acusações de violações de direitos autorais.

Entretanto, o guarda-chuva protetor do Google se estende apenas a sete produtos especificados com atributos de IA gerativa e deixa de fora notavelmente a ferramenta de busca Bard do Google. O movimento, embora um alívio para alguns, abre uma caixa de Pandora de questões sobre responsabilidade, a proteção de direitos criativos e o florescente campo da IA.

Além disso, a iniciativa também está sendo percebida como algo mais do que uma mera medida reativa do Google, mas sim uma estratégia meticulosamente elaborada para indenizar a paisagem florescente da IA.

Nuvem legal da IA

O aumento da IA gerativa nos últimos anos reacendeu o debate eterno sobre direitos autorais com um toque moderno. O ponto de discórdia atual gira em torno de se os dados usados para treinar modelos de IA e o output gerado por eles violam a propriedade intelectual (PI) afiliada a entidades privadas.

A este respeito, as acusações contra o Google consistem justamente nisso e, se comprovadas, poderiam não apenas custar muito dinheiro ao Google, mas também estabelecer um precedente que poderia prejudicar o crescimento da IA gerativa como um todo.

A estratégia legal do Google, meticulosamente projetada para inspirar confiança entre seus clientes, se baseia em dois pilares principais, ou seja, a indenização de seus dados de treinamento e seu output gerado. Para elaborar, o Google se comprometeu a assumir a responsabilidade legal caso os dados empregados para elaborar seus modelos de IA enfrentem alegações de violações de PI.

Não apenas isso, mas a gigante da tecnologia também está buscando proteger os usuários contra alegações de que o texto, imagens ou outros conteúdos gerados por seus serviços de IA não infringem os dados pessoais de mais ninguém — abrangendo uma ampla gama de seus serviços, incluindo Google Docs, Slides e Cloud Vertex AI.

O Google argumentou que a utilização de informações publicamente disponíveis para treinar sistemas de IA não é equivalente a roubo, invasão de privacidade ou violação de direitos autorais.

No entanto, essa afirmação está sob rigoroso escrutínio, já que uma série de processos acusa o Google de usar informações pessoais e protegidas por direitos autorais para alimentar seus modelos de IA. Um dos processos propostos em ação coletiva até alega que o Google construiu todo o seu poder de IA às custas de dados secretamente furtados de milhões de usuários da internet.

Portanto, a batalha legal parece ser mais do que apenas um confronto entre o Google e as partes lesadas; ela sublinha um dilema ideológico muito maior, a saber: “Quem realmente é dono dos dados na internet? E até que ponto esses dados podem ser usados para treinar modelos de IA, especialmente quando esses modelos geram outputs comercialmente lucrativos?”

A perspectiva de um artista

A dinâmica entre IA gerativa e a proteção dos direitos de propriedade intelectual é uma paisagem que parece estar evoluindo rapidamente.

A artista de tokens não-fungíveis (NFT) Amitra Sethi disse ao Cointelegraph que o recente anúncio do Google é um desenvolvimento significativo e bem-vindo, acrescentando:

“A política do Google, que estende a proteção legal aos usuários que possam enfrentar reivindicações de violação de direitos autorais devido a conteúdo gerado por IA, reflete uma crescente conscientização dos possíveis desafios colocados pela IA no campo criativo.”

No entanto, Sethi acredita que é importante ter um entendimento matizado dessa política. Embora atue como um escudo contra infrações não intencionais, ela pode não cobrir todos os cenários possíveis. Em sua visão, a eficácia protetora da política poderia depender das circunstâncias únicas de cada caso.

Quando uma obra gerada por IA espelha vagamente o trabalho original de um artista, Sethi acredita que a política pode oferecer algum recurso. Mas em casos de “plágio intencional por meio de IA”, o cenário legal poderia ficar mais complicado. Portanto, ela acredita que cabe aos próprios artistas permanecerem proativos para garantir a proteção total de sua produção criativa.

Sethi disse que recentemente registrou os direitos autorais de seu gênero artístico único, “SoundBYTE”, para destacar a importância dos artistas tomarem medidas ativas para proteger seu trabalho. “Ao registrar minha obra, estabeleci uma reivindicação legal clara às minhas expressões criativas, tornando mais fácil defender meus direitos se eles forem algum dia desafiados”, acrescentou ela.

Diante desses desenvolvimentos, a comunidade artística global parece estar se unindo para aumentar a conscientização e defender leis e regulamentos mais claros sobre o conteúdo gerado por IA.

Ferramentas como Glaze e Nightshade também surgiram para proteger as criações dos artistas. Glaze aplica pequenas alterações na arte que, embora praticamente imperceptíveis ao olho humano, fornecem dados incorretos ou ruins aos geradores de arte em IA. De forma similar, Nightshade permite que artistas adicionem alterações invisíveis aos pixels dentro de suas peças, assim “envenenando os dados” para raspadores de IA.

Exemplos de como obras de arte “envenenadas” podem produzir uma imagem incorreta a partir de uma consulta em IA. Fonte: MIT

Implicações em toda a indústria

A narrativa existente não se limita ao Google e seu conjunto de produtos. Outras grandes empresas de tecnologia como Microsoft e Adobe também fizeram gestos para proteger seus clientes contra reivindicações de direitos autorais semelhantes.

A Microsoft, por exemplo, apresentou uma estratégia de defesa robusta para proteger os usuários de sua ferramenta de IA generativa, Copilot. Desde seu lançamento, a empresa defendeu veementemente a legalidade dos dados de treinamento do Copilot e das informações geradas, afirmando que o sistema serve apenas como um meio para os desenvolvedores escreverem um novo código de forma mais eficiente.

A Adobe incorporou diretrizes em suas ferramentas de IA para garantir que os usuários não se envolvam inadvertidamente em disputas de direitos autorais e também está oferecendo serviços de IA agrupados com garantias legais contra quaisquer infrações externas.

Os casos judiciais inevitáveis que surgirão em relação à IA indubitavelmente moldarão não apenas os quadros legais, mas também os fundamentos éticos sobre os quais futuros sistemas de IA operarão.

Tomi Fyrqvist, co-fundador e diretor financeiro do aplicativo social descentralizado Phaver, disse ao Cointelegraph que, nos próximos anos, não seria surpreendente ver mais ações judiciais dessa natureza surgindo:

“Sempre haverá alguém processando alguém. Muito provavelmente, haverá muitos processos que são oportunistas, mas alguns serão legítimos.”

Colecione este artigo como NFT para preservar este momento na história e mostrar seu apoio ao jornalismo independente.

VEJA MAIS:

Você pode gostar...