ChatGPT e IA devem pagar pelas notícias que consomem: CEO da News Corp Australia

Michael Miller disse que a IA generativa é um movimento das empresas digitais para pegar o conteúdo criativo de outras pessoas “sem remunerá-las por seu trabalho original”.

Os criadores de aplicativos movidos a inteligência artificial (IA) devem pagar pelas notícias e pelo conteúdo usado para melhorar seus produtos, de acordo com o CEO da News Corp Australia.

Em um editorial de 2 de abril no The Australian, Michael Miller pediu aos “criadores de jornalismo e conteúdo originais” que evitassem os erros do passado que “dizimaram suas indústrias”, permitindo que as empresas de tecnologia lucrassem com o uso de suas histórias e informações sem compensação.

Chatbots são softwares que ingerem notícias, dados e outras informações para produzir respostas a consultas que imitam a fala humana escrita ou falada, sendo o mais notável o chatbot ChatGPT-4 da empresa de IA OpenAI.

De acordo com Miller, o rápido aumento da IA generativa representa outro movimento de poderosas empresas digitais para desenvolver “um novo pote de ouro para maximizar receitas e lucros, pegando o conteúdo criativo de outras pessoas sem remunerá-las por seu trabalho original”.

Usando a OpenAI como exemplo, Miller afirmou que a empresa “estabeleceu rapidamente um negócio” no valor de US$ 30 bilhões “usando o conteúdo original e a criatividade dos outros sem remuneração e atribuição”.

O governo federal australiano implementou o News Media Bargaining Code em 2021, que obriga as plataformas de tecnologia na Austrália a pagar aos editores de notícias pelo conteúdo de notícias disponibilizado ou vinculado em suas plataformas.

Miller diz que leis semelhantes são necessárias para a IA, para que todos os criadores de conteúdo sejam devidamente compensados por seu trabalho.

“Os criadores merecem ser recompensados por seu trabalho original sendo usado por mecanismos de IA que estão invadindo o estilo e o tom não apenas de jornalistas, mas (para citar alguns) músicos, autores, poetas, historiadores, pintores, cineastas e fotógrafos.”

Mais de 2.600 líderes e pesquisadores de tecnologia assinaram recentemente uma carta aberta pedindo uma pausa temporária no desenvolvimento da inteligência artificial (IA), temendo “riscos profundos para a sociedade e a humanidade”.

Enquanto isso, a agência reguladora da Itália responsável pela proteção de dados anunciou um bloqueio temporário do ChatGPT e abriu uma investigação sobre suspeitas de violação das regras de privacidade de dados.

Miller acredita que criadores de conteúdo e empresas de IA podem se beneficiar de um acordo, em vez de bloqueios ou proibições definitivas da tecnologia.

Eu respeito as preocupações, mas não vou assinar isso. LLMs não se tornarão AGIs. Eles representam riscos sociais, assim como muitas coisas. Eles também têm um grande potencial para o bem. A pressão social para diminuir a P&D deve ser reservada para armas biológicas e armas nucleares, etc., não para casos complexos como este.

— Ben Goertzel (@bengoertzel) 29 de março de 2023

Ele escreveu que com “guardas de proteção apropriadas”, a IA tem o potencial de se tornar um recurso jornalístico valioso. Ele pode ajudar na criação de conteúdo, “reunir fatos mais rapidamente”, ajudar a publicar em várias plataformas e acelerar a produção de vídeo.

A indústria cripto também está começando a ver mais projetos usando IA, embora ainda esteja nos estágios iniciais.

Miller acredita que os mecanismos de IA correm um risco para seu sucesso futuro se não conseguirem convencer o público de que suas informações são confiáveis e credíveis, acrescentando que “para conseguir isso, eles terão que compensar de forma justa aqueles que fornecem a substância para seu sucesso”.

VEJA MAIS:

Você pode gostar...