Google abre caminho para conteúdo produzido por IA com nova política
Uma mudança sutil na descrição do sistema de conteúdo útil da Pesquisa Google poderia muito bem ser o início de uma nova era de distribuição de conteúdo na Internet. Algo para ser abraçado ou uma pausa para reflexão?
Em 16 de setembro, o Google atualizou a descrição de seu sistema de conteúdo útil. O sistema foi projetado para ajudar administradores de sites a criar conteúdo que tenha um bom desempenho no mecanismo de busca do Google.
O Google não divulga todos os meios e maneiras que utiliza para “classificar” sites, pois isso está no cerne de seu modelo de negócios e de sua propriedade intelectual valiosa, mas ele fornece dicas sobre o que deve estar lá e o que não deve.
Até 16 de setembro, um dos fatores em que o Google se concentrava era quem escreveu o conteúdo. Ele dava mais peso a sites que acreditava terem sido escritos por seres humanos reais, na tentativa de elevar conteúdo de alta qualidade e escrito por humanos em relação ao que provavelmente era escrito usando uma ferramenta de inteligência artificial (IA) como o ChatGPT.
O Google enfatizou esse ponto em sua descrição do sistema de conteúdo útil: “O sistema de conteúdo útil do Google Search gera um sinal usado por nossos sistemas de classificação automatizados para garantir melhor que as pessoas vejam conteúdo original e útil escrito por pessoas, para pessoas, nos resultados de pesquisa.”
No entanto, na versão mais recente, leitores atentos notaram uma mudança sutil:
“O sistema de conteúdo útil do Google Search gera um sinal usado por nossos sistemas de classificação automatizados para garantir melhor que as pessoas vejam conteúdo original e útil criado para pessoas nos resultados de pesquisa.”
Parece que o conteúdo escrito por pessoas não é mais uma preocupação para o Google, e isso foi confirmado por um porta-voz do Google, que disse ao Gizmodo: “Essa edição foi uma pequena mudança […] para alinhá-la melhor com nossas orientações sobre conteúdo gerado por IA na Pesquisa. A Pesquisa está mais preocupada com a qualidade do conteúdo que classificamos em vez de como foi produzido. Se o conteúdo for produzido exclusivamente para fins de classificação (seja por meio de humanos ou automação), isso violaria nossas políticas de spam e abordaríamos isso na Pesquisa, como fizemos com sucesso com conteúdo produzido em massa ao longo dos anos.”
Isso levanta várias questões interessantes: como o Google define qualidade? E como o leitor saberá a diferença entre um artigo gerado por humano e um gerado por máquina, e isso importará?
Mike Bainbridge, cujo projeto Don’t Believe The Truth investiga a questão da verificabilidade e legitimidade na web, disse ao Cointelegraph:
“Essa mudança de política é impressionante, francamente. Lavar as mãos de algo tão fundamental é impressionante. Isso abre as comportas para uma onda de informações não verificadas e não fontadas varrendo a internet.”
A verdade versus IA
Em termos de qualidade, uma pesquisa rápida online mostra que tipo de diretrizes o Google usa para definir qualidade. Os fatores incluem comprimento do artigo, número de imagens e subtítulos incluídos, ortografia, gramática, etc.
Ele também aprofunda e olha quanto conteúdo um site produz e com que frequência para ter uma ideia de quão “sério” é o site. E isso funciona muito bem. Claro, o que ele não está fazendo é realmente ler o que está escrito na página e avaliá-lo quanto ao estilo, estrutura e precisão.
Quando o ChatGPT entrou em cena há quase um ano, a discussão estava centrada em sua capacidade de criar texto bonito e, acima de tudo, convincente, com praticamente nenhum fato.
No início de 2023, um escritório de advocacia nos Estados Unidos foi multado por apresentar uma ação contendo referências a casos e legislação que simplesmente não existem. Um advogado perspicaz pediu simplesmente ao ChatGPT para criar uma apresentação contundente sobre o caso, e ele o fez, citando precedentes e eventos que inventou do nada. Tal é o poder do software de IA que, aos olhos não treinados, os textos que ele produz parecem inteiramente genuínos.
Então, o que um leitor pode fazer para saber que um ser humano escreveu a informação que encontraram ou o artigo que estão lendo, e se é mesmo preciso? Existem ferramentas disponíveis para verificar essas coisas, mas como elas funcionam e quão precisas são está envolto em mistério. Além disso, o usuário médio da web é improvável que verifique tudo o que lê online.
Até o momento, existia quase uma fé cega de que o que aparece na tela é real, como texto em um livro. Que alguém em algum lugar estava verificando todo o conteúdo, garantindo sua legitimidade. E mesmo que isso não fosse amplamente conhecido, o Google estava fazendo isso para a sociedade, mas não mais.
Nesse sentido, já existia a fé cega de que o Google era bom o suficiente para detectar o que é real e o que não é e filtrá-lo adequadamente, mas quem pode dizer o quão bom ele é nisso? Talvez uma grande quantidade do conteúdo já consumido seja gerada por IA.
Dada a melhoria constante da IA, é provável que a quantidade aumente, potencialmente borrando as linhas e tornando quase impossível diferenciar um do outro.
Bainbridge acrescentou: “A trajetória da internet é perigosa – um campo de jogo aberto onde o teclado realmente se tornará mais poderoso do que a espada. Suba até o sótão e tire as enciclopédias; elas vão ser úteis!”
O Google não respondeu ao pedido de comentários do Cointelegraph até a data de publicação.
Colecione este artigo como NFT para preservar este momento na história e mostrar seu apoio ao jornalismo independente no espaço cripto.
VEJA MAIS: