Etherscan lança leitor de código com inteligência artificial

A ferramenta permite que os usuários recuperem e interpretem o código-fonte de um endereço de contrato específico por meio de um prompt de IA.

Em 19 de junho, a plataforma de análise e explorador de blocos Ethereum, Etherscan, lançou uma nova ferramenta chamada “Code Reader” que utiliza inteligência artificial para recuperar e interpretar o código-fonte de um endereço de contrato específico. Após um usuário inserir um comando, o Code Reader gera uma resposta através do modelo largo de linguagem da OpenAI, fornecendo informações sobre os arquivos de código-fonte do contrato. A página do tutorial da ferramenta diz:

“Para usar a ferramenta, você precisa de uma chave API válida do OpenAI e limites de uso suficientes do OpenAI. Esta ferramenta não armazena suas chaves de API.”

Os casos de uso do Code Reader incluem obter insights mais profundos sobre o código dos contratos por meio de explicações geradas por IA, obter listas abrangentes de funções de contrato inteligente relacionadas aos dados do Ethereum, e entender como o contrato subjacente interage com aplicativos descentralizados. “Uma vez que os arquivos do contrato são recuperados, você pode escolher um arquivo de código-fonte específico para ler. Além disso, você pode modificar o código-fonte diretamente dentro da UI antes de compartilhá-lo com a IA”, diz a página.

Uma demonstração da ferramenta Code Reader. Fonte: Etherscan

Em meio a um boom de IA, alguns especialistas alertaram sobre a viabilidade dos modelos de IA atuais. De acordo com um relatório recente publicado pela empresa de capital de risco de Singapura, Foresight Ventures, “recursos de capacidade de computação serão o próximo grande campo de batalha para a próxima década”. Dito isto, apesar da crescente demanda por treinamento de grandes modelos de IA em redes descentralizadas de capacidade de computação distribuída, os pesquisadores dizem que os protótipos atuais enfrentam restrições significativas, como sincronização complexa de dados, otimização de rede, preocupações com privacidade e segurança de dados.

Em um exemplo, os pesquisadores da Foresight observaram que o treinamento de um grande modelo com 175 bilhões de parâmetros com representação de ponto flutuante de precisão única exigiria cerca de 700 gigabytes. No entanto, o treinamento distribuído exige que esses parâmetros sejam frequentemente transmitidos e atualizados entre os nós de computação. No caso de 100 nós de computação e cada nó precisando atualizar todos os parâmetros a cada passo unitário, o modelo exigiria a transmissão de 70 terabytes de dados por segundo, muito além da capacidade da maioria das redes. Os pesquisadores resumiram:

“Na maioria dos cenários, modelos pequenos de IA ainda são uma escolha mais viável, e não devem ser negligenciados muito cedo na maré de FOMO [medo de perder] em modelos grandes.”

VEJA MAIS:

Você pode gostar...