Vitalik Buterin: IA pode superar os seres humanos como ‘espécie de ponta’

“Até mesmo Marte pode não ser um lugar seguro” se IAs superinteligentes se voltarem contra a humanidade, alerta o cofundador da Ethereum, Vitalik Buterin.

Se não forem devidamente controladas, inteligências artificiais (IA) superavançadas, têm uma “séria chance” de ultrapassar o desenvolvimento dos seres humanos para se tornarem a próxima “espécie de ponta” do planeta, de acordo com o cofundador da Ethereum, Vitalik Buterin.

Mas isso dependerá da forma como os seres humanos poderão intervir nos avanços da IA, disse ele.

Nova publicação sobre monstros: minha perspectiva atual sobre os debates recentes entre o tecno-otimismo, os riscos de IA e as maneiras de evitar a centralização extrema no século XXI.

— vitalik.eth (@VitalikButerin)

Em uma publicação divulgada em seu blog pessoal em 27 de novembro, Buterin, visto por alguns como um líder ideológico da indústria de criptomoedas, argumentou que a IA é “fundamentalmente diferente” de outras invenções recentes – como as redes sociais, a contracepção, os aviões, as armas, as rodas e a prensa de impressão – pois a IA pode criar um novo tipo de “mente” que pode se voltar contra os interesses humanos, acrescentando:

“A IA é […] um novo tipo de mente que está ganhando inteligência rapidamente e tem sérias chances de ultrapassar as faculdades mentais dos seres humanos e se tornar a nova espécie de ponta do planeta.”

Buterin argumentou que, diferentemente da mudança climática, de uma pandemia causada pelo homem ou de uma guerra nuclear, uma IA superinteligente poderia acabar com a humanidade e não deixar sobreviventes, principalmente se considerar os humanos como uma ameaça à sua soberania. 

“Uma maneira pela qual a IA que deu errado poderia tornar o mundo pior é (quase) a pior maneira possível: ela poderia literalmente causar a extinção humana.”

“Nem mesmo Marte pode ser um refúgio seguro” nesse caso, acrescentou Buterin.

Buterin citou uma pesquisa divulgada em agosto de 2022 com mais de 4.270 pesquisadores de aprendizado de máquina que estimaram uma chance de 5 a 10% de que uma IA avançada exterminaria a humanidade.

No entanto, embora Buterin tenha enfatizado que afirmações dessa natureza são alarmistas, também há maneiras de os seres humanos manterem o controle sobre as máquinas.

Interfaces cerebrais e tecno-otimismo

Buterin sugeriu a integração de interfaces cérebro-computador (BCI) para oferecer aos seres humanos mais controle sobre formas poderosas de computação e cognição baseadas em IA.

Uma BCI é uma via de comunicação entre a atividade elétrica do cérebro e um dispositivo externo, como um computador ou um membro robótico.

Isso reduziria o ciclo de comunicação bidirecional entre o homem e a máquina de segundos para milissegundos e, o que é mais importante, garantiria que os seres humanos mantivessem algum grau de “agência significativa” sobre o mundo, disse Buterin.

Diagrama que descreve dois possíveis ciclos de feedback entre humanos e IA. Fonte: Vitalik.eth

Buterin sugeriu que esse caminho seria mais seguro, pois os seres humanos poderiam se envolver em cada decisão tomada por máquinas de IA.

“Nós [podemos] reduzir o incentivo para transferir a responsabilidade de planejamento de alto nível para a própria IA e, assim, reduzir a chance de a IA fazer algo totalmente desalinhado com os valores da humanidade por conta própria.”

O cofundador da Ethereum também sugeriu a “intenção humana ativa” para levar a IA em uma direção que beneficie a humanidade, já que a maximização do lucro nem sempre leva os humanos ao caminho mais desejável.

Os seres humanos são profundamente bons.

— vitalik.eth (@VitalikButerin)

Buterin concluiu que “nós, seres humanos, somos a estrela mais brilhante” do universo, pois desenvolvemos tecnologia para expandir o potencial humano por milhares de anos e, esperamos, por muitos mais:

“Daqui a dois bilhões de anos, se a Terra ou qualquer parte do universo ainda tiver a beleza da vida terrestre, serão os artifícios humanos, como a viagem espacial e a geoengenharia, que terão feito isso acontecer.”

LEIA MAIS

Você pode gostar...