Ordem executiva de Biden é ‘certamente desafiadora’ para IA de código aberto, dizem membros da indústria

A ordem executiva sobre segurança de IA da administração Biden estabeleceu seus padrões para a indústria. No entanto, a sua imprecisão levantou preocupações entre a comunidade de IA sobre o sufocamento da inovação.

O presidente dos Estados Unidos, Joe Biden, emitiu uma extensa ordem executiva em 30 de outubro, que visa proteger cidadãos, agências governamentais e empresas, garantindo padrões de segurança para a inteligência artificial (IA).

A ordem estabeleceu seis novos padrões para a segurança e segurança da IA, juntamente com intenções de uso ético da IA dentro das agências governamentais. Biden disse que a ordem está alinhada com os princípios do governo de “segurança, proteção, confiança, abertura”.

Isso inclui mandatos abrangentes, como compartilhar os resultados dos testes de segurança com oficiais para empresas que desenvolvem “qualquer modelo fundamental que represente um risco sério para a segurança nacional, segurança econômica nacional ou saúde pública e segurança nacional”, e “acelerar o desenvolvimento e uso de técnicas que preservam a privacidade”.

No entanto, a falta de detalhes que acompanham as declarações deixou muitos na indústria se perguntando como isso poderia potencialmente reprimir as empresas de desenvolver modelos de ponta.

Adam Struck, sócio fundador da Struck Capital e investidor de IA, disse ao Cointelegraph que a ordem mostra um nível de “seriedade sobre o potencial da IA para remodelar todas as indústrias”.

Ele também apontou que para os desenvolvedores, antecipar riscos futuros de acordo com a legislação, com base em suposições de produtos que ainda não estão totalmente desenvolvidos, é complicado.

“Isso é certamente desafiador para empresas e desenvolvedores, particularmente na comunidade de código aberto, onde a ordem executiva foi menos direta.”

Contudo, ele disse que as intenções da administração de gerenciar as diretrizes por meio de chefes de IA e conselhos de governança de IA em agências reguladoras específicas significam que as empresas que constroem modelos dentro dessas agências devem ter um “entendimento apertado dos frameworks regulatórios” daquela agência.

“Empresas que continuam a valorizar a conformidade de dados e privacidade e fundamentos algorítmicos imparciais devem operar dentro de um paradigma com o qual o governo se sinta confortável.”

O governo já divulgou mais de 700 casos de uso de como está usando IA internamente por meio de seu site “ai.gov”.

Martin Casado, sócio-geral da empresa de capital de risco Andreessen Horowitz, postou no X (anteriormente Twitter) que ele, junto com vários pesquisadores, acadêmicos e fundadores em IA, enviou uma carta à administração de Biden sobre seu potencial para restringir a IA de código aberto.

“Acreditamos fortemente que o código aberto é a única maneira de manter o software seguro e livre de monopólio. Por favor, ajude a amplificar,” ele escreveu.

A carta chamou a ordem executiva de “excessivamente ampla” em sua definição de certos tipos de modelos de IA e expressou medo de que pequenas empresas se enredem nos requisitos necessários para outras empresas maiores.

Jeff Amico, chefe de operações da Gensyn, também postou um sentimento similar, chamando-a de terrível para a inovação nos EUA.

Struck também destacou este ponto, dizendo que enquanto a clareza regulatória pode ser “útil para empresas que estão construindo produtos primeiro em IA”, também é importante notar que os objetivos da “Big Tech” como a OpenAI ou a Anthropic diferem muito das startups de IA em estágio inicial.

“Gostaria de ver os interesses dessas empresas em estágio inicial representados nas conversas entre o governo e o setor privado, pois isso pode garantir que as diretrizes regulatórias não sejam excessivamente favoráveis apenas às maiores empresas do mundo.”

Matthew Putman, CEO e co-fundador da Nanotronics — um líder global em fabricação habilitada para IA — também comentou ao Cointelegraph que a ordem sinaliza a necessidade de frameworks regulatórios que garantam a segurança do consumidor e o desenvolvimento ético da IA em uma escala mais ampla.

“Como esses frameworks regulatórios são implementados agora depende das interpretações e ações dos reguladores”, disse ele.

“Como testemunhamos com as criptomoedas, restrições pesadas impediram a exploração de aplicações potencialmente revolucionárias.”

Putman disse que os medos sobre o potencial “apocalíptico” da IA são “exagerados em relação às suas perspectivas de impacto positivo no curto prazo”.

Ele disse que é mais fácil para aqueles que não estão diretamente envolvidos na construção da tecnologia construir narrativas em torno dos perigos hipotéticos sem observar as aplicações “verdadeiramente inovadoras”, que ele diz estar ocorrendo fora da vista do público.

Indústrias, incluindo fabricação avançada, biotecnologia e energia, estão, nas palavras de Putman, “impulsionando uma revolução da sustentabilidade” com novos controles de processo autônomos que estão melhorando significativamente os rendimentos e reduzindo desperdícios e emissões.

“Essas inovações não teriam sido descobertas sem a exploração proposital de novos métodos. Simplesmente, a IA é muito mais provável de nos beneficiar do que destruir.”

Enquanto a ordem executiva ainda é recente e os insiders da indústria estão correndo para analisar suas intenções, o Instituto Nacional de Padrões e Tecnologia dos EUA e o Departamento de Comércio já começaram a solicitar membros para o recém-estabelecido Consórcio do Instituto de Segurança em Inteligência Artificial.

VEJA MAIS:

Você pode gostar...