Empresas de IA se comprometem com IA segura e transparente
A administração Biden enfatizou a responsabilidade das empresas de IA em garantir que seus produtos sejam seguros para uso.
Em 21 de julho, a Casa Branca anunciou que empresas proeminentes de inteligência artificial (IA), como a OpenAI, Google e Microsoft, se comprometeram a desenvolver tecnologia de IA segura, confiável e transparente. A Casa Branca também reconheceu outras empresas como Amazon, Anthropic, Meta e Inflection por se comprometerem com a segurança da IA.
A administração Biden enfatizou a responsabilidade das empresas em garantir a segurança de seus produtos e aproveitar o potencial da IA, ao mesmo tempo que promovem altos padrões em seu desenvolvimento.
Kent Walker, presidente de assuntos globais do Google, reconheceu que alcançar sucesso em IA requer colaboração. Ele expressou satisfação em se unir a outras empresas líderes em IA para apoiar esses compromissos e assegurou que o Google continuaria a trabalhar com outras empresas compartilhando informações e melhores práticas.
Entre os compromissos estão testes de segurança pré-lançamento para sistemas de IA, compartilhamento das melhores práticas em segurança de IA, investimento em segurança cibernética e proteção contra ameaças internas, e permitir a denúncia de vulnerabilidades em sistemas de IA por terceiros. Anna Makanju, vice-presidente de assuntos globais da OpenAI, afirmou que legisladores em todo o mundo estão contemplando novas regulamentações para sistemas avançados de IA.
Em junho, legisladores bipartidários dos Estados Unidos apresentaram um projeto de lei para criar uma comissão de IA para abordar preocupações na indústria em rápido crescimento. A administração Biden afirma estar colaborando com parceiros globais como Austrália, Canadá, França, Alemanha, Índia, Israel, Itália, Japão, Nigéria, Filipinas e Reino Unido para estabelecer um quadro internacional para a IA.
De acordo com Brad Smith, presidente da Microsoft, a empresa apoia os compromissos voluntários da Casa Branca e se compromete independentemente com práticas adicionais que estão alinhadas com os objetivos. Ao fazer isso, a Microsoft pretende expandir suas práticas de IA seguras e responsáveis e colaborar com outros líderes do setor.
Líderes globais, incluindo o secretário-geral das Nações Unidas, expressaram preocupações sobre o possível uso indevido da IA generativa e da tecnologia deepfake em zonas de conflito. Em maio, a vice-presidente dos Estados Unidos, Kamala Harris, se reuniu com líderes em IA para estabelecer bases para o desenvolvimento ético de IA e anunciou um investimento de 140 milhões de dólares em pesquisa e desenvolvimento de IA pela National Science Foundation.
VEJA MAIS: