Google Delete a política contra o uso da IA ​​para armas ou vigilânciaGoogle Delete a política contra o uso da IA ​​para armas ou vigilância

O Google excluiu silenciosamente sua promessa de não usar a IA para armas ou vigilância, uma promessa que estava em vigor desde 2018. Primeira vista pela Bloomberg, o Google atualizou seus princípios de IA para remover uma seção inteira sobre aplicativos de inteligência artificial que se comprometeu a não perseguir . Significativamente, a política do Google havia declarado anteriormente que não projetaria nem implantaria a tecnologia de IA para uso em armas ou em tecnologia de vigilância que viola “normas aceitas internacionalmente”. Agora parece que esses casos de uso podem não estar totalmente fora da tabela. Veja também: O Google Maps renomeará o Golfo do México para a América após a ordem de Trump “Há uma competição global que ocorre para a liderança de IA dentro de uma paisagem geopolítica cada vez mais complexa”, dizia o post do blog do Google na terça -feira. “Acreditamos que as democracias devem liderar o desenvolvimento da IA, guiadas por valores fundamentais como liberdade, igualdade e respeito pelos direitos humanos. E acreditamos que empresas, governos e organizações que compartilham esses valores devem trabalhar juntos para criar IA que proteja as pessoas, promove o Global crescimento e apóia a segurança nacional. “Embora o post do Google tenha preocupado sua atualização de princípios de IA, ele não mencionou explicitamente a exclusão de sua proibição de armas ou vigilância da IA. Quando contatado para comentar, um porta -voz do Google direcionou Mashable de volta à postagem do blog. Velocidade de luz mashable “(w) eu atualizando os princípios por várias razões, incluindo as enormes mudanças na tecnologia de IA ao longo dos anos e a onipresença da tecnologia, o desenvolvimento de princípios e estruturas de IA por órgãos de governo globais e os Paisagem geopolítica em evolução “, disse o porta -voz. Princípios de IA do Google listando os “Aplicativos que não perseguiremos” a partir de 30 de janeiro. Crédito: Captura de tela: Mashable / Google Google publicou pela primeira vez seus princípios de IA em 2018, após protestos significativos dos funcionários contra seu trabalho com o Departamento de Defesa dos EUA. (A empresa já havia removido infame “Não seja mau” de seu código de conduta no mesmo ano.) O Projeto Maven teve como objetivo usar a IA para melhorar os sistemas de direcionamento de armas, interpretando as informações de vídeo para aumentar a precisão dos drones militares. Em uma carta aberta que abril, milhares de funcionários expressaram a crença de que “o Google não deveria estar no negócio da guerra” e solicitou que a empresa “redigisse, divulgue e faça cumprir uma política clara, afirmando que nem o Google nem seus contratados jamais serão construídos Tecnologia de guerra “. Os princípios da AI da empresa foram o resultado, com o Google não renovando seu contrato com o Pentágono em 2019. No entanto, parece que a atitude da gigante da tecnologia em relação à tecnologia de armas de IA pode agora estar mudando. A nova atitude do Google em relação às armas de IA pode ser um esforço para acompanhar os concorrentes. Em janeiro passado, o OpenAI alterou sua própria política para remover a proibição de “atividade que tem alto risco de danos físicos”, incluindo “desenvolvimento de armas” e “militar e guerra”. Em uma declaração para mashable na época, um porta -voz do Openai esclareceu que essa mudança era para fornecer clareza sobre “casos de uso de segurança nacional”. “Não ficou claro se esses casos de uso benéficos seriam permitidos em” militares “em nossas políticas anteriores , “Disse o porta -voz. Openando a possibilidade de IA armada não é a única mudança que o Google fez em seus princípios de IA. Em 30 de janeiro, a política do Google listou sete objetivos principais para aplicativos de IA: “Seja socialmente benéfico”, “Evite criar ou reforçar o viés injusto”, “ser construído e testado para segurança”, “seja responsável pelas pessoas”, “incorporam privacidade de privacidade Os princípios de design, “” defendem altos padrões de excelência científica “e” sejam disponibilizados para usos que concordam com esses princípios “. Agora, a política revisada do Google consolidou esta lista para apenas três princípios, apenas afirmando que sua abordagem à IA é fundamentada em “Innovação ousada”, “Desenvolvimento e implantação responsáveis” e “processo colaborativo, juntos”. A empresa especifica que isso inclui aderir a “princípios amplamente aceitos do direito internacional e dos direitos humanos”. Ainda assim, qualquer menção de armas ou vigilância está agora conspicuamente ausente. Tópicos Inteligência Artificial Google

By Daniel Wege

Consultor HAZOP Especializado em IA | 20+ Anos Transformando Riscos em Resultados | Experiência Global: PETROBRAS, SAIPEM e WALMART

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *