Você pode confiar na IA para proteger a IA?

Nó Fonte: 1884060

Junte-se online aos principais executivos da atualidade no Data Summit em 9 de março. Registro SUA PARTICIPAÇÃO FAZ A DIFERENÇA.


Agora que a IA está se tornando parte principal da arquitetura de TI, começou a corrida para garantir que ela permaneça segura quando exposta a fontes de dados que estão além do controle da empresa. Do data center à nuvem e ao edge, a IA terá de enfrentar uma ampla variedade de vulnerabilidades e um conjunto cada vez mais complexo de ameaças, quase todas impulsionadas pela própria IA.

Entretanto, os riscos serão cada vez mais elevados, dado que a IA irá provavelmente fornecer a espinha dorsal dos nossos cuidados de saúde, transportes, finanças e outros setores que são cruciais para apoiar o nosso modo de vida moderno. Portanto, antes que as organizações comecem a introduzir profundamente a IA nessas arquiteturas distribuídas, pode ser útil fazer uma pausa por um momento para garantir que ela possa ser adequadamente protegida.

Confiança e transparência

Em uma entrevista recente ao VentureBeat, Diretor de IA da IBM, Seth Dobrin observou que o edifício confiança e transparência em toda a cadeia de dados de IA é crucial se a empresa espera obter o máximo valor do seu investimento. Ao contrário das arquiteturas tradicionais, que podem simplesmente ser desligadas ou ter seus dados roubados quando comprometidos por vírus e malware, o perigo para a IA é muito maior porque ela pode ser ensinada a se reciclar a partir dos dados que recebe de um endpoint.

“O endpoint é uma API REST que coleta dados”, disse Dobrin. “Precisamos proteger a IA do envenenamento. Precisamos garantir que os endpoints de IA sejam seguros e monitorados continuamente, não apenas em termos de desempenho, mas também de preconceitos.”

Para fazer isso, Dobrin disse que a IBM está trabalhando no estabelecimento robustez adversária no nível do sistema de plataformas como o Watson. Ao implementar modelos de IA que questionam outros modelos de IA para explicar os seus processos de tomada de decisão e, em seguida, corrigir esses modelos caso se desviem das normas, a empresa será capaz de manter posturas de segurança à velocidade da economia digital acelerada de hoje. Mas isso requer uma mudança de pensamento, deixando de caçar e impedir códigos nefastos e passar a monitorar e gerenciar a reação da IA ​​ao que parecem ser dados comuns.

Já estão a começar a circular relatórios sobre as muitas formas engenhosas como os dados estão a ser manipulados para enganar a IA e fazê-la alterar o seu código de formas prejudiciais. Jim Dempsey, professor da Faculdade de Direito da UC Berkeley e consultor sênior do Stanford Cyber ​​Policy Center, diz que é possível criar áudio que soe como fala para algoritmos de ML, mas não para humanos. Os sistemas de reconhecimento de imagem e as redes neurais profundas podem ser desviados com perturbações que são imperceptíveis ao olho humano, às vezes apenas pelo deslocamento de um único pixel. Além disso, estes ataques podem ser lançados mesmo que o perpetrador não tenha acesso ao próprio modelo ou aos dados utilizados para treiná-lo.

Prevenir e responder

Para contrariar esta situação, a empresa deve concentrar-se em duas coisas. Primeiro, diz CTO global da Dell Technologies, John Roese, deve dedicar mais recursos à prevenção e resposta a ataques. A maioria das organizações é especialista em detectar ameaças usando serviços de gerenciamento de informações de eventos orientados por IA ou um provedor de serviços de segurança gerenciados, mas a prevenção e a resposta ainda são muito lentas para fornecer a mitigação adequada de uma violação grave.

Isto leva à segunda mudança que a empresa deve implementar, diz CEO da Rapid7, Corey Thomas: capacitar a prevenção e a resposta com mais IA. Esta é uma pílula difícil de engolir para a maioria das organizações porque essencialmente dá à IA margem de manobra para fazer alterações no ambiente de dados. Mas Thomas diz que existem maneiras de fazer isso que permitem que a IA funcione nos aspectos de segurança com os quais ela é mais adequada, ao mesmo tempo que reserva capacidades essenciais para operadores humanos.

No final, tudo se resume à confiança. AI é o novo garoto no escritório agora, então não deveria ter as chaves do cofre. Mas com o tempo, à medida que prova o seu valor em ambientes de nível inicial, deverá ganhar confiança tal como qualquer outro funcionário. Isto significa recompensá-lo quando tiver um bom desempenho, ensiná-lo a fazer melhor quando falhar e certificar-se sempre de que dispõe dos recursos e dos dados adequados para garantir que compreende a coisa certa a fazer e a forma correta de o fazer.

A missão do VentureBeat é ser uma praça digital para os tomadores de decisões técnicas adquirirem conhecimento sobre tecnologia empresarial transformadora e realizarem transações. Saber Mais​

Fonte: https://venturebeat.com/2022/02/04/can-you-trust-ai-to-protect-ai/

Carimbo de hora:

Mais de AI - VentureBeat