Pouvez-vous faire confiance à l'IA pour protéger l'IA ?

Nœud source: 1884060

Rejoignez les principaux dirigeants d'aujourd'hui en ligne lors du Data Summit le 9 mars. S'inscrire ici.


Maintenant que l’IA s’impose dans l’architecture informatique, la course est lancée pour garantir sa sécurité lorsqu’elle est exposée à des sources de données échappant au contrôle de l’entreprise. Du centre de données au cloud en passant par la périphérie, l’IA devra faire face à une grande variété de vulnérabilités et à un éventail de menaces de plus en plus complexes, qui seront presque toutes pilotées par l’IA elle-même.

Parallèlement, les enjeux seront de plus en plus élevés, étant donné que l’IA est susceptible de constituer l’épine dorsale de nos soins de santé, de nos transports, de nos finances et d’autres secteurs cruciaux pour soutenir notre mode de vie moderne. Ainsi, avant que les organisations ne commencent à introduire trop profondément l’IA dans ces architectures distribuées, il pourrait être utile de faire une pause un instant pour s’assurer qu’elle peut être correctement protégée.

Confiance et transparence

Dans une récente interview avec VentureBeat, Seth Dobrin, directeur de l'IA d'IBM a noté que le bâtiment confiance et transparence dans toute la chaîne de données de l'IA est crucial si l’entreprise espère tirer le maximum de valeur de son investissement. Contrairement aux architectures traditionnelles qui peuvent simplement être arrêtées ou volées de données lorsqu'elles sont compromises par des virus ou des logiciels malveillants, le danger pour l'IA est bien plus grand, car on peut lui apprendre à se recycler à partir des données qu'elle reçoit d'un point final.

"Le point final est une API REST collectant des données", a déclaré Dobrin. « Nous devons protéger l’IA des empoisonnements. Nous devons nous assurer que les points de terminaison de l’IA sont sécurisés et surveillés en permanence, non seulement pour leurs performances, mais aussi pour leurs biais.

Pour ce faire, Dobrin a déclaré qu'IBM travaillait à l'établissement robustesse contradictoire au niveau système de plateformes comme Watson. En mettant en œuvre des modèles d'IA qui interrogent d'autres modèles d'IA pour expliquer leurs processus de prise de décision, puis corrigent ces modèles s'ils s'écartent des normes, l'entreprise sera en mesure de maintenir des postures de sécurité au rythme rapide de l'économie numérique actuelle. Mais cela nécessite de ne plus penser à la chasse et à la lutte contre les codes néfastes, mais plutôt à surveiller et gérer la réaction de l’IA à ce qui semble être des données ordinaires.

Déjà, des rapports commencent à circuler sur les nombreuses façons ingénieuses dont les données sont manipulées pour tromper l’IA et lui faire modifier son code de manière nuisible. Jim Dempsey, maître de conférences à la faculté de droit de l'UC Berkeley et conseiller principal du Stanford Cyber ​​Policy Center, affirme qu'il est possible de créer un son qui ressemble à de la parole pour les algorithmes de ML, mais pas pour les humains. Les systèmes de reconnaissance d’images et les réseaux neuronaux profonds peuvent être égarés par des perturbations imperceptibles à l’œil humain, parfois simplement en déplaçant un seul pixel. De plus, ces attaques peuvent être lancées même si l’auteur n’a pas accès au modèle lui-même ni aux données utilisées pour l’entraîner.

Prévenir et réagir

Pour contrer cela, l’entreprise doit se concentrer sur deux choses. D'abord, dit John Roese, directeur technique mondial de Dell Technologies, elle doit consacrer davantage de ressources à la prévention et à la réponse aux attaques. La plupart des organisations sont capables de détecter les menaces à l'aide de services de gestion des informations sur les événements basés sur l'IA ou d'un fournisseur de services de sécurité gérée, mais la prévention et la réponse sont encore trop lentes pour fournir une atténuation adéquate d'une violation grave.

Cela conduit au deuxième changement que l'entreprise doit mettre en œuvre, dit Corey Thomas, PDG de Rapid7: renforcez la prévention et la réponse avec plus d’IA. Il s’agit d’une pilule difficile à avaler pour la plupart des organisations, car elle donne essentiellement à l’IA une marge de manœuvre pour apporter des modifications à l’environnement des données. Mais Thomas affirme qu’il existe des moyens d’y parvenir qui permettent à l’IA de fonctionner sur les aspects de sécurité qu’elle maîtrise le mieux tout en réservant les capacités clés aux opérateurs humains.

En fin de compte, c’est une question de confiance. L'IA est la petite nouvelle dans le bureau en ce moment, elle ne devrait donc pas avoir les clés du coffre-fort. Mais au fil du temps, à mesure qu’il fait ses preuves dans les environnements d’entrée de gamme, il devrait gagner la confiance, comme n’importe quel autre employé. Cela signifie le récompenser lorsqu’il obtient de bons résultats, lui apprendre à faire mieux en cas d’échec et toujours s’assurer qu’il dispose des ressources adéquates et des données appropriées pour garantir qu’il comprend la bonne chose à faire et la bonne manière de le faire.

La mission de VentureBeat est d'être une place publique numérique permettant aux décideurs techniques d'acquérir des connaissances sur la technologie d'entreprise transformatrice et d'effectuer des transactions. En savoir plus

Source : https://venturebeat.com/2022/02/04/can-you-trust-ai-to-protect-ai/

Horodatage:

Plus de AI - VentureBeat