Können Sie darauf vertrauen, dass KI die KI schützt?

Quellknoten: 1884060

Treffen Sie die führenden Führungskräfte von heute online beim Data Summit am 9. März. Registrieren hier.


Da KI nun Einzug in den Mainstream der IT-Architektur hält, geht es darum, sicherzustellen, dass sie auch dann sicher bleibt, wenn sie Datenquellen ausgesetzt wird, die außerhalb der Kontrolle des Unternehmens liegen. Vom Rechenzentrum über die Cloud bis zum Edge muss sich die KI mit einer Vielzahl von Schwachstellen und einem immer komplexer werdenden Spektrum an Bedrohungen auseinandersetzen, die fast alle von der KI selbst gesteuert werden.

In der Zwischenzeit wird der Einsatz immer höher, da KI wahrscheinlich das Rückgrat unseres Gesundheitswesens, des Transportwesens, des Finanzwesens und anderer Sektoren bilden wird, die für die Unterstützung unserer modernen Lebensweise von entscheidender Bedeutung sind. Bevor Unternehmen also anfangen, KI zu tief in diese verteilten Architekturen zu drängen, könnte es hilfreich sein, einen Moment innezuhalten, um sicherzustellen, dass sie angemessen geschützt werden kann.

Vertrauen und Transparenz

In einem aktuellen Interview mit VentureBeat: Seth Dobrin, Chief AI Officer von IBM bemerkte dieses Gebäude Vertrauen und Transparenz in der gesamten KI-Datenkette ist von entscheidender Bedeutung, wenn das Unternehmen den größtmöglichen Nutzen aus seiner Investition ziehen möchte. Im Gegensatz zu herkömmlichen Architekturen, die einfach heruntergefahren oder ihrer Daten beraubt werden können, wenn sie durch Viren und Malware kompromittiert werden, ist die Gefahr für die KI viel größer, da ihr beigebracht werden kann, sich anhand der Daten, die sie von einem Endpunkt erhält, neu zu trainieren.

„Der Endpunkt ist eine REST-API, die Daten sammelt“, sagte Dobrin. „Wir müssen die KI vor Vergiftungen schützen. Wir müssen sicherstellen, dass KI-Endpunkte sicher sind und kontinuierlich überwacht werden, nicht nur auf Leistung, sondern auch auf Voreingenommenheit.“

Zu diesem Zweck arbeite IBM an der Etablierung, sagte Dobrin gegnerische Robustheit auf der Systemebene von Plattformen wie Watson. Durch die Implementierung von KI-Modellen, die andere KI-Modelle abfragen, um ihre Entscheidungsprozesse zu erklären, und diese Modelle dann korrigieren, wenn sie von den Normen abweichen, wird das Unternehmen in der Lage sein, den Sicherheitsstatus mit der Geschwindigkeit der heutigen schnelllebigen digitalen Wirtschaft aufrechtzuerhalten. Dafür ist jedoch ein Umdenken erforderlich, weg von der Jagd und Verhinderung schädlichen Codes hin zur Überwachung und Verwaltung der Reaktion der KI auf scheinbar gewöhnliche Daten.

Es kursieren bereits Berichte über die vielen raffinierten Methoden, mit denen Daten manipuliert werden, um KI dazu zu bringen, ihren Code auf schädliche Weise zu verändern. Jim Dempsey, Dozent an der UC Berkeley Law School und leitender Berater des Stanford Cyber ​​Policy Center, sagt, dass es möglich sei, Audio zu erstellen, das für ML-Algorithmen wie Sprache klingt, für Menschen jedoch nicht. Bilderkennungssysteme und tiefe neuronale Netze können durch Störungen, die für das menschliche Auge nicht wahrnehmbar sind, in die Irre geführt werden, manchmal schon durch die Verschiebung eines einzelnen Pixels. Darüber hinaus können diese Angriffe auch dann durchgeführt werden, wenn der Täter keinen Zugriff auf das Modell selbst oder die zum Trainieren verwendeten Daten hat.

Vorbeugen und reagieren

Um dem entgegenzuwirken, muss sich das Unternehmen auf zwei Dinge konzentrieren. Erstens, sagt John Roese, globaler CTO von Dell Technologies, muss es mehr Ressourcen für die Verhinderung und Reaktion auf Angriffe bereitstellen. Die meisten Unternehmen sind in der Lage, Bedrohungen mithilfe von KI-gesteuerten Event-Information-Management-Diensten oder einem Managed-Security-Service-Provider zu erkennen, aber Prävention und Reaktion sind immer noch zu langsam, um eine angemessene Eindämmung eines schwerwiegenden Verstoßes zu gewährleisten.

Dies führe zur zweiten Änderung, die das Unternehmen umsetzen müsse, heißt es Corey Thomas, CEO von Rapid7: Stärken Sie Prävention und Reaktion mit mehr KI. Dies ist für die meisten Unternehmen eine schwierige Pille, da sie der KI im Wesentlichen Spielraum gibt, Änderungen an der Datenumgebung vorzunehmen. Thomas sagt jedoch, dass es Möglichkeiten gibt, dies zu erreichen, die es der KI ermöglichen, auf den Sicherheitsaspekten zu funktionieren, die sie am besten beherrscht, während wichtige Fähigkeiten menschlichen Bedienern vorbehalten bleiben.

Am Ende kommt es auf das Vertrauen an. KI ist derzeit der Neuling im Büro und sollte daher nicht über die Schlüssel zum Tresor verfügen. Aber mit der Zeit, wenn er sich im Einstiegsbereich bewährt, sollte er wie jeder andere Mitarbeiter Vertrauen gewinnen. Das bedeutet, es zu belohnen, wenn es gute Leistungen erbringt, es zu lehren, es besser zu machen, wenn es scheitert, und stets sicherzustellen, dass es über ausreichende Ressourcen und die richtigen Daten verfügt, um sicherzustellen, dass es versteht, was zu tun ist und wie man es richtig macht.

Die Mission von VentureBeat soll ein digitaler Marktplatz für technische Entscheidungsträger sein, um sich Wissen über transformative Unternehmenstechnologie anzueignen und Transaktionen durchzuführen. Mehr erfahren

Quelle: https://venturebeat.com/2022/02/04/can-you-trust-ai-to-protect-ai/

Zeitstempel:

Mehr von AI - VentureBeat