Czy możesz zaufać sztucznej inteligencji, aby chronić sztuczną inteligencję?

Węzeł źródłowy: 1884060

Dołącz do dzisiejszych czołowych menedżerów online podczas Data Summit 9 marca. Zarejestrować tutaj.


Teraz, gdy sztuczna inteligencja wkracza w główny nurt architektury IT, trwa wyścig o zapewnienie, że pozostanie ona bezpieczna w przypadku kontaktu ze źródłami danych, które są poza kontrolą przedsiębiorstwa. Od centrum danych, przez chmurę, po obrzeża, sztuczna inteligencja będzie musiała stawić czoła szerokiej gamie luk w zabezpieczeniach i coraz bardziej złożonej gamie zagrożeń, z których prawie wszystkie będą napędzane przez samą sztuczną inteligencję.

Tymczasem stawka będzie coraz wyższa, biorąc pod uwagę, że sztuczna inteligencja prawdopodobnie będzie stanowić podstawę naszej opieki zdrowotnej, transportu, finansów i innych sektorów, które są kluczowe dla wspierania naszego nowoczesnego stylu życia. Dlatego zanim organizacje zaczną zbyt głęboko wpychać sztuczną inteligencję w te rozproszone architektury, warto zatrzymać się na chwilę, aby upewnić się, że może być odpowiednio chroniona.

Zaufanie i przejrzystość

W niedawnym wywiadzie dla VentureBeat, Seth Dobrin, szef działu sztucznej inteligencji IBM zauważyłem, że budynek zaufanie i przejrzystość w całym łańcuchu danych AI ma kluczowe znaczenie, jeśli przedsiębiorstwo ma nadzieję na uzyskanie maksymalnej wartości ze swojej inwestycji. W przeciwieństwie do tradycyjnych architektur, które można po prostu zamknąć lub obrabować z danych, gdy zostaną naruszone przez wirusy i złośliwe oprogramowanie, zagrożenie dla sztucznej inteligencji jest znacznie większe, ponieważ można ją nauczyć, aby przeszkoliła się na podstawie danych, które otrzymuje z punktu końcowego.

„Punktem końcowym jest REST API zbierające dane” – powiedział Dobrin. „Musimy chronić sztuczną inteligencję przed zatruciem. Musimy upewnić się, że punkty końcowe AI są bezpieczne i stale monitorowane, nie tylko pod kątem wydajności, ale także stronniczości”.

Aby to zrobić, Dobrin powiedział, że IBM pracuje nad ustanowieniem odporność na przeciwnika na poziomie systemowym platform takich jak Watson. Wdrażając modele sztucznej inteligencji, które badają inne modele sztucznej inteligencji w celu wyjaśnienia ich procesów decyzyjnych, a następnie korygują te modele, jeśli odbiegają od norm, przedsiębiorstwo będzie w stanie utrzymać postawy bezpieczeństwa w tempie dzisiejszej, szybko rozwijającej się gospodarki cyfrowej. Wymaga to jednak zmiany myślenia z polowania i udaremniania nikczemnego kodu na monitorowanie i zarządzanie reakcją sztucznej inteligencji na to, co wydaje się zwykłymi danymi.

Już teraz zaczynają krążyć raporty o wielu pomysłowych sposobach manipulowania danymi w celu oszukania sztucznej inteligencji w celu szkodliwej zmiany kodu. Jima Dempseya, wykładowca na UC Berkeley Law School i starszy doradca Stanford Cyber ​​Policy Center, mówi, że możliwe jest tworzenie dźwięku, który brzmi jak mowa dla algorytmów ML, ale nie dla ludzi. Systemy rozpoznawania obrazu i głębokie sieci neuronowe mogą być sprowadzone na manowce z perturbacjami niedostrzegalnymi dla ludzkiego oka, czasami poprzez przesunięcie o jeden piksel. Co więcej, ataki te mogą być przeprowadzane nawet wtedy, gdy sprawca nie ma dostępu do samego modelu ani danych wykorzystywanych do jego trenowania.

Zapobiegaj i reaguj

Aby temu przeciwdziałać, przedsiębiorstwo musi skupić się na dwóch rzeczach. Po pierwsze, mówi Globalny dyrektor techniczny firmy Dell Technologies John Roese, musi poświęcić więcej zasobów na zapobieganie atakom i reagowanie na nie. Większość organizacji jest biegła w wykrywaniu zagrożeń za pomocą opartych na sztucznej inteligencji usług zarządzania informacjami o zdarzeniach lub dostawcy usług zarządzania bezpieczeństwem, ale zapobieganie i reagowanie są nadal zbyt wolne, aby zapewnić odpowiednie złagodzenie poważnego naruszenia.

Prowadzi to do drugiej zmiany, którą musi wprowadzić przedsiębiorstwo, mówi Dyrektor generalny Rapid7 Corey Thomas: wzmocnij prewencję i reakcję dzięki większej liczbie sztucznej inteligencji. Jest to trudna pigułka do przełknięcia dla większości organizacji, ponieważ zasadniczo daje AI swobodę wprowadzania zmian w środowisku danych. Thomas twierdzi jednak, że istnieją sposoby, aby to zrobić, aby sztuczna inteligencja mogła funkcjonować w aspektach bezpieczeństwa, z którymi najlepiej sobie radzi, przy jednoczesnym zachowaniu kluczowych funkcji dla operatorów.

W końcu sprowadza się do zaufania. AI jest teraz nowym dzieckiem w biurze, więc nie powinno mieć kluczy do skarbca. Ale z biegiem czasu, gdy udowadnia swoją wartość w ustawieniach na poziomie podstawowym, powinien zdobyć zaufanie, tak jak każdy inny pracownik. Oznacza to nagradzanie go, gdy osiąga dobre wyniki, uczenie go, jak radzić sobie lepiej, gdy zawodzi, i zawsze upewnianie się, że ma odpowiednie zasoby i odpowiednie dane, aby upewnić się, że rozumie, co należy zrobić i w jaki sposób to zrobić.

Misja VentureBeat ma być cyfrowym placem miejskim, na którym decydenci techniczni mogą zdobywać wiedzę na temat transformacyjnej technologii przedsiębiorstw i transakcji. Więcej szczegółów

Źródło: https://venturebeat.com/2022/02/04/can-you-trust-ai-to-protect-ai/

Znak czasu:

Więcej z AI - VentureBeat