Przestań mówić, zacznij działać – nadchodzą regulacje dotyczące sztucznej inteligencji i musisz być na to gotowy | Startupy UE

Przestań mówić, zacznij działać – nadchodzą regulacje dotyczące sztucznej inteligencji i musisz być na to gotowy | Startupy UE

Węzeł źródłowy: 2278419

W obliczu rosnącego w zeszłym roku szumu wokół sztucznej inteligencji, któremu towarzyszył gwałtowny wzrost zainteresowania generatywną sztuczną inteligencją, nie jest zaskoczeniem, że rządy na całym świecie opracowują plany uregulowania tej technologii.

Chociaż przedsiębiorstwa i firmy zajmujące się sztuczną inteligencją wiedzą, że nadchodzą regulacje – jak mogłyby nie? – Wiele osób jest żałośnie słabo przygotowanych na złożoność tego, co nas czeka. Ponieważ regulacje wkrótce wejdą w jurysdykcje na całym świecie, czas przestać mówić o tym, jak to może wyglądać – i zacząć działać.

Proponowana ustawa UE o sztucznej inteligencji ma duże znaczenie dla firm działających w Europie. Te ramy prawne znacznie zwiększą uprawnienia organów UE w zakresie monitorowania rozwoju sztucznej inteligencji, co umożliwi nakładanie kar na przedsiębiorstwa naruszające przepisy. Ustawa koncentruje się na systemie klasyfikacji, który ocenia ryzyko, jakie rozwój sztucznej inteligencji stwarza dla „zdrowia i bezpieczeństwa lub praw podstawowych osoby”, zgodnie z analiza Światowego Forum Ekonomicznego.

Mimo że okres realizacji wynosi dwa lata, art Ustawa UE o sztucznej inteligencji obejmuje kary pieniężne za nieprzestrzeganie przepisów, co stanowi realne zagrożenie dla firm, które nie rozpoczęły jeszcze przygotowań do nowego rozporządzenia. Kary te mogą wynieść łącznie do 30 milionów euro lub do 6% całkowitego rocznego światowego obrotu firmy za poprzedni rok obrotowy, w zależności od tego, która kwota jest wyższa. Nie są to sankcje, które należy lekceważyć, co jeszcze bardziej utrudnia zrozumienie braku przygotowania.

Nie przygotuj się, przygotuj się na porażkę

Dlaczego tak wiele firm nie jest odpowiednio przygotowanych na nadchodzące regulacje? Po części winni są regulatorzy. Chociaż mamy pewne wytyczne, a w przypadku unijnej ustawy o sztucznej inteligencji – ogólną strukturę, wciąż pozostaje wiele niewiadomych. Jest to nadal ruchomy cel, co bardzo utrudnia działom ds. zgodności zrozumienie kroków, jakie muszą podjąć, aby zapewnić zgodność z nowymi przepisami.

Z pewnością jest to trudne dla organów regulacyjnych, ponieważ rozwój sztucznej inteligencji postępuje niezwykle szybko. Oznacza to, że bardzo trudno jest opracować praktyczne przepisy, które nie utrudniają innowacji.

Istnieją również inne problemy, takie jak brak ekspertów politycznych dogłębnie rozumiejących sztuczną inteligencję oraz brak aktualnych produktów technicznych, które pozwolą firmom zachować zgodność, a jednocześnie nadal koncentrować się na swojej podstawowej działalności. Obydwa te czynniki mogą się zmienić, ale na razie firmy nie dysponują narzędziami niezbędnymi do dostosowania się do przepisów dotyczących sztucznej inteligencji.

I nie udawajmy, że to wszystko jest łatwe. Istnieje złożona sieć wzajemnych powiązań z istniejącymi przepisami, takimi jak RODO i przepisami branżowymi, takimi jak wymagania dotyczące oprogramowania jako urządzenia medycznego (SaMD), z których wszystkie wymagają zrozumienia i uwzględnienia w decyzjach biznesowych, a żadna z nich nie ułatwia firmom przestrzegania . W miarę wprowadzania regulacji nieuniknione będą naruszenia i problemy, zarówno jeśli chodzi o regulacje dotyczące sztucznej inteligencji, jak i sposób, w jaki istniejące wytyczne dla poszczególnych branż są dostosowywane do sztucznej inteligencji.

Ryzyko nieprzestrzegania

Zgodnie z unijną ustawą o sztucznej inteligencji poważne naruszenia będą skutkować karami finansowymi dla przedsiębiorstw w wysokości do 30 mln euro, chociaż organy regulacyjne prawdopodobnie początkowo będą wyrozumiałe, aby złagodzić początkowe problemy. Jest to jednak ryzyko, którego firmy nie mogą zignorować.

W większych organizacjach istnieje niebezpieczeństwo zastoju, w którym ryzyko nieprzestrzegania przepisów jest postrzegane jako zbyt wysokie, aby podjąć działania i w związku z tym nic się nie dzieje. Zatrzymanie działania oznacza, że ​​konkurenci mogą zyskać udział w rynku od poszczególnych firm, ale istnieje większe ryzyko dla całych ekosystemów, jeśli regulacje uniemożliwiają firmom wprowadzanie innowacji. Jeśli firmy nie będą w stanie współpracować ze strachu przed naruszeniem, nie będą mogły uzyskać dostępu do danych niezbędnych do tworzenia produktów AI, które mają potencjał ulepszenia świata.

Wreszcie, jeśli przedsiębiorstwa nie są gotowe na regulacje dotyczące sztucznej inteligencji, istnieje szersze ryzyko społeczne. Znaleziono niedawny ogólnodostępny artykuł na temat katastrofalnych zagrożeń związanych ze sztuczną inteligencją, opracowany przez badaczy z Centrum Bezpieczeństwa AI cztery kategorie ryzyka. 

Pierwszym z nich jest „złośliwe użycie”, w ramach którego pojedyncze osoby lub grupy celowo wykorzystują sztuczną inteligencję w celu wyrządzenia szkody. Po drugie, to „wyścig sztucznej inteligencji”, w którym konkurencyjne środowiska zmuszają aktorów do wdrażania niebezpiecznej sztucznej inteligencji lub scedowania kontroli na sztuczną inteligencję. Trzecie to „ryzyko organizacyjne”, które podkreśla, w jaki sposób czynniki ludzkie i złożone systemy mogą zwiększać ryzyko katastrofalnych wypadków. Wreszcie jest „nieuczciwa sztuczna inteligencja”, która opisuje nieodłączną trudność w kontrolowaniu agentów znacznie inteligentniejszych od ludzi.

Może to brzmieć przerażająco, ale podkreśla to powód zaostrzenia regulacji dotyczących sztucznej inteligencji oraz pilną potrzebę, aby firmy upewniły się, że są przygotowane.

Co mogą zrobić firmy AI?

Choć perspektywa jest zniechęcająca, wciąż jest czas, aby przygotować się na regulacje dotyczące sztucznej inteligencji. Inżynierowie, opiekunowie danych i właściciele firm muszą upewnić się, że są świadomi nadchodzących zmian i szerszych zagrożeń związanych z bezpieczeństwem i prywatnością sztucznej inteligencji, a także być gotowi do wprowadzenia produktów, które umożliwią programistom zachowanie zgodności.

Chociaż przygotowania do zbliżających się przepisów dotyczących sztucznej inteligencji mogą wydawać się zniechęcającą perspektywą, dobra wiadomość jest taka, że ​​wciąż jest czas na organizację i przestrzeganie przepisów. Kluczowi interesariusze w tym procesie – inżynierowie, opiekunowie danych i właściciele firm – muszą być nie tylko świadomi nadchodzących przepisów, ale także proaktywnie wdrażać rozwiązania ułatwiające przestrzeganie przepisów. Poniżej znajdują się podstawowe kroki, które firmy mogą wykonać:

  • Nadaj priorytet prywatności danych i własności intelektualnej: Modele uczenia maszynowego mogą w sposób niezamierzony „zapamiętywać” dane, na których zostały przeszkolone, co budzi poważne obawy dotyczące prywatności, zwłaszcza jeśli w grę wchodzą wrażliwe dane osobowe. Identyfikacja i ograniczanie tego ryzyka jest niezwykle istotna w celu ochrony prywatności danych i praw własności intelektualnej.
  • Wdrażaj bezpieczne modele uczenia maszynowego: Modele uczenia maszynowego nie są odporne na złośliwe ataki, które mogłyby zagrozić bezpieczeństwu danych. Firmy wdrażające sztuczną inteligencję muszą zachować czujność i korzystać wyłącznie z bezpiecznych, sprawdzonych modeli.
  • Ustanów solidne zarządzanie danymi: Opiekunowie danych powinni wdrożyć ramy zarządzania, aby zachować kontrolę nad zbiorami danych używanymi w szkoleniu modeli. Obejmuje to ustalenie wytycznych dotyczących algorytmów, które można wdrożyć na tych zbiorach danych, zapewniając zgodność z szerszymi wymogami dotyczącymi zgodności.

Firmy tworzące produkty AI muszą pomyśleć o ograniczeniu ryzyka związanego ze swoim produktem w obszarach takich jak bezpieczeństwo, uprzedzenia, bezpieczeństwo i solidność. Mogą to osiągnąć, szkoląc modele na reprezentatywnych i szczegółowych danych ze świata rzeczywistego, w tym na danych wrażliwych, które obecnie nie są wykorzystywane.

Ważne jest również, aby byli przejrzyści w swoich działaniach, rejestrując modele i udostępniając streszczenia informacji o prawach autorskich, wraz z zarządzaniem jakością i dokumentacją. Takie postępowanie wspiera odpowiedzialność i podnosi standardy w opracowywaniu modeli sztucznej inteligencji.

Ostatecznie chodzi o bezpieczeństwo danych. Dzięki regulowanemu, prywatnemu i bezpiecznemu dostępowi obliczeniowemu do danych możliwe jest tworzenie innowacyjnych produktów sztucznej inteligencji bez poświęcania bezpieczeństwa i zgodności – a co najważniejsze, przy zachowaniu zgodności z przepisami.

Nadchodzą regulacje, czy ci się to podoba, czy nie. Aby dostarczać innowacje i budować bezpieczne produkty, musimy wprowadzić narzędzia, które pozwolą firmom dostosować się do nowych zasad. To będzie z pożytkiem dla wszystkich.

- Reklama -

Znak czasu:

Więcej z Startupy w UE