Amerykańscy giganci medialni blokują roboty AI, aby chronić prawa autorskie

Amerykańscy giganci medialni blokują roboty AI, aby chronić prawa autorskie

Węzeł źródłowy: 2456974

Podkreślając napięcie między firmami medialnymi a sztuczna inteligencja (AI) niedawny raport Wired ujawnił, że 88% wiodących serwisów informacyjnych w Stanach Zjednoczonych aktywnie blokuje roboty internetowe wykorzystujące sztuczną inteligencję. Ten ruch, napędzany dotyczy związane z naruszaniem praw autorskich i nieodpłatnym korzystaniem z treści odzwierciedla rosnący opór w branży medialnej wobec działań podmiotów AI w zakresie gromadzenia danych.

Ankieta przeprowadzona przez startup Originality AI z siedzibą w Ontario, objęła 44 najważniejsze serwisy informacyjne, w tym czołowe organizacje, takie jak The New York Times, The Washington Post i The Guardian. Ustalono, że te domy medialne podjęły działania mające na celu ograniczenie działań firm zajmujących się sztuczną inteligencją w zakresie gromadzenia danych. GPTBot OpenAI został zidentyfikowany jako najczęściej blokowany robot indeksujący, a wiele firm medialnych wprowadziło ograniczenia, zwłaszcza po ogłoszeniu przez OpenAI w sierpniu 2023 r., że jego robot będzie szanował flagi w pliku robots.txt, które są używane przez strony internetowe do kontrolowania dostępu robotów internetowych.

Ten narastający konflikt osiągnął nowy szczyt w grudniu ubiegłego roku, kiedy „The New York Times” złożył pozew przeciwko OpenAI. Pozew zarzuca naruszenie praw autorskich w związku z nieuprawnionym wykorzystaniem opublikowanych utworów przez OpenAI do szkolenia chatbotów. „The New York Times” twierdzi, że miliony jego artykułów wykorzystano w szkoleniach chatbotów, które obecnie służą jako alternatywne źródła informacji, potencjalnie podważając wiarygodność i stabilność finansową tradycyjnych mediów. Gigant medialny domaga się miliardów dolarów ustawowego i faktycznego odszkodowania, co stanowi kluczowy moment w krajobrazie prawnym otaczającym sztuczną inteligencję i media.

Podczas przesłuchania w podpanelu ds. prywatności i technologii Komisji Sądownictwa grupa świadków reprezentujących lokalne i krajowe organizacje medialne wezwała prawodawców do interwencji i uniemożliwienia firmom zajmującym się sztuczną inteligencją wykorzystywania treści informacyjnych chronionych prawem autorskim bez odpowiedniego uznania lub odszkodowania. Argumentowali, że firmy zajmujące się sztuczną inteligencją wykorzystują postanowienia amerykańskiego prawa własności intelektualnej dotyczące „dozwolonego użytku”, aby uzasadnić szkolenie swoich modeli w zakresie materiałów informacyjnych chronionych prawem autorskim. Taka interpretacja ustawy o dozwolonym użytku jest jednak kwestionowana przez organizacje medialne, które twierdzą, że wykorzystanie ich treści do szkolenia modeli AI wykracza daleko poza ustalone bariery prawne.

W miarę jak firmy medialne wzmacniają swoją obronę przed botami AI, spór uwydatnia złożoną interakcję między postępem technologicznym a ochroną treści. Rodzi krytyczne pytania o przyszłość rozpowszechniania informacji, rzetelność dziennikarską i demokratyzację wiedzy w dobie zakłóceń technologicznych.

Rozwój ten ma konsekwencje wykraczające poza bezpośrednie spory prawne i środki techniczne. Zagłębia się w podstawowe kwestie dotyczące roli i wpływu sztucznej inteligencji w krajobrazie medialnym, podkreślając potrzebę zrównoważonego podejścia do innowacji i odpowiedzialności w erze cyfrowej.

Źródło obrazu: Shutterstock

Znak czasu:

Więcej z Blok Chain Aktualności