OpenAI spotyka się z krytyką po wywiadzie CTO dla Sory

OpenAI spotyka się z krytyką po wywiadzie CTO dla Sory

Węzeł źródłowy: 2516272

OpenAI, wpływowe laboratorium badawcze zajmujące się sztuczną inteligencją, stojące za przełomowymi narzędziami, takimi jak ChatGPT i Sora, znalazło się w trudnej sytuacji po niedawnym wywiadzie ze swoją dyrektor ds. technologii, Mirą Murati.

Wywiad, prowadzony przez reporterkę Wall Street Journal Joannę Stern, skupiający się na najnowszym systemie generowania obrazu, a właściwie wideo OpenAI, Sora.

Obawy skupiają się wokół potencjalnego niewłaściwego wykorzystania utworów chronionych prawem autorskim do szkolenia modeli sztucznej inteligencji i brak przejrzystości od OpenAI w zakresie stosowanych przez nią praktyk związanych z danymi.

Dane szkoleniowe Sory są kwestionowane

W centrum kontrowersji leży kwestia danych treningowych, ogromne zbiory danych wykorzystywane do uczenia modeli sztucznej inteligencji.

Zapytany o źródła danych wykorzystanych dla Sory, Murati udzielił standardowej odpowiedzi: model został przeszkolony na „dane publicznie dostępne i licencjonowane".

Jednak dalsze badanie ujawniło wahanie i niepewność ze strony Muratiego co do konkretnych szczegółów tego zbioru danych.

Ta odpowiedź ma podniesione czerwone flagi wśród artystów, fotografów i ekspertów zajmujących się własnością intelektualną. Systemy generowania obrazów AI w dużym stopniu polegają na przetwarzaniu ogromnych ilości obrazów, z których wiele może być chronionych prawem autorskim. Brak jasności wokół danych szkoleniowych Sory rodzi pytania o to, czy OpenAI odpowiednio zabezpieczyło prawa twórców treści.

Kontrowersje dotyczące danych szkoleniowych OpenAI SORA
Baza szkoleń Sory nie została opublikowana na żadnej oficjalnej platformie (Image credit)

Korzystanie z Shutterstock zostało dopuszczone później

Dolewania oliwy do ognia była początkowa odmowa Muratiego w kwestii stwierdzenia, czy obrazy Shutterstock stanowią element zbioru danych szkoleniowych Sory. Dopiero po wywiadzie, w przypisie dodanym przez „Wall Street Journal”, Murati potwierdził wykorzystanie biblioteki obrazów Shutterstock.

To potwierdzenie jest sprzeczne z prezentowanym publicznie stanowiskiem OpenAI: „dane publicznie dostępne i licencjonowane” i sugeruje próbę ukrycia potencjalnie problematycznych praktyk zaopatrzeniowych.

Shutterstock i OpenAI utworzyły spółkę współpraca przyznanie OpenAI praw do korzystania z biblioteki obrazów Shutterstock w szkoleniu modeli generowania obrazów, takich jak DALL-E 2 i potencjalnie Sora.

W zamian współpracownicy Shutterstock (fotografowie i artyści, których zdjęcia znajdują się na platformie) otrzymują wynagrodzenie, gdy ich praca zostanie wykorzystana do opracowania modeli sztucznej inteligencji.

Rozpoczyna się PR-owy koszmar

Można śmiało powiedzieć, że większość specjalistów od public relations nie uznałaby tego wywiadu za arcydzieło PR.

Brak jasności Muratiego pojawia się w delikatnym momencie dla OpenAI, stoi już w obliczu poważnych procesów sądowych dotyczących praw autorskich, w tym istotny złożony przez „New York Times”.

Opinia publiczna szczegółowo przygląda się praktykom, takim jak rzekome tajne wykorzystywanie przez OpenAI filmów z YouTube do szkolenia modelek, as zgłoszone wcześniej przez The Information. Ponieważ zainteresowane strony, od artystów po polityków, domagają się odpowiedzialności, unikanie Murati tylko podsyca ogień.

Nieprzejrzyste podejście OpenAI spektakularnie przynosi odwrotny skutek, przekształcając wywiad z Sorą w katastrofę PR.

Przejrzystość nie jest najczęściej omawianym tematem bez powodu

Ten incydent podkreśla krytyczną prawdę: odsłonięcie prawdy jest najważniejsze w świecie sztucznej inteligencji. Wstrząsające reakcje OpenAI poważnie podważyły ​​​​zaufanie publiczne i zintensyfikowały pytania dotyczące jej praktyk etycznych. Kontrowersje wokół Sory uwydatniają rosnący chór domagając się większej odpowiedzialności w branży sztucznej inteligencji.

Niechęć Muratiego do ujawnienia szczegółów danych szkoleniowych Sory rodzi brak zaufania i ustanawia niebezpieczny precedens.

Bez przejrzystości, której domagają się artyści, twórcy i społeczeństwo, debaty etyczne i możliwości podjęcia działań prawnych będą się tylko nasilać.

W tej krainie nie ma aniołów

Chociaż większość obecnych analiz dotyczy bezpośrednio OpenAI, należy o tym pamiętać nie są jedynymi graczami w grze.

Badania nad sztuczną inteligencją Facebooka modelu LLaMA i Bliźnięta Google’a spotkały się również z zarzutami dotyczącymi problematycznych źródeł danych szkoleniowych.

Kontrowersje dotyczące danych szkoleniowych OpenAI SORA
Kwestia przejrzystości rozwoju sztucznej inteligencji jest w porządku obrad od dawna (Image credit)

Nie jest to zaskakujące, gdyż Insider donosi Biznes do czego Meta już się przyznała korzystając z postów na Instagramie i Facebooku do szkolenia modeli sztucznej inteligencji. Dodatkowo, Kontrola Google nad ogromnymi obszarami Internetu zapewnia im niezrównany dostęp do potencjalnych danych szkoleniowych, budząc podobne wątpliwości etyczne dotyczące zgody i praw autorskich.

Sytuacja z Sorą z OpenAI jest taka tylko jeden element większej układanki. Cała dziedzina rozwoju sztucznej inteligencji podlega analizie pod kątem praktyk związanych z danymi i potencjalnych implikacji etycznych.


Wyróżniony kredyt na zdjęcie: Freepik.

Znak czasu:

Więcej z Oszczędność danych