Najlepsze praktyki wdrażania modeli językowych

Węzeł źródłowy: 1337445

Najlepsze praktyki wdrażania modeli językowych

Cohere, OpenAI i AI21 Labs opracowały wstępny zestaw najlepszych praktyk mających zastosowanie w każdej organizacji opracowującej lub wdrażającej duże modele językowe. Komputery, które potrafią czytać i pisać, są już dostępne i mogą mieć fundamentalny wpływ na codzienne życie. Przyszłość interakcji człowiek-maszyna jest pełna możliwości i obietnic, ale każda potężna technologia wymaga ostrożnego wdrożenia.

Poniższe wspólne oświadczenie stanowi krok w kierunku budowania społeczności w celu sprostania globalnym wyzwaniom, jakie stawia postęp AI. Zachęcamy inne organizacje, które chciałyby uczestniczyć, do nawiązania kontaktu.

Wspólna rekomendacja dotycząca wdrażania modelu językowego

Zalecamy kilka kluczowych zasad, które pomogą dostawcom modeli dużych języków (LLM) zmniejszyć ryzyko związane z tą technologią w celu osiągnięcia pełnej obietnicy zwiększenia ludzkich możliwości.

Chociaż zasady te zostały opracowane specjalnie w oparciu o nasze doświadczenie w dostarczaniu LLM za pośrednictwem interfejsu API, mamy nadzieję, że będą przydatne niezależnie od strategii wydania (takiej jak open-sourcing lub wykorzystanie w firmie). Spodziewamy się, że te zalecenia będą się znacznie zmieniać w czasie, ponieważ komercyjne zastosowania LLM i towarzyszące im względy bezpieczeństwa są nowe i ewoluują. Aktywnie uczymy się o ograniczeniach i możliwościach nadużyć LLM i zajmujemy się nimi, a z czasem będziemy aktualizować te zasady i praktyki we współpracy z szerszą społecznością.

Dzielimy się tymi zasadami w nadziei, że inni dostawcy LLM mogą uczyć się od nich i je stosować, a także rozwijać publiczną dyskusję na temat rozwoju i wdrażania LLM.

Zabroń nadużywania


Opublikuj wytyczne użytkowania i warunki użytkowania LLM w sposób, który zakazuje szkód materialnych dla osób, społeczności i społeczeństwa, takich jak spam, oszustwa lub astroturfing. Wytyczne dotyczące użytkowania powinny również określać domeny, w których stosowanie LLM wymaga dodatkowej kontroli i zabraniać przypadków użycia wysokiego ryzyka, które nie są odpowiednie, takich jak klasyfikowanie osób na podstawie chronionych cech.


Buduj systemy i infrastrukturę, aby egzekwować wytyczne dotyczące użytkowania. Może to obejmować limity szybkości, filtrowanie treści, zatwierdzanie aplikacji przed dostępem produkcyjnym, monitorowanie aktywności anomalii i inne środki zaradcze.

Złagodzić niezamierzone szkody


Aktywne łagodzenie szkodliwego zachowania modeli. Najlepsze praktyki obejmują kompleksową ocenę modelu w celu prawidłowej oceny ograniczeń, minimalizację potencjalnych źródeł uprzedzeń w korpusach szkoleniowych oraz techniki minimalizacji niebezpiecznych zachowań, na przykład poprzez uczenie się na podstawie informacji zwrotnych od ludzi.


Udokumentuj znane słabości i luki w zabezpieczeniach, takich jak stronniczość lub zdolność do tworzenia niezabezpieczonego kodu, ponieważ w niektórych przypadkach żadne działanie zapobiegawcze nie może całkowicie wyeliminować potencjalnej niezamierzonej szkody. Dokumentacja powinna również zawierać najlepsze praktyki bezpieczeństwa dla konkretnego modelu i przypadku użycia.

Rozważna współpraca z interesariuszami


Buduj zespoły o zróżnicowanym pochodzeniu i zabiegać o szeroki wkład. Potrzebne są różne perspektywy, aby scharakteryzować i zająć się sposobem, w jaki modele językowe będą funkcjonować w różnorodności rzeczywistego świata, gdzie niesprawdzone mogą wzmacniać uprzedzenia lub nie sprawdzać się w niektórych grupach.


Ujawniaj publicznie wnioski dotyczące bezpieczeństwa i nadużyć LLM w celu umożliwienia powszechnego przyjęcia i pomocy w międzybranżowej iteracji najlepszych praktyk.


Traktuj wszystkich pracowników w łańcuchu dostaw modelu językowego z szacunkiem. Na przykład dostawcy powinni mieć wysokie standardy dotyczące warunków pracy osób dokonujących przeglądu wyników modeli we własnym zakresie i utrzymywać dostawców zgodnie z dobrze określonymi standardami (np. zapewnienie, aby osoby zajmujące się etykietowaniem mogły zrezygnować z danego zadania).

Jako dostawcy LLM publikowanie tych zasad stanowi pierwszy krok we wspólnym kierowaniu bezpieczniejszym tworzeniem i wdrażaniem modelu dużego języka. Cieszymy się, że możemy kontynuować współpracę ze sobą oraz z innymi podmiotami w celu zidentyfikowania innych możliwości ograniczenia niezamierzonych szkód i zapobiegania złośliwemu używaniu modeli językowych.

Pobierz jako PDF

Wsparcie innych organizacji

„Chociaż LLM są bardzo obiecujące, mają istotne nieodłączne problemy z bezpieczeństwem, nad którymi należy popracować. Te najlepsze praktyki służą jako ważny krok w minimalizowaniu szkód związanych z tymi modelami i maksymalizacji ich potencjalnych korzyści”.

— antropiczny

„Ponieważ modele dużych języków (LLM) stają się coraz bardziej wydajne i wyraziste, ograniczanie ryzyka staje się coraz ważniejsze. Z zadowoleniem przyjmujemy te i inne wysiłki, aby proaktywnie dążyć do łagodzenia szkód i zwracać uwagę użytkownikom na obszary wymagające dodatkowej staranności. Przedstawione tu zasady są ważnym wkładem w globalną dyskusję”.

—John Bansemer, dyrektor projektu CyberAI i starszy pracownik, Center for Security and Emerging Technology (CSET)

„Google potwierdza znaczenie kompleksowych strategii w analizowaniu danych modeli i treningów w celu zmniejszenia ryzyka szkód, stronniczości i wprowadzenia w błąd. Jest to przemyślany krok podjęty przez dostawców sztucznej inteligencji w celu promowania zasad i dokumentacji dotyczących bezpieczeństwa sztucznej inteligencji”.

—Platforma chmurowa Google (GCP)

„Bezpieczeństwo modeli podstawowych, takich jak duże modele językowe, jest coraz większym problemem społecznym. Pochwalamy Cohere, OpenAI i AI21 Labs za zrobienie pierwszego kroku w celu nakreślenia ogólnych zasad odpowiedzialnego rozwoju i wdrażania z perspektywy programistów modeli. Jest jeszcze wiele do zrobienia i uważamy, że konieczne jest zaangażowanie większej liczby głosów ze środowisk akademickich, przemysłu i społeczeństwa obywatelskiego w celu opracowania bardziej szczegółowych zasad i norm wspólnotowych. Jak stwierdzamy w naszym ostatnim blogu, liczy się nie tylko efekt końcowy, ale zasadność procesu”.

—Percy Liang, dyrektor Stanford Center for Research on Foundation Models (CRFM)

Dołącz do zespołu

Jeśli opracowujesz modele językowe lub pracujesz nad ograniczeniem związanego z nimi ryzyka, chętnie z Tobą porozmawiamy. Proszę o kontakt pod adresem bestpractices@openai.com.

Znak czasu:

Więcej z OpenAI

Obraz GPT

Węzeł źródłowy: 747759
Znak czasu: Czerwiec 17, 2020