Rząd Wielkiej Brytanii ma ogłosił (jeszcze) kolejne dodatki do ekspansywnego i kontrowersyjnego planu regulacji treści online – czyli tzw Rachunek za bezpieczeństwo online.
Mówi, że najnowszy pakiet środków, który ma zostać dodany do projektu, ma na celu ochronę użytkowników sieci przed anonimowym trollingiem.
Całość ustawy ma znacznie szersze cele, obejmujące szeroko zakrojony system moderowania treści ukierunkowany na treści wyraźnie nielegalne, ale także treści „legalne, ale szkodliwe” – przy czym twierdzi się, że koncentruje się na ochronie dzieci przed szeregiem szkód w Internecie, przed cyberprzemocą i samobójstwami treści narażonych na kontakt z pornografią.
Tymczasem krytycy twierdzą, że nowe przepisy zabiją wolność słowa i izolują Wielką Brytanię, tworząc w Wielkiej Brytanii rozłam w Internecie, a jednocześnie narażając się na poważne ryzyko prawne i koszty prowadzenia działalności cyfrowej w Wielkiej Brytanii. (Oczywiście, chyba że należysz do klubu firm zajmujących się technologiami bezpieczeństwa, oferujących sprzedaż usług pomagających platformom w przestrzeganiu ich zasad.)
W ostatnich miesiącach projektem ustawy zajmowały się dwie komisje parlamentarne. Jeden wołał większe skupienie się na treściach nielegalnych, podczas gdy inny ostrzegł, że podejście rządu jest jedno i drugie zagrożenie dla wypowiedzi w Internecie i jest mało prawdopodobne, że będzie wystarczająco solidny, aby rozwiązać problemy związane z bezpieczeństwem – można więc śmiało powiedzieć, że ministrowie są pod presją, aby wprowadzić zmiany.
W związku z tym ustawa nadal zmienia kształt lub, cóż, zwiększa swój zakres.
Inne niedawne (istotne) uzupełnienia do projektu obejmują: wymóg, aby strony internetowe z treściami dla dorosłych korzystały z technologii weryfikacji wieku; oraz masowe rozszerzenie systemu odpowiedzialności o szerszy zakres lista treści o charakterze przestępczym dodany do rachunku.
Najnowsze zmiany, które według Departamentu Cyfryzacji, Kultury, Mediów i Sportu (DCMS) będą dotyczyć tylko największych firm technologicznych, oznaczają, że platformy będą musiały zapewnić użytkownikom narzędzia ograniczające ilość (potencjalnie) szkodliwych, ale technicznie legalnych treści mogliby być narażeni.
Działacze na rzecz bezpieczeństwa w Internecie często łączą rozprzestrzenianie się ukierunkowanych nadużyć, takich jak rasistowska mowa nienawiści lub cyberprzemoc, z anonimowością konta, chociaż nie jest jasne, na jakich dowodach się opierają – poza niepotwierdzonymi doniesieniami o nadużyciach na poszczególnych anonimowych kontach.
Jednak równie łatwo jest znaleźć przykłady obraźliwych treści rozpowszechnianych przez nazwane i zweryfikowane konta. Nie tylko sama sekretarz stanu ds. technologii cyfrowych, Nadine Dorries, której tweety chłostające dziennikarza LBC ostatnio do tego doprowadziło niezręczny moment na posiedzeniu komisji parlamentarnej.
Rzecz w tym, że pojedyncze przykłady – niezależnie od tego, jak bardzo są głośne – tak naprawdę nie mówią zbyt wiele o problemach systemowych.
Tymczasem niedawne orzeczenie Europejskiego Trybunału Praw Człowieka – którym Wielka Brytania pozostaje związana – ponownie potwierdzili znaczenie anonimowości w Internecie jako narzędzie „swobodnego przepływu opinii, pomysłów i informacji”, przy czym sąd wyraźnie przedstawił pogląd, że anonimowość jest kluczowym elementem wolności wypowiedzi.
Jest zatem jasne, że brytyjscy ustawodawcy muszą postępować ostrożnie, jeśli rządowe żądania dotyczące przepisów przekształcających Wielką Brytanię w „najbezpieczniejsze miejsce do korzystania z Internetu” – przy jednoczesnej ochronie wolności słowa – nie mają zostać zniszczone.
Biorąc pod uwagę, że trolling internetowy jest problemem systemowym, szczególnie problematycznym na niektórych popularnych, mainstreamowych i finansowanych z reklam platformach, gdzie naprawdę okropne rzeczy mogą być masowo wzmacniane, bardziej pouczające dla prawodawców mogłoby być rozważenie zachęt finansowych powiązanych z rozpowszechnianiem treści — wyrażone za pomocą algorytmów rankingu/wykrywania treści „opartych na danych” (takich jak wykorzystanie przez Facebooka polaryzującego „rankingu opartego na zaangażowaniu”, jak – zawołała sygnalistka Frances Haugen).
Jednak brytyjskie podejście do zwalczania trollingu w Internecie przyjmuje inną taktykę.
Rząd koncentruje się na zmuszaniu platform do zapewniania użytkownikom opcji ograniczania własnego narażenia – mimo że DCMS również przyznało się do nadużycia roli algorytmów we wzmacnianiu szkodliwych treści (w swoim komunikacie prasowym wskazano, że „dużo” treści jest wyraźnie zabronione w Warunkach korzystania z sieci społecznościowych „zbyt często” pozwala się jej nie spać i „aktywnie promuje się ją wśród ludzi za pomocą algorytmów”, a sama Dorries ostro krytykuje „nieuczciwe algorytmy”).
Wybranym przez ministrów rozwiązaniem problematycznego wzmocnienia algorytmicznego nie jest naciskanie na egzekwowanie istniejącego w Wielkiej Brytanii systemu ochrony danych przeciwko profilowaniu osób adtech — coś, do czego obrońcy prywatności i praw cyfrowych wzywali dosłownie od lat — co z pewnością mogłoby ograniczyć to, jak natrętne (i potencjalnie nadużycie) indywidualni użytkownicy mogliby być celem platform opartych na danych.
Rząd chce raczej, aby ludzie przekazywali więcej swoich danych osobowych tym (zazwyczaj) gigantom platform adtech, aby mogli stworzyć nowe narzędzia pomagające użytkownikom chronić się! (Również istotne: rząd jest jednocześnie rozważając zmniejszenie poziomu ochrony prywatności Brytyjczyków w kraju jako jedna z „szans na brexit”… więc, eee… 😬)
DCMS twierdzi, że najnowsze uzupełnienia do ustawy nałożą na największe platformy (tzw. firmy „kategorii pierwszej”) obowiązek oferowania użytkownikom możliwości weryfikacji ich tożsamości i kontrolowania, kto może z nimi wchodzić w interakcje – na przykład poprzez wybranie opcji otrzymuj wiadomości prywatne i odpowiedzi wyłącznie ze zweryfikowanych kont.
„Na platformach spoczywa obowiązek podjęcia decyzji, jakich metod użyć w celu wywiązania się z obowiązku weryfikacji tożsamości, ale muszą one dać użytkownikom możliwość wyrażenia zgody lub rezygnacji” – czytamy w komunikacie prasowym ogłaszającym dodatkowe środki.
Komentując swoje oświadczenie, Dorries dodała: „Firmy technologiczne mają obowiązek powstrzymywać anonimowe trolle przed zanieczyszczaniem ich platform.
„Wysłuchaliśmy wezwań do wzmocnienia naszych nowych przepisów dotyczących bezpieczeństwa w Internecie i ogłaszamy nowe środki, które zapewnią większą władzę samym użytkownikom mediów społecznościowych.
„Ludzie będą teraz mieli większą kontrolę nad tym, kto może się z nimi skontaktować i będą w stanie powstrzymać falę nienawiści serwowaną im przez fałszywe algorytmy”.
Twitter oferuje już zweryfikowanym użytkownikom możliwość przeglądania kanału odpowiedzi tylko od innych zweryfikowanych użytkowników. Wygląda jednak na to, że brytyjska propozycja idzie dalej – wymagając od wszystkich głównych platform dodania lub rozszerzenia takich funkcji, udostępnienia ich wszystkim użytkownikom i zaoferowania procesu weryfikacji tym, którzy chcą udowodnić dowód tożsamości w zamian za możliwość zmaksymalizowania swojego zasięgu .
DCMS twierdzi, że samo prawo nie będzie określać konkretnych metod weryfikacji – raczej organ regulacyjny (Ofcom) zaoferuje „wytyczne”.
„Jeśli chodzi o weryfikację tożsamości, niektóre platformy mogą udostępnić użytkownikom opcję weryfikacji zdjęcia profilowego, aby upewnić się, że jest to prawdziwe podobieństwo. Mogą też skorzystać z uwierzytelniania dwuskładnikowego, w którym platforma wysyła monit na numer telefonu komórkowego użytkownika, aby użytkownik mógł go zweryfikować. Alternatywnie weryfikacja może obejmować osoby korzystające z dokumentu tożsamości wydanego przez rząd, takiego jak paszport, w celu utworzenia lub aktualizacji konta” – sugeruje rząd.
Ofcom, organ nadzorczy odpowiedzialny za egzekwowanie ustawy o bezpieczeństwie w Internecie, przedstawi wytyczne dotyczące tego, w jaki sposób firmy mogą spełnić nowy „obowiązek weryfikacji użytkownika” oraz „opcje weryfikacji, z których mogą skorzystać firmy” – dodaje.
„Opracowując te wytyczne, Ofcom musi upewnić się, że możliwe środki weryfikacji są dostępne dla bezbronnych użytkowników i skonsultować się z komisarzem ds. informacji, a także bezbronnymi dorosłymi użytkownikami i ekspertami technicznymi” – zauważa również DCMS, z drobnym ukłonem w stronę szerokiego tematu, jakim jest Prywatność.
Organizacje zajmujące się prawami cyfrowymi przynajmniej odetchną z ulgą, że Wielka Brytania nie nalega na całkowity zakaz anonimowości, jak nalegają niektórzy działacze na rzecz bezpieczeństwa w Internecie.
Jeśli chodzi o trudny temat trollingu w Internecie, zamiast zajmować się samą obraźliwą mową, strategia Wielkiej Brytanii opiera się na potencjalnym ograniczeniu wolności dostępu na platformach głównego nurtu.
„Całkowite zakazanie anonimowości w Internecie miałoby negatywny wpływ na osoby, które mają pozytywne doświadczenia w Internecie lub wykorzystują je dla własnego bezpieczeństwa, takie jak ofiary przemocy domowej, aktywiści mieszkający w krajach autorytarnych lub młodzi ludzie odkrywający swoją seksualność” – pisze DCMS, zanim przejdzie do argumentowania nowego obowiązek „zapewni lepszą równowagę między wzmacnianiem pozycji i ochroną dorosłych – szczególnie osób bezbronnych – przy jednoczesnej ochronie wolności słowa w Internecie, ponieważ nie będzie wymagać usuwania jakiejkolwiek prawnej wolności słowa”.
„Chociaż nie zapobiegnie to przede wszystkim publikowaniu przez anonimowe trolle obraźliwych treści – pod warunkiem, że są one zgodne z prawem i nie naruszają warunków platformy – zapobiegnie narażaniu ofiar na nie i zapewni im większą kontrolę nad tym, jak korzystają z Internetu” – mówi. sugeruje również.
Zapytany tutaj o przemyślenia na temat rządowego działania równoważącego, Neil Brown, prawnik ds. Internetu, telekomunikacji i technologii w firmie Odszyfrowane legalnie, nie była przekonana co do zgodności swojego podejścia z prawami człowieka.
„Jestem sceptyczny, czy ta propozycja jest zgodna z podstawowym prawem „do otrzymywania i przekazywania informacji i pomysłów bez ingerencji władz publicznych”, zapisanym w art. 10 ustawy o prawach człowieka z 1998 r.” – powiedział TechCrunch. „Nigdzie nie jest powiedziane, że prawo do przekazywania informacji ma zastosowanie tylko wtedy, gdy ktoś zweryfikował swoją tożsamość zgodnie ze standardami określonymi przez rząd.
„Chociaż decyzja o wdrożeniu takiego podejścia przez platformę byłaby zgodna z prawem, zobowiązanie platform do wdrożenia tych środków wydaje mi się wątpliwe z prawem”.
Zgodnie z propozycją rządu ci, którzy chcą zmaksymalizować swoją widoczność/zasięg w Internecie, musieliby przekazać dowód tożsamości lub w inny sposób potwierdzić swoją tożsamość głównym platformom – Brown zauważył również, że mogłoby to stworzyć „dwupoziomowy system” wyrażenia internetowe, które mogą (powiedzmy) służyć ekstrawertycznej i/lub wstrętnej osobie, jednocześnie pogarszając widoczność tych bardziej ostrożnych/niechęcych do ryzyka lub w inny sposób bezbronnych użytkowników, którzy słusznie obawiają się identyfikacji własnej (i prawdopodobnie znacznie rzadziej i tak być trollami).
„Chociaż propozycje nie wymagają od wszystkich użytkowników podawania większej ilości danych osobowych serwisom społecznościowym, w rezultacie każdy, kto nie chce lub nie może się zweryfikować, stanie się użytkownikiem drugiej kategorii” – zasugerował. „Wygląda na to, że witryny będą zachęcane lub wymagane, aby umożliwiały użytkownikom masowe blokowanie niezweryfikowanych osób.
„Jest mało prawdopodobne, aby miało to wpływ na osoby skłonne do szerzenia żółci, dezinformacji lub nękania pod własnym nazwiskiem, ponieważ dodatkowy krok w postaci okazania dokumentu tożsamości raczej nie będzie dla nich przeszkodą”.
TechCrunch rozumie, że propozycja rządu oznaczałaby, że użytkownicy objętych zakresem platform tworzonych przez użytkowników, którzy nie używają swojego prawdziwego imienia i nazwiska jako tożsamości konta publicznego (tj. ponieważ wolą używać pseudonimu lub innego pseudonimu), nadal będą mogli dzielić się (prawnymi) poglądami bez ograniczeń co do tego, kto będzie widział ich rzeczy — pod warunkiem, (prywatnie) zweryfikowali swoją tożsamość na danej platformie.
Brown był nieco bardziej pozytywnie nastawiony do tego elementu, jakim jest dalsze umożliwienie pseudonimizowanego udostępniania publicznego.
Ostrzegł jednak również, że wiele osób może nadal być zbyt ostrożnych, aby ufać swojemu rzeczywistemu identyfikatorowi uniwersalnym bazom danych platform. (T wypad wszelkiego rodzaju wirusowi anonimowi blogerzy na przestrzeni lat podkreśla motywacje wycieku chronionych tożsamości).
„Jest to nieznacznie lepsze niż polityka dotycząca prawdziwych nazwisk – w ramach której Twoje zweryfikowane imię i nazwisko jest upubliczniane – ale tylko marginalnie, ponieważ nadal musisz przekazywać stronie internetowej „prawdziwe” dokumenty tożsamości” – powiedział Brown, dodając: „Ja podejrzewamy, że osoby zachowujące pseudonimy dla własnego bezpieczeństwa będą słusznie uważać na tworzenie nowych, ogromnych zbiorów danych, które prawdopodobnie będą atrakcyjne zarówno dla hakerów, jak i nieuczciwych pracowników”.
Kontrola użytkownika dotycząca filtrowania treści
DCMS stwierdziło, że w ramach drugiego nowego obowiązku dodanego do ustawy do ustawy będzie również wymagać od platform kategorii pierwszej zapewnienia użytkownikom narzędzi zapewniających im większą kontrolę nad tym, na co są narażeni w ramach usługi.
„Ustawa zmusi już firmy objęte zakresem do usuwania nielegalnych treści, takich jak obrazy przedstawiające wykorzystywanie seksualne dzieci, promowanie samobójstw, przestępstwa z nienawiści i podżeganie do terroryzmu. Jednak w mediach społecznościowych pojawia się coraz większa lista toksycznych treści i zachowań, które nie przekraczają progu przestępstwa, a mimo to powodują znaczne szkody” – pisze rząd.
„Dotyczy to rasistowskich nadużyć, promowania samookaleczeń i zaburzeń odżywiania oraz niebezpiecznej dezinformacji antyszczepionkowej. Wiele z nich jest już wyraźnie zabronionych w regulaminach sieci społecznościowych, ale zbyt często pozwala się na to i jest aktywnie promowane wśród ludzi za pomocą algorytmów.
„W ramach drugiego nowego obowiązku firmy «kategorii pierwszej» będą musiały udostępnić swoim dorosłym użytkownikom narzędzia umożliwiające im podjęcie decyzji, czy chcą być narażeni na legalne, ale szkodliwe treści, jeśli są one tolerowane na platformie” – dodaje DCMS.
„Narzędzia te mogą obejmować nowe ustawienia i funkcje, które uniemożliwiają użytkownikom otrzymywanie rekomendacji na określone tematy lub umieszczają ekrany czułości na treści”.
W komunikacie prasowym podano przykład „treści dotyczących dyskusji na temat powrotu do zdrowia po samookaleczeniu” jako czegoś, co może być „tolerowane w przypadku usługi kategorii pierwszej, ale czego konkretny użytkownik może nie chcieć oglądać”.
Brown był bardziej pozytywnie nastawiony do planu wymagającego od głównych platform oferowania systemu filtrowania treści kontrolowanego przez użytkownika – z zastrzeżeniem, że musiałby prawdziwie być kontrolowane przez użytkownika.
Wyraził także obawy dotyczące wykonalności.
„Z radością przyjmuję pomysł systemu filtrowania treści, dzięki któremu ludzie będą mogli mieć pewną kontrolę nad tym, co widzą, gdy uzyskują dostęp do witryny mediów społecznościowych. Działa to jednak tylko wtedy, gdy użytkownicy mogą wybrać, co ma się znaleźć na ich osobistych listach blokowania. I nie jestem pewien, jak to by wyglądało w praktyce, bo wątpię, czy automatyczna klasyfikacja treści jest wystarczająco wyrafinowana” – powiedział nam.
„Kiedy rząd mówi o „jakichkolwiek legalnych, ale szkodliwych treściach”, czy mogę zablokować treści o określonych poglądach politycznych, na przykład przedstawiające ideologię, którą uważam za szkodliwą? A może jest to antydemokratyczne (chociaż taki jest mój wybór)?
„Czy mogę żądać zablokowania wszelkich treści opowiadających się za szczepieniami na Covid-19, jeśli uznam to za szkodliwe? (Ja nie.)
„A co z obelżywymi lub obraźliwymi komentarzami ze strony polityka? A może będzie to znacznie bardziej podstawowy system, zasadniczo pozwalający użytkownikom blokować nagość, wulgaryzmy i wszystko, co platforma uzna za przedstawianie samookaleczenia lub rasizmu?
„Jeśli zdefiniowanie „niektórych tematów” ma zostać pozostawione platformom – lub, co gorsza, rządowi – mogłoby to być łatwiejsze do osiągnięcia z technicznego punktu widzenia. Zastanawiam się jednak, czy dostawcy nie uciekną się do overblockingu, próbując mieć pewność, że ludzie nie zobaczą rzeczy, o które prosili, aby je ukryć.
Ciągłym problemem związanym z oceną ustawy o bezpieczeństwie w Internecie jest to, że ogromna część konkretnych szczegółów po prostu nie jest jeszcze jasna, biorąc pod uwagę, że rząd zamierza przeforsować tak wiele szczegółów za pomocą prawodawstwa wtórnego. I dzisiaj ponownie zauważyła, że dalsze szczegóły nowych obowiązków zostaną określone w przyszłych kodeksach postępowania opracowanych przez Ofcom.
Zatem bez znacznie bliższych szczegółów praktycznych nie jest możliwe właściwe zrozumienie praktycznych skutków, takich jak – dosłownie – platformy mogą być w stanie lub próbować wdrożyć te mandaty. To, co nam pozostaje, to głównie spiny rządu.
Ale pomijając ten temat, jak platformy mogą ogólnie podejść do obowiązku filtrowania tematów „legalnych, ale szkodliwych treści”?
Jeden ze scenariuszy – zakładając, że platformy same decydują, gdzie wytyczyć granicę „szkody” – jest taki, jak przewiduje Brown, że skorzystają z okazji i zaoferują masowo „przeblokowany” kanał tym, którzy zdecydują się na wykluczenie „szkodliwych, ale legalnych” ' treść; w dużej mierze po to, aby zmniejszyć ryzyko prawne i koszty operacyjne (Uwaga: automatyzacja jest super tania i łatwa, jeśli nie musisz martwić się o niuanse lub jakość; po prostu zablokuj wszystko nie jesteś w 100% pewien, jest w 100% niekontrowersyjny!).
Mogliby jednak również zastosować overblocking jako taktykę manipulacyjną – której ostatecznym celem byłoby zniechęcenie ludzi do włączania tak ogromnej cenzury i/lub nakłonienie ich, aby dobrowolnie powrócili do niefiltrowanego kanału, w którym algorytmy platformy polaryzują treści mieć pełniejsze spektrum treści, które przyciągają wzrok i zwiększają przychody z reklam… Krok 3: Zysk.
Najlepsze w tym scenariuszu jest to, że platformy mogłyby w tym scenariuszu wiarygodnie zaprzeczyć — ponieważ mogłyby po prostu argumentować, że użytkownik sam zgodził się na oglądanie szkodliwych treści! (Albo przynajmniej nie zrezygnowali, ponieważ wyłączyli filtr lub w ogóle go nie używali.) Inna nazwa: „Nie można winić rządu AI!”
Wszelkie szkody wzmocnione algorytmicznie na podstawie danych zostałyby nagle wyeliminowane. I stałaby się szkoda w Internecie wina użytkownika za to, że nie włączyli dostępnego, zaawansowanego technologicznie ekranu czułości, aby się osłonić. Odpowiedzialność przerzucona.
Co, szczerze mówiąc, brzmi jak rodzaj nadzoru regulacyjnego, który gigant reklamowy, taki jak Facebook, mógłby z radością pozostać w tyle.
Mimo to giganci platform stoją w obliczu dużego ryzyka i obciążeń związanych z pełnym pakietem propozycji oferowanych im przez Dorries & co.
Sekretarz stanu także nie robił tajemnicy jaki wesoły ona byłaby zamykać takich ludzi jak Mark Zuckerberg i Nick Clegg.
Oprócz wymogu proaktywnego usuwania treści wyraźnie nielegalnych, takich jak terroryzm i CSAM – pod groźbą ogromnych kar finansowych i/lub odpowiedzialności karnej dla wymienionych na stanowiskach kierowniczych – ustawa została niedawno rozszerzona, aby nakładać obowiązek proaktywnego usuwania znacznie szerszego zakresu treści związanych z internetem handel narkotykami i bronią; ludzie przemycają; porno zemsty; oszustwo; promowanie samobójstwa; oraz nawoływanie lub kontrolowanie prostytucji dla zysku.
Dlatego platformy będą musiały skanować i usuwać wszystkie te elementy, aktywnie i od razu, zamiast działać po fakcie na podstawie raportów użytkowników, do czego są przyzwyczajone (lub nie działać zbyt często, w zależności od przypadku). Co naprawdę wywraca do góry nogami ich biznes związany z treściami.
DCMS także Niedawno ogłosił, dodałby do projektu ustawy także nowe przestępstwa polegające na komunikowaniu się, twierdząc, że chce wzmocnić ochronę przed „szkodliwymi zachowaniami w Internecie”, takimi jak zachowania przymusowe i kontrolujące sprawców przemocy domowej; groźby gwałtu, zabójstwa i stosowania przemocy fizycznej; oraz celowe dzielenie się niebezpieczną dezinformacją na temat fałszywych metod leczenia COVID-19 – dalsze poszerzanie zakresu treści, na które platformy muszą być przygotowane i na które muszą zwracać uwagę.
Zatem biorąc pod uwagę stale rosnący zakres systemu skanowania treści, który będzie wdrażany na platformy – w połączeniu z niechęcią gigantów technologicznych do odpowiedniego angażowania ludzi w moderację treści (ponieważ pozbawiłoby to ich zyski) – w rzeczywistości Zuckowi mogłoby to być o wiele łatwiej & co, aby przejść na pojedynczy, superwaniliowy kanał.
Rób zdjęcia kotów i dzieci aż do samego końca — i miej nadzieję, że gałki oczne nie będą się kręcić, a zyski nie znikną, ale Ofcom będzie się trzymał z daleka… czy coś.
- &
- O nas
- dostęp
- Konto
- działać
- Ad
- dodatek
- Dodatkowy
- adres
- Weryfikacja wieku
- algorytmiczny
- Algorytmy
- Wszystkie kategorie
- już
- Chociaż
- wzmacniający
- Ogłaszając
- Anonimowość
- Inne
- podejście
- artykuł
- Uwierzytelnianie
- zautomatyzowane
- Automatyzacja
- dostępny
- Dostępne dla wszystkich
- Niemowlę
- Zakaz
- zanim
- jest
- Najwyższa
- Rachunek
- Blokować
- ciało
- biznes
- Cenzura
- opłata
- dziecko
- Dzieci
- roszczenia
- klasyfikacja
- klub
- przyjście
- komentarze
- Komunikacja
- Firmy
- zniewalający
- spełnienie
- składnik
- zawartość
- moderacja treści
- ciągły
- mógłby
- kraje
- Boisko
- COVID-19
- Stwórz
- Tworzenie
- Zbrodnie
- Karny
- kultura
- cyberprzemoc
- dane
- Ochrona danych
- Bazy danych
- czynienia
- Kreowanie
- Mimo
- detal
- rozwijanie
- różne
- cyfrowy
- prawa cyfrowe
- dezinformacja
- dokumenty
- na dół
- lek
- pracowników
- szczególnie
- europejski
- przykład
- wymiana
- Rozszerzać
- rozszerzenie
- ekspansja
- doświadczenie
- Doświadczenia
- eksperci
- Twarz
- sprawiedliwy
- Korzyści
- budżetowy
- i terminów, a
- Fix
- pływ
- Skupiać
- koncentruje
- oszustwo
- Darmowy
- Wolność
- pełny
- Funkcje
- cel
- będzie
- Rząd
- chwycić
- Rosnąć
- Rozwój
- hakerzy
- mowy nienawiści
- pomoc
- tutaj
- Wysoki
- W jaki sposób
- HTTPS
- olbrzymi
- prawa człowieka
- pomysł
- tożsamość
- weryfikacja tożsamości
- Nielegalny
- wdrożenia
- znaczenie
- zawierać
- indywidualny
- Informacja
- Internet
- problem
- IT
- Klawisz
- duży
- firmy
- Prawo
- prawodawców
- Laws
- przeciec
- Doprowadziło
- Regulamin
- Prawodawstwo
- poziom
- odpowiedzialność
- Linia
- LINK
- Lista
- wykazy
- Mainstream
- poważny
- Dokonywanie
- znak
- mark zuckerberg
- środków
- Media
- Mylna informacja
- Aplikacje mobilne
- miesięcy
- jeszcze
- Nazwy
- Uwagi
- oferta
- oferuje
- Online
- Opinie
- Okazja
- Option
- Opcje
- zamówienie
- Inne
- Inaczej
- paszport
- Ludzie
- osobisty
- dane personalne
- fizyczny
- obraz
- rura
- Platforma
- Platformy
- Volcano Plenty Vaporizer Storz & Bickel
- polityka
- Porno
- Pornografia
- możliwy
- power
- naciśnij
- Informacja prasowa
- nacisk
- prywatność
- Problem
- problemy
- wygląda tak
- Profil
- Zysk
- zyski
- promocja
- wniosek
- chronić
- ochrona
- zapewniać
- publiczny
- jakość
- pytanie
- rasizm
- zasięg
- otrzymać
- redukcja
- regulacyjne
- zwolnić
- ulga
- Raporty
- wymagać
- wymagany
- Zasób
- Ryzyko
- Rolka
- rządzący
- Bezpieczeństwo
- Powiedział
- skanować
- skanowanie
- Ekran
- wtórny
- Chwycić
- sprzedać
- usługa
- Usługi
- zestaw
- Share
- Short
- znaczący
- Witryny
- So
- Obserwuj Nas
- Media społecznościowe
- coś
- wyrafinowany
- Spin
- Sport
- rozpiętość
- Stan
- Zestawienie sprzedaży
- pobyt
- Strategia
- znaczny
- Samobójstwa
- Przełącznik
- system
- tech
- TechCrunch
- Techniczny
- Terroryzm
- prawo
- zagrożenia
- Przez
- już dziś
- narzędzia
- tematy
- pochodnia
- transformatorowy
- Zaufaj
- Uk
- Rząd Wielkiej Brytanii
- Aktualizacja
- us
- posługiwać się
- Użytkownicy
- pojazd
- Weryfikacja
- zweryfikowane konta
- Zobacz i wysłuchaj
- widoczność
- Wrażliwy
- fala
- sieć
- Strona internetowa
- strony internetowe
- Co
- czy
- KIM
- bez
- Praca
- działa
- by
- lat