Die britische Regierung hat angekündigt (noch) weitere Ergänzungen zu seinem weitreichenden und umstrittenen Plan zur Regulierung von Online-Inhalten – auch bekannt als the Online-Sicherheitsrechnung.
Das neuste Maßnahmenpaket, das dem Entwurf hinzugefügt wird, soll Webnutzer vor anonymem Trolling schützen.
Das Gesetz hat insgesamt weitaus umfassendere Ziele und umfasst ein umfassendes Regime zur Moderation von Inhalten, das auf explizit illegale Inhalte, aber auch auf „legale, aber schädliche“ Inhalte abzielt – mit einem angeblichen Schwerpunkt auf dem Schutz von Kindern vor einer Reihe von Online-Schäden, vor Cybermobbing und Pro-Suizid Inhalt zur Exposition gegenüber Pornografie.
Kritiker sagen unterdessen, dass die Gesetzgebung die Meinungsfreiheit töten und Großbritannien isolieren und ein Splitternet-Großbritannien schaffen und gleichzeitig große rechtliche Risiken und Kosten für digitale Geschäfte in Großbritannien aufhäufen wird. (Es sei denn, Sie sind zufällig Teil des Clubs der „Sicherheitstechnologie“-Firmen, die anbieten, Dienstleistungen zu verkaufen, um Plattformen bei der Einhaltung ihrer Vorschriften zu helfen.)
In den vergangenen Monaten haben zwei parlamentarische Ausschüsse den Gesetzentwurf geprüft. Einer hat gerufen ein stärkerer Fokus auf illegale Inhalte, während ein anderer warnte, dass der Ansatz der Regierung beides ist ein Risiko für die Meinungsäußerung im Internet und es ist unwahrscheinlich, dass sie robust genug sind, um Sicherheitsbedenken auszuräumen – daher ist es fair zu sagen, dass die Minister unter Druck stehen, Änderungen vorzunehmen.
Daher setzt sich die Rechnung mit der Formänderung fort oder wächst im Umfang.
Andere kürzliche (wesentliche) Hinzufügungen zum Entwurf umfassen a Erfordernis für Websites mit Inhalten für Erwachsene, Altersüberprüfungstechnologien zu verwenden; und eine massive Ausweitung des Haftungssystems mit einer breiteren Liste krimineller Inhalte wird auf der Vorderseite der Rechnung hinzugefügt.
Die jüngsten Änderungen, von denen das Ministerium für Digital, Kultur, Medien und Sport (DCMS) sagt, dass sie nur für die größten Technologieunternehmen gelten, bedeuten, dass Plattformen den Benutzern Tools zur Verfügung stellen müssen, um zu begrenzen, wie viel (potenziell) schädlicher, aber technisch legaler Inhalt ist denen sie ausgesetzt sein könnten.
Aktivisten für Online-Sicherheit verknüpfen häufig die Verbreitung von gezieltem Missbrauch wie rassistische Hassreden oder Cybermobbing mit der Anonymität von Konten, obwohl weniger klar ist, auf welche Beweise sie sich stützen – abgesehen von anekdotischen Berichten über einzelne anonyme Konten, die missbräuchlich sind.
Es ist jedoch ähnlich einfach, Beispiele für missbräuchliche Inhalte zu finden, die von benannten und verifizierten Konten verbreitet werden. Nicht zuletzt die scharfzüngige Digitalstaatssekretärin selbst, Nadine Dorries, deren Tweets, die einen LBC-Journalisten auspeitschen kürzlich dazu geführt peinlicher gotcha moment bei einer parlamentarischen Ausschussanhörung.
Der Punkt ist: Einzelne Beispiele – wie hochkarätig sie auch sein mögen – sagen nicht wirklich viel über systemische Probleme aus.
In der Zwischenzeit hat ein aktuelles Urteil des Europäischen Gerichtshofs für Menschenrechte – an das das Vereinigte Königreich gebunden bleibt – bekräftigte die Bedeutung der Anonymität im Internet als Vehikel für „den freien Fluss von Meinungen, Ideen und Informationen“, wobei das Gericht seine Ansicht klar demonstriert, dass Anonymität ein Schlüsselelement der Meinungsfreiheit ist.
Die britischen Gesetzgeber müssen also ganz klar vorsichtig vorgehen, wenn die Forderungen der Regierung nach der Gesetzgebung, die das Vereinigte Königreich zum „sichersten Ort zum Surfen im Internet“ macht – bei gleichzeitigem Schutz der Meinungsfreiheit – nicht geschreddert werden sollen.
Angesichts der Tatsache, dass Internet-Trolling ein systemisches Problem ist, das auf bestimmten reichweitenstarken, werbefinanzierten Mainstream-Plattformen besonders problematisch ist, wo wirklich abscheuliche Dinge massiv verstärkt werden können, könnte es für den Gesetzgeber aufschlussreicher sein, die finanziellen Anreize zu berücksichtigen, die mit der Verbreitung von Inhalten verbunden sind — ausgedrückt durch „datengesteuerte“ Content-Ranking-/Surfacing-Algorithmen (wie Facebooks Verwendung des polarisierenden „Engagement-basierten Rankings“, wie z von der Whistleblowerin Frances Haugen gerufen).
Der britische Ansatz zur Bekämpfung von Online-Trolling verfolgt jedoch einen anderen Weg.
Die Regierung konzentriert sich darauf, Plattformen zu zwingen, Benutzern Optionen zur Begrenzung ihrer eigenen Exposition zu bieten – obwohl DCMS auch die missbräuchliche Rolle von Algorithmen bei der Verstärkung schädlicher Inhalte anerkennt (in seiner Pressemitteilung wird darauf hingewiesen, dass „viele“ Inhalte in den AGB der sozialen Netzwerke ausdrücklich verboten sind darf „zu oft“ aufbleiben und wird „über Algorithmen aktiv zu Menschen befördert“; und Dorries selbst kritisiert „Schurkenalgorithmen“).
Die von den Ministern gewählte Lösung für die problematische algorithmische Verstärkung besteht darin, nicht auf die Durchsetzung des bestehenden Datenschutzregimes des Vereinigten Königreichs zu drängen gegen People-Profiling Adtech – etwas, das Aktivisten für Datenschutz und digitale Rechte seit buchstäblich Jahren fordern – was sicherlich einschränken könnte, wie aufdringlich (und möglicherweise missbräuchlich) einzelne Benutzer von datengesteuerten Plattformen angegriffen werden könnten.
Vielmehr möchte die Regierung, dass die Menschen mehr ihrer persönlichen Daten an diese (typischerweise) Adtech-Plattformgiganten weitergeben, damit sie neue Tools entwickeln können, mit denen sich die Benutzer schützen können! (Auch relevant: Die Regierung ist gleichzeitig mit Blick auf eine Verringerung des Datenschutzniveaus für Briten als eine seiner „Brexit-Möglichkeiten“… also, äh… 😬)
DCMS sagt, dass die neuesten Ergänzungen des Gesetzentwurfs es für die größten Plattformen (sogenannte „Kategorie-XNUMX“-Unternehmen) erforderlich machen werden, Benutzern Möglichkeiten anzubieten, ihre Identität zu überprüfen und zu kontrollieren, wer mit ihnen interagieren kann – beispielsweise durch Auswahl einer Option zu erhalte nur DMs und Antworten von verifizierten Accounts.
„Die Verantwortung liegt bei den Plattformen, zu entscheiden, welche Methoden zur Erfüllung dieser Identitätsüberprüfungspflicht verwendet werden sollen, aber sie müssen den Benutzern die Möglichkeit geben, sich an- oder abzumelden“, heißt es in einer Pressemitteilung, in der die zusätzlichen Maßnahmen angekündigt werden.
In einer Erklärung fügte Dorries hinzu: „Technologiefirmen haben die Verantwortung, anonyme Trolle daran zu hindern, ihre Plattformen zu verschmutzen.
„Wir haben Rufe gehört, unsere neuen Online-Sicherheitsgesetze zu stärken, und kündigen neue Maßnahmen an, um den Nutzern sozialer Medien mehr Macht in die Hände zu geben.
„Die Menschen werden jetzt mehr Kontrolle darüber haben, wer sie kontaktieren kann, und in der Lage sein, die Flutwelle des Hasses zu stoppen, die ihnen von Schurkenalgorithmen entgegengespült wird.“
Twitter bietet verifizierten Benutzern bereits die Möglichkeit, einen Feed mit Antworten nur von anderen verifizierten Benutzern zu sehen. Aber der Vorschlag des Vereinigten Königreichs scheint noch weiter zu gehen – er fordert alle großen Plattformen auf, solche Funktionen hinzuzufügen oder zu erweitern, sie allen Benutzern zur Verfügung zu stellen und einen Verifizierungsprozess für diejenigen anzubieten, die bereit sind, einen Ausweis nachzuweisen, um ihre Reichweite zu maximieren .
DCMS sagte, das Gesetz selbst werde keine spezifischen Überprüfungsmethoden vorschreiben – vielmehr werde die Regulierungsbehörde (Ofcom) „Anleitung“ bieten.
„Wenn es um die Überprüfung von Identitäten geht, bieten einige Plattformen Benutzern möglicherweise die Möglichkeit, ihr Profilbild zu überprüfen, um sicherzustellen, dass es sich um eine echte Ähnlichkeit handelt. Oder sie könnten die Zwei-Faktor-Authentifizierung verwenden, bei der eine Plattform eine Aufforderung zur Überprüfung an die Handynummer eines Benutzers sendet. Alternativ könnte die Verifizierung Personen umfassen, die einen von der Regierung ausgestellten Ausweis wie einen Reisepass verwenden, um ein Konto zu erstellen oder zu aktualisieren“, schlägt die Regierung vor.
Ofcom, die Aufsichtsbehörde, die für die Durchsetzung des Online-Sicherheitsgesetzes zuständig sein wird, wird Leitlinien darlegen, wie Unternehmen die neue „Benutzerverifizierungspflicht“ erfüllen können und welche „Verifizierungsoptionen Unternehmen nutzen könnten“, fügt sie hinzu.
„Bei der Entwicklung dieser Leitlinien muss Ofcom sicherstellen, dass die möglichen Verifizierungsmaßnahmen für gefährdete Benutzer zugänglich sind, und sich mit dem Informationsbeauftragten sowie mit gefährdeten erwachsenen Benutzern und technischen Experten beraten“, stellt DCMS ebenfalls fest, mit einem winzigen Nicken zum massiven Thema von Privatsphäre.
Gruppen für digitale Rechte werden zumindest ein Zeichen der Erleichterung ausstrahlen, dass Großbritannien nicht auf ein vollständiges Verbot der Anonymität drängt, wie einige Aktivisten für Online-Sicherheit gedrängt haben.
Wenn es um das heikle Thema Online-Trolling geht, hängt die Strategie des Vereinigten Königreichs davon ab, die Reichweitenfreiheit auf Mainstream-Plattformen potenziell einzuschränken, anstatt selbst gegen beleidigende Äußerungen vorzugehen.
„Das vollständige Verbot der Anonymität im Internet würde sich negativ auf diejenigen auswirken, die positive Online-Erfahrungen gemacht haben oder sie für ihre persönliche Sicherheit nutzen, wie Opfer von häuslicher Gewalt, Aktivisten, die in autoritären Ländern leben, oder junge Menschen, die ihre Sexualität erforschen“, schreibt DCMS, bevor sie das Neue argumentiert Pflicht „wird ein besseres Gleichgewicht zwischen der Stärkung und dem Schutz von Erwachsenen – insbesondere der schutzbedürftigen – bei gleichzeitiger Wahrung der Meinungsfreiheit im Internet bieten, da es nicht erforderlich ist, dass die gesetzliche Redefreiheit entfernt wird“.
„Dies wird zwar nicht verhindern, dass anonyme Trolle überhaupt missbräuchliche Inhalte posten – vorausgesetzt, es ist legal und verstößt nicht gegen die Geschäftsbedingungen der Plattform –, aber es wird verhindern, dass die Opfer ihnen ausgesetzt werden, und ihnen mehr Kontrolle über ihre Online-Erfahrung geben“, heißt es schlägt auch vor.
Neil Brown, Anwalt für Internet, Telekommunikation und Technologie bei, fragte nach Gedanken zum Balanceakt der Regierung hier Legal dekodiert, war von der Vereinbarkeit seines Ansatzes mit den Menschenrechten nicht überzeugt.
„Ich bin skeptisch, ob dieser Vorschlag mit dem Grundrecht vereinbar ist, Informationen und Ideen ohne Einmischung der öffentlichen Hand zu erhalten und weiterzugeben, wie es in Artikel 10 des Menschenrechtsgesetzes von 1998 verankert ist“, sagte er gegenüber TechCrunch. „Nirgendwo steht, dass das Recht auf Auskunftserteilung nur dann gilt, wenn man seine Identität nach einem von der Regierung vorgeschriebenen Standard verifiziert hat.
„Während es für eine Plattform rechtmäßig wäre, sich für die Umsetzung eines solchen Ansatzes zu entscheiden, erscheint es mir fragwürdig, Plattformen zur Umsetzung dieser Maßnahmen zu verpflichten.“
Nach dem Vorschlag der Regierung müssten diejenigen, die ihre Online-Sichtbarkeit/Reichweite maximieren wollen, einen Ausweis abgeben oder ihre Identität auf andere Weise gegenüber großen Plattformen nachweisen – und Brown wies auch darauf hin, dass dies ein „zweistufiges System“ schaffen könnte Online-Ausdruck, der (sagen wir) der extrovertierten und/oder unausstehlichen Person dienen könnte, während er die Sichtbarkeit der vorsichtigeren/risikoscheueren oder anderweitig gefährdeten Benutzer herabsetzt, die zu Recht vorsichtig mit der Selbstidentifizierung sind (und wahrscheinlich viel weniger wahrscheinlich sind). sowieso Trolle sein).
„Obwohl die Vorschläge kurz davor stehen, von allen Benutzern zu verlangen, mehr persönliche Daten an Social-Media-Sites weiterzugeben, ist das Ergebnis, dass jeder, der nicht willens oder nicht in der Lage ist, sich zu verifizieren, ein Benutzer zweiter Klasse wird“, schlug er vor. „Es scheint, dass Websites ermutigt oder verpflichtet werden, Benutzern zu erlauben, nicht verifizierte Personen massenhaft zu blockieren.
„Diejenigen, die bereit sind, unter ihrem eigenen Namen Galle oder Fehlinformationen zu verbreiten oder zu belästigen, werden wahrscheinlich nicht betroffen sein, da der zusätzliche Schritt, sich auszuweisen, wahrscheinlich kein Hindernis für sie darstellt.“
TechCrunch geht davon aus, dass der Vorschlag der Regierung bedeuten würde, dass Benutzer von in den Anwendungsbereich fallenden benutzergenerierten Plattformen, die nicht ihren richtigen Namen als ihre öffentlich zugängliche Kontoidentität verwenden (dh weil sie es vorziehen, einen Spitznamen oder einen anderen Spitznamen zu verwenden), dies weiterhin tun könnten Teilen Sie (rechtliche) Ansichten ohne Einschränkungen, wer ihre Sachen sehen würde – vorausgesetzt sie hatten (privat) ihre Identität bei der betreffenden Plattform verifiziert.
Brown war etwas positiver in Bezug auf dieses Element, weiterhin pseudonymisiertes öffentliches Teilen zu ermöglichen.
Er warnte jedoch auch davor, dass viele Menschen möglicherweise immer noch zu vorsichtig sind, ihre tatsächliche ID den Catch-All-Datenbanken der Plattformen anzuvertrauen. (Die Ausflug allerlei Virale anonyme Blogger hebt im Laufe der Jahre die Beweggründe für das Durchsickern abgeschirmter Identitäten hervor.)
„Dies ist geringfügig besser als eine ‚Echtnamen‘-Richtlinie – bei der Ihr verifizierter Name veröffentlicht wird – aber nur geringfügig, weil Sie immer noch ‚echte‘ Ausweisdokumente an eine Website übergeben müssen“, sagte Brown und fügte hinzu: „Ich vermuten, dass Personen, die zu ihrem eigenen Schutz pseudonym bleiben, zu Recht vorsichtig mit der Erstellung dieser neuen, massiven Datensätze sind, die wahrscheinlich sowohl für Hacker als auch für abtrünnige Mitarbeiter attraktiv sind.“
Benutzersteuerelemente für die Inhaltsfilterung
In einer zweiten neuen Pflicht, die dem Gesetzentwurf hinzugefügt wird, sagte DCMS, dass Plattformen der Kategorie XNUMX auch verlangen werden, dass sie Benutzern Tools zur Verfügung stellen, die ihnen eine größere Kontrolle darüber geben, was sie im Dienst ausgesetzt sind.
„Das Gesetz wird bereits betroffene Unternehmen dazu zwingen, illegale Inhalte wie Bilder des sexuellen Missbrauchs von Kindern, die Förderung von Selbstmord, Hassverbrechen und Anstiftung zum Terrorismus zu entfernen. Aber es gibt eine wachsende Liste von toxischen Inhalten und Verhaltensweisen in sozialen Medien, die unter die Schwelle einer Straftat fallen, aber dennoch erheblichen Schaden anrichten“, schreibt die Regierung.
„Dazu gehören rassistischer Missbrauch, die Förderung von Selbstverletzungen und Essstörungen sowie gefährliche Desinformation gegen Impfungen. Vieles davon ist in den AGB der sozialen Netzwerke bereits ausdrücklich verboten, darf aber zu oft oben bleiben und wird über Algorithmen aktiv an die Menschen herangetragen.“
„Im Rahmen einer zweiten neuen Pflicht müssen Unternehmen der ‚Kategorie XNUMX‘ ihren erwachsenen Benutzern Tools zur Verfügung stellen, mit denen sie entscheiden können, ob sie legalen, aber schädlichen Inhalten ausgesetzt werden möchten, wenn diese auf einer Plattform toleriert werden“, fügt DCMS hinzu.
„Diese Tools könnten neue Einstellungen und Funktionen enthalten, die verhindern, dass Benutzer Empfehlungen zu bestimmten Themen erhalten, oder Vertraulichkeitsbildschirme über diesen Inhalt legen.“
In der Pressemitteilung wird das Beispiel „Inhalte zur Diskussion über die Wiederherstellung von Selbstverletzungen“ als etwas genannt, das „bei einem Dienst der Kategorie XNUMX toleriert werden kann, aber das ein bestimmter Benutzer möglicherweise nicht sehen möchte“.
Brown war positiver gegenüber diesem Plan, große Plattformen dazu zu verpflichten, ein benutzergesteuertes Inhaltsfiltersystem anzubieten – mit der Einschränkung, dass dies erforderlich wäre wirklich benutzergesteuert sein.
Er äußerte auch Bedenken hinsichtlich der Verarbeitbarkeit.
„Ich begrüße die Idee des Content-Filer-Systems, damit die Leute ein gewisses Maß an Kontrolle darüber haben, was sie sehen, wenn sie auf eine Social-Media-Site zugreifen. Dies funktioniert jedoch nur, wenn Benutzer auswählen können, was auf ihre persönlichen Sperrlisten kommt. Und ich bin mir nicht sicher, wie das in der Praxis funktionieren würde, da ich bezweifle, dass die automatisierte Inhaltsklassifizierung ausreichend ausgereift ist“, sagte er uns.
„Wenn die Regierung sich auf ‚legale, aber schädliche Inhalte‘ bezieht, könnte ich mich dafür entscheiden, Inhalte mit einer bestimmten politischen Neigung zu blockieren, die beispielsweise eine Ideologie darlegen, die ich für schädlich halte? Oder ist das antidemokratisch (obwohl es meine Entscheidung ist)?
„Könnte ich verlangen, alle Inhalte zu sperren, die für COVID-19-Impfungen waren, wenn ich das für schädlich halte? (Ich nicht.)
„Was ist mit beleidigenden oder beleidigenden Kommentaren eines Politikers? Oder wird es ein weitaus grundlegenderes System sein, das es den Benutzern im Wesentlichen ermöglicht, Nacktheit, Obszönität und alles, was eine Plattform zur Darstellung von Selbstverletzung oder Rassismus bestimmt, zu blockieren.“
„Wenn es den Plattformen überlassen werden soll, was die „bestimmten Themen“ sind – oder, schlimmer noch, der Regierung –, könnte dies technisch einfacher zu erreichen sein. Ich frage mich jedoch, ob Anbieter auf Overblocking zurückgreifen werden, um sicherzustellen, dass die Leute Dinge nicht sehen, deren Unterdrückung sie angefordert haben.“
Ein anhaltendes Problem bei der Bewertung des Online-Sicherheitsgesetzes ist, dass viele spezifische Details einfach noch nicht klar sind, da die Regierung beabsichtigt, so viele Details durch Sekundärgesetzgebung durchzusetzen. Und auch heute stellte sie fest, dass weitere Einzelheiten der neuen Pflichten in den bevorstehenden Verhaltenskodizes der Ofcom festgelegt werden.
Ohne weitaus mehr Praxisdetails ist es also nicht wirklich möglich, die praktischen Auswirkungen richtig zu verstehen, z. B. wie – buchstäblich – Plattformen in der Lage sind oder versuchen, diese Mandate umzusetzen. Was uns bleibt, ist vor allem Regierungsverdrehung.
Aber abgesehen davon, wie könnten Plattformen im Allgemeinen an ein Mandat herangehen, um „legale, aber schädliche Inhalte“-Themen herauszufiltern?
Ein Szenario – unter der Annahme, dass die Plattformen selbst entscheiden, wo sie die „Schadens“-Grenze ziehen – ist, wie Brown vorhersagt, dass sie die Gelegenheit ergreifen, einen massiv vanille „überblockierten“ Feed für diejenigen anzubieten, die sich dafür entscheiden, „schädlich, aber legal“ auszuschließen ' Inhalt; zum großen Teil, um ihr Rechtsrisiko und ihre Betriebskosten zu senken (NB: Automatisierung ist supergünstig und einfach, wenn Sie sich keine Gedanken über Nuancen oder Qualität machen müssen; blockieren Sie einfach etwas du nicht 100 % sicher bist, ist 100 % unstrittig!).
Aber sie könnten Overblocking auch als manipulative Taktik einsetzen – mit dem letztendlichen Ziel, Menschen davon abzuhalten, eine so massive Zensur einzuschalten, und/oder sie dazu zu bringen, freiwillig zum ungefilterten Feed zurückzukehren, wo die polarisierenden Inhaltsalgorithmen der Plattform haben Sie ein umfassenderes Inhaltsspektrum, um Aufmerksamkeit zu erregen und Werbeeinnahmen zu steigern … Schritt 3: Profitieren Sie.
Der Kicker ist, dass Plattformen in diesem Szenario eine plausible Leugnung hätten – da sie einfach argumentieren könnten, dass sich der Benutzer selbst dafür entschieden hat, schädliche Inhalte zu sehen! (Oder hat sich zumindest nicht abgemeldet, da sie den Filter abgeschaltet oder sonst nie benutzt haben.) Aka: 'Kann nicht der KI-Regierung die Schuld geben!'
Alle datengetriebenen, algorithmisch verstärkten Schäden wären plötzlich aus dem Schneider. Und Online-Schaden würde werden die Schuld des Benutzers dafür, den verfügbaren High-Tech-Empfindlichkeitsbildschirm nicht einzuschalten, um sich abzuschirmen. Verantwortung abgezweigt.
Was sich ehrlich gesagt nach der Art von regulatorischer Übertreibung anhört, die ein Adtech-Riese wie Facebook fröhlich hinter sich bringen könnte.
Dennoch sind Plattformgiganten mit zahlreichen Risiken und Belastungen durch das gesamte Angebotspaket konfrontiert, das von Dorries & Co. auf sie zukommt.
Der Staatssekretär hat auch kein Geheimnis gemacht wie fröhlich sie wäre Leute wie Mark Zuckerberg und Nick Clegg einzusperren.
Neben der Verpflichtung, ausdrücklich illegale Inhalte wie Terrorismus und CSAM proaktiv zu entfernen – unter Androhung massiver Bußgelder und/oder strafrechtlicher Haftung für namentlich genannte Führungskräfte – wurde das Gesetz kürzlich erweitert, um die proaktive Entfernung einer viel breiteren Palette von Inhalten im Zusammenhang mit dem Internet vorzuschreiben Drogen- und Waffenhandel; Menschenschmuggel; Rachepornos; der Betrug; Suizid fördern; und Anstiftung oder Kontrolle von Prostitution mit Gewinnzweck.
Plattformen müssen also aktiv und im Voraus nach all diesen Dingen suchen und diese entfernen, anstatt wie gewohnt nachträglich auf Benutzerberichte zu reagieren (oder nicht sehr viel zu tun, je nachdem). Was ihr Content-Business wie gewohnt wirklich auf den Kopf stellt.
DCMS auch vor kurzem angekündigt, es würde dem Gesetzentwurf auch neue kriminelle Kommunikationsdelikte hinzufügen – es wolle den Schutz vor „schädlichem Online-Verhalten“ wie Zwangs- und Kontrollverhalten durch häusliche Gewalt stärken; Androhung von Vergewaltigung, Tötung und körperlicher Gewalt; und das absichtliche Teilen gefährlicher Desinformationen über Hoax-COVID-19-Behandlungen – eine weitere Erweiterung des Umfangs der Inhalte, auf die Plattformen vorbereitet und auf die sie achten müssen.
Angesichts des ständig wachsenden Umfangs des Content-Scanning-Regimes, das für Plattformen aus dem Ruder läuft – kombiniert mit der mangelnden Bereitschaft der Technologiegiganten, die menschliche Content-Moderation angemessen zu finanzieren (da dies ihre Gewinne verbrennen würde) – könnte es für Zuck tatsächlich viel einfacher sein & co, um zu einem einzigen Super-Vanilla-Feed zu wechseln.
Machen Sie Katzenbilder und Babyfotos bis ganz nach unten – und hoffen Sie, dass die Augäpfel nicht wegrollen und die Gewinne nicht abfließen, aber Ofcom bleibt weg … oder so.
- &
- Über uns
- Zugang
- Konto
- Handlung
- Ad
- Zusatz
- Zusätzliche
- Adresse
- Altersverifikation
- algorithmisch
- Algorithmen
- Alle
- bereits
- Obwohl
- verstärkend
- Ankündigung
- Anonymität
- Ein anderer
- Ansatz
- Artikel
- Authentifizierung
- Automatisiert
- Automation
- verfügbar
- Verfügbar für alle
- Baby
- Verbot
- Bevor
- Sein
- Größte
- Bill
- Blockieren
- Körper
- Geschäft
- Zensur
- berechnen
- der
- weltweit
- aus aller Welt
- Einstufung
- Club
- Kommen
- Bemerkungen
- Kommunikation
- Unternehmen
- zwingend
- Compliance
- Komponente
- Inhalt
- inhaltliche Moderation
- weiter
- könnte
- Länder
- Platz
- COVID-19
- erstellen
- Erstellen
- Verbrechen
- Kriminell
- KULTUR
- Cybermobbing
- technische Daten
- Datenschutz
- Datenbanken
- Behandlung
- Demand
- Trotz
- Detail
- Entwicklung
- anders
- digital
- digitale Rechte
- Desinformation
- Unterlagen
- nach unten
- Medikament
- Mitarbeiter
- insbesondere
- Europäische
- Beispiel
- Austausch-
- Erweitern Sie die Funktionalität der
- Ausbau
- Expansion
- ERFAHRUNGEN
- Erfahrungen
- Experten
- Gesicht
- Messe
- Eigenschaften
- Revolution
- Vorname
- Fixieren
- Fluss
- Setzen Sie mit Achtsamkeit
- konzentriert
- Betrug
- Frei
- Freiheit
- voller
- Funktionen
- Kundenziele
- gehen
- der Regierung
- greifen
- Wachsen Sie über sich hinaus
- persönlichem Wachstum
- Hacker
- Hassreden
- Hilfe
- hier
- High
- Ultraschall
- HTTPS
- riesig
- Menschenrechte
- Idee
- Identitätsschutz
- Identitäts Verifikation
- illegal
- implementieren
- Bedeutung
- das
- Krankengymnastik
- Information
- Internet
- Problem
- IT
- Wesentliche
- grosse
- neueste
- Recht
- Gesetzgeber
- Gesetze
- Leck
- geführt
- Rechtlich
- Gesetzgebung
- Niveau
- Haftung
- Line
- LINK
- Liste
- Listen
- Mainstream
- Dur
- Making
- Kennzeichen
- Mark Zuckerberg
- Maßnahmen
- Medien
- Fehlinformationen
- Mobil
- Monat
- mehr
- Namen
- Notizen
- bieten
- bieten
- Online
- Meinungen
- Gelegenheit
- Option
- Optionen
- Auftrag
- Andere
- Andernfalls
- Pass
- Personen
- persönliche
- Daten
- physikalisch
- ein Bild
- Rohr
- Plattform
- Plattformen
- Reichlich
- Datenschutzrichtlinien
- Porno
- Pornographie
- möglich
- Werkzeuge
- Presse
- Pressemitteilung
- Druck
- Datenschutz
- Aufgabenstellung:
- Probleme
- Prozessdefinierung
- Profil
- Profit
- profite
- Förderung
- Angebot
- Risiken zu minimieren
- Sicherheit
- die
- Öffentlichkeit
- Qualität
- Frage
- Rassismus
- Angebot
- erhalten
- Reduzierung
- Regulierungsbehörden
- Release
- Erleichterung
- Meldungen
- erfordern
- falls angefordert
- Ressourcen
- Risiko
- Rollen
- Urteil
- Sicherheit
- Said
- Scan
- Scannen
- Bildschirm
- Sekundär-
- Ergreifen
- verkaufen
- Leistungen
- kompensieren
- Teilen
- Short
- signifikant
- Seiten
- So
- Social Media
- Social Media
- etwas
- anspruchsvoll
- Wirbelsäule ... zu unterstützen.
- Sport
- Verbreitung
- Bundesstaat
- Erklärung
- bleiben
- Strategie
- wesentlich
- Selbstmord
- Schalter
- System
- Tech
- TechCrunch
- Technische
- Terrorismus
- das Gesetz
- Bedrohungen
- Durch
- heute
- Werkzeuge
- Themen
- Fackel
- Transformieren
- Vertrauen
- Uk
- Britische Regierung
- Aktualisierung
- us
- -
- Nutzer
- Fahrzeug
- Verification
- überprüft Konten
- Anzeigen
- Sichtbarkeit
- Verwundbar
- Wave
- Netz
- Webseite
- Webseiten
- Was
- ob
- WHO
- ohne
- Arbeiten
- Werk
- würde
- Jahr