Ein Mathematiker betritt eine Bar (der Desinformation)

Quellknoten: 1865101

Desinformation, Fehlinformation, Infotainment, Algowars – wenn die Debatten über die Zukunft der Medien in den letzten Jahrzehnten etwas bedeutet haben, haben sie zumindest einen deutlichen Eindruck in der englischen Sprache hinterlassen. Es gab viele Beschimpfungen und Ängste darüber, was soziale Medien mit uns machen, von unserer individuellen Psychologie und Neurologie bis hin zu umfassenderen Bedenken hinsichtlich der Stärke demokratischer Gesellschaften. Wie Joseph Bernstein es kürzlich ausdrückte, der Wandel von der „Weisheit der Masse“ zur „Desinformation“ erfolgte tatsächlich abrupt.

Was ist Desinformation? Existiert es und wenn ja, wo ist es und woher wissen wir, dass wir es uns ansehen? Sollten wir uns darum kümmern, was uns die Algorithmen unserer Lieblingsplattformen zeigen, während sie versuchen, unsere Aufmerksamkeit zu ersticken? Es sind einfach solche komplizierten mathematischen und sozialwissenschaftlichen Fragen, die gestellt werden Noah Giansiracusa Interesse am Thema.

Giansiracusa, Professor an der Bentley University in Boston, hat eine Ausbildung in Mathematik (wobei seine Forschung sich auf Bereiche wie die algebraische Geometrie konzentriert), aber er hat auch eine Vorliebe dafür, soziale Themen durch eine mathematische Linse zu betrachten, wie zum Beispiel das Thema „Verbindungen“. Computergeometrie an den Obersten Gerichtshof. Zuletzt veröffentlichte er ein Buch mit dem Titel „Wie Algorithmen Fake News erzeugen und verhindern” um einige der herausfordernden Fragen rund um die Medienlandschaft von heute zu untersuchen und wie Technologie diese Trends verschärft und mildert.

Ich habe Giansiracusa kürzlich in einem Twitter-Space gehostet, und da Twitter es nicht einfach gemacht hat, diese Vorträge im Nachhinein anzuhören (Vergänglichkeit!), dachte ich, ich würde die interessantesten Teile unseres Gesprächs für Sie und die Nachwelt herausholen.

Dieses Interview wurde aus Gründen der Übersichtlichkeit bearbeitet und komprimiert.

Danny Crichton: Wie kam es zu der Entscheidung, Fake News zu recherchieren und dieses Buch zu schreiben?

Noah Giansiracusa: Was mir aufgefallen ist, ist, dass es viele wirklich interessante soziologische und politikwissenschaftliche Diskussionen über Fake News und solche Dinge gibt. Und dann gibt es auf der technischen Seite Dinge wie Mark Zuckerberg, der sagt, dass KI all diese Probleme lösen wird. Es schien einfach ein bisschen schwierig zu sein, diese Lücke zu schließen.

Wahrscheinlich hat jeder dieses aktuelle Zitat von Biden gehört: „Sie töten Menschen„in Bezug auf Fehlinformationen in sozialen Medien. Wir haben also Politiker, die über solche Dinge sprechen, bei denen es für sie schwierig ist, die algorithmische Seite wirklich zu begreifen. Dann haben wir Informatiker, die wirklich tief im Detail stecken. Ich sitze also irgendwie dazwischen, ich bin kein echter Hardcore-Informatiker. Deshalb denke ich, dass es für mich etwas einfacher ist, einfach einen Schritt zurückzutreten und die Vogelperspektive zu genießen.

Am Ende des Tages hatte ich einfach das Gefühl, dass ich mehr Interaktionen mit der Gesellschaft erforschen wollte, wo die Dinge chaotisch werden und die Mathematik nicht so sauber ist.

Crichton: Da Sie einen mathematischen Hintergrund haben, betreten Sie dieses umstrittene Gebiet, in dem viele Leute aus vielen verschiedenen Blickwinkeln geschrieben haben. Was machen die Leute in diesem Bereich richtig und was haben die Leute vielleicht an einer Nuance übersehen?

Giansiracusa: Es gibt eine Menge unglaublichen Journalismus; Ich war überwältigt davon, wie viele Journalisten wirklich in der Lage waren, mit ziemlich technischen Dingen umzugehen. Aber eines würde ich sagen: Vielleicht haben sie sich nicht geirrt, aber es ist mir irgendwie aufgefallen, dass es oft vorkommt, dass eine wissenschaftliche Arbeit herauskommt, oder sogar eine Ankündigung von Google oder Facebook oder einem dieser Technologieunternehmen, und Sie werden etwas erwähnen, und der Journalist wird vielleicht ein Zitat herausholen und versuchen, es zu beschreiben, aber sie scheinen ein wenig Angst davor zu haben, wirklich zu versuchen, es anzusehen und zu verstehen. Und ich glaube nicht, dass sie es nicht geschafft haben, es scheint eher eine Einschüchterung und eine Angst zu sein.

Eine Sache, die ich als Mathematiklehrer oft erlebt habe, ist, dass die Leute große Angst davor haben, etwas Falsches zu sagen und einen Fehler zu machen. Und das gilt auch für Journalisten, die über technische Dinge schreiben müssen, sie wollen nichts Falsches sagen. So ist es einfacher, einfach eine Pressemitteilung von Facebook zu zitieren oder einen Experten zu zitieren.

Eine Sache, die an der reinen Mathematik so lustig und schön ist, ist, dass man sich nicht wirklich Sorgen macht, etwas falsch zu machen. Man probiert einfach Ideen aus und sieht, wohin sie führen, und man sieht all diese Wechselwirkungen. Wenn Sie bereit sind, eine Arbeit zu schreiben oder einen Vortrag zu halten, überprüfen Sie die Details. Aber der größte Teil der Mathematik ist dieser kreative Prozess, den man erforscht und bei dem man nur sieht, wie Ideen interagieren. Man glaubt, meine Ausbildung als Mathematiker würde mich davor fürchten, Fehler zu machen, und um ganz genau zu sein, aber es hatte irgendwie den gegenteiligen Effekt.

Zweitens sind viele dieser algorithmischen Dinge nicht so kompliziert, wie sie scheinen. Ich sitze nicht da und setze sie um, ich bin mir sicher, dass es schwierig ist, sie zu programmieren. Aber im Großen und Ganzen basieren all diese Algorithmen heutzutage auf Deep Learning. Sie haben also ein neuronales Netz. Für mich als Außenstehenden spielt es keine Rolle, welche Architektur sie verwenden. Alles, was wirklich zählt, ist, was die Prädiktoren sind. Was sind im Grunde die Variablen, die Sie diesem Algorithmus für maschinelles Lernen zuführen? Und was versucht es auszugeben? Das sind Dinge, die jeder verstehen kann.

Crichton: Eine der großen Herausforderungen bei der Analyse dieser Algorithmen ist meiner Meinung nach die mangelnde Transparenz. Anders als beispielsweise in der reinen Mathematikwelt, in der es eine Gemeinschaft von Wissenschaftlern gibt, die an der Lösung von Problemen arbeiten, können viele dieser Unternehmen bei der Bereitstellung von Daten und Analysen für die breitere Gemeinschaft tatsächlich ziemlich kontrovers sein.

Giansiracusa: Es scheint, dass es eine Grenze für das gibt, was jeder allein aus der Außenansicht ableiten kann.

Ein gutes Beispiel ist YouTube – Wissenschaftlerteams wollten untersuchen, ob der YouTube-Empfehlungsalgorithmus Menschen in diese verschwörungstheoretischen Kaninchenlöcher des Extremismus schickt. Die Herausforderung besteht darin, dass dies der Empfehlungsalgorithmus ist, der Deep Learning verwendet und auf Hunderten und Aberhunderten von Prädiktoren basiert, die auf Ihrem Suchverlauf, Ihren demografischen Merkmalen, den anderen Videos, die Sie gesehen haben, und der Dauer basieren – all diese Dinge. Es ist so auf Sie und Ihre Erfahrungen zugeschnitten, dass alle Studien, die ich finden konnte, den Inkognito-Modus verwenden.

Sie sind also im Grunde ein Benutzer, der keinen Suchverlauf und keine Informationen hat und zu einem Video geht und dann auf das erste empfohlene Video und dann auf das nächste klickt. Und mal sehen, wohin der Algorithmus die Leute führt. Das ist eine völlig andere Erfahrung als ein tatsächlicher menschlicher Benutzer mit einer Geschichte. Und das war wirklich schwierig. Ich glaube nicht, dass irgendjemand einen guten Weg gefunden hat, den YouTube-Algorithmus von außen algorithmisch zu erkunden.

Ehrlich gesagt glaube ich, dass die einzige Möglichkeit, dies zu tun, so etwas wie eine Studie der alten Schule ist, bei der man eine ganze Reihe von Freiwilligen rekrutiert, einen Tracker auf deren Computer installiert und ihnen sagt: „Hey, lebe das Leben einfach so, wie du es tust.“ Normalerweise machen Sie mit Ihren Geschichten und allem weiter und erzählen uns die Videos, die Sie sich ansehen.“ Daher ist es schwierig, über die Tatsache hinwegzukommen, dass viele dieser Algorithmen, fast alle, würde ich sagen, so stark auf Ihren individuellen Daten basieren. Wir wissen nicht, wie wir das in seiner Gesamtheit untersuchen sollen.

Und nicht nur ich oder jemand anderes von außen hat Probleme, weil uns die Daten fehlen. Es sind sogar Leute in diesen Unternehmen, die den Algorithmus entwickelt haben und wissen, wie der Algorithmus auf dem Papier funktioniert, aber sie wissen nicht, wie er sich tatsächlich verhalten wird. Es ist wie bei Frankensteins Monster: Sie haben dieses Ding gebaut, wissen aber nicht, wie es funktionieren wird. Ich glaube also, dass man es nur dann wirklich studieren kann, wenn die Leute im Inneren, die über diese Daten verfügen, sich alle Mühe geben und Zeit und Ressourcen investieren, um sie zu studieren.

Crichton: Es werden viele Kennzahlen zur Bewertung von Fehlinformationen und zur Bestimmung des Engagements auf einer Plattform verwendet. Halten Sie diese Maße aufgrund Ihres mathematischen Hintergrunds für robust?

Giansiracusa: Die Leute versuchen, Fehlinformationen zu entlarven. Aber im Laufe des Prozesses können sie es kommentieren, es retweeten oder teilen, und das zählt als Engagement. Sind viele dieser Messungen des Engagements wirklich positiv oder nur das gesamte Engagement? Wissen Sie, es wird irgendwie alles in einen Topf geworfen.

Dies geschieht auch in der akademischen Forschung. Zitate sind der universelle Maßstab dafür, wie erfolgreich Forschung ist. Nun ja, wirklich falsche Dinge wie Wakefields ursprünglicher Artikel über Autismus und Impfstoffe wurden haufenweise zitiert. Viele davon zitierten Leute, weil sie es für richtig hielten, aber viele davon waren Wissenschaftler, die es entlarvten, sie zitierten es in ihrem Artikel sagen wir, wir zeigen, dass diese Theorie falsch ist. Aber irgendwie ist ein Zitat ein Zitat. Es zählt also alles zur Erfolgsmetrik.

Ich denke, das ist ein Teil dessen, was mit Engagement passiert. Wenn ich in meinen Kommentaren etwas poste und sage: „Hey, das ist verrückt“, woher weiß der Algorithmus dann, ob ich es unterstütze oder nicht? Sie könnten es mit KI-Sprachverarbeitung versuchen, aber ich bin mir nicht sicher, ob das der Fall ist, und es ist ein großer Aufwand, dies zu tun.

Crichton: Abschließend möchte ich noch etwas über GPT-3 und die Besorgnis über synthetische Medien und Fake News sprechen. Es besteht große Angst, dass KI-Bots die Medien mit Desinformation überschwemmen – wie viel Angst sollten wir haben oder nicht?

Giansiracusa: Da mein Buch wirklich aus einem Erfahrungskurs heraus entstanden ist, wollte ich versuchen, unparteiisch zu bleiben und die Leute einfach zu informieren und sie ihre eigenen Entscheidungen treffen zu lassen. Ich beschloss, zu versuchen, diese Debatte zu unterbrechen und wirklich beide Seiten zu Wort kommen zu lassen. Ich denke, dass die Newsfeed-Algorithmen und Erkennungsalgorithmen eine Menge schädlicher Dinge verstärken, und das ist verheerend für die Gesellschaft. Aber es gibt auch viele erstaunliche Fortschritte beim produktiven und erfolgreichen Einsatz von Algorithmen, um Fake News einzudämmen.

Es gibt diese Techno-Utopisten, die sagen, dass KI alles in Ordnung bringen wird, dass wir die Wahrheit sagen, Fakten überprüfen und Algorithmen haben werden, die Fehlinformationen erkennen und beseitigen können. Es gibt einige Fortschritte, aber dazu wird es nicht kommen und es wird nie ganz zum Erfolg führen. Es wird immer auf Menschen angewiesen sein. Aber das andere, was wir haben, ist eine Art irrationale Angst. Es gibt diese Art von hyperbolischer KI-Dystopie, bei der Algorithmen so mächtig sind, so etwas wie Singularitätskram, dass sie uns zerstören werden.

Als Deep Fakes 2018 zum ersten Mal in den Nachrichten auftauchten und GPT-3 vor ein paar Jahren veröffentlicht wurde, herrschte große Angst: „Oh Scheiße, das wird all unsere Probleme mit Fake News und dem Verständnis dessen, was darin wahr ist, machen.“ die Welt viel, viel schwieriger.“ Und ich denke, jetzt, wo wir ein paar Jahre Abstand haben, können wir sehen, dass sie es etwas schwieriger gemacht haben, aber nicht annähernd so deutlich, wie wir erwartet hatten. Und das Hauptproblem ist eher psychologischer und wirtschaftlicher Natur.

Die ursprünglichen Autoren von GPT-3 haben also eine Forschungsarbeit erstellt, in der der Algorithmus vorgestellt wird, und sie führten unter anderem einen Test durch, bei dem sie Text einfügten und ihn zu einem Artikel erweiterten, und dann ließen sie einige Freiwillige bewerten und erraten, welchen ist der algorithmisch generierte und welcher Artikel der vom Menschen generierte ist. Sie berichteten, dass sie eine Genauigkeit von sehr, sehr nahe bei 50 % erreichten, was bedeutet, dass sie kaum über den zufälligen Schätzungen lagen. Das klingt, wissen Sie, sowohl erstaunlich als auch beängstigend.

Aber wenn man sich die Details ansieht, dehnten sie sich wie eine einzeilige Überschrift auf einen Textabsatz aus. Wenn Sie versucht haben, einen vollständigen Artikel in The Atlantic- oder New Yorker-Länge zu verfassen, werden Sie die Diskrepanzen erkennen und der Gedanke wird abschweifen. Die Autoren dieses Papiers haben das nicht erwähnt, sie haben einfach ihr Experiment durchgeführt und gesagt: „Hey, schauen Sie, wie erfolgreich es ist.“

Es sieht also überzeugend aus, dass sie diese beeindruckenden Artikel erstellen können. Aber hier ist letztendlich der Hauptgrund, warum GPT-3 in Bezug auf Fake News, Fehlinformationen und all diese Dinge nicht so transformativ war. Das liegt daran, dass Fake News größtenteils Müll sind. Es ist schlecht geschrieben, von schlechter Qualität, so billig und schnell zu veröffentlichen, dass Sie Ihren 16-jährigen Neffen einfach dafür bezahlen könnten, in wenigen Minuten eine Reihe gefälschter Nachrichtenartikel zu veröffentlichen.

Es liegt nicht so sehr daran, dass mir die Mathematik geholfen hat, das zu erkennen. Es ist nur irgendwie so, dass wir in der Mathematik vor allem versuchen, skeptisch zu sein. Man muss diese Dinge also hinterfragen und ein wenig skeptisch sein.

Quelle: https://techcrunch.com/2021/08/20/a-mathematician-walks-into-a-bar-of-disinformation/

Zeitstempel:

Mehr von Techcrunch