Математик заходить у бар (дезінформації)

Вихідний вузол: 1865101

Дезінформація, дезінформація, інформаційно-розважальна програма, алгоритмічні війни — якщо дебати щодо майбутнього медіа за останні кілька десятиліть щось означали, вони принаймні залишили гострий відбиток на англійській мові. Було багато критики та страху з приводу того, що соціальні медіа роблять з нами, від нашої індивідуальної психології та неврології до ширшого занепокоєння щодо міцності демократичних суспільств. Як недавно сказав Джозеф Бернштейн, перехід від «мудрості натовпу» до «дезінформації» справді був різким.

Що таке дезінформація? Чи існує він, і якщо так, то де він і як ми знаємо, що дивимося на нього? Чи маємо ми дбати про те, що показують нам алгоритми наших улюблених платформ, які намагаються привернути до себе увагу? Це просто такі заплутані математичні та суспільствознавчі запитання Ной Гіансіракуза зацікавлений предметом.

Гіансіракуза, професор Університету Бентлі в Бостоні, має математичну освіту (зосереджуючи свої дослідження на таких галузях, як алгебраїчна геометрія), але він також мав схильність дивитися на соціальні теми крізь математичну призму, як-от підключення обчислювальної геометрії до Верховного суду. Нещодавно він видав книгу під назвою «Як алгоритми створюють і запобігають фейковим новинам», щоб дослідити деякі складні питання сучасного медіаландшафту та те, як технології загострюють і покращують ці тенденції.

Нещодавно я влаштував Giansiracusa на Twitter Space, і оскільки Twitter не полегшив прослуховування цих розмов після (ефемерність!), я вирішив витягнути найцікавіші фрагменти нашої розмови для вас і нащадків.

Це інтерв'ю було відредаговано та скорочено для ясності.

Денні Крайтон: Як ви вирішили дослідити фейкові новини та написати цю книгу?

Ной Гіансіракуза: Одна річ, яку я помітив, полягає в тому, що є багато справді цікавих соціологічних і політологічних дискусій щодо фейкових новин і такого роду речей. А з технічної сторони ви матимете такі речі, як Марк Цукерберг, який каже, що штучний інтелект вирішить усі ці проблеми. Просто здавалося, що трохи важко подолати цей розрив.

Кожен, мабуть, чув цю недавню цитату Байдена: «вони вбивають людей”, щодо дезінформації в соціальних мережах. Тож у нас є політики, які говорять про ці речі, і їм важко зрозуміти алгоритмічну сторону. Крім того, у нас є люди з інформатики, які глибоко вникають у деталі. Тож я наче сиджу посередині, я не справжній запеклий фахівець з інформатики. Тож я думаю, що мені трохи легше просто відійти назад і побачити з висоти пташиного польоту.

Зрештою, я просто відчув, що хотів би більше дослідити взаємодію із суспільством, де все стає безладно, де математика не така чиста.

Крайтон: Ви маєте математичний досвід, ви входите в цю суперечливу сферу, де багато людей писали з багатьох різних точок зору. Що люди отримують правильно в цій сфері і який, можливо, пропустив якийсь нюанс?

Гіансіракуза: Там багато неймовірної журналістики; Я був вражений тим, як багато журналістів дійсно змогли мати справу з досить технічними речами. Але я б сказав одне, що, можливо, вони не помилилися, але мене вразило те, що часто виходить академічна стаття або навіть оголошення від Google, Facebook або однієї з цих технологічних компаній, і вони ніби щось згадують, і журналіст, можливо, витягне цитату та спробує це описати, але вони, здається, трохи бояться по-справжньому поглянути й зрозуміти це. І я не думаю, що вони не змогли, це справді більше схоже на залякування та страх.

Як вчитель математики я пережив одну річ: люди так бояться сказати щось не так і зробити помилку. І це стосується журналістів, які мають писати про технічні речі, вони не хочуть сказати щось не те. Тож простіше просто процитувати прес-реліз із Facebook або процитувати експерта.

Єдине, що так цікаво і красиво в чистій математиці, полягає в тому, що ви насправді не хвилюєтеся про помилку, ви просто пробуєте ідеї та бачите, до чого вони приведуть, і ви бачите всі ці взаємодії. Коли ви готові написати доповідь або виступити з доповіддю, ви перевіряєте деталі. Але більша частина математики — це творчий процес, у якому ви досліджуєте, і ви просто спостерігаєте, як взаємодіють ідеї. Як ви думаєте, моя підготовка математика змусила б мене побоюватися помилок і бути дуже точним, але це мало протилежний ефект.

По-друге, багато з цих алгоритмічних речей не такі складні, як здаються. Я не сиджу, реалізовуючи їх, я впевнений, що запрограмувати їх важко. Але просто загальна картина, усі ці алгоритми в наш час, багато з цих речей базуються на глибокому навчанні. Отже, у вас є якась нейронна мережа, для мене, як стороннього спостерігача, не має значення, яку архітектуру вони використовують, все, що справді має значення, це те, які прогнози? По суті, які змінні ви передаєте цьому алгоритму машинного навчання? І що він намагається вивести? Це речі, які кожен може зрозуміти.

Крайтон: Я вважаю, що однією з великих проблем під час аналізу цих алгоритмів є відсутність прозорості. На відміну, скажімо, від чистого математичного світу, який є спільнотою вчених, які працюють над вирішенням проблем, багато з цих компаній насправді можуть бути досить ворожими щодо надання даних і аналізу ширшій спільноті.

Гіансіракуза: Схоже, є межа того, що будь-хто може зробити висновок, просто перебуваючи ззовні.

Хорошим прикладом є YouTube — команди науковців хотіли дослідити, чи алгоритм рекомендацій YouTube посилає людей у ​​ці конспірологічні кролячі нори екстремізму. Проблема полягає в тому, що, оскільки це алгоритм рекомендацій, він використовує глибоке навчання, він базується на сотнях і сотнях прогнозів на основі вашої історії пошуку, ваших демографічних показників, інших відео, які ви дивилися, і тривалості — усе це. Він настільки адаптований до вас і вашого досвіду, що всі дослідження, які мені вдалося знайти, використовують режим анонімного перегляду.

Таким чином, вони фактично користувачі, які не мають історії пошуку, жодної інформації, і вони переходять до відео, а потім клацають перше рекомендоване відео, а потім наступне. І давайте подивимося, куди алгоритм приведе людей. Це зовсім інший досвід, ніж реальний користувач-людина з історією. І це було справді важко. Я не думаю, що хтось знайшов хороший спосіб алгоритмічного дослідження алгоритму YouTube ззовні.

Чесно кажучи, єдиний спосіб, який, на мою думку, можна зробити — це щось на кшталт дослідження старої школи, де ви набираєте цілу купу волонтерів і ніби встановлюєте трекер на їхній комп’ютер і говорите: «Гей, просто живи так, як ти як правило, попрацюйте зі своїми історіями та іншим і розкажіть нам відео, які ви переглядаєте». Тож було важко пройти повз той факт, що багато з цих алгоритмів, майже всі, я б сказав, настільки сильно базуються на ваших індивідуальних даних. Ми не знаємо, як вивчити це в сукупності.

І це не тільки я чи будь-хто інший, хто має проблеми, тому що ми не маємо даних. Навіть люди в цих компаніях розробили алгоритм і знають, як алгоритм працює на папері, але вони не знають, як він насправді працюватиме. Це як монстр Франкенштейна: вони побудували цю штуку, але не знають, як вона працюватиме. Тож єдиний спосіб, як я думаю, ви можете справді вивчити це, якщо люди зсередини, які володіють цими даними, докладуть зусиль і витрачатимуть час і ресурси на їх вивчення.

Крайтон: існує багато показників, які використовуються для оцінки дезінформації та визначення залученості на платформі. Виходячи з вашого математичного досвіду, чи вважаєте ви ці показники надійними?

Гіансіракуза: Люди намагаються розвінчати дезінформацію. Але в процесі вони можуть прокоментувати це, зробити ретвіт або поділитися, і це вважається залученням. Отже, багато з цих вимірювань залученості, вони справді дивляться на позитивне чи лише на всі залучення? Ви знаєте, це якось збивається разом.

Це трапляється і в академічних дослідженнях. Цитування є універсальним показником успішності дослідження. Ну, справді фальшиві речі, такі як оригінальна стаття Вейкфілда про аутизм і вакцини, отримали безліч цитат, багато з них були люди, які цитували це, тому що вони вважали це правильним, але багато з них були вчені, які розвінчували це, вони цитували це у своїй статті скажімо, ми демонструємо, що ця теорія хибна. Але в чомусь цитата є цитата. Отже, все це враховується в показниках успіху.

Тому я думаю, що це дещо з того, що відбувається із залученням. Якщо я публікую щось у своїх коментарях зі словами: «Гей, це божевілля», як алгоритм дізнається, підтримую я це чи ні? Вони могли б використати мовну обробку штучного інтелекту, але я не впевнений, що це так, і для цього потрібно докласти чимало зусиль.

Крайтон: Нарешті, я хочу трохи поговорити про GPT-3 і занепокоєння навколо синтетичних ЗМІ та фейкових новин. Існує багато побоювань, що боти зі штучним інтелектом заповнять медіа дезінформацією — наскільки ми повинні бути налякані чи не налякані?

Гіансіракуза: Оскільки моя книга справді виросла з класу на основі досвіду, я хотів намагатися залишатися неупередженим і просто інформувати людей і дозволяти їм приймати власні рішення. Я вирішив спробувати прорвати цю дискусію і дати обом сторонам висловитися. Я думаю, що алгоритми стрічки новин і алгоритми розпізнавання дійсно посилюють багато шкідливих речей, і це руйнівно для суспільства. Але є також багато дивовижних досягнень продуктивного та успішного використання алгоритмів для обмеження фейкових новин.

Є ці техноутопісти, які кажуть, що штучний інтелект все виправить, ми матимемо правду, перевірку фактів і алгоритми, які зможуть виявляти дезінформацію та знімати її. Певний прогрес є, але цього не станеться, і він ніколи не буде повністю успішним. Завжди потрібно буде покладатися на людей. Але інше, що ми маємо, — це ірраціональний страх. Існує така гіперболічна антиутопія штучного інтелекту, де алгоритми настільки потужні, щось на зразок сингулярного типу, що вони збираються знищити нас.

Коли глибокі фейки вперше потрапили в новини в 2018 році, а GPT-3 був випущений кілька років тому, було багато страху, що: «О, чорт, це призведе до того, що всі наші проблеми з фейковими новинами та розумінням того, що правда в світ набагато, набагато складніший». І я думаю, що тепер, коли у нас є кілька років дистанції, ми бачимо, що вони зробили це трохи складніше, але не так значно, як ми очікували. І головна проблема більше психологічна та економічна, ніж будь-що інше.

Отже, оригінальні автори GPT-3 мають дослідницьку статтю, яка представляє алгоритм, і однією з речей, яку вони зробили, був тест, у якому вони вставили певний текст і розгорнули його до статті, а потім вони попросили кількох добровольців оцінити та вгадати, який є алгоритмічно згенерованим і яка стаття є створеною людиною. Вони повідомили, що отримали дуже, дуже близьку точність до 50%, що означає трохи вище випадкових припущень. Знаєте, це звучить одночасно дивовижно і страшно.

Але якщо ви подивитеся на деталі, вони тягнуться як заголовок в один рядок до абзацу тексту. Якщо ви спробуєте написати повну статтю, довжиною в The Atlantic або New Yorker, ви почнете бачити розбіжності, думка звиватиме. Автори цієї статті не згадали про це, вони просто провели свій експеримент і сказали: «Гей, подивіться, який він успішний».

Отже, це виглядає переконливо, вони можуть створювати ці вражаючі статті. Але ось головна причина, зрештою, чому GPT-3 не був настільки трансформаційним, що стосується фейкових новин, дезінформації та всього цього. Це тому, що фейкові новини – це здебільшого сміття. Це погано написано, це низька якість, це так дешево та швидко вивести, що ви могли б просто заплатити своєму 16-річному племіннику, щоб той просто надрукував купу фейкових новинних статей за лічені хвилини.

Справа не в тому, що математика допомогла мені це побачити. Просто чомусь головне, що ми намагаємося робити в математиці, — це бути скептичними. Тому ви повинні сумніватися в цих речах і бути трохи скептичними.

Джерело: https://techcrunch.com/2021/08/20/a-mathematician-walks-into-a-bar-of-disinformation/

Часова мітка:

Більше від Techcrunch