Un mathématicien entre dans un bar (de désinformation)

Nœud source: 1865101

Désinformation, désinformation, infodivertissement, algowars – si les débats sur l’avenir des médias des dernières décennies ont eu un sens, ils ont au moins laissé une empreinte âcre sur la langue anglaise. Il y a eu beaucoup d’invectives et de craintes quant à l’impact des médias sociaux sur nous, depuis nos psychologies et neurologies individuelles jusqu’aux préoccupations plus larges concernant la force des sociétés démocratiques. Comme l'a dit récemment Joseph Bernstein, le passage de la « sagesse des foules » à la « désinformation » a en effet été brutal.

Qu’est-ce que la désinformation ? Existe-t-il, et si oui, où se trouve-t-il et comment savons-nous que nous le regardons ? Devons-nous nous soucier de ce que les algorithmes de nos plateformes préférées nous montrent alors qu’ils s’efforcent de capter notre attention ? C’est simplement ce genre de questions complexes liées aux mathématiques et aux sciences sociales qui ont suscité l’intérêt. Noah Giansiracusa intéressé par le sujet.

Giansiracusa, professeur à l'Université Bentley de Boston, est formé en mathématiques (il concentre ses recherches sur des domaines comme la géométrie algébrique), mais il a également tendance à aborder les sujets sociaux à travers une lentille mathématique, comme la connexion géométrie computationnelle à la Cour suprême. Plus récemment, il a publié un livre intitulé «Comment les algorithmes créent et préviennent les fausses nouvelles» pour explorer certaines des questions difficiles liées au paysage médiatique actuel et comment la technologie exacerbe et améliore ces tendances.

J'ai récemment hébergé Giansiracusa sur un espace Twitter, et comme Twitter n'a pas rendu facile l'écoute de ces discussions par la suite (éphémère !), j'ai pensé retirer les extraits les plus intéressants de notre conversation pour vous et la postérité.

Cette interview a été révisée et condensée pour plus de clarté.

Danny Crichton: Comment avez-vous décidé de faire des recherches sur les fausses nouvelles et d’écrire ce livre ?

Noah Giansiracusa: Une chose que j’ai remarquée, c’est qu’il y a beaucoup de discussions sociologiques et politiques très intéressantes sur les fausses nouvelles et ce genre de choses. Et puis, du côté technique, vous aurez des choses comme Mark Zuckerberg disant que l’IA va résoudre tous ces problèmes. Il semblait juste qu’il était un peu difficile de combler cet écart.

Tout le monde a probablement entendu cette récente citation de Biden disant : «ils tuent des gens», en ce qui concerne la désinformation sur les réseaux sociaux. Nous avons donc des politiciens qui parlent de ces choses dont il leur est difficile de vraiment saisir le côté algorithmique. Ensuite, nous avons des informaticiens qui s’intéressent vraiment aux détails. Donc je me situe en quelque sorte entre les deux, je ne suis pas un vrai passionné d’informatique. Je pense donc qu’il est un peu plus facile pour moi de prendre du recul et d’avoir une vue à vol d’oiseau.

En fin de compte, j'avais juste envie d'explorer davantage d'interactions avec la société où les choses deviennent compliquées, où les mathématiques ne sont pas si claires.

Crichton: Venant d’une formation mathématique, vous entrez dans ce domaine controversé où de nombreuses personnes ont écrit sous des angles très différents. Qu’est-ce que les gens ont compris dans ce domaine et qu’est-ce qui a peut-être manqué une nuance ?

Giansiracusa: Il y a beaucoup de journalisme incroyable ; J'ai été époustouflé de voir à quel point de nombreux journalistes étaient réellement capables de traiter des sujets assez techniques. Mais je dirais qu'une chose sur laquelle ils ne se sont peut-être pas trompés, mais qui m'a un peu frappé, c'est qu'il arrive souvent qu'un article universitaire soit publié, ou même une annonce de Google, de Facebook ou d'une de ces entreprises technologiques, et ils mentionneront en quelque sorte quelque chose, et le journaliste extraira peut-être une citation et essaiera de la décrire, mais ils semblent un peu effrayés à l'idée de vraiment essayer de la regarder et de la comprendre. Et je ne pense pas qu’ils n’en aient pas été capables, cela ressemble plutôt à une intimidation et à une peur.

Une chose que j’ai souvent vécue en tant que professeur de mathématiques, c’est que les gens ont tellement peur de dire quelque chose de mal et de faire une erreur. Et cela vaut pour les journalistes qui doivent écrire sur des sujets techniques, ils ne veulent pas dire quelque chose de mal. Il est donc plus simple de simplement citer un communiqué de presse de Facebook ou de citer un expert.

Ce qui est si amusant et si beau dans les mathématiques pures, c'est que vous n'avez pas vraiment peur de vous tromper, vous essayez simplement des idées et voyez où elles mènent et vous voyez toutes ces interactions. Lorsque vous êtes prêt à rédiger un article ou à donner une conférence, vous vérifiez les détails. Mais l’essentiel des mathématiques est ce processus créatif dans lequel vous explorez et vous voyez simplement comment les idées interagissent. Vous pensez que ma formation de mathématicien me ferait craindre de faire des erreurs et pour être très précis, mais cela a en quelque sorte eu l'effet inverse.

Deuxièmement, beaucoup de ces choses algorithmiques ne sont pas aussi compliquées qu’il y paraît. Je ne suis pas assis là à les mettre en œuvre, je suis sûr que les programmer est difficile. Mais d’une manière générale, tous ces algorithmes de nos jours, une grande partie de ces choses sont basés sur l’apprentissage profond. Donc, vous avez un réseau neuronal, peu importe pour moi, en tant qu'étranger, l'architecture qu'ils utilisent, tout ce qui compte vraiment, c'est quels sont les prédicteurs ? En gros, quelles sont les variables que vous alimentez cet algorithme de machine learning ? Et qu'est-ce qu'il essaie de produire ? Ce sont des choses que tout le monde peut comprendre.

Crichton: L'un des grands défis, à mon avis, de l'analyse de ces algorithmes est le manque de transparence. Contrairement, par exemple, au monde des mathématiques pures, qui est une communauté de chercheurs travaillant à résoudre des problèmes, bon nombre de ces entreprises peuvent en réalité se montrer plutôt contradictoires lorsqu'il s'agit de fournir des données et des analyses à la communauté au sens large.

Giansiracusa: Il semble effectivement qu’il y ait une limite à ce que l’on peut déduire simplement en étant de l’extérieur.

Un bon exemple est celui de YouTube : des équipes d'universitaires voulaient déterminer si l'algorithme de recommandation de YouTube envoyait les gens dans ces terriers de théorie du complot et d'extrémisme. Le défi est que, comme il s’agit d’un algorithme de recommandation, il utilise l’apprentissage en profondeur, il est basé sur des centaines et des centaines de prédicteurs basés sur votre historique de recherche, vos données démographiques, les autres vidéos que vous avez regardées et pendant combien de temps – toutes ces choses. C'est tellement personnalisé en fonction de vous et de votre expérience que toutes les études que j'ai pu trouver utilisent le mode incognito.

Il s’agit donc essentiellement d’un utilisateur qui n’a pas d’historique de recherche, aucune information et qui accède à une vidéo puis clique sur la première vidéo recommandée puis sur la suivante. Et voyons où l’algorithme mène les gens. C’est une expérience tellement différente de celle d’un véritable utilisateur humain avec un historique. Et cela a été vraiment difficile. Je ne pense pas que quiconque ait trouvé un bon moyen d’explorer algorithmiquement l’algorithme YouTube de l’extérieur.

Honnêtement, la seule façon dont je pense que vous pourriez y parvenir est un peu comme une étude à l'ancienne où vous recrutez tout un groupe de bénévoles et mettez en quelque sorte un tracker sur leur ordinateur et dites : « Hé, vivez simplement la vie comme vous le faites. faites normalement avec vos histoires et tout et dites-nous les vidéos que vous regardez. Il a donc été difficile de surmonter le fait que beaucoup de ces algorithmes, presque tous, je dirais, sont si fortement basés sur vos données individuelles. Nous ne savons pas comment étudier cela dans son ensemble.

Et ce n’est pas seulement moi ou quelqu’un d’autre à l’extérieur qui avons des problèmes parce que nous n’avons pas les données. Ce sont même des gens au sein de ces entreprises qui ont construit l’algorithme et qui savent comment l’algorithme fonctionne sur papier, mais ils ne savent pas comment il va réellement se comporter. C’est comme le monstre de Frankenstein : ils ont construit cette chose, mais ils ne savent pas comment elle va fonctionner. Donc, je pense que la seule façon de vraiment l'étudier est que les personnes à l'intérieur qui disposent de ces données fassent tout leur possible et consacrent du temps et des ressources à les étudier.

Crichton: De nombreux indicateurs sont utilisés pour évaluer la désinformation et déterminer l'engagement sur une plateforme. D’après votre formation mathématique, pensez-vous que ces mesures sont robustes ?

Giansiracusa: Les gens essaient de démystifier la désinformation. Mais ce faisant, ils peuvent le commenter, le retweeter ou le partager, et cela compte comme un engagement. Donc, beaucoup de ces mesures de l’engagement sont-elles vraiment positives ou simplement un engagement total ? Vous savez, tout cela est en quelque sorte regroupé.

Cela se produit également dans la recherche universitaire. Les citations sont la mesure universelle du succès de la recherche. Eh bien, des choses vraiment fausses comme l'article original de Wakefield sur l'autisme et les vaccins ont reçu des tonnes de citations, beaucoup d'entre elles étaient des gens qui le citaient parce qu'ils pensaient que c'était juste, mais une grande partie était des scientifiques qui le démystifiaient, ils le citent dans leur article pour disons, nous démontrons que cette théorie est fausse. Mais d’une manière ou d’une autre, une citation est une citation. Tout cela compte donc dans la mesure du succès.

Je pense donc que c’est un peu ce qui se passe avec l’engagement. Si je publie quelque chose dans mes commentaires en disant : « Hé, c'est fou », comment l'algorithme sait-il si je le supporte ou non ? Ils pourraient utiliser un traitement linguistique IA pour essayer, mais je ne suis pas sûr qu’ils le fassent, et cela demande beaucoup d’efforts.

Crichton: Enfin, je voudrais parler un peu de GPT-3 et de l'inquiétude suscitée par les médias synthétiques et les fausses nouvelles. On craint beaucoup que les robots IA submergent les médias de désinformation : à quel point devrions-nous avoir peur ou ne pas avoir peur ?

Giansiracusa: Parce que mon livre est vraiment né d'un cours d'expérience, je voulais essayer de rester impartial, et simplement informer les gens et les laisser prendre leurs propres décisions. J'ai décidé d'essayer de couper court à ce débat et de vraiment laisser les deux côtés s'exprimer. Je pense que les algorithmes de fil d’actualité et les algorithmes de reconnaissance amplifient beaucoup de choses nuisibles, et cela est dévastateur pour la société. Mais il y a aussi de nombreux progrès étonnants dans l’utilisation productive et réussie des algorithmes pour limiter les fausses nouvelles.

Il y a ces techno-utopistes qui disent que l’IA va tout arranger, que nous aurons la vérité, la vérification des faits et des algorithmes capables de détecter la désinformation et de la supprimer. Il y a des progrès, mais ces choses ne se produiront pas et ne seront jamais pleinement couronnées de succès. Il faudra toujours compter sur les humains. Mais l’autre chose que nous avons est une sorte de peur irrationnelle. Il existe ce genre de dystopie hyperbolique de l’IA où les algorithmes sont si puissants, un peu comme des choses de type singularité, qu’ils vont nous détruire.

Lorsque les deep fakes ont fait l'actualité pour la première fois en 2018 et que GPT-3 a été publié il y a quelques années, on craignait beaucoup que : « Oh merde, cela va rendre tous nos problèmes liés aux fausses nouvelles et à la compréhension de ce qui est vrai dans le monde est beaucoup, beaucoup plus difficile. Et je pense que maintenant que nous avons quelques années de distance, nous pouvons voir qu’ils ont rendu les choses un peu plus difficiles, mais pas autant que prévu. Et le problème principal est plus psychologique et économique qu’autre chose.

Ainsi, les auteurs originaux de GPT-3 ont un document de recherche qui présente l'algorithme, et l'une des choses qu'ils ont faites a été un test dans lequel ils ont collé du texte et l'ont développé en un article, puis ils ont demandé à des volontaires d'évaluer et de deviner lequel. est celui généré par un algorithme et quel article est celui généré par l'homme. Ils ont rapporté avoir obtenu une précision très, très proche de 50 %, ce qui signifie à peine au-dessus des suppositions aléatoires. Cela semble donc, vous savez, à la fois incroyable et effrayant.

Mais si vous regardez les détails, ils s'étendaient comme un titre d'une ligne à un paragraphe de texte. Si vous essayez de faire un article complet, dans The Atlantic ou dans le New Yorker, vous allez commencer à voir les divergences, la pensée va vagabonder. Les auteurs de cet article n’en ont pas parlé, ils ont simplement fait leur expérience et ont dit : « Hé, regardez comme c’est réussi. »

Donc ça a l’air convaincant, ils peuvent faire ces articles impressionnants. Mais voici la principale raison, en fin de compte, pour laquelle GPT-3 n’a pas été aussi transformateur en ce qui concerne les fausses nouvelles, la désinformation et tout le reste. C’est parce que les fausses nouvelles sont pour la plupart des ordures. C’est mal écrit, c’est de mauvaise qualité, c’est si bon marché et si rapide à produire que vous pourriez simplement payer votre neveu de 16 ans pour qu’il publie un tas de faux articles d’information en quelques minutes.

Ce n’est pas tant les mathématiques qui m’ont aidé à voir cela. C’est juste que, d’une manière ou d’une autre, la principale chose que nous essayons de faire en mathématiques est d’être sceptique. Il faut donc remettre en question ces choses et être un peu sceptique.

Source : https://techcrunch.com/2021/08/20/a-mathematician-walks-into-a-bar-of-disinformation/

Horodatage:

Plus de Techcrunch