یک ریاضیدان وارد یک نوار (اطلاعات نادرست) می شود

گره منبع: 1865101

اطلاعات نادرست، اطلاعات نادرست، سرگرمی‌های اطلاعاتی، جنگ‌ها - اگر بحث‌های مربوط به آینده رسانه‌ها در چند دهه گذشته معنایی داشته باشد، حداقل اثری تند در زبان انگلیسی بر جای گذاشته‌اند. در مورد آنچه رسانه‌های اجتماعی با ما می‌کنند، از روان‌شناسی و عصب‌شناسی فردی ما گرفته تا نگرانی‌های گسترده‌تر در مورد قدرت جوامع دموکراتیک، نگرانی‌ها و ترس‌های زیادی وجود دارد. همانطور که جوزف برنشتاین اخیرا گفته استتغییر از «خرد جمعیت» به «اطلاعات نادرست» در واقع یک تغییر ناگهانی بوده است.

اطلاعات نادرست چیست؟ آیا وجود دارد، و اگر چنین است، کجاست و چگونه بدانیم که به آن نگاه می کنیم؟ آیا باید به آنچه الگوریتم‌های پلتفرم‌های مورد علاقه‌مان به ما نشان می‌دهند اهمیت بدهیم، در حالی که تلاش می‌کنند توجه ما را به خود جلب کنند؟ فقط آن جور سوالات پیچیده علوم ریاضی و اجتماعی است که مطرح شد نوح جیانسیراکوسا علاقه مند به موضوع

جیانسیراکوزا، استاد دانشگاه بنتلی در بوستون، در ریاضیات آموزش دیده است (تحقیقات خود را در زمینه هایی مانند هندسه جبری متمرکز می کند)، اما او همچنین تمایل زیادی به نگاه کردن به موضوعات اجتماعی از طریق دریچه ریاضی، مانند اتصال داشت. هندسه محاسباتی به دیوان عالی کشور. اخیراً او کتابی به نام «الگوریتم‌ها چگونه اخبار جعلی را ایجاد و از آن جلوگیری می‌کنندبرای بررسی برخی از سوالات چالش برانگیز پیرامون چشم انداز رسانه ای امروز و اینکه چگونه فناوری این روندها را تشدید و بهبود می بخشد.

من اخیراً در یک فضای توییتر میزبان Giansiracusa بودم، و از آنجایی که توییتر پس از آن گوش دادن به این صحبت‌ها را آسان نکرده است (ناپایداری!)، فکر کردم که جالب‌ترین بخش‌های مکالمه خود را برای شما و آیندگان بیرون می‌آورم.

این مصاحبه برای شفافیت ویرایش و متراکم شده است.

دنی کریچتون: چطور تصمیم گرفتید درباره اخبار جعلی تحقیق کنید و این کتاب را بنویسید؟

نوح جیانسیراکوسا: یک چیزی که من متوجه شدم این است که بحث‌های واقعاً جالب جامعه‌شناسی و علوم سیاسی درباره اخبار جعلی و این نوع چیزها وجود دارد. و سپس در جنبه فنی، چیزهایی مانند مارک زاکربرگ خواهید داشت که می گوید هوش مصنوعی تمام این مشکلات را برطرف می کند. به نظر می رسید که پر کردن این شکاف کمی دشوار است.

احتمالاً همه این جمله اخیر بایدن را شنیده باشند که می گوید:آنها مردم را می کشند"در رابطه با اطلاعات نادرست در رسانه های اجتماعی. بنابراین ما سیاستمدارانی داریم که در مورد این چیزها صحبت می کنند، جایی که درک جنبه الگوریتمی برای آنها دشوار است. سپس ما افراد علم کامپیوتر داریم که واقعاً در جزئیات عمیق هستند. بنابراین من یک جورهایی در این بین نشسته‌ام، من یک فرد واقعی در زمینه علوم رایانه نیستم. بنابراین فکر می‌کنم کمی راحت‌تر است که به عقب برگردم و نمای چشم پرنده را ببینم.

در پایان روز، فقط احساس می‌کردم که می‌خواهم برخی تعاملات بیشتر با جامعه را بررسی کنم، جایی که همه چیز به هم می‌ریزد، جایی که ریاضیات چندان تمیز نیست.

کریچتون: از پس زمینه ریاضی وارد این حوزه بحث انگیز می شوید که در آن افراد زیادی از زوایای مختلف نوشته اند. مردم در این زمینه چه چیزی را درست انجام می دهند و چه چیزهایی را شاید مردم از دست داده اند؟

جیانسیراکوزا: روزنامه نگاری باورنکردنی زیادی وجود دارد. من شگفت زده شدم که چگونه بسیاری از روزنامه نگاران واقعاً می توانند با مسائل فنی بسیار خوبی برخورد کنند. اما من می‌توانم یک چیز را بگویم که شاید آنها اشتباه نکرده‌اند، اما به نوعی متعجبم این بود که خیلی وقت‌ها یک مقاله دانشگاهی منتشر می‌شود، یا حتی اعلامیه‌ای از طرف گوگل یا فیسبوک یا یکی از این شرکت‌های فناوری، و آنها به نوعی به چیزی اشاره می کنند، و روزنامه نگار ممکن است نقل قولی را استخراج کند و سعی کند آن را توصیف کند، اما به نظر می رسد آنها کمی ترس دارند که واقعاً سعی کنند آن را ببینند و بفهمند. و من فکر نمی کنم که آنها قادر به انجام این کار نبودند، این واقعاً بیشتر یک ارعاب و ترس به نظر می رسد.

یکی از چیزهایی که من به عنوان معلم ریاضی بسیار تجربه کرده ام این است که مردم از گفتن اشتباه و اشتباه کردن می ترسند. و این برای روزنامه نگارانی که باید در مورد مسائل فنی بنویسند صدق می کند، آنها نمی خواهند چیزی اشتباه بگویند. بنابراین ساده تر است که فقط یک بیانیه مطبوعاتی از فیس بوک را نقل کنید یا از یک متخصص نقل قول کنید.

یکی از چیزهایی که در مورد ریاضی محض بسیار سرگرم کننده و زیبا است، این است که شما واقعا نگران اشتباه کردن نیستید، فقط ایده ها را امتحان کنید و ببینید به کجا منتهی می شوند و همه این تعاملات را می بینید. وقتی برای نوشتن مقاله یا سخنرانی آماده هستید، جزئیات را بررسی می کنید. اما بیشتر ریاضیات این فرآیند خلاقانه است که در آن شما در حال کاوش هستید، و شما فقط می بینید که چگونه ایده ها با هم تعامل دارند. شما فکر می کنید که آموزش من به عنوان یک ریاضیدان باعث می شود من از اشتباه کردن و خیلی دقیق نگران باشم، اما به نوعی نتیجه معکوس داشت.

دوم، بسیاری از این چیزهای الگوریتمی، آنقدرها که به نظر می رسد پیچیده نیستند. من آنجا نمی نشینم که آنها را پیاده سازی کنم، مطمئنم برنامه نویسی آنها سخت است. اما فقط تصویر بزرگ، همه این الگوریتم‌ها امروزه، بسیاری از این چیزها مبتنی بر یادگیری عمیق هستند. بنابراین شما یک شبکه عصبی دارید، برای من به عنوان یک فرد خارجی واقعاً مهم نیست که آنها از چه معماری استفاده می کنند، تنها چیزی که واقعاً مهم است این است که پیش بینی کننده ها چیست؟ اساساً متغیرهایی که شما این الگوریتم یادگیری ماشینی را تغذیه می کنید چیست؟ و چه چیزی سعی در خروجی گرفتن دارد؟ اینها چیزهایی است که هر کسی می تواند بفهمد.

کریچتون: یکی از چالش های بزرگی که من در مورد تجزیه و تحلیل این الگوریتم ها فکر می کنم، عدم شفافیت است. بر خلاف، مثلاً، دنیای ریاضی محض که جامعه‌ای از دانشمندانی است که برای حل مسائل کار می‌کنند، بسیاری از این شرکت‌ها در واقع می‌توانند در ارائه داده‌ها و تحلیل‌ها به جامعه گسترده‌تر مخالف باشند.

جیانسیراکوزا: به نظر می رسد محدودیتی برای آنچه که هر کسی می تواند فقط با نوعی بودن از بیرون استنباط کند وجود دارد.

بنابراین یک مثال خوب در مورد YouTube است - تیم‌هایی از دانشگاهیان می‌خواستند بررسی کنند که آیا الگوریتم توصیه YouTube باعث می‌شود افراد از سوراخ‌های تئوری توطئه خرگوش افراط‌گرایی پایین بیایند یا خیر. چالش این است که از آنجایی که این الگوریتم توصیه است، از یادگیری عمیق استفاده می کند، بر اساس صدها و صدها پیش بینی بر اساس سابقه جستجوی شما، جمعیت شناسی شما، ویدیوهای دیگری که تماشا کرده اید و مدت زمان - همه این موارد است. آنقدر برای شما و تجربه شما سفارشی شده است، که تمام مطالعاتی که من توانستم پیدا کنم از حالت ناشناس استفاده می کند.

بنابراین آنها اساساً کاربری هستند که هیچ سابقه جستجو، هیچ اطلاعاتی ندارند و به یک ویدیو می روند و سپس روی اولین ویدیوی توصیه شده و سپس ویدیوی بعدی کلیک می کنند. و بیایید ببینیم الگوریتم افراد را به کجا می برد. این یک تجربه متفاوت از یک کاربر واقعی انسانی با سابقه است. و این واقعا سخت بوده است. فکر نمی‌کنم کسی راه خوبی برای بررسی الگوریتمی الگوریتم YouTube از بیرون پیدا کرده باشد.

راستش را بخواهید، تنها راهی که فکر می‌کنم می‌توانید این کار را انجام دهید، شبیه به یک مطالعه قدیمی است که در آن تعداد زیادی داوطلب را استخدام می‌کنید و به نوعی یک ردیاب روی رایانه‌شان قرار می‌دهید و می‌گویید: «هی، فقط همان‌طور که زندگی می‌کنی زندگی کن. معمولاً با تاریخچه و همه چیز خود کار کنید و ویدیوهایی را که در حال تماشای آن هستید به ما بگویید." بنابراین عبور از این واقعیت دشوار است که بسیاری از این الگوریتم‌ها، تقریباً همه آنها، من می‌توانم بگویم، به شدت بر اساس داده‌های فردی شما هستند. ما نمی دانیم چگونه آن را در مجموع مطالعه کنیم.

و این فقط من یا هر کس دیگری در خارج نیست که به دلیل نداشتن اطلاعات مشکل دارد. حتی این افراد در این شرکت‌ها هستند که الگوریتم را ساخته‌اند و می‌دانند الگوریتم روی کاغذ چگونه کار می‌کند، اما نمی‌دانند که واقعاً چگونه رفتار خواهد کرد. مانند هیولای فرانکنشتاین است: آنها این چیز را ساخته اند، اما نمی دانند چگونه قرار است کار کند. بنابراین تنها راهی که فکر می‌کنم شما واقعاً می‌توانید آن را مطالعه کنید این است که افرادی در درون با آن داده‌ها از راه خود خارج شوند و زمان و منابع را برای مطالعه آن صرف کنند.

کریچتون: معیارهای زیادی در مورد ارزیابی اطلاعات نادرست و تعیین تعامل در یک پلت فرم استفاده می شود. با توجه به پیشینه ریاضی خود، آیا فکر می کنید این معیارها قوی هستند؟

جیانسیراکوزا: مردم سعی می کنند اطلاعات نادرست را از بین ببرند. اما در این فرآیند، آنها ممکن است در مورد آن نظر دهند، ممکن است آن را بازتوییت کنند یا به اشتراک بگذارند، و این به عنوان تعامل به حساب می آید. بنابراین، بسیاری از این اندازه‌گیری‌های تعامل، آیا واقعاً به تعامل مثبت نگاه می‌کنند یا فقط به تمام مشارکت؟ می‌دانی، همه چیز به هم می‌خورد.

در تحقیقات دانشگاهی نیز این اتفاق می افتد. استنادها معیار جهانی موفقیت تحقیقات هستند. خوب، چیزهای واقعاً جعلی مانند مقاله اصلی اوتیسم و ​​واکسن ویکفیلد هزاران استناد داشت، بسیاری از آنها افرادی بودند که به آن استناد می کردند زیرا فکر می کردند درست است، اما بسیاری از آنها دانشمندان بودند که آن را بی اعتبار می کردند، آنها در مقاله خود به آن استناد می کردند. می گویند، ما نشان می دهیم که این نظریه اشتباه است. اما به نوعی استناد یک استناد است. بنابراین همه اینها در معیار موفقیت به حساب می آیند.

بنابراین من فکر می‌کنم که این کمی از آنچه در رابطه با نامزدی اتفاق می‌افتد است. اگر من چیزی را در نظرات خود پست کنم و بگویم "هی، این دیوانه است"، الگوریتم چگونه می داند که آیا من از آن پشتیبانی می کنم یا نه؟ آن‌ها می‌توانند از برخی پردازش‌های زبان هوش مصنوعی برای امتحان کردن استفاده کنند، اما مطمئن نیستم که اینطور هستند یا نه، و انجام این کار تلاش زیادی است.

کریچتون: در آخر، من می خواهم کمی در مورد GPT-3 و نگرانی در مورد رسانه های مصنوعی و اخبار جعلی صحبت کنم. ترس زیادی وجود دارد که ربات‌های هوش مصنوعی رسانه‌ها را با اطلاعات نادرست غرق کنند - چقدر باید بترسیم یا نترسیم؟

جیانسیراکوزا: از آنجایی که کتاب من واقعاً از یک کلاس برگرفته از تجربه است، می‌خواستم سعی کنم بی‌طرف بمانم و فقط به مردم اطلاع بدهم و بگذارم آنها به تصمیم خودشان برسند. من تصمیم گرفتم سعی کنم آن بحث را قطع کنم و واقعاً اجازه دهم هر دو طرف صحبت کنند. من فکر می‌کنم الگوریتم‌های فید خبری و الگوریتم‌های تشخیص، موارد مضر زیادی را تقویت می‌کنند، و این برای جامعه ویرانگر است. اما پیشرفت شگفت‌انگیز زیادی نیز در استفاده از الگوریتم‌ها به‌طور مؤثر و موفقیت‌آمیز برای محدود کردن اخبار جعلی وجود دارد.

این تکنو اتوپیست‌ها هستند که می‌گویند هوش مصنوعی همه چیز را درست می‌کند، ما حقیقت‌گویی، و بررسی حقایق و الگوریتم‌هایی خواهیم داشت که می‌توانند اطلاعات نادرست را شناسایی کرده و آن را از بین ببرند. پیشرفت هایی وجود دارد، اما این چیزها قرار نیست اتفاق بیفتد، و هرگز به طور کامل موفقیت آمیز نخواهد بود. همیشه باید به انسان تکیه کرد. اما چیز دیگری که داریم نوعی ترس غیر منطقی است. این نوع دیستوپی هوش مصنوعی هذلولی وجود دارد که در آن الگوریتم ها آنقدر قدرتمند هستند، به نوعی مانند موارد تکینگی که ما را نابود می کنند.

زمانی که دیپ فیک ها برای اولین بار در سال 2018 منتشر شدند، و GPT-3 چند سال پیش منتشر شد، ترس زیادی وجود داشت که، "اوه لعنتی، این همه مشکلات ما را با اخبار جعلی و درک آنچه در آن درست است درست می کند. دنیا خیلی خیلی سخت تر.» و فکر می‌کنم اکنون که چند سال فاصله داریم، می‌توانیم ببینیم که آن‌ها کار را کمی سخت‌تر کرده‌اند، اما نه به اندازه‌ای که انتظار داشتیم. و مسئله اصلی به نوعی بیشتر از هر چیزی روانی و اقتصادی است.

بنابراین نویسندگان اصلی GPT-3 یک مقاله تحقیقاتی دارند که الگوریتم را معرفی می کند، و یکی از کارهایی که انجام دادند آزمایشی بود که در آن متنی را چسباندند و آن را به یک مقاله گسترش دادند، و سپس از تعدادی داوطلب خواستند که کدام را ارزیابی و حدس بزنند. مقاله ای است که به صورت الگوریتمی تولید می شود و کدام مقاله تولید شده توسط انسان است. آنها گزارش دادند که دقت بسیار بسیار نزدیکی به 50% داشتند، که به این معنی است که به سختی بالاتر از حدس های تصادفی است. بنابراین، می دانید، هم شگفت انگیز و هم ترسناک به نظر می رسد.

اما اگر به جزئیات نگاه کنید، آنها مانند یک تیتر یک خطی به یک پاراگراف متن گسترش می‌یابند. اگر سعی کردید یک مقاله کامل، به طول آتلانتیک یا نیویورکر بنویسید، شروع به دیدن اختلافات خواهید کرد، این فکر در پیچ و خم خواهد بود. نویسندگان این مقاله به این موضوع اشاره نکردند، آنها فقط آزمایش خود را انجام دادند و گفتند: "هی، ببین چقدر موفق است."

بنابراین قانع کننده به نظر می رسد، آنها می توانند این مقالات چشمگیر را بسازند. اما در پایان، دلیل اصلی این است که چرا GPT-3 در مورد اخبار جعلی و اطلاعات نادرست و همه این چیزها چندان متحول کننده نبوده است. دلیلش این است که اخبار جعلی عمدتاً زباله هستند. بد نوشته شده است، کیفیت پایینی دارد، آنقدر ارزان و سریع منتشر می شود که می توانید به برادرزاده 16 ساله خود پول بدهید تا در عرض چند دقیقه مجموعه ای از مقالات اخبار جعلی را منتشر کند.

آنقدر هم نیست که ریاضیات به من کمک کرد این را ببینم. فقط این است که به نوعی، اصلی‌ترین کاری که در ریاضیات می‌خواهیم انجام دهیم این است که شک داشته باشیم. پس باید این موارد را زیر سوال ببرید و کمی شک کنید.

منبع: https://techcrunch.com/2021/08/20/a-mathematician-walks-into-a-bar-of-disinformation/

تمبر زمان:

بیشتر از تک کرانچ