اطلاعات نادرست، اطلاعات نادرست، سرگرمیهای اطلاعاتی، جنگها - اگر بحثهای مربوط به آینده رسانهها در چند دهه گذشته معنایی داشته باشد، حداقل اثری تند در زبان انگلیسی بر جای گذاشتهاند. در مورد آنچه رسانههای اجتماعی با ما میکنند، از روانشناسی و عصبشناسی فردی ما گرفته تا نگرانیهای گستردهتر در مورد قدرت جوامع دموکراتیک، نگرانیها و ترسهای زیادی وجود دارد. همانطور که جوزف برنشتاین اخیرا گفته استتغییر از «خرد جمعیت» به «اطلاعات نادرست» در واقع یک تغییر ناگهانی بوده است.
اطلاعات نادرست چیست؟ آیا وجود دارد، و اگر چنین است، کجاست و چگونه بدانیم که به آن نگاه می کنیم؟ آیا باید به آنچه الگوریتمهای پلتفرمهای مورد علاقهمان به ما نشان میدهند اهمیت بدهیم، در حالی که تلاش میکنند توجه ما را به خود جلب کنند؟ فقط آن جور سوالات پیچیده علوم ریاضی و اجتماعی است که مطرح شد نوح جیانسیراکوسا علاقه مند به موضوع
جیانسیراکوزا، استاد دانشگاه بنتلی در بوستون، در ریاضیات آموزش دیده است (تحقیقات خود را در زمینه هایی مانند هندسه جبری متمرکز می کند)، اما او همچنین تمایل زیادی به نگاه کردن به موضوعات اجتماعی از طریق دریچه ریاضی، مانند اتصال داشت. هندسه محاسباتی به دیوان عالی کشور. اخیراً او کتابی به نام «الگوریتمها چگونه اخبار جعلی را ایجاد و از آن جلوگیری میکنندبرای بررسی برخی از سوالات چالش برانگیز پیرامون چشم انداز رسانه ای امروز و اینکه چگونه فناوری این روندها را تشدید و بهبود می بخشد.
من اخیراً در یک فضای توییتر میزبان Giansiracusa بودم، و از آنجایی که توییتر پس از آن گوش دادن به این صحبتها را آسان نکرده است (ناپایداری!)، فکر کردم که جالبترین بخشهای مکالمه خود را برای شما و آیندگان بیرون میآورم.
این مصاحبه برای شفافیت ویرایش و متراکم شده است.
دنی کریچتون: چطور تصمیم گرفتید درباره اخبار جعلی تحقیق کنید و این کتاب را بنویسید؟
نوح جیانسیراکوسا: یک چیزی که من متوجه شدم این است که بحثهای واقعاً جالب جامعهشناسی و علوم سیاسی درباره اخبار جعلی و این نوع چیزها وجود دارد. و سپس در جنبه فنی، چیزهایی مانند مارک زاکربرگ خواهید داشت که می گوید هوش مصنوعی تمام این مشکلات را برطرف می کند. به نظر می رسید که پر کردن این شکاف کمی دشوار است.
احتمالاً همه این جمله اخیر بایدن را شنیده باشند که می گوید:آنها مردم را می کشند"در رابطه با اطلاعات نادرست در رسانه های اجتماعی. بنابراین ما سیاستمدارانی داریم که در مورد این چیزها صحبت می کنند، جایی که درک جنبه الگوریتمی برای آنها دشوار است. سپس ما افراد علم کامپیوتر داریم که واقعاً در جزئیات عمیق هستند. بنابراین من یک جورهایی در این بین نشستهام، من یک فرد واقعی در زمینه علوم رایانه نیستم. بنابراین فکر میکنم کمی راحتتر است که به عقب برگردم و نمای چشم پرنده را ببینم.
در پایان روز، فقط احساس میکردم که میخواهم برخی تعاملات بیشتر با جامعه را بررسی کنم، جایی که همه چیز به هم میریزد، جایی که ریاضیات چندان تمیز نیست.
کریچتون: از پس زمینه ریاضی وارد این حوزه بحث انگیز می شوید که در آن افراد زیادی از زوایای مختلف نوشته اند. مردم در این زمینه چه چیزی را درست انجام می دهند و چه چیزهایی را شاید مردم از دست داده اند؟
جیانسیراکوزا: روزنامه نگاری باورنکردنی زیادی وجود دارد. من شگفت زده شدم که چگونه بسیاری از روزنامه نگاران واقعاً می توانند با مسائل فنی بسیار خوبی برخورد کنند. اما من میتوانم یک چیز را بگویم که شاید آنها اشتباه نکردهاند، اما به نوعی متعجبم این بود که خیلی وقتها یک مقاله دانشگاهی منتشر میشود، یا حتی اعلامیهای از طرف گوگل یا فیسبوک یا یکی از این شرکتهای فناوری، و آنها به نوعی به چیزی اشاره می کنند، و روزنامه نگار ممکن است نقل قولی را استخراج کند و سعی کند آن را توصیف کند، اما به نظر می رسد آنها کمی ترس دارند که واقعاً سعی کنند آن را ببینند و بفهمند. و من فکر نمی کنم که آنها قادر به انجام این کار نبودند، این واقعاً بیشتر یک ارعاب و ترس به نظر می رسد.
یکی از چیزهایی که من به عنوان معلم ریاضی بسیار تجربه کرده ام این است که مردم از گفتن اشتباه و اشتباه کردن می ترسند. و این برای روزنامه نگارانی که باید در مورد مسائل فنی بنویسند صدق می کند، آنها نمی خواهند چیزی اشتباه بگویند. بنابراین ساده تر است که فقط یک بیانیه مطبوعاتی از فیس بوک را نقل کنید یا از یک متخصص نقل قول کنید.
یکی از چیزهایی که در مورد ریاضی محض بسیار سرگرم کننده و زیبا است، این است که شما واقعا نگران اشتباه کردن نیستید، فقط ایده ها را امتحان کنید و ببینید به کجا منتهی می شوند و همه این تعاملات را می بینید. وقتی برای نوشتن مقاله یا سخنرانی آماده هستید، جزئیات را بررسی می کنید. اما بیشتر ریاضیات این فرآیند خلاقانه است که در آن شما در حال کاوش هستید، و شما فقط می بینید که چگونه ایده ها با هم تعامل دارند. شما فکر می کنید که آموزش من به عنوان یک ریاضیدان باعث می شود من از اشتباه کردن و خیلی دقیق نگران باشم، اما به نوعی نتیجه معکوس داشت.
دوم، بسیاری از این چیزهای الگوریتمی، آنقدرها که به نظر می رسد پیچیده نیستند. من آنجا نمی نشینم که آنها را پیاده سازی کنم، مطمئنم برنامه نویسی آنها سخت است. اما فقط تصویر بزرگ، همه این الگوریتمها امروزه، بسیاری از این چیزها مبتنی بر یادگیری عمیق هستند. بنابراین شما یک شبکه عصبی دارید، برای من به عنوان یک فرد خارجی واقعاً مهم نیست که آنها از چه معماری استفاده می کنند، تنها چیزی که واقعاً مهم است این است که پیش بینی کننده ها چیست؟ اساساً متغیرهایی که شما این الگوریتم یادگیری ماشینی را تغذیه می کنید چیست؟ و چه چیزی سعی در خروجی گرفتن دارد؟ اینها چیزهایی است که هر کسی می تواند بفهمد.
کریچتون: یکی از چالش های بزرگی که من در مورد تجزیه و تحلیل این الگوریتم ها فکر می کنم، عدم شفافیت است. بر خلاف، مثلاً، دنیای ریاضی محض که جامعهای از دانشمندانی است که برای حل مسائل کار میکنند، بسیاری از این شرکتها در واقع میتوانند در ارائه دادهها و تحلیلها به جامعه گستردهتر مخالف باشند.
جیانسیراکوزا: به نظر می رسد محدودیتی برای آنچه که هر کسی می تواند فقط با نوعی بودن از بیرون استنباط کند وجود دارد.
بنابراین یک مثال خوب در مورد YouTube است - تیمهایی از دانشگاهیان میخواستند بررسی کنند که آیا الگوریتم توصیه YouTube باعث میشود افراد از سوراخهای تئوری توطئه خرگوش افراطگرایی پایین بیایند یا خیر. چالش این است که از آنجایی که این الگوریتم توصیه است، از یادگیری عمیق استفاده می کند، بر اساس صدها و صدها پیش بینی بر اساس سابقه جستجوی شما، جمعیت شناسی شما، ویدیوهای دیگری که تماشا کرده اید و مدت زمان - همه این موارد است. آنقدر برای شما و تجربه شما سفارشی شده است، که تمام مطالعاتی که من توانستم پیدا کنم از حالت ناشناس استفاده می کند.
بنابراین آنها اساساً کاربری هستند که هیچ سابقه جستجو، هیچ اطلاعاتی ندارند و به یک ویدیو می روند و سپس روی اولین ویدیوی توصیه شده و سپس ویدیوی بعدی کلیک می کنند. و بیایید ببینیم الگوریتم افراد را به کجا می برد. این یک تجربه متفاوت از یک کاربر واقعی انسانی با سابقه است. و این واقعا سخت بوده است. فکر نمیکنم کسی راه خوبی برای بررسی الگوریتمی الگوریتم YouTube از بیرون پیدا کرده باشد.
راستش را بخواهید، تنها راهی که فکر میکنم میتوانید این کار را انجام دهید، شبیه به یک مطالعه قدیمی است که در آن تعداد زیادی داوطلب را استخدام میکنید و به نوعی یک ردیاب روی رایانهشان قرار میدهید و میگویید: «هی، فقط همانطور که زندگی میکنی زندگی کن. معمولاً با تاریخچه و همه چیز خود کار کنید و ویدیوهایی را که در حال تماشای آن هستید به ما بگویید." بنابراین عبور از این واقعیت دشوار است که بسیاری از این الگوریتمها، تقریباً همه آنها، من میتوانم بگویم، به شدت بر اساس دادههای فردی شما هستند. ما نمی دانیم چگونه آن را در مجموع مطالعه کنیم.
و این فقط من یا هر کس دیگری در خارج نیست که به دلیل نداشتن اطلاعات مشکل دارد. حتی این افراد در این شرکتها هستند که الگوریتم را ساختهاند و میدانند الگوریتم روی کاغذ چگونه کار میکند، اما نمیدانند که واقعاً چگونه رفتار خواهد کرد. مانند هیولای فرانکنشتاین است: آنها این چیز را ساخته اند، اما نمی دانند چگونه قرار است کار کند. بنابراین تنها راهی که فکر میکنم شما واقعاً میتوانید آن را مطالعه کنید این است که افرادی در درون با آن دادهها از راه خود خارج شوند و زمان و منابع را برای مطالعه آن صرف کنند.
کریچتون: معیارهای زیادی در مورد ارزیابی اطلاعات نادرست و تعیین تعامل در یک پلت فرم استفاده می شود. با توجه به پیشینه ریاضی خود، آیا فکر می کنید این معیارها قوی هستند؟
جیانسیراکوزا: مردم سعی می کنند اطلاعات نادرست را از بین ببرند. اما در این فرآیند، آنها ممکن است در مورد آن نظر دهند، ممکن است آن را بازتوییت کنند یا به اشتراک بگذارند، و این به عنوان تعامل به حساب می آید. بنابراین، بسیاری از این اندازهگیریهای تعامل، آیا واقعاً به تعامل مثبت نگاه میکنند یا فقط به تمام مشارکت؟ میدانی، همه چیز به هم میخورد.
در تحقیقات دانشگاهی نیز این اتفاق می افتد. استنادها معیار جهانی موفقیت تحقیقات هستند. خوب، چیزهای واقعاً جعلی مانند مقاله اصلی اوتیسم و واکسن ویکفیلد هزاران استناد داشت، بسیاری از آنها افرادی بودند که به آن استناد می کردند زیرا فکر می کردند درست است، اما بسیاری از آنها دانشمندان بودند که آن را بی اعتبار می کردند، آنها در مقاله خود به آن استناد می کردند. می گویند، ما نشان می دهیم که این نظریه اشتباه است. اما به نوعی استناد یک استناد است. بنابراین همه اینها در معیار موفقیت به حساب می آیند.
بنابراین من فکر میکنم که این کمی از آنچه در رابطه با نامزدی اتفاق میافتد است. اگر من چیزی را در نظرات خود پست کنم و بگویم "هی، این دیوانه است"، الگوریتم چگونه می داند که آیا من از آن پشتیبانی می کنم یا نه؟ آنها میتوانند از برخی پردازشهای زبان هوش مصنوعی برای امتحان کردن استفاده کنند، اما مطمئن نیستم که اینطور هستند یا نه، و انجام این کار تلاش زیادی است.
کریچتون: در آخر، من می خواهم کمی در مورد GPT-3 و نگرانی در مورد رسانه های مصنوعی و اخبار جعلی صحبت کنم. ترس زیادی وجود دارد که رباتهای هوش مصنوعی رسانهها را با اطلاعات نادرست غرق کنند - چقدر باید بترسیم یا نترسیم؟
جیانسیراکوزا: از آنجایی که کتاب من واقعاً از یک کلاس برگرفته از تجربه است، میخواستم سعی کنم بیطرف بمانم و فقط به مردم اطلاع بدهم و بگذارم آنها به تصمیم خودشان برسند. من تصمیم گرفتم سعی کنم آن بحث را قطع کنم و واقعاً اجازه دهم هر دو طرف صحبت کنند. من فکر میکنم الگوریتمهای فید خبری و الگوریتمهای تشخیص، موارد مضر زیادی را تقویت میکنند، و این برای جامعه ویرانگر است. اما پیشرفت شگفتانگیز زیادی نیز در استفاده از الگوریتمها بهطور مؤثر و موفقیتآمیز برای محدود کردن اخبار جعلی وجود دارد.
این تکنو اتوپیستها هستند که میگویند هوش مصنوعی همه چیز را درست میکند، ما حقیقتگویی، و بررسی حقایق و الگوریتمهایی خواهیم داشت که میتوانند اطلاعات نادرست را شناسایی کرده و آن را از بین ببرند. پیشرفت هایی وجود دارد، اما این چیزها قرار نیست اتفاق بیفتد، و هرگز به طور کامل موفقیت آمیز نخواهد بود. همیشه باید به انسان تکیه کرد. اما چیز دیگری که داریم نوعی ترس غیر منطقی است. این نوع دیستوپی هوش مصنوعی هذلولی وجود دارد که در آن الگوریتم ها آنقدر قدرتمند هستند، به نوعی مانند موارد تکینگی که ما را نابود می کنند.
زمانی که دیپ فیک ها برای اولین بار در سال 2018 منتشر شدند، و GPT-3 چند سال پیش منتشر شد، ترس زیادی وجود داشت که، "اوه لعنتی، این همه مشکلات ما را با اخبار جعلی و درک آنچه در آن درست است درست می کند. دنیا خیلی خیلی سخت تر.» و فکر میکنم اکنون که چند سال فاصله داریم، میتوانیم ببینیم که آنها کار را کمی سختتر کردهاند، اما نه به اندازهای که انتظار داشتیم. و مسئله اصلی به نوعی بیشتر از هر چیزی روانی و اقتصادی است.
بنابراین نویسندگان اصلی GPT-3 یک مقاله تحقیقاتی دارند که الگوریتم را معرفی می کند، و یکی از کارهایی که انجام دادند آزمایشی بود که در آن متنی را چسباندند و آن را به یک مقاله گسترش دادند، و سپس از تعدادی داوطلب خواستند که کدام را ارزیابی و حدس بزنند. مقاله ای است که به صورت الگوریتمی تولید می شود و کدام مقاله تولید شده توسط انسان است. آنها گزارش دادند که دقت بسیار بسیار نزدیکی به 50% داشتند، که به این معنی است که به سختی بالاتر از حدس های تصادفی است. بنابراین، می دانید، هم شگفت انگیز و هم ترسناک به نظر می رسد.
اما اگر به جزئیات نگاه کنید، آنها مانند یک تیتر یک خطی به یک پاراگراف متن گسترش مییابند. اگر سعی کردید یک مقاله کامل، به طول آتلانتیک یا نیویورکر بنویسید، شروع به دیدن اختلافات خواهید کرد، این فکر در پیچ و خم خواهد بود. نویسندگان این مقاله به این موضوع اشاره نکردند، آنها فقط آزمایش خود را انجام دادند و گفتند: "هی، ببین چقدر موفق است."
بنابراین قانع کننده به نظر می رسد، آنها می توانند این مقالات چشمگیر را بسازند. اما در پایان، دلیل اصلی این است که چرا GPT-3 در مورد اخبار جعلی و اطلاعات نادرست و همه این چیزها چندان متحول کننده نبوده است. دلیلش این است که اخبار جعلی عمدتاً زباله هستند. بد نوشته شده است، کیفیت پایینی دارد، آنقدر ارزان و سریع منتشر می شود که می توانید به برادرزاده 16 ساله خود پول بدهید تا در عرض چند دقیقه مجموعه ای از مقالات اخبار جعلی را منتشر کند.
آنقدر هم نیست که ریاضیات به من کمک کرد این را ببینم. فقط این است که به نوعی، اصلیترین کاری که در ریاضیات میخواهیم انجام دهیم این است که شک داشته باشیم. پس باید این موارد را زیر سوال ببرید و کمی شک کنید.
منبع: https://techcrunch.com/2021/08/20/a-mathematician-walks-into-a-bar-of-disinformation/
- AI
- ربات های هوش مصنوعی
- الگوریتم
- الگوریتم
- معرفی
- تحلیل
- خبر
- معماری
- محدوده
- دور و بر
- مقاله
- مقالات
- نویسندگان
- اوتیسم
- بایدن
- تصویر بزرگ
- بیت
- بوستون
- رباتها
- بریج
- دسته
- اهميت دادن
- به چالش
- آینده
- نظرات
- انجمن
- شرکت
- علم کامپیوتر
- توطئه
- گفتگو
- زن و شوهر
- خالق
- داده ها
- روز
- مقدار
- مناظره
- جعل عمیق
- یادگیری عمیق
- جمعیت
- از بین بردن
- DID
- اطلاعات غلط
- فاصله
- اقتصادی
- انگلیسی
- تجربه
- تجربه
- افراط گرایی
- فیس بوک
- جعلی
- اخبار جعلی
- FAST
- نام خانوادگی
- رفع
- کامل
- سرگرمی
- آینده
- شکاف
- هندسه
- خوب
- گوگل
- تاریخ
- چگونه
- چگونه
- HTTPS
- انسان
- صدها نفر
- اطلاعات
- مصاحبه
- IT
- روزنامه نگاری
- روزنامه نگار
- روزنامه نگاران
- زبان
- رهبری
- یادگیری
- لاین
- طولانی
- فراگیری ماشین
- ساخت
- علامت
- علامت زوکربرگ
- ریاضی
- ریاضیات
- مسائل
- رسانه ها
- متریک
- اطلاعات غلط
- خالص
- عصبی
- اخبار
- دیگر
- مقاله
- پرداخت
- مردم
- تصویر
- سکو
- سیستم عامل
- فشار
- اطلاعیه مطبوعاتی
- برنامه
- کیفیت
- تحقیق
- منابع
- علم
- دانشمندان
- جستجو
- اشتراک گذاری
- تغییر
- تکینگی
- So
- آگاهی
- رسانه های اجتماعی
- جامعه
- حل
- فضا
- خرج کردن
- شروع
- ماندن
- مطالعات
- مهاجرت تحصیلی
- موفقیت
- موفق
- تهیه
- عالی
- مذاکرات
- معلم
- فن آوری
- فنی
- پیشرفته
- آزمون
- آینده
- زمان
- تن
- لحن
- تاپیک
- آموزش
- شفافیت
- روند
- توییتر
- جهانی
- دانشگاه
- us
- واکسن
- تصویری
- فیلم های
- چشم انداز
- داوطلبان
- چه شده است
- WHO
- در داخل
- با این نسخهها کار
- جهان
- سال
- یوتیوب