بذریعہ جان پی ڈیسمنڈ، اے آئی ٹرینڈز ایڈیٹر
مواد میں اعتدال ایک بڑا کاروبار بنتا جا رہا ہے، جس کے تخمینے کے مطابق، 11.8 تک 2027 بلین ڈالر تک پہنچنے کی توقع ہے۔ شفافیت مارکیٹ ریسرچ.
مختصر ویڈیوز، میمز، GIFs، لائیو آڈیو اور ویڈیو مواد اور خبروں کی شکل میں صارف کے تیار کردہ مواد میں غیر معمولی اضافے سے مارکیٹ کو ہوا دی جا رہی ہے۔ چونکہ اپ لوڈ کردہ مواد کا کچھ فیصد جعلی خبریں، یا بدنیتی پر مبنی یا پرتشدد مواد ہے، اس لیے سوشل میڈیا سائٹس غیر مناسب مواد کو فلٹر کرنے کی کوشش کرنے کے لیے AI اور مشین لرننگ کو استعمال کرنے والے ٹولز سے لیس ماڈریٹرز کی فوجیں استعمال کر رہی ہیں۔
فیس بک نے اپنے مواد کو صاف کرنے میں مدد کے لیے Accenture کو ملازمت دی ہے، جس کی مالیت $500 ملین سالانہ ہے، ایک حالیہ اکاؤنٹ کے مطابق نیو یارک ٹائمز, سوشل میڈیا دیو میں مواد کی اعتدال کی تاریخ میں وسیع تحقیق کی بنیاد پر۔
۔ ٹائمز رپورٹ کیا کہ ایکسینچر کی سی ای او جولی سویٹ نے 2019 میں اپنی تقرری کے بعد کنٹریکٹ پر نظرثانی کا حکم دیا، اس تشویش کی وجہ سے کہ اس وقت بڑھتے ہوئے اخلاقی اور قانونی خطرات کو دیکھا گیا، جس سے ملٹی نیشنل پروفیشنل سروسز کمپنی کی ساکھ کو نقصان پہنچ سکتا ہے۔
سویٹ نے نظرثانی کا حکم اس وقت دیا جب ایکسینچر ورکر نے مواد کے ماڈریٹرز کے کام کے حالات کے خلاف احتجاج کرنے کے لیے ایک کلاس ایکشن مقدمے میں شمولیت اختیار کی، جو ایک شفٹ میں سینکڑوں فیس بک پوسٹس کا جائزہ لیتے ہیں اور اس کے نتیجے میں ڈپریشن، اضطراب اور اضطراب کا سامنا کرنا پڑتا ہے۔ جائزے کے نتیجے میں کوئی تبدیلی نہیں آئی۔ ٹائمز کی رپورٹ کے مطابق، Accenture 15,000 لوگوں میں سے ایک تہائی سے زیادہ کو ملازمت دیتا ہے جنہیں فیس بک نے اپنی پوسٹس کا معائنہ کرنے کے لیے رکھا ہے۔
فیس بک کے سی ای او مارک زکربرگ نے زہریلی پوسٹس کو فلٹر کرنے میں مدد کے لیے اے آئی کو ملازمت دینے کی حکمت عملی بنائی ہے۔ ہزاروں کنٹینٹ ماڈریٹرز کی خدمات حاصل کی جاتی ہیں تاکہ وہ نامناسب پیغامات کو ہٹا سکیں جنہیں AI نہیں پکڑتا۔
مواد کی اعتدال پسندی کا کام اور اس کے ارد گرد Accenture اور Facebook کا تعلق متنازعہ ہو گیا ہے۔ "آپ نہیں کر سکتے تھے فیس بک جیسا کہ آج ہم اسے Accenture کے بغیر جانتے ہیں،" Foxglove کے شریک بانی کوری کرائیڈر نے کہا، ایک قانونی فرم جو مواد کے ماڈریٹرز کی نمائندگی کرتی ہے۔ ٹائمز. "آنکھوں میں پانی بھرنے کی فیس کے لیے Accenture جیسے اہل کاروں نے فیس بک کو اپنے کاروبار کے بنیادی انسانی مسئلے کو بازو کی لمبائی میں رکھنے دیا ہے۔"
فیس بک نے 10 سے اپنی پوسٹس کو فلٹر کرنے کے لیے کم از کم 2012 کنسلٹنگ اور اسٹافنگ فرموں اور متعدد ذیلی کنٹریکٹرز کی خدمات حاصل کی ہیں۔ ٹائمز رپورٹ کے مطابق. تنخواہ کی شرحیں مختلف ہوتی ہیں، امریکی ناظمین Accenture کے لیے $50 یا اس سے زیادہ فی گھنٹہ کماتے ہیں، جبکہ کچھ امریکی شہروں میں ماڈریٹرز کو $18 فی گھنٹہ کی ابتدائی تنخواہ ملتی ہے۔ ٹائمز رپورٹ.
ایک تجربہ کار مواد ماڈریٹر کی بصیرتیں۔
AI تقریباً 90% نامناسب مواد کو پکڑتا ہے۔ مواد کے اعتدال کے نظام کا ایک سپلائر ہے۔ اپنائیںآسٹریلیا میں مقیم ہے، جو اپنے کلائنٹس کے ساتھ مشین لرننگ اور AI سسٹمز پر کام کرتا ہے۔ حال ہی میں بلاگ پوسٹ اس کی ویب سائٹ پر، جسٹن ایڈم، ایک پروگرام مینیجر جو مواد کی اعتدال پسندی کے متعدد منصوبوں کی نگرانی کرتا ہے، نے کچھ بصیرتیں پیش کیں۔
پہلی پالیسیوں کو اپ ڈیٹ کرنا ہے جیسا کہ حقیقی دنیا کا تجربہ حکم دیتا ہے۔ مواد کے اعتدال کے ہر فیصلے کو متعین پالیسی پر عمل کرنا چاہیے؛ تاہم، اس سے یہ بھی ضروری ہے کہ پالیسی کو کسی بھی خلا، گرے ایریاز، یا ایج کیسز کو بند کرنے کے لیے تیزی سے تیار ہونا چاہیے جب وہ ظاہر ہوں، اور خاص طور پر حساس موضوعات کے لیے،‘‘ ایڈم نے کہا۔ اس نے پالیسی کے فرق کی نشاندہی کرنے کے لیے مارکیٹوں کے لیے مخصوص مواد کے رجحانات کی نگرانی کی سفارش کی۔
دوسرا، ماڈریٹرز کے ممکنہ آبادیاتی تعصب سے آگاہ رہیں۔ "مواد کی اعتدال سب سے زیادہ مؤثر، قابل اعتماد، اور قابل اعتماد ہے جب ماڈریٹرز کا پول مارکیٹ کی عام آبادی کا نمائندہ ہوتا ہے جس کو معتدل کیا جاتا ہے،" انہوں نے کہا۔ انہوں نے مناسب طور پر منتظمین کے متنوع گروپ کو سورس کرنے کی سفارش کی۔
تیسرا، مواد کے انتظام کی حکمت عملی تیار کریں اور اس میں معاونت کے لیے ماہر وسائل ہوں۔ "مواد کی اعتدال پسندی کے فیصلے آج کے سیاسی ماحول میں جانچ پڑتال کے لیے حساس ہیں،" ایڈم نے کہا۔ اس کی فرم کلائنٹس کو تربیت یافتہ پالیسی موضوع کے تجربے کی ایک ٹیم کو ملازمت دینے، کوالٹی کنٹرول ریویو قائم کرنے، اور معیار کے تجزیہ اور رپورٹنگ کے مطابق خدمات پیش کرتی ہے۔
AI کے ساتھ خودکار مواد کی اعتدال کی تکنیک
مواد کی اعتدال کی سب سے عام قسم ایک خودکار طریقہ ہے جو AI، قدرتی زبان کی پروسیسنگ اور کمپیوٹر ویژن کو ملازمت دیتا ہے۔ بلاگ پوسٹ کلیری فائی سے، نیو یارک شہر میں مقیم AI کمپنی جو کمپیوٹر ویژن، مشین لرننگ، اور تصاویر اور ویڈیوز کے تجزیہ میں مہارت رکھتی ہے۔
AI ماڈلز مواد کا جائزہ لینے اور فلٹر کرنے کے لیے بنائے گئے ہیں۔ کمپنی نے تجویز پیش کی کہ انسانی ماڈریٹر کے کام کو سپورٹ کرنے کے لیے، "نامناسب مواد کو جھنڈا لگایا جا سکتا ہے اور اسے تقریباً فوری طور پر شائع ہونے سے روکا جا سکتا ہے۔"
مواد کی اعتدال کی تکنیکوں میں شامل ہیں۔ تصویری اعتدال جو متن کی درجہ بندی اور کمپیوٹر وژن پر مبنی بصری تلاش کی تکنیک کا استعمال کرتا ہے۔ آبجیکٹ کریکٹر ریکگنیشن کسی تصویر کے اندر موجود متن کی شناخت کر سکتی ہے اور اسے بھی معتدل کر سکتی ہے۔ فلٹرز ہر قسم کے غیر ساختہ ڈیٹا کے اندر بدسلوکی یا جارحانہ الفاظ، اشیاء اور جسم کے اعضاء تلاش کر رہے ہیں۔ نامناسب کے طور پر نشان زد مواد کو دستی اعتدال کے لیے بھیجا جا سکتا ہے۔
ایک اور تکنیک، کے لیے ویڈیو اعتدال، اس کا تقاضا ہے کہ ویڈیو کو فریم کے لحاظ سے دیکھا جائے اور آڈیو کو بھی اسکرین کیا جائے۔ کے لیے متن اعتدال، قدرتی زبان کی پروسیسنگ الگورتھم کا استعمال متن کے معنی کا خلاصہ کرنے یا متن میں جذبات کی سمجھ حاصل کرنے کے لیے کیا جاتا ہے۔ متن کی درجہ بندی کا استعمال کرتے ہوئے، متن یا جذبات کا تجزیہ کرنے میں مدد کے لیے زمرے تفویض کیے جا سکتے ہیں۔
جذباتی تجزیہ متن کے لہجے کی شناخت کرتا ہے اور اسے غصہ، دھونس، یا طنز کے طور پر درجہ بندی کر سکتا ہے، مثال کے طور پر، پھر اسے مثبت، منفی، یا غیر جانبدار کے طور پر لیبل کریں۔ نامزد ہستی کی شناخت کی تکنیک ناموں، مقامات اور کمپنیوں کو ڈھونڈتی اور نکالتی ہے۔ کمپنیاں اس کا استعمال اس بات کا پتہ لگانے کے لیے کرتی ہیں کہ اس کے برانڈ کا کتنی بار ذکر کیا گیا ہے یا کسی مدمقابل کے برانڈ کا، یا کسی شہر یا ریاست کے لوگوں کی تعداد جو جائزے پوسٹ کر رہے ہیں۔ مزید جدید تکنیکیں اس بارے میں پیشین گوئیاں کرنے کے لیے بلٹ ان ڈیٹا بیس پر انحصار کر سکتی ہیں کہ آیا متن مناسب ہے، یا جعلی خبر ہے یا کوئی دھوکہ۔
تھوڑا سا شک کے ساتھ، AI کو آن لائن مواد میں اعتدال پسندی کی ضرورت ہے تاکہ اسے کامیاب ہونے کا موقع ملے۔ "حقیقت یہ ہے کہ انسانی ماڈریٹرز کے لیے بہت زیادہ UGC موجود ہے، اور کمپنیوں کو ان کی مؤثر طریقے سے مدد کرنے کے چیلنج کا سامنا ہے،" کلیریفائی پوسٹ میں کہا گیا ہے۔
خودکار مواد کے انتظام کے ٹولز کی حدود
خودکار مواد کی اعتدال پسندی کے ٹولز کی حدود میں درستگی اور وشوسنییتا شامل ہے جب مواد انتہا پسند یا نفرت انگیز تقریر ہو، مختلف گروہوں اور خطوں سے متعلق تقریر میں معمولی تغیرات کی وجہ سے، ایک حالیہ اکاؤنٹ کے مطابق نیو امریکہ، واشنگٹن ڈی سی میں واقع ایک تحقیقی اور پالیسی انسٹی ٹیوٹ۔ مواد کے ان زمروں کے لیے جامع ڈیٹاسیٹ تیار کرنا "چیلنجنگ" کہلاتا تھا اور ایک ایسا ٹول تیار کرنا جو قابل اعتماد طریقے سے مختلف گروپوں اور خطوں میں لاگو کیا جا سکتا ہے "انتہائی مشکل" کے طور پر بیان کیا گیا تھا۔
اس کے علاوہ، اس بات کی تعریف واضح نہیں ہے کہ کس قسم کی تقریر نامناسب زمروں میں آتی ہے۔
مزید برآں، "چونکہ انسانی تقریر معروضی نہیں ہے اور مواد میں اعتدال کا عمل فطری طور پر موضوعی ہے، اس لیے یہ ٹولز اس لیے محدود ہیں کہ وہ انسانی تقریر میں موجود باریکیوں اور سیاق و سباق کے تغیرات کو سمجھنے سے قاصر ہیں،" پوسٹ کے مطابق۔
ایک اور مثال میں، تصویر کی شناخت کرنے والا ٹول مواد کے ایک ٹکڑے میں عریانیت کی مثال، جیسے چھاتی کی شناخت کر سکتا ہے۔ تاہم، یہ امکان نہیں ہے کہ ٹول اس بات کا تعین کر سکے کہ آیا پوسٹ میں فحش مواد دکھایا گیا ہے یا شاید دودھ پلانا، جس کی بہت سے پلیٹ فارمز پر اجازت ہے۔
ماخذ کے مضامین اور معلومات پڑھیں شفافیت مارکیٹ ریسرچ, in نیو یارک ٹائمزمیں a بلاگ پوسٹ Appen کی ویب سائٹ پر، a بلاگ پوسٹ Clarifai کی ویب سائٹ اور اس سے ایک اکاؤنٹ پر نیو امریکہ.
- 000
- 2019
- ایکسینچر
- اکاؤنٹ
- عمل
- AI
- یلگوردمز
- تمام
- تجزیہ
- غصہ
- سالانہ
- بے چینی
- ارد گرد
- مضامین
- آڈیو
- آسٹریلیا
- آٹو
- آٹومیٹڈ
- میشن
- ارب
- جسم
- کاروبار
- مقدمات
- پکڑو
- سی ای او
- چیلنج
- تبدیل
- کردار کی پہچان
- شہر
- شہر
- کلاس ایکشن
- کلاس کارروائی کا مقدمہ
- درجہ بندی
- کلائنٹس
- شریک بانی
- cofounder
- کامن
- کمپنیاں
- کمپنی کے
- کمپیوٹر ویژن
- مشاورت
- مواد
- مواد کے انتظام
- مواد میں اعتدال
- کنٹریکٹ
- اعداد و شمار
- ڈیٹا بیس
- dc
- آبادیاتی
- ڈپریشن
- ترقی
- DID
- ایج
- موثر
- جذبات
- لیس
- اندازوں کے مطابق
- تجربہ
- نچوڑ۔
- فیس بک
- جعلی
- جعلی خبر کے
- فیس
- فلٹر
- پتہ ہے
- فرم
- پہلا
- پر عمل کریں
- فارم
- جنرل
- شیشے
- بھوری رنگ
- گروپ
- بڑھتے ہوئے
- نفرت انگیز تقریر
- تاریخ
- پکڑو
- HTTPS
- سینکڑوں
- شناخت
- تصویر
- تصویری شناخت
- معلومات
- بصیرت
- IT
- زبان
- قانون
- مقدمہ
- سیکھنے
- قانونی
- لمیٹڈ
- مشین لرننگ
- انتظام
- نشان
- مارک Zuckerberg
- مارکیٹ
- Markets
- میڈیا
- memes
- دس لاکھ
- نگرانی
- نام
- قدرتی زبان
- قدرتی زبان عملیات
- NY
- خبر
- تجویز
- آن لائن
- ادا
- لوگ
- پلیٹ فارم
- پالیسیاں
- پالیسی
- پول
- آبادی
- فحش
- مراسلات
- پیشن گوئی
- حال (-)
- پی آر نیوزیوائر
- پروگرام
- منصوبوں
- احتجاج
- معیار
- قیمتیں
- حقیقی دنیا
- حقیقت
- رپورٹ
- تحقیق
- وسائل
- کا جائزہ لینے کے
- جائزہ
- سرکشم
- دھوکہ
- تلاش کریں
- جذبات
- سروسز
- منتقل
- مختصر
- سائٹس
- سماجی
- سوشل میڈیا
- کی طرف سے سپانسر
- حالت
- امریکہ
- حکمت عملی
- کامیاب
- حمایت
- میٹھی
- سسٹمز
- ماخذ
- موضوعات
- ٹریک
- رجحانات
- اپ ڈیٹ کریں
- us
- قابل قدر
- ویڈیو
- ویڈیوز
- نقطہ نظر
- حجم
- واشنگٹن
- ویب سائٹ
- Whitepaper
- ڈبلیو
- کے اندر
- الفاظ
- کام
- کام کرتا ہے
- دنیا