به لطف پیشرفت فناوری دیپ فیک، شبیه سازی صدای مردم آسان تر می شود. برخی از کاربردهای این فناوری، مانند ایجاد صداهای صوتی برای پر کردن شکافها راننده، مستند مربوط به آنتونی بوردین که تابستان گذشته منتشر شد، بی ضرر هستند (اگرچه حتی اصول اخلاقی این حرکت داغ بود بحث وقتی فیلم منتشر شد). با این حال، در موارد دیگر، از صداهای عمیق جعلی برای اهدافی استفاده میشود که به وضوح بسیار شرورانه هستند - مانند سرقت میلیونها دلار.
An مقاله منتشر شده در هفته گذشته توسط فوربس فاش کرد که گروهی از مجرمان سایبری در امارات متحده عربی از فناوری دیپ فیک به عنوان بخشی از سرقت بانکی استفاده کردند که در مجموع 35 میلیون دلار را به خارج از کشور و به حسابهای سراسر جهان منتقل کردند.
دزدی پول، نسخه صوتی
تنها چیزی که برای ساختن یک نسخه جعلی از صدای کسی نیاز دارید، ضبط صدای آن شخص در حال صحبت است. مانند هر سیستم یادگیری ماشینی که خروجی آن بر اساس کمیت و کیفیت دادههای ورودی بهبود مییابد، اگر ضبطهای بیشتری وجود داشته باشد که سیستم از آن یاد بگیرد، صدای عمیقفک شده بیشتر شبیه واقعی خواهد بود.
در این مورد، مجرمان از نرمافزار دیپ فیک برای بازسازی صدای یک مدیر اجرایی در یک شرکت بزرگ استفاده کردند (به نظر نمیرسد جزئیات مربوط به شرکت، نرمافزار مورد استفاده و ضبطهای آموزش نرمافزار مذکور در دسترس نباشد). آنها سپس با مدیر بانکی که مدیر اجرایی با او رابطه قبلی داشت تماس تلفنی برقرار کردند، به این معنی که مدیر بانک صدای مدیر را می دانست. جعل کنندگان همچنین ایمیل های جعلی مبنی بر تایید جزئیات تراکنش های درخواستی به مدیر بانک ارسال کردند. بین ایمیلها و صدای آشنا، وقتی مدیر اجرایی از مدیر خواست تا اجازه انتقال میلیونها دلار بین حسابها را بدهد، مدیر مشکلی برای ادامه و انجام این کار ندید.
این کلاهبرداری در ژانویه 2020 رخ داده است، اما مربوط است سند دادگاه هفته گذشته در ایالات متحده ثبت شد. مقامات امارات متحده عربی از بازرسان در ایالات متحده درخواست کمک برای ردیابی 400,000 دلار از پول های سرقت شده که به حساب های بانکی ایالات متحده در بانک سنتنیال رفته است، دارند.
صدای ما، خود ما
La روش قدیمی («قدیمی» در این زمینه به این معناست که قبل از یادگیری ماشینی به اندازه امروز همه جا وجود داشته باشد) ساختن صدای انسان جعلی به معنای ضبط صدای واقعی انسان، تقسیم آن ضبط به هجاهای متمایز گفتار، سپس چسباندن آن هجاها به یکدیگر در تعداد بی شماری است. جایگشت برای تشکیل کلماتی که می خواهید صدا بگوید. خسته کننده بود و صدایی داشت که اصلا واقع بینانه به نظر نمی رسید.
تمایز دادن صدای افراد نزدیک به ما و تشخیص صداهای معروف آسان است - اما ما اغلب به اجزای زیادی که در ساختن صدا منحصر بفرد. تن و زیر و بمی وجود دارد، که به جایی اشاره دارد که یک صدا بر روی دامنه ای از نت ها از پایین به بالا می افتد. آهنگ آهنگ وجود دارد که ریتم و تغییرات گوینده در زیر و بم و تأکید بر کلمات یا قسمت های مختلف یک جمله است. تلفظ و خصلت هایی مانند لهجه های منطقه ای یا لب ها وجود دارد.
به طور خلاصه، صداهای ما کاملاً منحصربهفرد هستند - که باعث میشود بازآفرینی آنها به صورت مصنوعی آسانتر شود.
صداهای جعلی در راه است
آیا سرقت بانک امارات منادی جنایات آینده است؟ متأسفانه، پاسخ به احتمال زیاد بله است. این اولین تلاش از این دست نیست، اما اولین باری است که موفق به سرقت چنین مبلغ هنگفتی با استفاده از صدای عمیق جعلی می شود. در سال 2019 گروهی از جنایتکاران صدا را جعلی کرد مدیر عامل یک شرکت انرژی مستقر در بریتانیا برای انتقال 243,000 دلار به حساب بانکی مجارستان.
بسیاری از نسخههای مختلف نرمافزار دیپفیک صوتی، از جمله نسخههایی از شرکتهایی مانند Lyrebird (که فقط به یک دقیقه ضبط برای ایجاد یک صدای جعلی نیاز دارد، البته کمی متوقف شده و شبیه ربات)، توصیف, سونانتیکو ویتونبه نام تنها چند.
این شرکت ها قصد دارند از محصولات خود برای استفاده خوب استفاده کنند، و مطمئناً موارد استفاده مثبت وجود دارد. برای مثال، افراد دارای ناتوانی گفتاری یا فلج می توانند از این نرم افزار برای برقراری ارتباط با اطرافیان خود استفاده کنند. Veritone نرم افزار خود را برای استفاده توسط افراد مشهوری که ممکن است بخواهند برای مواردی مانند تأیید محصول مجوز صدای خود را صادر کنند، بازاریابی می کند. Sonantic اخیراً یک شبیه سازی صدا برای وال کیلمرکه صدایش از نبرد با سرطان گلو آسیب دیده بود. ضبط کتابهای صوتی یا پادکستهای خبری نیز میتواند کاربرد سازنده این فناوری باشد، زیرا در حال حاضر فرد یا باید ساعتها با صدای بلند بخواند یا شنونده صدای مصنوعی رایانهای دریافت میکند که گوش دادن به آن چندان خوشایند نیست.
شرکت های دیگر در حال حاضر از هوش مصنوعی برای مقابله با هوش مصنوعی استفاده می کنند. تصدیقکننده ویدیوی مایکروسافت، که کمی بیش از یک سال پیش منتشر شد، ویدئوها و تصاویر را تجزیه و تحلیل می کند و درصد احتمال دستکاری مصنوعی آنها را به کاربران می گوید. به طور مشابه، مدافع واقعیت بنیاد هوش مصنوعی از الگوریتمهای تشخیص رسانه مصنوعی برای شناسایی محتوای جعلی استفاده میکند. فیس بوک, توییترو یوتیوب همه اقداماتی را برای ممنوع کردن و حذف دیپ فیک از سایت های خود انجام داده اند.
اما این فناوری تنها قرار است پیچیدهتر شود و در همه حوزهها: صدا، تصویر و ویدیو. مبارزه با فناوری با فناوری بیشتر یا بهتر ممکن است یکی از بهترین امیدهای ما باشد، اما افزایش آگاهی در مورد دیپ فیک ها و القای حس شک و تردید گسترده در افراد درباره محتوایی که آنلاین می بینند نیز مهم است.
بیایید امیدوار باشیم که حادثه دزدی بانک امارات متحده عربی تردید مشابهی را در افرادی که در بانکها کار میکنند القا کند، به طوری که صداهای جعلی که به کلاهبرداران برای سرقت پول کمک میکنند به یک اتفاق رایجتر تبدیل نشود.
تصویر های اعتباری: جان مک گیجی/در ویکیانبار موجود
- 000
- 2019
- 2020
- حساب
- AI
- الگوریتم
- معرفی
- کاربرد
- دور و بر
- سمعی
- بان کی مون
- بانک
- حساب بانکی
- بانک
- نبرد
- بهترین
- آهنگ
- سرطان
- موارد
- مدیر عامل شرکت
- مشترک
- شرکت
- شرکت
- محتوا
- ایجاد
- اعتبار
- جنایات
- جنایتکاران
- مجرمان سایبری
- داده ها
- deepfakes
- کشف
- مستند
- دلار
- امارات
- به پایان می رسد
- انرژی
- اصول اخلاق
- اجرایی
- جعلی
- فیلم
- نام خانوادگی
- فوربس
- فرم
- تقلب
- خوب
- گروه
- زیاد
- HTTPS
- شناسایی
- تصویر
- از جمله
- محققان
- IT
- بزرگ
- یاد گرفتن
- یادگیری
- مجوز
- فراگیری ماشین
- بازار یابی (Marketing)
- رسانه ها
- میلیون
- پول
- حرکت
- اخبار
- آنلاین
- دیگر
- مردم
- پــادکـست
- محصول
- محصولات
- کیفیت
- بالا بردن
- واقعیت
- حس
- کوتاه
- سایت
- So
- نرم افزار
- انشعاب
- به سرقت رفته
- تابستان
- سیستم
- فن آوری
- پیشرفته
- می گوید
- صداها
- جهان
- معاملات
- توییتر
- امارات متحده عربی
- متحد
- امارات متحده عربی
- us
- کاربران
- تصویری
- فیلم های
- صدا
- صداها
- هفته
- WHO
- کلمات
- مهاجرت کاری
- جهان
- سال
- یوتیوب