آیا بالاخره میتوانیم با تهدید دیپفیک صوتی مقابله کنیم؟
این یکی از وحشتهای نوظهورِ ویرانشهرِ جدید و شجاعانهی ما از کلاهبرداریهای الکترونیکی، فیشینگ و تبلیغاتِ نابودکنندهی دموکراسی است. در روزهای خوبِ قدیم، تنها تعداد کمی از تقلیدکنندگانِ صدای بسیار ماهر میتوانستند صدای هر کسی را به اندازهای جعل کنند که افرادی را که با صدای واقعی آشنا بودند، فریب دهند. و بنابراین در آن زمان، احتمال اینکه ریچ لیتل (به دنبالش بگردید)، جی فارو یا بیل هیدر شما را در نیمهشب با تماسی از «برادرتان» هدف قرار دهند و از شما بخواهند هزاران دلار وثیقه منتقل کنید، تقریباً صفر بود.
اما اکنون، به لطف شبیهسازهای صدای هوش مصنوعی در سراسر اینترنت، تقریباً هر کسی میتواند در عرض چند دقیقه مرتکب کلاهبرداری صوتی شود (و نه، این جمله به وضوح تشویقی برای انجام این کار نیست).
خوشبختانه برای همه افرادی که میخواهند پول و تمامیت انتخابات خود را از مجرمان سایبری و خرابکاران سیاسی در امان نگه دارند، پیشرفتی حاصل شده است. RAIS که «تمرین با نمونهبرداری کمکی» نام دارد، صداهای واقعی را از صداهای جعلی تشخیص میدهد و «عملکرد خود را با گذشت زمان و با تکامل انواع حمله حفظ میکند.»
RAIS به اوج
همانطور که فالح گوزی فبرینانتو و همکارانش در مقاله خود با عنوان «تمرین با نمونهبرداری کمکی برای تشخیص دیپفیک صوتی» بحث میکنند، آشکارسازهای موجود در برابر جدیدترین دیپفیکها شکست میخورند. به همین دلیل است که RAIS بسیار مهم است. RAIS از طریق یادگیری مداوم مبتنی بر تمرین، «مدلها را با استفاده از مجموعه محدودی از نمونههای داده قدیمی بهروزرسانی میکند» و «به حفظ دانش قبلی در حین گنجاندن اطلاعات جدید کمک میکند.»
این مقاله که در Interspeech، گردهمایی جهانی پیشرو در زمینه علم و فناوری پردازش زبان گفتاری، ارائه شد، بررسی میکند که چگونه فبرینانتو و همکارانش در آژانس ملی علوم استرالیا (CSIRO)، دانشگاه فدراسیون استرالیا و موسسه فناوری سلطنتی ملبورن، سلاحی کاملاً جدید در مبارزه با فریب صوتی دیجیتال ایجاد کردهاند که از دور زدن «سیستمهای احراز هویت بیومتریک مبتنی بر صدا، جعل هویت و اطلاعات نادرست» استفاده میکند.

Comments
Post a Comment