آیا بالاخره می‌توانیم با تهدید دیپ‌فیک صوتی مقابله کنیم؟

 


این یکی از وحشت‌های نوظهورِ ویران‌شهرِ جدید و شجاعانه‌ی ما از کلاهبرداری‌های الکترونیکی، فیشینگ و تبلیغاتِ نابودکننده‌ی دموکراسی است. در روزهای خوبِ قدیم، تنها تعداد کمی از تقلیدکنندگانِ صدای بسیار ماهر می‌توانستند صدای هر کسی را به اندازه‌ای جعل کنند که افرادی را که با صدای واقعی آشنا بودند، فریب دهند. و بنابراین در آن زمان، احتمال اینکه ریچ لیتل (به دنبالش بگردید)، جی فارو یا بیل هیدر شما را در نیمه‌شب با تماسی از «برادرتان» هدف قرار دهند و از شما بخواهند هزاران دلار وثیقه منتقل کنید، تقریباً صفر بود.


اما اکنون، به لطف شبیه‌سازهای صدای هوش مصنوعی در سراسر اینترنت، تقریباً هر کسی می‌تواند در عرض چند دقیقه مرتکب کلاهبرداری صوتی شود (و نه، این جمله به وضوح تشویقی برای انجام این کار نیست).


خوشبختانه برای همه افرادی که می‌خواهند پول و تمامیت انتخابات خود را از مجرمان سایبری و خرابکاران سیاسی در امان نگه دارند، پیشرفتی حاصل شده است. RAIS که «تمرین با نمونه‌برداری کمکی» نام دارد، صداهای واقعی را از صداهای جعلی تشخیص می‌دهد و «عملکرد خود را با گذشت زمان و با تکامل انواع حمله حفظ می‌کند.»


RAIS به اوج

همانطور که فالح گوزی فبرینانتو و همکارانش در مقاله خود با عنوان «تمرین با نمونه‌برداری کمکی برای تشخیص دیپ‌فیک صوتی» بحث می‌کنند، آشکارسازهای موجود در برابر جدیدترین دیپ‌فیک‌ها شکست می‌خورند. به همین دلیل است که RAIS بسیار مهم است. RAIS از طریق یادگیری مداوم مبتنی بر تمرین، «مدل‌ها را با استفاده از مجموعه محدودی از نمونه‌های داده قدیمی به‌روزرسانی می‌کند» و «به حفظ دانش قبلی در حین گنجاندن اطلاعات جدید کمک می‌کند.»


این مقاله که در Interspeech، گردهمایی جهانی پیشرو در زمینه علم و فناوری پردازش زبان گفتاری، ارائه شد، بررسی می‌کند که چگونه فبرینانتو و همکارانش در آژانس ملی علوم استرالیا (CSIRO)، دانشگاه فدراسیون استرالیا و موسسه فناوری سلطنتی ملبورن، سلاحی کاملاً جدید در مبارزه با فریب صوتی دیجیتال ایجاد کرده‌اند که از دور زدن «سیستم‌های احراز هویت بیومتریک مبتنی بر صدا، جعل هویت و اطلاعات نادرست» استفاده می‌کند.

منبع

Comments

Popular posts from this blog

معرفی سایت خبری نیو نیوز 1

معرفی سایت خبری خبر نسیم

معرفی سایت خبری نیوز آبی