یکی از جدیدترین راههای سوء استفاده از افراد، تماسهای کلاهبرداری با استفاده از هوش مصنوعی و تقلید صدا است.
گروه هیچ یک زندگی – این روزها استفاده از هوش مصنوعی در بین مشاغل و افراد افزایش یافته و محبوبیت بسیاری پیدا کرده است. بسیاری از کاربران با استفاده از این برنامهها راههایی برای ساده سازی عملیات تجاری و سرگرمیهای شخصی پیدا کردهاند. با این حال، مجرمان نیز بیکار ننشستهاند و ابزارهایی را برای تسلیح این فناوری توسعه دادهاند.
فناوری ایجاد یک دیپفیک صوتی، (یعنی یک کپی واقعی از صدای یک فرد) به طور فزایندهای رایج شده است. برای ایجاد یک کپی واقعی از صدای یک نفر، به دادههایی برای آموزش الگوریتم نیاز دارید. این به معنای داشتن تعداد زیادی ضبط صوتی از صدای هدف مورد نظر شما است. هر چه تعداد نمونههای بیشتری از صدای شخص را بتوانید به الگوریتمها وارد کنید، کپی نهایی بهتر و قانعکنندهتر خواهد بود و از آنجایی که بسیاری از ما در حال حاضر جزئیات زندگی روزمره خود را در اینترنت به اشتراک میگذاریم. این بدان معناست که دادههای صوتی مورد نیاز برای ایجاد یک کپی واقعی از یک صدا میتواند به راحتی در رسانههای اجتماعی در دسترس باشد.
کلاهبرداری صوتی با هوش مصنوعی چیست؟
به طور معمول، کلاهبرداریهای صوتی با هوش مصنوعی حول محور یک مجرم میچرخد که با استفاده از برنامههای نرمافزاری با جعل صدای شخصی افراد، قصد سرقت پول یا اطلاعات شخصی را دارند. مجرمان این صداهای جعلی را با به دست آوردن نمونهای از صدای یک نفر، مانند ویدئوهای موجود در رسانههای اجتماعی یا سایر وبسایتها و آپلود آن در یک برنامه هوش مصنوعی ایجاد میکنند.
هنگامی که کلاهبرداران، صدای جعلی را ایجاد کردند، ممکن است سعی کنند با اعضای خانواده قربانی یا سایر طرفهایی که برای سلامتی فرد مذکور ارزش قائل هستند تماس بگیرند. رفتار مجرمان بهگونهای است که هدفها را فریب دهند تا فکر کنند کسی که برایشان مهم است در موقعیتی فوری یا خطرناک است و بهسرعت به پول نیاز دارد. مثلاً تصور کنید که صدای آن طرف تلفن فقط یک غریبه نیست، بلکه دقیقاً شبیه یک دوست یا خانواده شماست. از طرف دیگر، کلاهبرداران ممکن است سعی کنند با شخصی تماس بگیرند و وانمود کنند فردی مانند یک نماینده بانکی هستند و میتوانند اعتماد طرف را جلب کرده و اطلاعات حساس را به دست بیاورند.
ترفند قدیمی با استفاده از فناوری جدید
در گزارشی که اخیراً توسط CNN منتشر شده نشان میدهد که با یک مادر از یک شماره ناشناس تماس گرفته شده و وقتی تلفن را جواب میدهد، دخترش است و ظاهراً دختر ربوده شده و با مادرش تماس گرفته تا برای دزدان درخواست باج کند.
اما در واقع دختر سالم و سلامت بود و کلاهبرداران صدای او را دیپ فیک کرده بودند.
اصطلاح ” آدمربایی مجازی” چندین سال است که وجود دارد. این میتواند اشکال مختلفی داشته باشد، اما یک رویکرد رایج این است که قربانیان را فریب دهند و باج بگیرند تا عزیزی را که فکر میکنند در معرض تهدید هستند، آزاد کنند.
کلاهبردار سعی میکند تا قبل از اینکه فریب کشف شود یا پای پلیس به میان بیاید، قربانی را مجبور به پرداخت یک باج سریع کند. شاید بگویید ما گول چنین رفتاری را نمیخوریم و تماس را قطع میکنیم؛ این درست است و قطع کردن تماس با یک تماسگیرنده ناشناس منطقی به نظر میرسد، اما برای قطع کردن تماس شخصی که دقیقاً شبیه فرزند یا شریک زندگی شما است، چه رویکردی دارید؟
چگونه از کلاهبرداریهای هوش مصنوعی جلوگیری کنیم
نرمافزاری وجود دارد که میتواند برای شناسایی دیپفیکها استفاده شود و نمایشی بصری از صدا به نام طیف گرام ایجاد کند. وقتی به تماس گوش میدهید، تشخیص آن از شخص واقعی غیرممکن به نظر میرسد، اما زمانی که طیفنگارها در کنار هم تحلیل میشوند، صداها قابل تشخیص هستند. در این زمینه یک گروه، نرمافزار تشخیص را برای دانلود ارائه کردهاند، اما اکثر مردم قادر به استفاده از این طیفنگار نیستند و در واقع اگرچه چنین راهحلهایی مفید است اما هنوز برای استفاده عموم و به رسمیت شناختن چنین نرم افزارهایی به زمان و دانش فنی بسیاری نیاز دارد.
اما مراحل زیر ممکن است به شما در شناسایی و جلوگیری از کلاهبرداریهای صوتی با هوش مصنوعی کمک کند:
حسابهای رسانههای اجتماعی را روی حالت خصوصی تنظیم کنید و با گذرواژهها یا عبارتهای عبور قوی و منحصربهفرد، دسترسی به ضبطهای صدای خود را محدود کنید.
یک کلمه رمز ایجاد کنید تا در صورت نیاز به کمک، توسط اعضای خانواده، دوستان و همکاران تجاری مورد استفاده قرار گیرد.
از تماس گیرنده سؤالاتی بپرسید که تنها شخصیتهای حقیقی دوروبرتان پاسخ آن را بدانند.
اگر تماس مشکوکی بود، تماس را قطع کنید و سپس با طرف مورد ادعا با شماره معمولی خود تماس بگیرید.
عموما کلاهبرداران در چنین مواقعی در تماس با شما ایجاد احساس فوریت میکنند و از شما درخواستهای سریع دارند.
با همه این پیشرفتها یادتان باشد که چنین صداهایی کامل نیست و بنابراین به مکثهای غیرطبیعی، گفتار با صدای رباتیک یا تلفظ عجیب گوش دهید و به آن دقت کنید.
زمانی که تماسگیرنده درخواستهایی را ارائه میدهد که عرفاً شخصی از یک سازمان قانونی انجام نمیدهد، به آن شک کنید.
و در نهایت مانند هر شکل دیگری از رسانه که ممکن است با آن برخورد کنید: بدبین باشید و اگر از طرف یکی از عزیزانتان تماسی دریافت کردید و آنها از شما پول خواستند یا درخواستهایی غیرمعمول کردند، با آنها تماس بگیرید یا پیامکی بفرستید تا تأیید کنند که واقعاً با آنها صحبت میکنید.
به گزارش وب گاه تبیان، با گسترش قابلیتهای هوش مصنوعی، خطوط بین واقعیت و تخیل به طور فزایندهای محو شده و این بدان معنی است که مردم باید محتاطتر شوند. در آخر نیز اگر خدایی نکرده مورد هدف کلاهبرداری شبیهسازی صوتی هوش مصنوعی قرار گرفتید، آن را به پلیس گزارش دهید.