یکی از جدیدترین راه‌های سوء استفاده از افراد، تماس‌های کلاهبرداری با استفاده از هوش مصنوعی و تقلید صدا است.

از کجا بفهمیم با هوش‌مصنوعی کلاهبرداری صوتی شده است؟

به گزارش آگاه: این روزها استفاده از هوش مصنوعی در بین مشاغل و افراد افزایش یافته و محبوبیت بسیاری پیدا کرده است. بسیاری از کاربران با استفاده از این برنامه‌ها راه‌هایی برای ساده سازی عملیات تجاری و سرگرمی‌های شخصی پیدا کرده‌اند. با این حال، مجرمان نیز بیکار ننشسته‌اند و ابزارهایی را برای تسلیح این فناوری توسعه داده‌اند.

فناوری ایجاد یک دیپ‌فیک صوتی، (یعنی یک کپی واقعی از صدای یک فرد) به طور فزاینده‌ای رایج شده است. برای ایجاد یک کپی واقعی از صدای یک نفر، به داده‌هایی برای آموزش الگوریتم نیاز دارید. این به معنای داشتن تعداد زیادی ضبط صوتی از صدای هدف مورد نظر شما است. هر چه تعداد نمونه‌های بیشتری از صدای شخص را بتوانید به الگوریتم‌ها وارد کنید، کپی نهایی بهتر و قانع‌کننده‌تر خواهد بود و از آنجایی که بسیاری از ما در حال حاضر جزئیات زندگی روزمره خود را در اینترنت به اشتراک می‌گذاریم. این بدان معناست که داده‌های صوتی مورد نیاز برای ایجاد یک کپی واقعی از یک صدا می‌تواند به راحتی در رسانه‌های اجتماعی در دسترس باشد.

کلاهبرداری صوتی با هوش مصنوعی چیست؟

به طور معمول، کلاهبرداری‌های صوتی با هوش مصنوعی حول محور یک مجرم می‌چرخد که با استفاده از برنامه‌های نرم‌افزاری با جعل صدای شخصی افراد، قصد سرقت پول یا اطلاعات شخصی را دارند. مجرمان این صداهای جعلی را با به دست آوردن نمونه‌ای از صدای یک نفر، مانند ویدئوهای موجود در رسانه‌های اجتماعی یا سایر وب‌سایت‌ها و آپلود آن در یک برنامه هوش مصنوعی ایجاد می‌کنند.

هنگامی که کلاهبرداران، صدای جعلی را ایجاد کردند، ممکن است سعی کنند با اعضای خانواده قربانی یا سایر طرف‌هایی که برای سلامتی فرد مذکور ارزش قائل هستند تماس بگیرند. رفتار مجرمان به‌گونه‌ای است که هدف‌ها را فریب دهند تا فکر کنند کسی که برایشان مهم است در موقعیتی فوری یا خطرناک است و به‌سرعت به پول نیاز دارد. مثلاً تصور کنید که صدای آن طرف تلفن فقط یک غریبه نیست، بلکه دقیقاً شبیه یک دوست یا خانواده شماست. از طرف دیگر، کلاهبرداران ممکن است سعی کنند با شخصی تماس بگیرند و وانمود کنند فردی مانند یک نماینده بانکی هستند و می‌توانند اعتماد طرف را جلب کرده و اطلاعات حساس را به دست بیاورند.

ترفند قدیمی با استفاده از فناوری جدید

در گزارشی که اخیراً توسط CNN منتشر شده نشان می‌دهد که با یک مادر از یک شماره ناشناس تماس گرفته شده و وقتی تلفن را جواب می‌دهد، دخترش است و ظاهراً دختر ربوده شده و با مادرش تماس گرفته تا برای دزدان درخواست باج کند.

اما در واقع دختر سالم و سلامت بود و کلاهبرداران صدای او را دیپ فیک کرده بودند.

اصطلاح " آدم‌ربایی مجازی" چندین سال است که وجود دارد. این می‌تواند اشکال مختلفی داشته باشد، اما یک رویکرد رایج این است که قربانیان را فریب دهند و باج بگیرند تا عزیزی را که فکر می‌کنند در معرض تهدید هستند، آزاد کنند.

کلاهبردار سعی می‌کند تا قبل از اینکه فریب کشف شود یا پای پلیس به میان بیاید، قربانی را مجبور به پرداخت یک باج سریع کند. شاید بگویید ما گول چنین رفتاری را نمی‌خوریم و تماس را قطع می‌کنیم؛ این درست است و قطع کردن تماس با یک تماس‌گیرنده ناشناس منطقی به نظر می‌رسد، اما برای قطع کردن تماس شخصی که دقیقاً شبیه فرزند یا شریک زندگی شما است، چه رویکردی دارید؟

چگونه از کلاهبرداری‌های هوش مصنوعی جلوگیری کنیم

نرم‌افزاری وجود دارد که می‌تواند برای شناسایی دیپ‌فیک‌ها استفاده شود و نمایشی بصری از صدا به نام طیف گرام ایجاد کند. وقتی به تماس گوش می‌دهید، تشخیص آن از شخص واقعی غیرممکن به نظر می‌رسد، اما زمانی که طیف‌نگارها در کنار هم تحلیل می‌شوند، صداها قابل تشخیص هستند. در این زمینه یک گروه، نرم‌افزار تشخیص را برای دانلود ارائه کرده‌اند، اما اکثر مردم قادر به استفاده از این طیف‌نگار نیستند و در واقع اگرچه چنین راه‌حل‌هایی مفید است اما هنوز برای استفاده عموم و به رسمیت شناختن چنین نرم افزارهایی به زمان و دانش فنی بسیاری نیاز دارد.

اما مراحل زیر ممکن است به شما در شناسایی و جلوگیری از کلاهبرداری‌های صوتی با هوش مصنوعی کمک کند:

حساب‌های رسانه‌های اجتماعی را روی حالت خصوصی تنظیم کنید و با گذرواژه‌ها یا عبارت‌های عبور قوی و منحصربه‌فرد، دسترسی به ضبط‌های صدای خود را محدود کنید.

یک کلمه رمز ایجاد کنید تا در صورت نیاز به کمک، توسط اعضای خانواده، دوستان و همکاران تجاری مورد استفاده قرار گیرد.

از تماس گیرنده سؤالاتی بپرسید که تنها شخصیت‌های حقیقی دوروبرتان پاسخ آن را بدانند.

اگر تماس مشکوکی بود، تماس را قطع کنید و سپس با طرف مورد ادعا با شماره معمولی خود تماس بگیرید.

عموما کلاهبرداران در چنین مواقعی در تماس با شما ایجاد احساس فوریت می‌کنند و از شما درخواست‌های سریع دارند.

با همه این پیشرفت‌ها یادتان باشد که چنین صداهایی کامل نیست و بنابراین به مکث‌های غیرطبیعی، گفتار با صدای رباتیک یا تلفظ عجیب گوش دهید و به آن دقت کنید.

زمانی که تماس‌گیرنده درخواست‌هایی را ارائه می‌دهد که عرفاً شخصی از یک سازمان قانونی انجام نمی‌دهد، به آن شک کنید.

و در نهایت مانند هر شکل دیگری از رسانه که ممکن است با آن برخورد کنید: بدبین باشید و اگر از طرف یکی از عزیزانتان تماسی دریافت کردید و آنها از شما پول خواستند یا درخواست‌هایی غیرمعمول کردند، با آنها تماس بگیرید یا پیامکی بفرستید تا تأیید کنند که واقعاً با آنها صحبت می‌کنید.

به گزارش وب گاه تبیان، با گسترش قابلیت‌های هوش مصنوعی، خطوط بین واقعیت و تخیل به طور فزاینده‌ای محو شده و این بدان معنی است که مردم باید محتاط‌تر شوند. در آخر نیز اگر خدایی نکرده مورد هدف کلاهبرداری شبیه‌سازی صوتی هوش مصنوعی قرار گرفتید، آن را به پلیس گزارش دهید.

منبع: ایرنا

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
  • نظرات حاوی توهین و هرگونه نسبت ناروا به اشخاص حقیقی و حقوقی منتشر نمی‌شود.
  • نظراتی که غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نمی‌شود.