محققان در جدیدترین بررسی خود دریافته‌اند می‌توان از API صدای پیشرفته ChatGPT-4o برای کلاهبرداری‌ مالی استفاده کرد. نرخ موفقیت این کلاهبرداری‌ها کم تا متوسط ارزیابی شده است.

ChatGPT-4o آخرین مدل هوش مصنوعی OpenAI است که پیشرفت‌های جدیدی مانند یکپارچه‌سازی ورودی‌ها و خروجی‌های متن، صدا و دید را عرضه می‌کند. باتوجه‌به اهمیت این قابلیت‌ها و امکان سوءاستفاده از آنها، OpenAI حفاظت‌های مختلفی برای شناسایی و مسدودکردن محتوای مضر، مانند تکرار صداهای غیرمجاز، پیاده‌سازی کرده است اما کلاهبرداران توانسته‌اند از این سرویس سوءاستفاده کنند.

هوش مصنوعی ChatGPT-4o توانایی بالایی در تقلید گفتار دارد

فریب ChatGPT

هم‌زمان با رشد خیره‌کننده هوش مصنوعی، استفاده از این فناوری برای کلاهبرداری نیز افزایش‌ یافته است. فناوری دیپ‌فیک و ابزارهای تبدیل متن به گفتار مبتنی‌بر هوش مصنوعی نیز به بحرانی‌تر شدن این وضعیت دامن زده‌اند.

نتایج تحقیق «ریچارد فانگ»، «دیلن بومن» و «دانیل کانگ»، محققان دانشگاه ایلینوی اربانا-شمپین (UIUC)، نشان داد ابزارهای فناوری جدیدی که هم‌اکنون بدون محدودیت در دسترس همه‌اند، تدابیر کافی برای محافظت در برابر سوءاستفاده احتمالی مجرمان سایبری و کلاهبرداران را ندارند. از این ابزارها می‌توان برای طراحی و اجرای عملیات کلاهبرداری در مقیاس بزرگ بدون دخالت انسان استفاده کرد.

در این تحقیق کلاهبرداری‌های مختلفی مانند نقل‌وانتقالات بانکی، استخراج کارت هدیه، انتقال ارز دیجیتال و سرقت اطلاعات حساب‌های کاربری شبکه‌های اجتماعی یا جیمیل بررسی شده است. ایجنت‌های هوش مصنوعی که چنین کلاهبرداری‌هایی می‌کنند از ابزارهای خودکار ChatGPT-4o برای پیمایش صفحات و ورود داده همچنین مدیریت کدهای احراز هویت دومرحله‌ای و دستورالعمل‌های خاص مرتبط با کلاهبرداری استفاده می‌کنند.

ازآنجایی‌که GPT-4o گاهی از سروکله‌زدن با داده‌های حساس مانند رمزعبور خودداری می‌کند، محققان از تکنیک‌های ساده جیلبریک برای دورزدن این حفاظت‌ها استفاده کردند. آنها در این تحقیق نشان دادند چگونه از طریق تعامل با ایجنت‌های هوش مصنوعی می‌توان نقش قربانی ساده‌لوح را بازی کرد و از وب‌سایت‌های واقعی مانند Bank of America برای تأیید تراکنش‌های موفق استفاده کرد. به‌طورکلی، نرخ موفقیت این تلاش‌ها از ۲۰ تا ۶۰ درصد متغیر بوده است.

اشتراک‌ها:
دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *