محققان در جدیدترین بررسی خود دریافتهاند میتوان از API صدای پیشرفته ChatGPT-4o برای کلاهبرداری مالی استفاده کرد. نرخ موفقیت این کلاهبرداریها کم تا متوسط ارزیابی شده است.
ChatGPT-4o آخرین مدل هوش مصنوعی OpenAI است که پیشرفتهای جدیدی مانند یکپارچهسازی ورودیها و خروجیهای متن، صدا و دید را عرضه میکند. باتوجهبه اهمیت این قابلیتها و امکان سوءاستفاده از آنها، OpenAI حفاظتهای مختلفی برای شناسایی و مسدودکردن محتوای مضر، مانند تکرار صداهای غیرمجاز، پیادهسازی کرده است اما کلاهبرداران توانستهاند از این سرویس سوءاستفاده کنند.
هوش مصنوعی ChatGPT-4o توانایی بالایی در تقلید گفتار دارد
همزمان با رشد خیرهکننده هوش مصنوعی، استفاده از این فناوری برای کلاهبرداری نیز افزایش یافته است. فناوری دیپفیک و ابزارهای تبدیل متن به گفتار مبتنیبر هوش مصنوعی نیز به بحرانیتر شدن این وضعیت دامن زدهاند.
نتایج تحقیق «ریچارد فانگ»، «دیلن بومن» و «دانیل کانگ»، محققان دانشگاه ایلینوی اربانا-شمپین (UIUC)، نشان داد ابزارهای فناوری جدیدی که هماکنون بدون محدودیت در دسترس همهاند، تدابیر کافی برای محافظت در برابر سوءاستفاده احتمالی مجرمان سایبری و کلاهبرداران را ندارند. از این ابزارها میتوان برای طراحی و اجرای عملیات کلاهبرداری در مقیاس بزرگ بدون دخالت انسان استفاده کرد.
در این تحقیق کلاهبرداریهای مختلفی مانند نقلوانتقالات بانکی، استخراج کارت هدیه، انتقال ارز دیجیتال و سرقت اطلاعات حسابهای کاربری شبکههای اجتماعی یا جیمیل بررسی شده است. ایجنتهای هوش مصنوعی که چنین کلاهبرداریهایی میکنند از ابزارهای خودکار ChatGPT-4o برای پیمایش صفحات و ورود داده همچنین مدیریت کدهای احراز هویت دومرحلهای و دستورالعملهای خاص مرتبط با کلاهبرداری استفاده میکنند.
ازآنجاییکه GPT-4o گاهی از سروکلهزدن با دادههای حساس مانند رمزعبور خودداری میکند، محققان از تکنیکهای ساده جیلبریک برای دورزدن این حفاظتها استفاده کردند. آنها در این تحقیق نشان دادند چگونه از طریق تعامل با ایجنتهای هوش مصنوعی میتوان نقش قربانی سادهلوح را بازی کرد و از وبسایتهای واقعی مانند Bank of America برای تأیید تراکنشهای موفق استفاده کرد. بهطورکلی، نرخ موفقیت این تلاشها از ۲۰ تا ۶۰ درصد متغیر بوده است.