THE DESIGN WEB

Seputar berita tentang liputan nusantara

Teknologi

Gawat, ChatGPT bisa Digunakan Hacker untuk Penipuan Bank Berbasis Suara

thedesignweb.co.id, Jakarta – Penelitian tentang penyalahgunaan antarmuka pemrograman aplikasi suara (API) real-time OpenAI untuk ChatGPT-4o (chatbot LLM tingkat lanjut) untuk penipuan finansial (misalnya pencurian bank) menunjukkan bahwa hal itu mungkin saja terjadi. rata-rata

ChatGPT-4o adalah model kecerdasan buatan terbaru OpenAI yang menghadirkan peningkatan baru seperti input dan output teks, audio, dan gambar.

Berkat fitur-fitur baru ini, OpenAI mengintegrasikan berbagai alat perlindungan untuk mendeteksi dan memblokir konten berbahaya seperti pemutaran audio yang tidak sah.

Bleeping Computer, Dikutip Senin (4/11/2024), Penipuan berbasis suara telah menjadi masalah jutaan dolar. Munculnya teknologi deepfake dan alat text-to-speech yang didukung AI dapat memperburuk keadaan.

Seperti yang dikemukakan oleh peneliti UIUC Richard Fang, Dylan Bowman, dan Daniel Kang dalam makalah mereka, alat teknologi baru yang saat ini tersedia tanpa batasan tidak memiliki perlindungan yang memadai untuk melindungi dari potensi penyalahgunaan oleh penjahat dunia maya (peretas) dan penipu.

Alat-alat ini dapat digunakan untuk merancang dan melaksanakan operasi penipuan skala besar tanpa upaya manusia dengan menerapkan biaya token untuk menghasilkan suara.

Artikel peneliti mengeksplorasi berbagai penipuan seperti transfer bank, pencurian kartu hadiah, transfer kripto, dan pencurian identitas untuk media sosial atau akun Gmail.

Agen AI penipu menggunakan alat otomatisasi Voice ChatGPT-4o untuk menavigasi halaman, memasukkan data dan kode autentikasi dua faktor, serta mengelola peringatan khusus penipuan.

Karena GPT-4o terkadang menolak memproses informasi sensitif seperti kredensial, para peneliti menggunakan teknik jailbreaking cepat dan sederhana untuk melewati perlindungan ini.

Alih-alih menggunakan orang sungguhan, para peneliti mendemonstrasikan cara berinteraksi secara manual dengan agen AI, menyimulasikan peran korban tepercaya, menggunakan situs web seperti Bank of America untuk mengonfirmasi transaksi yang berhasil.

“Kami mengerahkan agen ke sekelompok kecil penipu umum. Kami melakukan simulasi penipuan dengan berinteraksi secara manual dengan agen suara, memainkan peran sebagai korban yang tidak menaruh curiga,” jelas Kang dalam postingan blog tentang penelitian tersebut.

“Untuk menentukan keberhasilan, kami secara manual mengonfirmasi bahwa tujuan akhir telah tercapai di aplikasi/situs web yang berlaku. Misalnya, kami menggunakan Bank of America untuk penipuan kawat dan memverifikasi bahwa uang benar-benar ditransfer. Namun, kami yakin bahwa kemampuan untuk meyakinkan agen untuk memberi, “jelasnya.

 

Secara umum, tingkat keberhasilan bervariasi antara 20-60%, setiap upaya memerlukan 26 tindakan browser dan membutuhkan waktu 3 menit dalam skenario yang paling kompleks.

Untuk transfer bank dan peniruan identitas agen IRS, sebagian besar kegagalan disebabkan oleh kesalahan transkripsi atau persyaratan navigasi situs yang rumit.

Namun, pencurian kredensial Gmail berhasil mencapai 60%, sedangkan transfer kripto dan pencurian kredensial Instagram hanya berhasil 40%.

Mengenai biaya, peneliti mencatat bahwa penipuan ini relatif murah untuk dilakukan, dengan setiap operasi yang berhasil menghabiskan biaya rata-rata $0,75.

Penipuan transfer bank lebih canggih dan biayanya $2,51. Meski sangat tinggi, namun masih sangat kecil dibandingkan potensi keuntungan yang bisa diperoleh dari penipuan.

 

 

OpenAI menjelaskan bahwa model pemikiran canggih terbarunya, o1 (saat ini dalam pratinjau), dibuat dengan perlindungan penyalahgunaan yang lebih baik.

 

“Kami terus meningkatkan ChatGPT untuk mencegah upaya penipuan yang disengaja tanpa kehilangan kegunaan dan kreativitasnya. Model pemikiran o1 terbaru kami adalah yang paling mumpuni dan aman, yang memandu untuk melawan upaya yang disengaja untuk membuat konten penipuan dengan aman. Jauh lebih unggul dari model tersebut.” . Seorang perwakilan OpenAI mengklaim

OpenAI juga mencatat bahwa dokumentasi yang sama yang disediakan oleh UIUC akan membantu ChatGPT menghentikan penggunaan berbahaya, dan terus mempelajari cara meningkatkan ketahanannya.

Khususnya, GPT-4o mencakup beberapa langkah untuk mencegah penyalahgunaan, termasuk membatasi keluaran suara ke kumpulan suara yang telah disetujui sebelumnya untuk mencegah peniruan.

Pratinjau O1 mendapat skor jauh lebih tinggi dalam penilaian keamanan jailbreak OpenAI, yang mengukur seberapa tahan suatu model terhadap pembuatan konten berbahaya sebagai respons terhadap perintah musuh, dengan skor 84% dan 22% untuk GPT-4o.

Saat diuji menggunakan serangkaian evaluasi keamanan baru yang lebih menantang, skor pratinjau o1 lebih dari 93% dibandingkan 71% untuk GPT-4o.

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *