OpenAI akan Tandai Esai buatan Siswa yang ‘Nyontek’ dari ChatGPT
thedesignweb.co.id, Jakarta – OpenAI menjadi sorotan setelah diumumkan memiliki teknologi canggih untuk mengidentifikasi esai yang ditulis siswa menggunakan ChatGPT. Namun, pihak perusahaan masih ragu untuk merilis alat ini ke publik.
Menurut The Wall Street Journal, alat pendeteksi yang seharusnya siap digunakan ini diwarnai perdebatan internal.
Dalam pembaruan blognya, Openai mengumumkan bahwa ChatGPT akan mendeteksi tanda air teks, atau watermark, sebagai solusi deteksi konten Displing AI.
Cara ini, menurut perusahaan, sangat tepat dalam beberapa kasus. Namun, ini tidak efektif jika menyangkut manipulasi seperti penerjemahan, parafrase, atau mengubah format teks.
Menurut Engadget, dikutip Selasa (8/6/2024), OpenAI juga menyatakan keprihatinannya atas kemungkinan dampak negatif watermarking, khususnya bagi pengguna yang tidak berbahasa Inggris yang mungkin akan didiskriminasi jika penggunaan watermark tersebut ditandai oleh AI.
Karena perbedaan pendapat tersebut, OpenAI mengaku masih mempertimbangkan langkah terbaik dan masih fokus pada pengembangan alat autentikasi konten audiovisual.
OpenAI mencatat dalam pernyataannya bahwa mereka berhati-hati dalam mempertanyakan asal usul teks tersebut karena kompleksitasnya dan potensi dampak luas pada ekosistem AI.
Di sisi lain, OPCAI telah terkena dua ancaman siber yang sangat menakutkan dan menjadi perbincangan hangat The Sun.
Kasus pertama adalah pada aplikasi ChatGPT untuk Mac. Kedua, terdapat kekhawatiran yang lebih luas mengenai cara perusahaan mengelola keamanan siber.
Insinyur dan pengembang Swift Pedro José Pereira Vietto menyelidiki aplikasi ChatGPT untuk Mac dan menemukan bahwa aplikasi tersebut menyimpan percakapan pengguna secara lokal dalam teks biasa alih-alih mengenkripsinya. Hal ini tentu akan membahayakan data pengguna ChatGPT.
Aplikasi ini hanya tersedia di situs web OpenAI, dan karena tidak ada di App Store, aplikasi ini tidak harus memenuhi persyaratan kotak pasir Apple.
Vieito kemudian diliput oleh The Verge, dan setelah eksploitasi tersebut mendapat perhatian, OpenAI merilis pembaruan yang menambahkan enkripsi ke obrolan yang disimpan secara lokal.
Xataka, Jumat (07/05/2024) Sandboxing merupakan praktik keamanan untuk mencegah kemungkinan penyebaran kerentanan dari satu aplikasi ke aplikasi lainnya.
Menyimpan file lokal sebagai teks biasa berarti aplikasi atau malware lain (yang dibuat oleh peretas) dapat dengan mudah melihat data sensitif.
Masalah kedua terjadi pada tahun 2023 dan dampaknya masih berlanjut hingga saat ini.
Musim semi lalu, seorang peretas secara ilegal membobol sistem pesan internal perusahaan dan memperoleh informasi tentang OpenAI.
The New York Times melaporkan bahwa Leopold Aschenbrenner, direktur program teknis OpenAI, menyampaikan kekhawatiran keamanan kepada dewan direksi perusahaan.
Dia mengatakan peretasan tersebut mewakili kerentanan internal yang dapat dieksploitasi oleh pihak asing.
Aschenbrenner dipecat karena membocorkan informasi tentang OpenAI dan meningkatkan kekhawatiran tentang keamanan perusahaan.
“Kami berkomitmen untuk membangun intelijen umum yang aman (AGI) dan kami tidak setuju dengan banyak keluhan mengenai pekerjaan kami,” kata Legisladores kepada Life.
Ia menambahkan, kepergian Aschenbrenner bukan karena pengumuman tersebut.
Kerentanan aplikasi adalah sesuatu yang dialami setiap perusahaan teknologi. Pembajakan juga sangat umum terjadi, dengan hubungan yang kontroversial antara pelapor dan mantan atasan mereka.
Namun mengingat luasnya penetrasi ChatGPT ke dalam layanan populer dan betapa membingungkannya pengawasan, rekam jejak, dan reputasi publik perusahaan, permasalahan ini menimbulkan pertanyaan meresahkan tentang apakah OpenAI dapat mengelola datanya dengan baik.