Ngeri! ChatGPT Makin Canggih, Bisa Dipakai Buat Doxing
OpenAI baru saja merilis model terbaru ChatGPT, yaitu o3 dan o4-mini. Tapi yang bikin heboh, bukan cuma kemampuannya yang makin pintar, melainkan juga keahliannya yang mendadak jago melacak lokasi dari sebuah gambar. Ini mirip seperti permainan tebak lokasi yang biasa dimainkan online.

Kemampuan ini langsung viral di media sosial. Banyak pengguna yang mencoba menguji ChatGPT dengan mengunggah foto dan menantangnya menebak lokasi. Hasilnya cukup mencengangkan. ChatGPT bisa menebak dengan sangat akurat, hanya dari petunjuk-petunjuk visual yang terlihat di gambar. Ini menunjukkan peningkatan besar dalam kemampuan “visual reasoning” alias penalaran visual dari model-model baru tersebut.
Selain bisa melacak lokasi, ChatGPT kini juga mampu melakukan berbagai tugas visual ringan, seperti memotong gambar, memutar, hingga memperbesar. Banyak pengguna kreatif yang memanfaatkan ini untuk bersenang-senang, seolah-olah ChatGPT sedang bermain jadi pelacak lokasi profesional.
ChatGPT Makin Canggih, Kekhawatiran Soal Privasi Meningkat
Salah satu contoh viral datang dari Brendan Jowett, seorang penggiat AI di media sosial. Ia menunjukkan bagaimana ChatGPT bisa dengan cepat mengidentifikasi tempat hanya dari satu gambar. Tapi di balik kekaguman itu, muncul juga kekhawatiran soal privasi.
Kemampuan melacak lokasi ini bisa membuka celah untuk aksi doxing—yaitu membocorkan lokasi atau informasi pribadi seseorang secara publik di internet. Ini bisa sangat berbahaya jika digunakan dengan niat jahat.
Baca Juga: Google Dorong Mahasiswa Pakai AI, Gratiskan Layanan One AI Premium Setahun • Jagat Review
Menurut laporan TechCrunch, sebenarnya kemampuan ini bukan hal baru bagi ChatGPT. Tapi dengan hadirnya model baru dan tren di media sosial, kesadaran publik terhadap fitur ini jadi meningkat. Model o3 disebut-sebut paling andal dalam urusan pelacakan lokasi dari gambar, meskipun GPT-4o yang tak punya kemampuan visual pun kadang bisa memberikan jawaban yang tepat.
Menanggapi tren ini, OpenAI mengatakan bahwa mereka terus berupaya menyempurnakan fitur penalaran visual, tapi di saat yang sama juga melatih model untuk menolak permintaan yang melanggar privasi atau menyangkut informasi sensitif. Mereka juga akan mengambil tindakan jika menemukan penyalahgunaan.
Jadi, meski ChatGPT kini makin canggih, pengguna tetap perlu bijak. Seru sih, tapi jangan sampai kebablasan.