POSKOTA.CO.ID - Perusahaan teknologi AI OpenAI dilaporkan tengah menyiapkan fitur baru di ChatGPT yang memungkinkan pengguna menunjuk satu kontak terpercaya untuk menerima notifikasi ketika sistem mendeteksi potensi risiko keselamatan serius dalam percakapan.
Informasi mengenai pengembangan fitur tersebut mulai beredar pada Mei 2026 dan langsung memicu perhatian publik, terutama karena menyangkut isu keamanan digital, kesehatan mental, hingga privasi pengguna AI. Langkah ini dinilai menjadi bagian dari upaya perusahaan memperkuat perlindungan pengguna di tengah semakin luasnya penggunaan chatbot berbasis kecerdasan buatan dalam kehidupan sehari-hari.
Berdasarkan laporan yang beredar, pengguna nantinya dapat memilih satu orang terpercaya yang akan dihubungi apabila sistem mendeteksi indikasi kondisi darurat atau percakapan yang mengarah pada risiko keselamatan tertentu. Sistem tersebut disebut bekerja melalui persetujuan pengguna atau berbasis consent, sehingga tidak aktif secara otomatis tanpa izin.
Pendekatan ini diperkirakan dirancang sebagai lapisan perlindungan tambahan dan bukan pengganti layanan darurat profesional. Dengan kata lain, fitur tersebut lebih difokuskan untuk membantu pengguna mendapatkan perhatian dari orang terdekat ketika sistem AI membaca pola percakapan yang dianggap mengkhawatirkan.
Baca Juga: Utang Pemerintah Hampir Rp10 Ribu Triliun, Menkeu Purbaya Sebut Posisi Indonesia Masih Aman
AI Generatif Mulai Hadapi Tantangan Keselamatan Digital
Perkembangan AI generatif dalam beberapa tahun terakhir memang membawa perubahan besar dalam pola interaksi digital. Chatbot AI kini tidak hanya dipakai untuk mencari informasi atau membantu pekerjaan, tetapi juga menjadi teman diskusi personal hingga tempat pengguna mencurahkan masalah emosional.
Situasi itu membuat perusahaan pengembang AI mendapat tekanan lebih besar untuk memastikan teknologi mereka tidak memperburuk kondisi pengguna yang sedang mengalami krisis psikologis atau tekanan mental.
“Perusahaan AI kini tidak hanya dituntut menghadirkan teknologi canggih, tetapi juga memastikan sistem mereka aman dan bertanggung jawab,” demikian gambaran yang berkembang di industri teknologi global terkait tren keamanan AI saat ini.
Teknologi deteksi risiko sebenarnya bukan hal baru di dunia digital. Sejumlah platform media sosial sebelumnya sudah menggunakan sistem serupa untuk mendeteksi indikasi self-harm, ancaman kekerasan, atau percakapan yang berhubungan dengan kondisi krisis emosional.
Namun, penerapan pada chatbot AI dinilai memiliki tantangan berbeda karena interaksi pengguna dengan AI cenderung lebih personal dan berlangsung dalam format percakapan panjang.
Baca Juga: Blok M Disorot Usai Dugaan Prostitusi Anak Viral, Netizen Minta Polisi Turun Tangan
OpenAI Dinilai Bergerak ke Sistem Mitigasi Risiko yang Lebih Proaktif
Selama ini, OpenAI telah menerapkan berbagai sistem keamanan di ChatGPT, termasuk pembatasan jawaban pada topik sensitif dan penyaringan konten berisiko tinggi. Kehadiran fitur kontak terpercaya menunjukkan arah baru perusahaan yang mulai bergerak dari sekadar moderasi konten menuju sistem mitigasi risiko yang lebih aktif.
Meski begitu, detail teknis mengenai cara kerja sistem tersebut masih belum diumumkan secara resmi. Belum diketahui pula bagaimana AI menentukan kondisi yang dianggap darurat atau seperti apa bentuk notifikasi yang nantinya dikirim kepada kontak terpercaya pengguna.
Di sisi lain, fitur ini juga memunculkan diskusi baru terkait perlindungan data pribadi. Banyak pihak menilai sistem seperti ini harus memiliki transparansi dan kontrol izin yang jelas agar pengguna tetap memiliki kendali penuh terhadap data percakapan mereka.
Regulator di berbagai negara saat ini memang mulai mendorong perusahaan AI menerapkan standar keselamatan digital yang lebih ketat. Fokus pengawasan mencakup transparansi sistem AI, perlindungan privasi, hingga mekanisme penanganan situasi darurat bagi pengguna rentan.
Hingga kini, OpenAI belum mengumumkan jadwal resmi peluncuran global fitur tersebut maupun wilayah yang akan mendapat akses pertama. Namun pengembangan fitur keamanan tambahan dinilai menjadi sinyal bahwa persaingan industri AI kini tidak hanya soal kecanggihan model bahasa, tetapi juga kemampuan perusahaan membangun teknologi yang aman dan bertanggung jawab.
