Jangan Sampai Bocor! Tips Aman Pakai AI di Tempat Kerja
- Rita Puspita Sari
- •
- 22 Jun 2025 06.11 WIB

ilustrasi kehilangan data
Kecerdasan buatan generatif (Generative AI/GenAI) menjadi salah satu teknologi yang paling cepat diadopsi dalam sejarah. Sejak kemunculan alat seperti ChatGPT, DALL·E, dan Copilot pada akhir 2022, berbagai sektor industri menyambutnya dengan antusias. Namun, bersamaan dengan potensi produktivitas yang besar, GenAI juga membawa risiko besar terhadap keamanan data organisasi. Lalu bagaimana cara cerdas untuk memanfaatkan GenAI tanpa membahayakan informasi sensitif perusahaan?
Berikut adalah tips dan trik praktis agar organisasi dapat memberdayakan pengguna, meningkatkan efisiensi kerja, dan sekaligus melindungi data penting dari ancaman bocor ke sistem AI publik.
-
Kenali Fakta: GenAI Tidak Datang Lewat Jalur Resmi
Seperti halnya penyimpanan cloud dan platform kolaborasi yang dulu juga masuk ke perusahaan lewat tangan pengguna (bukan melalui persetujuan resmi), begitu juga dengan GenAI. Alat ini muncul bukan karena dipasang oleh tim TI, melainkan karena karyawan yang ingin menyelesaikan pekerjaan lebih cepat dan efisien.Trik:
Alih-alih langsung memblokir, perusahaan sebaiknya:- Mengedukasi karyawan tentang risiko penggunaan AI tanpa pengawasan.
- Menyediakan panduan tentang alat AI yang diperbolehkan dan bagaimana cara menggunakannya dengan aman.
-
Jangan Andalkan Pemblokiran Saja: Itu Bukan Solusi Jangka Panjang
Banyak organisasi secara spontan memblokir akses ke ChatGPT, Copilot, dan sejenisnya. Namun, kenyataannya, pengguna cerdas akan mencari cara lain yaitu: menggunakan HP pribadi, kirim file ke email sendiri, bahkan screenshot lalu upload ke AI.
Hasilnya adalah fenomena Shadow AI: penggunaan AI yang tidak terlihat oleh perusahaan dan karenanya sangat berisiko.Tips:
- Pahami bahwa pemblokiran menciptakan ilusi keamanan.
- Bangun visibilitas terhadap aktivitas AI pengguna alih-alih hanya menutup akses.
-
Gunakan Prinsip Zero Trust untuk Mengelola Risiko
Zero Trust bukan sekadar jargon keamanan, tapi pendekatan penting dalam era GenAI. Intinya: jangan percaya siapa pun atau aplikasi apa pun secara default—selalu verifikasi konteks, lokasi, jenis data, dan tindakan yang dilakukan.Trik Implementasi:
- Gunakan kebijakan berbasis konteks: Misalnya, izinkan akses ke ChatGPT hanya saat perangkat berada dalam jaringan perusahaan dan data yang diketik bukan jenis data rahasia.
- Terapkan mode isolasi browser untuk penggunaan AI publik, agar pengguna tidak bisa menyalin-tempel data sensitif.
-
Kembangkan Kebijakan “Akses Terbatas Tapi Aman”
Tidak semua penggunaan AI itu buruk atau berbahaya. Bahkan, banyak pekerjaan bisa selesai lebih cepat dengan bantuan AI—seperti membuat ringkasan laporan, menulis email bisnis, atau brainstorming ide pemasaran.Tips Praktis:
- Sediakan daftar aplikasi AI resmi dan disetujui perusahaan.
- Buat akses satu pintu (single sign-on) ke aplikasi tersebut agar penggunaan mudah diawasi.
- Sediakan opsi AI internal untuk tugas sensitif, misalnya chatbot internal untuk pengolahan data perusahaan.
-
Berikan Alternatif: Jangan Biarkan Pengguna Berimprovisasi
Pengguna mencari solusi. Jika tidak disediakan, mereka akan menciptakan jalan pintas. Sayangnya, banyak dari jalan pintas itu berisiko—misalnya mengunggah data pelanggan ke AI publik untuk dibuatkan laporan otomatis.Trik Aman:
- Bangun platform AI on-premises atau hybrid dengan batasan ketat.
- Sediakan pelatihan etika penggunaan AI kepada karyawan.
- Tawarkan alat AI resmi dengan performa yang sebanding (atau lebih baik!) dari alat publik.
-
Bangun Visibilitas Sebelum Menyusun Kebijakan
Apa gunanya membuat aturan jika tidak tahu siapa yang melanggarnya? Banyak perusahaan merasa sudah aman karena telah memblokir ChatGPT, padahal lalu lintas AI tetap terjadi di balik layar. Tanpa visibilitas, organisasi akan buta arah.Tips:
- Gunakan solusi keamanan siber yang mampu mendeteksi lalu lintas AI dan ML secara real-time.
- Analisis perilaku pengguna: siapa yang mengakses, aplikasi apa yang digunakan, dan data apa yang dibagikan?
- Gunakan log dan laporan tersebut untuk menyusun kebijakan berbasis fakta, bukan asumsi.
-
Pahami Risiko Nyata dari Kebocoran ke Model AI
Berbeda dengan SaaS, data yang masuk ke GenAI publik bisa menjadi bagian dari pelatihan model, terutama pada model open. Ini berarti data sensitif perusahaan bisa berkontribusi pada kecerdasan AI publik di luar kontrol kita dan tidak bisa dihapus lagi.Trik Pencegahan:
- Terapkan sistem Data Loss Prevention (DLP) yang mendeteksi upaya mengunggah data rahasia.
- Blokir otomatis pengiriman informasi seperti:
- Nomor rekening
- Data karyawan
- Kode sumber internal
- Informasi medis dan keuangan pelanggan
-
Sediakan Fitur Keamanan Tanpa Menghambat Produktivitas
Keamanan tidak harus berarti pelarangan. Dengan desain sistem yang baik, organisasi bisa tetap aman tanpa memperlambat karyawan. Kuncinya adalah menemukan keseimbangan antara kontrol dan kelancaran kerja.Tips:
- Izinkan penggunaan ChatGPT, tetapi hanya pada akun tertentu, atau dengan monitoring aktif.
- Gunakan fitur pengawasan sesi AI agar administrator tahu konteks dan isi interaksi AI.
- Tawarkan sandbox AI untuk eksperimen yang aman dan terkendali.
-
Perkuat Edukasi Digital untuk Semua Level Karyawan
Kesadaran keamanan bukan hanya urusan tim IT. Semua orang, dari bagian pemasaran hingga manajemen, harus tahu cara aman menggunakan AI. Pendidikan adalah benteng pertama dari segala kebocoran data.Trik Edukasi:
- Buat pelatihan ringan dan rutin seputar penggunaan AI yang aman.
- Sertakan simulasi “do & don’t” dalam penggunaan AI publik.
- Terapkan skema reward bagi tim atau individu yang melaporkan praktik tidak aman.
-
Gunakan Solusi DLP Otomatis Berbasis Cloud
Sistem seperti yang dikembangkan oleh Zscaler terbukti ampuh tercatat lebih dari 4 juta pelanggaran kebijakan DLP yang berhasil dicegah. Artinya, data rahasia seperti kode internal, data pasien, dan informasi finansial nyaris bocor jika tidak dicegat oleh sistem otomatis.Rekomendasi:
- Pilih platform keamanan cloud yang bisa:
- Mendeteksi data sensitif secara otomatis.
- Menghentikan unggahan ke AI publik.
- Memberikan laporan yang bisa dianalisis untuk perbaikan kebijakan ke depan.
- Pilih platform keamanan cloud yang bisa:
Keamanan dan Inovasi Bisa Jalan Bersama
Era GenAI bukan lagi masa depan—ini adalah kenyataan sekarang. Melarang pengguna bukan solusi. Mengabaikan risiko pun bukan pilihan. Kunci suksesnya adalah menyeimbangkan antara pemberdayaan dan perlindungan.
Dengan menerapkan prinsip-prinsip berikut:
- Visibilitas lalu lintas AI
- Kebijakan berbasis konteks
- Edukasi keamanan menyeluruh
- Alternatif AI resmi yang kuat
- Pencegahan kehilangan data otomatis
Organisasi dapat mendorong adopsi AI yang cerdas dan bertanggung jawab, sekaligus melindungi aset digital perusahaan.
5 Langkah Cepat Menangani Shadow AI
- Audit AI Usage: Gunakan alat analitik untuk melacak aplikasi AI yang diakses pengguna.
- Identifikasi Risiko: Kategorikan data yang berisiko tinggi untuk dimasukkan ke AI publik.
- Sediakan Alternatif Aman: Misalnya, chatbot AI internal atau API yang dikendalikan.
- Komunikasikan Panduan Jelas: Kirim memo rutin tentang aturan dan batasan AI.
- Tingkatkan DLP: Terapkan sistem otomatis untuk mendeteksi kebocoran sebelum terjadi.
Dengan strategi yang tepat, Anda tidak hanya bisa menghindari risiko besar akibat AI, tetapi juga bisa mengubah teknologi ini menjadi pendorong utama produktivitas bisnis Anda. Jangan takut pada GenAI, kelola dan manfaatkan dengan cerdas.