Meskipun predictive safety menawarkan manfaat signifikan, penggunaan AI dan IoT menimbulkan sejumlah isu etis yang harus dipertimbangkan dengan serius:
1. Privasi dan Pengumpulan Data Pribadi
Isu: Wearable devices mengumpulkan data kesehatan yang sangat pribadi (detak jantung, pola tidur, tingkat kelelahan, lokasi GPS). Bagaimana memastikan data ini tidak disalahgunakan? Apa yang mencegah perusahaan menggunakan data untuk mendiskriminasi pekerja yang “kurang sehat”?
Prinsip Etika: Data hanya boleh dikumpulkan untuk tujuan keselamatan kerja yang spesifik dan dengan informed consent dari pekerja. Data harus dienkripsi end-to-end dan disimpan dengan standar keamanan tertinggi. Pekerja harus diberi transparansi tentang data apa yang dikumpulkan, bagaimana digunakan, dan siapa yang memiliki akses.
Regulasi Terkait: UU No. 27 Tahun 2022 tentang Perlindungan Data Pribadi mewajibkan perusahaan untuk mendapat consent, melindungi data dengan enkripsi, dan memberikan hak kepada individu untuk mengakses, memperbaiki, atau menghapus data pribadi mereka.
2. Bias Algoritma dan Diskriminasi
Isu: Algoritma AI dilatih menggunakan data historis. Jika data historis mengandung bias (misalnya, lebih banyak data kecelakaan dari pekerja kelompok usia tertentu atau gender tertentu), algoritma dapat memperkuat bias tersebut. Contoh: Algoritma rekrutmen Amazon pernah mendiskriminasi kandidat wanita karena dilatih dengan data historis yang didominasi laki-laki.
Prinsip Etika: Data training harus representatif dan inklusif, mencakup berbagai kelompok demografi. Algoritma harus diaudit secara berkala untuk mengidentifikasi dan mengurangi bias. Melibatkan tim yang beragam (diverse team) dalam pengembangan AI untuk mendeteksi bias yang tidak disengaja.
Solusi: Menggunakan teknik fairness-aware machine learning dan melakukan bias testing sebelum deployment.
3. Transparansi dan Explainability (XAI – Explainable AI)
Isu: Banyak algoritma AI (terutama deep learning) bekerja sebagai “black box” – bahkan pengembangnya tidak selalu memahami mengapa AI membuat keputusan tertentu. Bagaimana pekerja dan supervisor dapat mempercayai rekomendasi AI jika mereka tidak memahami bagaimana AI sampai pada kesimpulan tersebut?
Prinsip Etika: AI harus explainable – mampu memberikan penjelasan yang dapat dipahami manusia tentang bagaimana keputusan dibuat. Dashboard harus menunjukkan faktor-faktor apa yang mempengaruhi prediksi risiko (misalnya, “Peringatan kelelahan tinggi karena jam tidur <4 jam dalam 24 jam terakhir, heart rate variability rendah”).
Teknik XAI: LIME (Local Interpretable Model-agnostic Explanations), SHAP (SHapley Additive exPlanations), atau menggunakan model yang inherently interpretable seperti Decision Trees.
4. Akuntabilitas dan Tanggung Jawab
Isu: Jika AI memberikan prediksi yang salah dan kecelakaan tetap terjadi (atau sebaliknya, AI memberikan false alarm yang menyebabkan production downtime), siapa yang bertanggung jawab? Pengembang AI? Perusahaan yang mengimplementasikan? Supervisor yang mengikuti rekomendasi AI?
Prinsip Etika: AI harus dilihat sebagai decision support system, bukan decision-making system. Keputusan akhir harus tetap ada pada manusia (human-in-the-loop). Harus ada chain of responsibility yang jelas dalam SOP penggunaan AI. Perusahaan harus memiliki insurance dan contingency plan untuk kegagalan sistem AI.
5. Surveillance vs Safety
Isu: Pemantauan berkelanjutan dapat membuat pekerja merasa diawasi (surveillance state) yang dapat menurunkan moral dan kepercayaan. Bagaimana membedakan antara monitoring untuk keselamatan vs monitoring untuk surveillance/kontrol?
Prinsip Etika: Komunikasi yang jelas dan transparan kepada pekerja bahwa tujuan monitoring adalah untuk keselamatan mereka, bukan untuk menghukum atau mengontrol. Data tidak boleh digunakan untuk performance evaluation yang dapat merugikan pekerja. Pekerja harus diberi pilihan untuk opt-out dalam situasi tertentu tanpa konsekuensi negatif.