Memperbaiki Sistem Berarti Melindungi Manusia di Dalamnya

Minggu lalu, saya melewatkan sebuah pertemuan penting hanya karena salah membaca jadwal. Saya berpikir bahwa pertemuan dimulai pukul 10.00 WIB. Namun, kenyataannya adalah pukul 09.00 WIB. Kekeliruan ini bermula dari undangan yang mencantumkan keterangan waktu yang ambigu: “09.00 SGT – 10.00 Jakarta Time”.

Kejadian sederhana ini mengingatkan saya pada istilah human error yang sangat familiar di dunia manufaktur, bidang yang saya tekuni saat ini. Ketika terjadi kesalahan, human error sering kali dijadikan kambing hitam sebagai akar masalah. Padahal, menyalahkan manusia justru menunjukkan bahwa investigasi tersebut belum tuntas. Kesalahan manusia biasanya hanyalah gejala dari sistem yang lemah.

Mengenal Konsep The Dirty Dozen

Dalam industri keselamatan penerbangan, terdapat kerangka kerja bernama Dirty Dozen—dua belas faktor manusia yang menjadi kontributor utama terjadinya kesalahan. Konsep ini disusun oleh Gordon Dupont pada tahun 1993. Dupont menyadari bahwa manusia secara alami akan melakukan kesalahan, sehingga sistem harus dirancang untuk memitigasi dampak dari faktor-faktor berikut:

  • Lack of Communication (Kurang komunikasi)
  • Complacency (Sikap meremehkan)
  • Lack of Knowledge (Kurang pengetahuan)
  • Distraction (Gangguan fokus)
  • Lack of Teamwork (Kurang kerja sama)
  • Fatigue (Kelelahan)
  • Lack of Resources (Kurang sumber daya)
  • Pressure (Tekanan kerja/waktu)
  • Lack of Assertiveness (Kurang sikap tegas)
  • Stress (Stres)
  • Lack of Awareness (Kurang kesadaran situasi)
  • Norms (Budaya/norma kerja yang salah)

Dalam kasus saya di atas, bisa jadi akar permasalahan terlewatnya jadwal tersebut disebabkan oleh faktor:

  • Lack of Communication: Penulisan jadwal yang tidak standar menciptakan interpretasi ganda.
  • Lack of Awareness: Saya gagal menyadari perbedaan zona waktu karena terlalu fokus pada angka pertama yang terlihat.
  • Complacency: Karena merasa sudah terbiasa dengan jadwal rutin, saya tidak melakukan verifikasi ulang pada kalender digital saya.

Studi Kasus: Tragedi Buvanest Spinal 0,5% (2015)

Jika pada kasus saya dampaknya “hanya” sebuah pertemuan terlewat, di industri berisiko tinggi konsekuensi dari pola pikir yang sama bisa jauh lebih fatal. Contoh nyata pentingnya mengendalikan risiko human error adalah kasus Buvanest Spinal 0,5% pada tahun 2015. Tragedi ini mengakibatkan dua pasien meninggal dunia karena adanya isi obat yang tertukar (mix-up) di dalam kemasan.

Karena kasus ini melibatkan dua pasien, diduga bahwa kesalahan isi obat yang tertukar terjadi dalam jumlah terbatas. Jika kita lihat dari proses manufaktur obat, hal ini biasanya terjadi pada saat pergantian batch, di mana aktivitas line clearance tidak sempurna. Obat dari proses sebelumnya masih tertinggal di lini produksi sehingga tercampur dengan obat setelahnya. Jika investigasi tidak menyeluruh, sangat mudah untuk menyimpulkan bahwa penyebabnya adalah human error operator pada saat line clearance.

Namun, jika kita bedah lebih lanjut dengan kacamata Dirty Dozen, terdapat beberapa faktor pemicu yang harus dievaluasi:

  • Pressure: Apakah ada tekanan target produksi yang membuat proses line clearance dilakukan terburu-buru demi mengejar startup batch berikutnya?
  • Lack of Resources: Apakah tersedia alat bantu verifikasi otomatis (seperti sensor atau pemindai) yang dapat mendeteksi sisa produk secara mandiri, sehingga keamanan produk tidak sepenuhnya bergantung pada ketelitian mata manusia?
  • Norms: Apakah ada budaya “cara cepat” yang mungkin sudah dianggap lazim, di mana prosedur pembersihan yang ketat perlahan mulai dikompromikan demi efisiensi waktu?
  • Lack of Awareness: Apakah kemiripan visual antara satu produk dengan produk lainnya di lini yang sama menurunkan tingkat kewaspadaan petugas? Ataukah karyawan benar-benar memahami risiko fatalitas yang bisa terjadi jika proses line clearance tidak dilakukan dengan tepat?

Tentu saya tidak sedang mengulas proses investigasi aktualnya karena keterbatasan akses informasi teknis produk tersebut. Namun, hal ini menjadi pengingat keras bahwa human error yang terlihat sederhana bisa menghasilkan dampak yang sangat fatal. Dan ada pola yang sama: ketika kita berhenti pada label human error, kita kehilangan kesempatan untuk memperbaiki sistem yang seharusnya melindungi manusia.

Penutup

Belajar dari kesalahan membaca jadwal hingga tragedi Buvanest Spinal 0,5%, jelas bahwa human error bukanlah akhir dari sebuah investigasi, melainkan titik awal untuk menemukan kegagalan sistem.

Sangat krusial bagi organisasi untuk memasukkan 12 faktor Dirty Dozen ini ke dalam proses Risk Assessment (Penilaian Risiko), terutama pada industri dengan risiko tinggi (high-risk industry). Kita tidak bisa hanya berharap manusia tidak melakukan kesalahan; kita harus membangun sistem yang “mengurangi” kesalahan manusia (error-tolerant system).

Dengan memetakan potensi fatiguepressure, hingga norms dalam setiap penilaian risiko produksi, kita dapat menciptakan mitigasi yang lebih konkret. Pada akhirnya, memperbaiki sistem bukan hanya soal efisiensi, melainkan cara paling mulia untuk melindungi manusia di dalamnya.


Posted

in

by

Tags:

Comments

Leave a Reply

Your email address will not be published. Required fields are marked *