Penerapan teknologi kecerdasan buatan dalam dunia kesehatan telah membawa perubahan besar, namun muncul kekhawatiran mendalam mengenai adanya resiko AI dalam menentukan keputusan klinis yang fatal. Kecerdasan buatan memang mampu mengolah jutaan data rekam medis dalam waktu singkat, namun mesin tetaplah mesin yang tidak memiliki intuisi serta pertimbangan kemanusiaan seperti dokter manusia. Ketika algoritma melakukan kesalahan dalam mendeteksi jenis penyakit, dampaknya bisa berupa pemberian obat yang salah atau keterlambatan penanganan yang berujung pada ancaman nyawa bagi pasien yang bersangkutan.
Pertanyaan hukum yang paling rumit saat ini adalah mengenai aspek pertanggungjawaban ketika terjadi kesalahan fatal akibat resiko AI tersebut. Apakah tanggung jawab berada pada perusahaan pengembang perangkat lunak, rumah sakit yang mengoperasikannya, atau dokter yang menandatangani hasil diagnosis tersebut? Di banyak negara, regulasi hukum masih belum cukup mapan untuk menangani kasus malpraktik digital. Selama ini, dokter dianggap sebagai pengambil keputusan akhir, namun jika sang dokter hanya mengikuti instruksi otomatis dari sistem yang cacat, batas tanggung jawab menjadi sangat kabur dan sulit ditentukan secara adil.
Faktor utama yang meningkatkan resiko AI dalam salah diagnosis adalah keterbatasan data input atau yang sering disebut sebagai bias algoritma. Jika data yang digunakan untuk melatih sistem tidak representatif terhadap berbagai kondisi fisik manusia yang beragam, maka hasil prediksinya akan cenderung meleset. Selain itu, sistem kecerdasan buatan sering kali bekerja seperti “kotak hitam” atau black box, di mana proses pengambilan keputusannya tidak bisa dijelaskan secara logis oleh manusia. Hal ini tentu sangat berbahaya di bidang medis, di mana setiap keputusan harus memiliki dasar patofisiologi yang jelas dan dapat dipertanggungjawabkan secara ilmiah.
Meskipun teknologi ini menawarkan efisiensi, ketergantungan yang berlebihan pada sistem otomatis justru dapat menurunkan ketajaman insting klinis para tenaga medis. Untuk meminimalisir resiko AI, teknologi seharusnya hanya diposisikan sebagai alat bantu pendukung (decision support system), bukan sebagai pengganti peran dokter sepenuhnya. Validasi manusia tetap menjadi lapisan keamanan terakhir yang tidak boleh dihilangkan. Institusi kesehatan harus memastikan bahwa setiap hasil diagnosis yang dihasilkan oleh mesin tetap diverifikasi ulang oleh tim ahli yang kompeten untuk menjamin keselamatan pasien tetap terjaga di atas kecanggihan teknologi.
