AI Kesehatan Butuh Regulasi dan Uji Etik

Jakarta, ID – Pemanfaatan teknologi kecerdasan artifisial (artificial intelligence/AI) pada sektor kesehatan di Indonesia disebut membutuhkan perhatian yang lebih serius dengan memayunginya berdasarkan regulasi dan uji etik.
Sebelum sebuah sistem AI diimplementasikan secara luas, termasuk pada sektor kesehatan, terlebih dahulu perlu melewati tahapan pengujian dalam lingkungan terbatas dan terkontrol regulasi sebelum terintegrasi ke sistem yang lebih besar.
Wakil Menteri Komunikasi dan Digital (Wamenkomdigi) Nezar Patria pun menegaskan arti penting proses pengembangan dan pengawasan implementasi AI melalui pendekatan sandboxing.
Menurut dia, sebelum sebuah sistem AI diimplementasikan secara luas, terlebih dahulu perlu melewati tahapan pengujian dalam lingkungan terbatas dan terkontrol sebelum terintegrasi ke sistem yang lebih besar.
“Saya kira penting sekali. AI itu harus lolos dulu dari proses ini. Di situ, kita bisa lihat bagaimana sistem itu comply dengan regulasi, mitigasi risikonya seperti apa, dan apakah cocok dengan use case yang diajukan, dengan trial yang dibuat,” ujar Nezar, dikutip InfoDigital.co.id.
Hal itu ditegaskannya kepada perwakilan Kelompok Kerja Komunikasi Risiko dan Pelibatan Masyarakat (Risk Communication and Community Engagement/Pokja RCCE+) di Kantor Pusat Kementerian Komdigi, Jakarta Pusat, Jumat (2/5/2025).
Nezar menjelaskan, dalam proses sandboxing, para pemangku kepentingan bisa menilai berbagai aspek teknis dan etis, termasuk kesiapan operasional dan potensi dampaknya implementasi pada sektor kesehatan terhadap masyarakat.
Ia menyontohkan, proses yang dijalankan di Tiongkok dan bisa mengungguli negara-negara maju lain karena melakukan sandboxing terlebih dahulu di level domestik.
“China itu sudah sampai pada level advanced AI-nya, lebih banyak robot diciptakan dengan AI di sana untuk melakukan tugas-tugas. Dan, sebelum go global, mereka mencoba di pasar domestik dulu. Sandboxing-nya sudah berlangsung di negara mereka lebih dulu,” tuturnya.
Tantangan Lain
Nezar Patria mengingatkan tantangan lain dalam penerapan model Agentic AI, yang mampu membuat keputusan sendiri. Menurut dia, risiko adalah hal yang tidak bisa dihindari dalam pengembangan teknologi mutakhir.
Hal tersebut khususnya dalam konteks Kesehatan. Risiko AI pun disebutnya bukan hanya teknis, tetapi juga sosial dan etis.
“Kalau masih butuh campur tangan manusia, kita harus punya kebijakan soal human in the loop. AI di sektor kesehatan tantangannya besar sekali,” katanya.
Disinformasi misalnya, pada sektor kesehatan adalah yang tertinggi kedua setelah politik. Belum lagi, ada bias dengan kepentingan komersial. Karena itu, bisa saja terjadi dan muncul rekomendasi medis yang tidak pernah melewati uji klinis.
Nezar Patria pun menekankan pengembangan AI kesehatan yang berbasis pada data nasional yang telah dikurasi dan divalidasi oleh para ahli dalam negeri.
“Dengan pendekatan ini, Indonesia bisa membangun sistem AI yang tidak hanya inovatif, tetapi juga aman, etis, dan sesuai dengan nilai-nilai Pancasila,” pungkas dia. (dmm)