Lexora.id – Kecerdasan buatan (AI) kini menjadi garda terdepan dalam transformasi ilmu regulasi, khususnya di bidang toksikologi dan keamanan pangan. Namun kemajuan ini juga membawa tantangan besar, mulai dari ketimpangan kualitas data hingga kebutuhan regulasi baru yang mampu mengimbangi laju inovasi.
Isu-isu ini menjadi fokus utama dalam laporan ilmiah berjudul Present and Future of AI, Open Science, and Transparency in Regulatory Science yang dipublikasikan dalam jurnal Evidence-Based Toxicology edisi Juni 2025 oleh Katherine Tsaioun dan kolega dari lembaga akademik Eropa dan Amerika Serikat.
Makalah ini merangkum hasil lokakarya pra-KTT Global ke-13 Ilmu Regulasi (gSRS23) yang digelar di Parma, Italia, yang mempertemukan pakar AI, ilmuwan toksikologi, regulator, dan akademisi dari berbagai negara.
Mereka membahas bagaimana AI dan metodologi baru seperti new approach methodologies (NAMs) dapat diintegrasikan dalam proses pengambilan keputusan regulasi. Diskusi terfokus pada efisiensi, keandalan, serta kebutuhan akan transparansi dan keterbukaan data.
Dr. Thomas Hartung dari Johns Hopkins University, dalam sesi kunci, menggambarkan AI sebagai “kopilot” yang mempercepat proses penelaahan literatur, mengelola data toksikologi skala besar, dan mendukung read-across—metode prediksi toksisitas tanpa perlu uji hewan.
Namun ia mengingatkan bahwa AI bukan pengganti pakar manusia. “Kekuatan AI terletak pada kemampuannya menavigasi data, tapi keputusannya tetap harus berada di tangan manusia,” ujarnya. AI disebut dapat memperkuat pendekatan berbasis probabilistik dalam penilaian risiko, yang lebih mencerminkan kenyataan kompleks dunia biologis dibanding pendekatan deterministik konvensional.
Namun potensi AI akan percuma tanpa dukungan data yang berkualitas dan standar yang konsisten. Inilah yang disorot oleh Dr. Ákos Jóźwiak, pakar dari EFSA Advisory Group on Data. Ia menyebut masalah kronis dalam dunia data: kurang lengkap, tidak representatif, dan sulit diintegrasikan karena perbedaan sistem klasifikasi antar lembaga.
Bahkan dalam isu pangan, sebagian besar komponen biokimia makanan masih belum terlacak secara memadai. “Kita bekerja dengan pecahan kecil dari sistem yang jauh lebih besar,” katanya. Ia mendorong penggunaan prinsip FAIR (Findable, Accessible, Interoperable, Reusable) sebagai dasar pengelolaan data publik di bidang ini.
Upaya menghindari uji coba hewan juga menjadi sorotan melalui proyek ONTOX yang didukung Uni Eropa. Proyek ini merancang sistem prediksi toksisitas berbasis peta biologis manusia dan pemodelan AI, dengan fokus pada dampak terhadap hati, ginjal, dan perkembangan otak. Dengan 14 paket kerja yang melibatkan riset, validasi, dan diseminasi, ONTOX menjadi contoh konkret bagaimana AI digunakan untuk membangun sistem toksikologi masa depan yang lebih etis dan efisien.
Namun terlepas dari segala kemajuan itu, persoalan kepercayaan publik dan kesiapan hukum masih menjadi penghalang besar. Diskusi panel yang menghadirkan regulator Eropa dan ahli hukum menyoroti perlunya standar etik, keterbukaan metodologi, dan kerangka hukum seperti EU AI Act tahun 2024. Regulasi ini mengatur tingkat risiko penggunaan AI dan menekankan pentingnya transparansi serta perlindungan hak dasar seperti privasi dan otonomi individu.
Artikel ini menyimpulkan bahwa integrasi AI dalam ilmu regulasi adalah keniscayaan, namun perlu diiringi transformasi sistemik. Keberhasilan tidak hanya bergantung pada kecanggihan teknologi, tetapi pada kualitas data, kompetensi sumber daya manusia, dan kejelasan aturan main.
AI dapat membawa efisiensi dan presisi dalam pengambilan keputusan regulasi, tetapi tetap memerlukan kehati-hatian dan kolaborasi lintas sektor untuk mewujudkan ilmu yang terbuka, terpercaya, dan bertanggung jawab.


