Mengapa Data, Kepercayaan, dan Keterampilan Merupakan Fondasi Farmacovignance Berbasis AI

Teknologi Farmasi baru-baru ini berbicara dengan Beena Wood, chief product officer, Qinecsa Solutions, untuk mendapatkan perspektifnya tentang tren yang membentuk pengembangan dan manufaktur farmasi pada tahun 2025 dan arah yang akan dicapai pada tahun 2026. Di bagian 2 dari tiga bagian wawancara kami, Wood menguraikan visi ke depan tentang bagaimana AI dapat mentransformasi farmakovigilans (PV), sambil secara jujur ​​mengatasi hambatan struktural, peraturan, dan organisasi yang harus diatasi terlebih dahulu. Dia membayangkan masa depan di mana sistem pengawasan yang didukung AI dapat dengan cepat mendeteksi sinyal keselamatan di seluruh dunia—di berbagai bahasa, geografi, dan kumpulan data—dalam hitungan jam, bukan bulan. Menurut Wood, hal ini akan memungkinkan sistem untuk “mendeteksi—bukan laporan berminggu-minggu, bukan bulan, tapi berjam-jam—yang sama dalam berbagai bahasa,” melakukan referensi silang terhadap kasus serupa secara global, dan secara proaktif memperingatkan produsen dan regulator hampir secara real-time.

Meskipun Wood menekankan bahwa visi ini secara teknis dapat dilaksanakan, ia menekankan bahwa kendala terbesar saat ini bukanlah kecanggihan algoritmik, melainkan lemahnya fondasi data. Kumpulan data yang terfragmentasi, tidak dapat dioperasikan, dan divalidasi dengan buruk sangat membatasi efektivitas AI dalam PV, katanya. Seperti yang dia katakan, “Kecanggihan AI tidak akan membantu” jika data yang mendasarinya tidak selaras. Dia mencatat bahwa organisasi-organisasi terkemuka di tahun 2025 adalah mereka yang berinvestasi pada “fondasi yang membosankan” ini, sehingga memungkinkan kemajuan yang lebih cepat dan terukur di kemudian hari.

Kepercayaan dan kemampuan menjelaskan muncul sebagai tema penting lainnya, dengan Wood membingkai kepercayaan sebagai kombinasi transparansi, kemampuan audit, akurasi, dan evaluasi berbasis risiko. Sistem AI kotak hitam (black-box AI), menurutnya, tidak akan mendapatkan daya tarik dalam bidang-bidang yang berisiko tinggi seperti pemantauan keselamatan, terutama di bawah kerangka peraturan yang terus berkembang seperti UU AI UE. Pagar pembatas yang jelas, kerangka etika, dan praktik AI yang bertanggung jawab sangat penting untuk diadopsi.

Wood juga menyoroti kesiapan ekonomi dan organisasi sebagai hambatan utama. Tim PV harus bersaing untuk mendapatkan investasi dengan mengartikulasikan laba atas investasi secara jelas, sementara organisasi memerlukan strategi manajemen perubahan yang kuat untuk mengintegrasikan AI secara efektif. Dia memperingatkan bahwa tantangan keterampilan yang sebenarnya bukan sekadar kemahiran teknis tetapi juga pemikiran kritis—mengajarkan para profesional cara mengevaluasi keluaran AI, mengenali keterbatasan, dan mengidentifikasi halusinasi. Pada akhirnya, Wood melihat AI bukan sebagai pengganti keahlian manusia, namun sebagai penguat: alat yang, jika digunakan secara bertanggung jawab, dapat menjadikan para profesional yang terampil menjadi “manusia super” dan bukan pengganti.

Mengakses Bagian 1 dari wawancara ini!


Salinan

Catatan Editor: Transkrip ini adalah rendering konten audio/video asli yang sedikit diedit. Ini mungkin mengandung kesalahan, bahasa informal, atau kelalaian seperti yang diucapkan dalam rekaman aslinya.

Jadi bayangkan seorang pasien di pedesaan India dan, katakanlah mereka sedang menjalani terapi gen yang baru disetujui, dan mereka mengalami reaksi yang tidak biasa. Lalu pikirkan kemungkinan sistem pengawasan intelijen yang, dalam beberapa jam, mampu mendeteksi—bukan berminggu-minggu, bukan berbulan-bulan, tapi berjam-jam—laporan yang sama dalam berbagai bahasa, mampu melakukan referensi silang dengan sekitar 47 kasus serupa secara global dan kemudian mengidentifikasi adanya korelasi penanda genetik menggunakan analisis data dunia nyata dan kemudian, secara bersamaan, memperingatkan produsen serta regulator dan agen AI yang sudah mengoordinasikan tindakan proaktif.

Di situlah saya ingin PV mencapainya. Dan secara teoritis hal ini mungkin dilakukan dengan kemampuan AI, dengan pengawasan yang proaktif, namun kita tidak memiliki landasan yang diperlukan untuk mewujudkannya. Dan di situlah hambatan yang Anda bicarakan dan hal-hal yang saya bicarakan sebelumnya ikut berperan. Misalnya saja landasan data, masalah heterogenitas data, dan masalah fragmentasi. Sederhananya… kenyataan yang tidak mengenakkan bagi kami adalah bahwa kami sedang membangun sistem AI berdasarkan landasan data yang tidak terstandarisasi atau tidak dapat dioperasikan dan sering kali tidak divalidasi untuk kasus penggunaan AI. Jadi, jika data ini tersebar dengan format yang tidak kompatibel, sistem lama, dan silo peraturan, dan jika Anda ingin membuat model AI tersebut tanpa harmonisasi, hal tersebut akan menjadi sangat sulit.

Kecanggihan AI tidak akan membantu. Jadi, menurut saya, ini adalah sebuah kenyataan yang tidak mengenakkan, dan itulah yang menyadarkan kita pada tahun ini, pada tahun 2025. Organisasi yang baik adalah mereka yang mulai melakukan hal-hal yang membosankan sehingga mereka dapat berkembang dengan sangat cepat setelahnya.

Saya pikir hambatan lainnya adalah kemampuan menjelaskan dan kepercayaan terhadap sistem AI ini. Jadi, ketika saya melihat kepercayaan, saya menganggapnya sebagai kemampuan menjelaskan, artinya transparansi, kemampuan audit, serta keakuratan, dan ditimbang oleh risikonya. Begitulah cara saya memandang kepercayaan pada sistem AI.

Semua ini berperan dalam memperbesar atau memperkecil kasus penggunaan AI. Jadi, jika kita masih membicarakan AI sebagai kotak hitam, itu tidak akan berhasil. Sangat penting untuk memiliki pagar pembatas tersebut. Pagar pembatas seperti apa, kerangka etika seperti apa, AI yang bertanggung jawab seperti apa yang kita hadirkan? Bagaimana bisa dipercaya? Jadi, menurut saya, hal ini merupakan hambatan penting lainnya yang, baik sebagai vendor maupun konsumen, dan letakkan dalam konteks UU AI UE dan dalam sistem yang berisiko tinggi—saya tahu masih ada perbincangan tentang apa yang menjadi sistem berisiko tinggi dalam domain kita—menurut saya semua itu menjadi sangat penting. Dan realitas ekonomi justru menjadi penghalang. Saya dapat mengatakan, dengan pasti, dengan domain saya, ini adalah tentang meminta investasi awal untuk AI yang menjanjikan peningkatan efisiensi. Kita tahu akan ada peningkatan efisiensi, namun bagaimana kita bisa duduk di meja penelitian dan pengembangan di mana PV dan keselamatan dapat meningkatkan ROI dan kasus penggunaan tersebut, bersaing dengan kasus penggunaan lainnya, agar investasi tersebut mampu mencapai tujuan tersebut? Bagaimana kita membangun ROI untuk perusahaan?

Saya harus mengatakan bahwa kesiapan organisasi adalah hal lain. Saya rasa hal ini tidak dilihat sebagai perubahan kecil, namun sebenarnya memiliki manajemen perubahan menyeluruh untuk AI dan bahkan mengubah cara kita memandang keahlian. Maksud saya, apakah ini merupakan deskripsi pekerjaan atau apakah kita membangun serangkaian keterampilan yang kita perlukan dan dapat diterapkan ke seluruh organisasi? Jadi menurut saya itulah hal-hal yang menjadi hambatan dan perlu diatasi.

Yang membuat saya khawatir tentang hal ini adalah saya tidak yakin, sebagai sebuah industri, apakah kita menyelesaikan masalah dengan benar. Ketika kita berbicara tentang keterampilan atau hambatan, dan kita memiliki laporan yang kontradiktif tentang AI bayangan dan 90% tetap menggunakan AI, baik itu disetujui atau tidak oleh perusahaan, tantangan keterampilan sebenarnya adalah: Bagaimana kita mengajar orang untuk mengevaluasi secara kritis keluaran AI dalam konteks pekerjaan? Misalnya, dalam konteks keselamatan, bagaimana kita mengajar orang untuk mengevaluasi apakah AI beroperasi sesuai kompetensi atau berhalusinasi dengan percaya diri? Bagaimana kita mengajarkan hal itu? Bagaimana kita mengajar ketika AI tidak bisa menjawab pertanyaan? Jadi begitulah cara saya membingkai pertanyaan itu.

Dan saya juga melihatnya sebagai, tidak memikirkan keterampilan teknis secara terpisah. Keterampilan AI kadang-kadang dianggap sebagai keterampilan teknis, jadi jangan berpikir tentang hal itu secara terpisah, namun anggaplah itu sebagai gabungan dari berbagai kemampuan dan kolaborasi. Jadi, misalnya, para ilmuwan data dan orang-orang teknologi, apakah mereka memahami domain PV? Apakah orang-orang di domain PV memahami teknologi? Bagaimana kita menyatukan hal-hal tersebut sebagai sebuah kolaborasi untuk menjembatani kesenjangan tersebut? Apakah mereka mengubah kemampuan manajemen sehingga kita benar-benar dapat mencapai keberhasilan transformatif tersebut?

Saya pikir kecerdasan manusia pada dasarnya indah. Dan menurut saya hal ini tidak akan pernah bisa tergantikan, tapi apa yang bisa kita lakukan adalah mengaktifkan alat AI ini untuk menjadikan kita manusia super, begitulah menurut saya.

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *