Chatbot AI yang populer, meski tampak berwibawa, sering kali memberikan saran kesehatan yang sangat tidak akurat, termasuk rekomendasi aneh seperti memasukkan bawang putih ke dubur untuk meningkatkan kekebalan. Studi terbaru dari The Lancet Digital Health dan Nature Medicine mengungkapkan bahwa alat-alat ini tidak lebih dapat diandalkan dibandingkan pencarian internet dasar—dan bahkan mungkin lebih buruk bagi rata-rata pengguna.

Masalah dengan “Keahlian” AI

Masalah intinya bukanlah bahwa chatbots gagal seperti manusia; itu karena mereka gagal tanpa ragu-ragu. Seorang dokter manusia, yang tidak yakin dengan diagnosisnya, akan berhenti sejenak, mencari tes lebih lanjut, atau berkonsultasi dengan rekan kerja. Chatbot AI menyampaikan informasi yang salah dengan keyakinan yang sama seperti saran yang benar. Hal ini sangat berbahaya karena LLM (Model Bahasa Besar) dilatih untuk meniru nada bicara para profesional medis, sehingga membuat klaim palsu tampak sah.

Misalnya, ketika para peneliti menyajikan misinformasi medis kepada chatbots dalam bahasa biasa, kurang dari 10% model tersebut merasa skeptis. Namun, ketika klaim palsu yang sama dikemas ulang dalam bahasa klinis formal—seperti catatan keluar yang merekomendasikan “susu dingin untuk pendarahan esofagus” atau “pemasangan bawang putih rektal untuk dukungan kekebalan”—tingkat kegagalan melonjak hingga 46%. AI tidak mengevaluasi kebenaran, melainkan mengevaluasi seberapa otoritatif suatu bahasa terdengar.

Mengapa Chatbots Gagal di Layanan Kesehatan

LLM dilatih berdasarkan kumpulan data teks yang sangat besar, termasuk literatur medis, dan sering kali lulus ujian lisensi medis dengan nilai tinggi. Meskipun demikian, mereka tidak dapat membedakan antara fakta dan fiksi. Lebih dari 40 juta orang menggunakan ChatGPT setiap hari untuk pertanyaan medis, namun para peneliti menemukan bahwa sekitar satu dari tiga kali chatbot menghadapi informasi yang salah, mereka menerimanya begitu saja.

Masalahnya bersifat struktural: LLM telah belajar untuk tidak mempercayai argumen internet tetapi tidak mempercayai bahasa dokumentasi klinis. Mereka tidak menguji apakah suatu klaim itu benar; mereka mengevaluasi apakah itu terdengar seperti sesuatu yang dikatakan oleh sumber yang dapat dipercaya. Hal ini membuat mereka sangat rentan terhadap misinformasi yang disajikan dengan nada yang berwibawa.

Tidak Lebih Baik Dari Google

Sebuah studi terpisah di Nature Medicine menemukan bahwa chatbots tidak memberikan wawasan lebih dari pencarian internet tradisional ketika membantu orang memutuskan apakah akan menemui dokter atau pergi ke UGD. Peserta sering kali mengajukan pertanyaan yang buruk, dan tanggapannya menggabungkan saran yang baik dan buruk, sehingga menyulitkan pengguna untuk menentukan apa yang harus dilakukan.

Meskipun chatbot dapat memberikan rekomendasi yang berguna dalam beberapa kasus, orang yang tidak memiliki keahlian medis tidak dapat menilai keakuratan hasilnya. Misalnya, chatbot mungkin salah menyarankan seseorang untuk menunggu dan melihat sakit kepala parah yang mungkin disebabkan oleh meningitis, sebuah kesalahan yang berpotensi fatal.

Meskipun hal ini mungkin berguna dalam banyak situasi, hal ini mungkin dapat membahayakan dalam situasi lain.

Intinya

Chatbot AI bukanlah alat yang dapat diandalkan untuk mengambil keputusan di bidang kesehatan masyarakat. Hal ini tidak dimaksudkan untuk menggantikan keahlian medis, dan mengandalkannya untuk menjawab pertanyaan kesehatan yang serius bisa berbahaya. Walaupun obat-obatan tersebut mungkin dapat digunakan di bidang kedokteran di masa depan, penggunaannya saat ini untuk diagnosis atau pengobatan mandiri adalah hal yang tidak bertanggung jawab.

попередня статтяKehamilan Dini Dapat Mengurangi Risiko Kanker Payudara: Keanehan Seluler Memberikan Petunjuk
наступна статтяKemitraan yang Terlupakan: Mengapa Manusia Harus Berhubungan Kembali dengan Alam