WASHINGTON – Satu kajian berskala besar mendedahkan lebih dua juta penulisan akademik yang diterbitkan sepanjang tahun 2024 ditulis dengan bantuan kecerdasan buatan (AI), sekali gus membangkitkan persoalan besar mengenai ketulenan hasil penyelidikan global.
Kajian itu, yang diterbitkan dalam jurnal Science Advances, dijalankan oleh sekumpulan penyelidik dari Amerika Syarikat (AS) dan Jerman yang menganalisis lebih 15 juta abstrak kajian dalam pangkalan data perubatan PubMed.
Melalui teknik analisis linguistik mendalam, mereka mengesan peningkatan ketara dalam penggunaan kata-kata gaya tertentu iaitu seperti “pivotal”, “showcasing” dan “grappling”,yang biasa digunakan oleh model bahasa besar (LLM) seperti ChatGPT dan Gemini.
Berdasarkan pola penggunaan kata ini, mereka menganggarkan sekurang-kurangnya 13.5 peratus daripada artikel yang diterbitkan pada tahun 2024 menggunakan LLM dalam proses penulisannya, sama ada untuk mengolah, meringkaskan atau menghasilkan kandungan sepenuhnya.
Perubahan itu paling ketara selepas pelancaran awam ChatGPT pada akhir 2022.

Teknologi AI kini berkembang luas dan membantu ramai pengguna di dunia. – AFP
Para penyelidik melihat peralihan gaya penulisan daripada bahasa teknikal dan formal kepada gaya yang lebih lancar, berbunga dan naratif.
Sebelum tahun 2024, majoriti penggunaan kata berlebihan dalam penulisan akademik terdiri daripada kata nama (sekitar 79.2 peratus).
Namun, pada 2024, coraknya berubah secara mendadak iaitu 66 peratus beralih kepada kata kerja dan 14 peratus kepada kata sifat.
Ini mencerminkan kesan langsung AI terhadap gaya penulisan, yang kini semakin menyerupai struktur dan gaya penulisan yang dihasilkan oleh model LLM yang dilatih untuk memikat dan memperjelas maklumat.
Namun, trend ini menimbulkan kebimbangan dalam kalangan komuniti akademik, terutama mengenai ketepatan fakta, etika penulisan, dan risiko kehilangan identiti asli penulis.
Kebimbangan lain adalah kemungkinan penyelidik menyampaikan hasil yang dipermudahkan secara berlebihan oleh AI, atau lebih buruk, menghasilkan data palsu tanpa pengesahan manusia.
Menurut laporan itu, bidang kajian seperti bioperubatan, psikologi dan sains sosial mencatatkan peratusan tertinggi penggunaan LLM, berbanding bidang teknikal seperti matematik dan fizik.
Negara-negara yang mencatatkan peningkatan mendadak termasuk China, India dan Brazil, selain Amerika Syarikat selain Jerman yang menjadi fokus utama kajian tersebut.
Pasukan penyelidik turut menyatakan bahawa banyak jurnal tidak mempunyai garis panduan jelas berhubung penggunaan AI, menyebabkan wujud ruang kelabu dalam soal etika dan tanggungjawab penulisan.
Kebanyakan penulis tidak mendedahkan bahawa mereka menggunakan bantuan AI, malah ada yang menganggapnya sebagai ‘alat sokongan’ seperti penyemak tatabahasa atau perisian menterjemah.
Namun, pakar berpandangan penggunaan LLM melangkaui sekadar pembantu teknikal kerana ia mampu membentuk semula struktur ayat, nada penyampaian dan naratif keseluruhan tulisan.
Dalam jangka panjang, jika tidak dikawal, penggunaan AI secara tidak telus boleh menjejaskan reputasi penulisan akademik dan menimbulkan persoalan terhadap ketulenan hasil penyelidikan saintifik.
Beberapa institusi pendidikan tinggi di Eropah dan AS kini mula memperkenalkan dasar pengisytiharan penggunaan AI dalam tugasan dan tesis pelajar.
Namun, penggubal dasar masih belum sepenuhnya sepakat tentang garis sempadan yang wajar antara bantuan sah AI dan plagiarisme teknologi.
Kajian ini memberi amaran bahawa dunia akademik perlu segera menyesuaikan diri dengan realiti baharu era AI, termasuk keperluan membangunkan sistem pengesahan kandungan dan etika penulisan yang lebih ketat.
Tanpa garis panduan yang jelas dan pengawasan ketat, hasil penulisan saintifik mungkin tidak lagi mencerminkan pemikiran asli penyelidik, sebaliknya menjadi produk algoritma yang licik tetapi tidak sepenuhnya tepat. – Agensi
Â