Pakai AI Buat Manusia Merasa Lebih Pintar dari Kenyataannya

20 November 2025
Ilustrasi/Net

Ilustrasi/Net

RIAU1.COM - Sebuah studi terbaru mengungkap bahwa penggunaan kecerdasan buatan (AI) terlalu banyak bisa menghilangkan Efek Dunning-Kruger. Simak penelitiannya.

Para ilmuwan dari Universitas Aalto Finlandia, bersama kolaborator dari Jerman dan Kanada, menemukan bahwa penggunaan AI hampir menghilangkan Efek Dunning-Kruger, bahkan hampir membaliknya.

Efek Dunning-Kruger adalah bias kognitif ketika seseorang yang memiliki kemampuan rendah dalam suatu bidang cenderung merasa kemampuannya lebih hebat dari kenyataan, sementara orang yang sangat kompeten justru cenderung meremehkan kemampuannya sendiri. Fenomena ini pertama kali diuji melalui serangkaian eksperimen oleh Justin Kruger dan David Dunning.

Para peneliti mempublikasikan temuan mereka dalam edisi Februari 2026 jurnal Computers in Human Behavior.

Lebih lanjut, para peneliti menunjukkan bahwa saat menggunakan AI untuk memecahkan masalah, semua orang (terlepas dari tingkat keterampilan mereka) cenderung terlalu percaya pada kualitas jawaban.

Seiring semakin familiarnya kecerdasan buatan berkat penggunaan model bahasa besar (LLM) yang semakin luas, para peneliti mengharapkan peserta tidak hanya dapat berinteraksi dengan sistem AI secara lebih baik, tetapi juga dapat menilai kinerja mereka sendiri secara lebih akurat saat menggunakannya.

"Namun, temuan kami menunjukkan ketidakmampuan yang signifikan dalam menilai kinerja sendiri secara akurat saat menggunakan AI, di seluruh sampel kami," kata Robin Welsch, salah satu peneliti yang ikut dalam penelitian tersebut, CNN Indonesia melansir Live Science, Senin (17/11).

Dalam studi tersebut, para ilmuwan memberikan tugas penalaran logis dari Ujian Masuk Sekolah Hukum kepada 500 peserta, dengan membiarkan separuh dari mereka menggunakan ChatGPT.

Kedua kelompok kemudian diuji mengenai literasi AI mereka dan penilaian kinerja mereka, dengan janji kompensasi tambahan untuk penilaian diri yang akurat.

Alasan di balik temuan ini beragam. Mereka yang menggunakan AI dalam eksperimen tersebut, biasanya puas dengan jawaban mereka setelah satu pertanyaan atau prompt dan menerimanya tanpa memeriksa atau mengkonfirmasinya.

Menurut Welsch hal ini dapat dikatakan bahwa mereka terlibat dalam 'cognitive offloading', yaitu menanyakan pertanyaan dengan refleksi yang berkurang, dan mendekatinya dengan cara yang lebih "superficial".

Kurangnya keterlibatan dalam penalaran sendiri, atau "metacognitive monitoring", berarti melewati loop umpan balik pemikiran kritis yang biasa, mengurangi kemampuan untuk menilai kinerja dengan akurat.

Lebih mengejutkan lagi adalah fakta bahwa cenderung melebih-lebihkan kemampuan kita saat menggunakan AI, terlepas dari tingkat kecerdasan. Selisih antara pengguna berkemampuan tinggi dan rendah semakin menyempit.

Meskipun para peneliti tidak secara langsung merujuk pada hal ini, temuan mereka muncul pada saat para ilmuwan mempertanyakan apakah model bahasa besar (LLMs) yang umum digunakan terlalu mengagungkan.

Tim Aalto memperingatkan tentang beberapa konsekuensi potensial seiring dengan semakin luasnya penggunaan AI.

Pertama, akurasi metakognitif secara keseluruhan mungkin terganggu. Seiring dengan semakin bergantungnya kita pada hasil tanpa mempertanyakannya secara ketat, muncul trade-off di mana kinerja pengguna meningkat, tetapi pemahaman kita tentang seberapa baik kita melakukan tugas-tugas tersebut menurun.

Tanpa merefleksikan hasil, memeriksa kesalahan, atau melakukan pemikiran yang lebih mendalam, kita berisiko merusak kemampuan kita untuk memperoleh informasi secara andal, kata para ilmuwan dalam studi tersebut.

Selain itu, pelemahan efek Dunning-Kruger berarti kita semua akan terus menganggap diri kita lebih mampu saat menggunakan AI, dengan mereka yang lebih paham AI melakukannya dalam skala yang lebih besar yang berujung pada iklim pengambilan keputusan yang keliru dan degradasi keterampilan.

Salah satu metode yang diusulkan oleh studi ini untuk menghentikan penurunan tersebut adalah dengan mendorong pengguna untuk mengajukan pertanyaan tambahan, sementara pengembang mengarahkan kembali respons mereka untuk mendorong refleksi.

Hal ini dapat melibatkan pertanyaan seperti "Seberapa yakin Anda dengan jawaban ini?" atau "Apa yang mungkin Anda lewatkan?", atau mendorong interaksi lebih lanjut melalui langkah-langkah seperti skor kepercayaan.

Penelitian baru ini memberikan dukungan lebih lanjut terhadap keyakinan yang semakin berkembang, yang baru-baru ini diungkapkan oleh Royal Society, bahwa pelatihan kecerdasan buatan (AI) harus mencakup pemikiran kritis serta kemampuan teknis.

"Kami menawarkan rekomendasi desain untuk sistem AI interaktif yang meningkatkan pemantauan metakognitif dengan memberdayakan pengguna untuk merefleksikan kinerja mereka secara kritis," kata para ilmuwan.*