-Ads Here-

Saul Perlmutter, fisikawan peraih Nobel, memperingatkan orang tentang ancaman yang menyertai integrasi kecerdasan buatan (AI) dalam kehidupan sehari-hari dan memberi saran tentang cara menggunakan AI dengan benar. Ia menekankan bahwa ancaman terbesar dari kecerdasan buatan bukan ancaman fisik, tetapi gangguan psikologis seperti "ilusi pemahaman" yang dapat merusak pemahaman dan kemampuan intelektual manusia, terutama saat kecerdasan buatan semakin terintegrasi dengan pekerjaan dan proses belajar.
Perlmutter mengatakan dalam diskusi podcast bersama CEO Norges Bank Investment Group, Nicolai Tangen, bahwa AI sering berbicara dengan terlalu percaya diri, sehingga pengguna cenderung langsung mempercayai jawabannya tanpa memverifikasi, seperti yang dilaporkan oleh businessinsider.com pada 24 Desember. Ia menyebut situasi ini sebagai "korsleting skeptisisme", juga dikenal sebagai "short-circuit skeptisisme". Kondisi ini serupa dengan bias kognitif manusia saat mendengar informasi dari pihak berwenang.
Perlmutter, yang terkenal karena penemuannya tentang percepatan ekspansi alam semesta, mengatakan, "Hal yang berbahaya dari AI adalah ia memberi kesan bahwa Anda telah memahami dasar-dasarnya, padahal sebenarnya belum." Ia mengingatkan bahwa jika siswa terlalu bergantung pada AI, mereka berisiko kehilangan kemampuan mereka untuk melakukan tugas intelektual secara mandiri.
Artificial Intelligence sebagai alat, bukan pengganti untuk berpikir
Perlmutter menyarankan untuk memperlakukan teknologi ini sebagai alat bantu berpikir, bukan pengganti proses berpikir manusia, daripada menolak AI sepenuhnya. Dia percaya bahwa AI hanya akan bermanfaat bagi mereka yang sudah terbiasa berpikir kritis. Menurutnya, AI dapat membantu menemukan informasi yang dibutuhkan jika Anda mengetahui berbagai metode dan alat untuk memecahkan masalah.
Kurikulum berpikir kritis berbasis metodologi ilmiah dikembangkan oleh Perlmutter dan rekannya di Universitas California, Berkeley. Agar kebiasaan berpikir ini menjadi otomatis dalam kehidupan sehari-hari, mata kuliah ini mengajarkan penalaran probabilistik, skeptisisme, ketidaksepakatan terstruktur, dan pemeriksaan kesalahan (error-checking).
Problem dengan kepercayaan diri AI
Nada percaya diri AI yang berlebihan adalah salah satu kekhawatirannya. Adanya bukti otoritatif ini dapat mengurangi skeptisisme alami manusia, membuat pengguna lebih mudah menerima jawaban AI tanpa mempertanyakan kebenaran mereka. Perlmutter menekankan bahwa untuk mengatasi masalah ini, sangat penting untuk mengevaluasi hasil AI dengan cara yang sama seperti kita menilai klaim manusia: dengan mempertimbangkan kredibilitas, ketidakpastian, dan kemungkinan kesalahan, daripada hanya menerimanya.
Belajar mengidentifikasi kebohongan
Dalam ilmu pengetahuan, ilmuwan membuat sistem untuk menemukan kesalahan mereka sendiri. Salah satu contohnya adalah analisis tanpa pandang bulu, di mana mereka menyembunyikan hasil penelitian dari diri mereka sendiri hingga pemeriksaan menyeluruh selesai. Untuk AI, prinsip serupa harus diterapkan: selalu ada kemungkinan AI menyesatkan pengguna atau dirinya sendiri. Perlmutter menyatakan bahwa literasi AI bukan hanya tentang cara menggunakannya, tetapi juga tentang mengetahui kapan tidak mempercayainya, dan nyaman dengan ketidakpastian, alih-alih menganggap hasil AI sebagai kebenaran mutlak.
-Ads Here-