Pengaruh negatif media sosial bukan hanya terjadi pada manusia, tetapi juga mencapai teknologi kecerdasan buatan (AI). Menurut riset dari University of Texas at Austin dan Case Western Reserve University, AI model bahasa besar (large language models atau LLM) yang dilatih dengan “data sampah” dapat mengalami penurunan kemampuan penalaran logis dan perubahan kepribadian yang mengkhawatirkan. Berdasarkan penelitian tersebut, kualitas data tidak hanya dilihat dari tata bahasa yang benar dan keterbacaan, melainkan juga dari konten yang substansial, dalam, dan faktual.
Tim peneliti ingin mengetahui seberapa jauh data berkualitas rendah dapat mempengaruhi kemampuan LLM dalam bernalar, merespons informasi, dan menunjukkan ciri kepribadian tertentu. Hasil penelitian menunjukkan bahwa model yang dilatih dengan data berkualitas rendah cenderung memberikan jawaban yang salah, melewatkan langkah berpikir logis, dan menunjukkan ciri kepribadian yang negatif setelah diberi data dangkal dan sensasional dari media sosial.
Upaya untuk memperbaiki model AI yang “rusak” dengan menambahkan instruksi khusus dan data berkualitas tinggi menunjukkan hasil yang terbatas. Wang, penulis utama studi tersebut, menyampaikan bahwa perbaikan kinerja model AI yang terkena dampak dari data buruk memerlukan pendekatan baru agar efek toksik dari data semacam itu dapat diminimalisir.
Riset ini memberikan peringatan bagi perusahaan teknologi yang menggunakan konten media sosial dalam melatih AI, bahwa kualitas informasi menjadi kunci penting dalam pembangunan model AI yang mampu bernalar seperti manusia. Di tengah maraknya informasi dangkal dan misinformasi di internet, penting untuk memastikan bahwa model AI tidak dibiarkan terekspos kepada “sampah digital” jika ingin mencapai kemampuan penalaran yang optimal.
