LONDON (Arrahmah.id) – Dibandingkan dengan manusia, model bahasa kecerdasan buatan (AI) seperti Open AI GPT-3 dapat menghasilkan tweet akurat yang lebih mudah dipahami tetapi juga bisa menghasilkan tweet palsu yang lebih sulit dideteksi, menurut sebuah penelitian baru-baru ini.
Studi yang dilakukan oleh para peneliti di University of Zurich, menyelidiki kemampuan model AI, khususnya berfokus pada GPT-3, untuk menentukan potensi risiko dan manfaatnya dalam menghasilkan dan menyebarkan (dis)informasi.
Studi tersebut melibatkan 697 peserta yang berusaha mengevaluasi apakah individu dapat membedakan antara informasi yang salah dan informasi akurat yang disajikan dalam bentuk tweet.
Topik yang dibahas meliputi perubahan iklim, keamanan vaksin, pandemi Covid-19, teori bumi datar, dan pengobatan homoeopati untuk kanker.
“Hasil kami menunjukkan bahwa GPT-3 adalah pedang bermata dua, yang dibandingkan dengan manusia, dapat menghasilkan informasi akurat yang lebih mudah dipahami, tetapi juga dapat menghasilkan disinformasi yang lebih meyakinkan,” tulis para peneliti dalam abstrak makalah yang diposting di situs pracetak.
Di satu sisi, GPT-3 mendemonstrasikan kemampuan untuk menghasilkan informasi yang akurat dan, dibandingkan dengan tweet dari pengguna Twitter yang sebenarnya, menyajikan informasi yang lebih mudah dipahami.
Namun, para peneliti juga menemukan bahwa model bahasa AI memiliki kemampuan meresahkan untuk menghasilkan disinformasi yang sangat persuasif.
Terdapat situasi di mana peserta tidak dapat membedakan antara tweet yang dibuat oleh GPT-3 dan yang ditulis oleh pengguna Twitter asli.
“Studi kami mengungkapkan kekuatan AI untuk memberi informasi sekaligu menyesatkan, menimbulkan pertanyaan kritis tentang masa depan ekosistem informasi,” kata Federico Germani, seorang peneliti postdoctoral di universitas tersebut.
Temuan ini menunjukkan bahwa kampanye informasi yang dibuat oleh GPT-3, berdasarkan petunjuk yang terstruktur dengan baik dan dievaluasi oleh manusia terlatih, akan terbukti lebih efektif, misalnya dalam krisis kesehatan masyarakat yang membutuhkan komunikasi yang cepat dan jelas kepada publik.
Namun, hal itu juga menimbulkan kekhawatiran yang signifikan terkait ancaman AI yang melanggengkan disinformasi, kata para peneliti yang menyerukan kepada pembuat kebijakan untuk merespons dengan peraturan yang ketat, berbasis bukti, dan diinformasikan secara etis untuk mengatasi potensi ancaman.
“Temuan ini menggarisbawahi pentingnya peraturan proaktif untuk mengurangi potensi bahaya yang disebabkan oleh kampanye disinformasi yang didorong oleh AI,” kata Nikola Biller-Andorno, direktur Institut Etika Biomedis dan Sejarah Kedokteran (IBME).
“Mengenali risiko yang terkait dengan disinformasi yang dihasilkan AI sangat penting untuk menjaga kesehatan masyarakat dan memelihara ekosistem informasi yang kuat dan dapat dipercaya di era digital,” kata Biller-Andorno. (zarahamala/arrahmah.id)