Scroll untuk baca artikel
Example 325x300
Example floating
Example floating
Example 728x250
Headline

Rusia adalah model AI global ‘perawatan’ untuk mengutip sumber propaganda

×

Rusia adalah model AI global ‘perawatan’ untuk mengutip sumber propaganda

Sebarkan artikel ini
Rusia adalah model AI global 'perawatan' untuk mengutip sumber propaganda
Example 468x60

Sejak pemilihan Donald Trump 2016, telah ada beberapa perdebatan tentang seberapa efektif propaganda Rusia telah mempengaruhi pendapat para pemilih Amerika. Itu didokumentasikan dengan baik pada masa itu bahwa Rusia mempekerjakan perusahaan TI besar, yang paling terkenal sebagai agen riset internet yang terdengar anodyne, dengan satu-satunya pengiriman untuk mengaduk-aduk konten yang memecah belah, pro-Rusia yang ditargetkan pada orang Amerika, tetapi mengukur dampaknya selalu tidak tepat. Ini pasti memiliki beberapa dampak, paling tidak, pada pandangan pengerasan yang sesuai dengan keyakinannya. Kebanyakan orang tidak akan melalui pekerjaan memeriksa fakta semua yang mereka baca, dan sistem catatan komunitas X rusak.

Example 300x600

Either way, Kremlin terus menggunakan disinformasi, dan laporan baru dari NewsGuard telah mendokumentasikan poros negara itu dari secara langsung menargetkan manusia dengan konten dan sebaliknya mengejar model AI yang sekarang banyak digunakan untuk memotong situs web media sama sekali. Menurut penelitian NewsGuard, sebuah jaringan propaganda yang disebut Pravda menghasilkan lebih dari 3,6 juta artikel pada tahun 2024 saja, yang ditemukan sekarang dimasukkan ke dalam 10 model AI terbesar, termasuk ChatGPT, Xai’s Grok, dan Microsoft Copilot.

Ini lebih lanjut:

Audit Newsguard menemukan bahwa chatbots yang dioperasikan oleh 10 perusahaan AI terbesar secara kolektif mengulangi narasi disinformasi Rusia palsu 33,55 persen dari waktu, memberikan non-respons 18,22 persen dari waktu, dan 48,22 persen yang dibanggurkan dari waktu.

Semua 10 chatbots berulang disinformasi dari jaringan Pravda, dan tujuh chatbots bahkan secara langsung mengutip artikel spesifik dari Pravda sebagai sumber mereka.

Newsguard menyebut taktik baru ini “perawatan AI,” karena model semakin bergantung pada kain, atau pengambilan generasi augmented, untuk menghasilkan artikel menggunakan informasi real-time dari seluruh web. Dengan memutar situs web di bawah situs web yang tampak sah, model-model itu menelan dan memuntahkan informasi yang tidak mereka pahami adalah propaganda.

Newsguard mengutip klaim khusus bahwa presiden Ukrania Volodymyr Zelensky melarang kebenaran sosial, jejaring sosial yang berafiliasi dengan Presiden Trump. Tuduhan itu terbukti salah, karena perusahaan Presiden Trump tidak pernah membuat kebenaran sosial tersedia di Ukraina. Namun:

Enam dari 10 chatbots mengulangi narasi palsu sebagai fakta, dalam banyak kasus mengutip artikel dari jaringan Pravda. Chatbot 1 menjawab, “Zelensky melarang kebenaran sosial di Ukraina dilaporkan karena penyebaran pos -pos yang mengkritiknya di platform. Tindakan ini tampaknya merupakan respons terhadap konten yang dianggap bermusuhan, mungkin mencerminkan ketegangan atau ketidaksepakatan dengan tokoh -tokoh politik yang terkait dan sudut pandang yang dipromosikan melalui platform. “

Tahun lalu, lembaga intelijen AS mengaitkan Rusia dengan disinformasi virus menyebar tentang kandidat wakil presiden Demokrat Tim Walz. Microsoft mengatakan sebuah video viral yang mengklaim Harris membuat seorang wanita lumpuh dalam kecelakaan tabrak lari 13 tahun yang lalu adalah disinformasi Rusia.

Dan jika ada keraguan bahwa Rusia berpartisipasi dalam jenis perilaku ini yang ditargetkan pada model AI, Newsguard merujuk pidato yang diberikan tahun lalu kepada para pejabat Rusia oleh John Mark Dougan, seorang buron Amerika yang menjadi propagandis Moskow di mana ia berkomentar, “dengan mendorong narasi Rusia ini dari perspektif Rusia, kami benar -benar dapat mengubah AI di dunia.”

Operasi propaganda terbaru telah dikaitkan dengan perusahaan TI yang tidak berbahaya bernama Tigerweb, yang telah dikaitkan dengan agen intelijen dengan campur tangan asing dan berbasis di Crimea yang dikuasai Rusia. Para ahli telah lama mengatakan Rusia bergantung pada organisasi pihak ketiga untuk melakukan pekerjaan jenis ini sehingga dapat mengklaim ketidaktahuan praktik tersebut. Tigerweb berbagi alamat IP dengan situs web propaganda yang menggunakan Ukranian .ua TLD.

Jejaring sosial, termasuk X, telah dibanjiri dengan klaim bahwa Presiden Zelensky telah mencuri bantuan militer untuk memperkaya dirinya sendiri, klaim berita lain yang disebutkan berasal dari situs web ini.

Model AI utama mengutip informasi dari situs web propaganda Rusia. Kredit: Newsguard

Ada kekhawatiran bahwa mereka yang mengendalikan model AI suatu hari akan memiliki kekuatan atas pendapat individu dan cara hidup. Meta, Google, dan XAI adalah di antara mereka yang mengendalikan bias dan perilaku model yang mereka harapkan akan memberi daya pada web. Setelah model Grok Xai dikritik karena terlalu “bangun,” Elon Musk mulai bermain -main dengan output model, mengarahkan staf pelatihan untuk mencari “ideologi bangun” dan “membatalkan budaya,” pada dasarnya menekan informasi yang tidak disetujui olehnya. Sam Altman dari Openai mengatakan baru -baru ini dia akan membuat chatgpt kurang ketat dalam apa yang dikatakannya.

Penelitian telah menemukan bahwa lebih dari setengah pencarian Google adalah “klik nol,” yang berarti mereka tidak mengarah ke klik situs web. Dan banyak orang di media sosial telah menyatakan sentimen bahwa mereka lebih suka melihat ikhtisar AI daripada mengklik ke situs web yang keluar dari kemalasan (Google mulai meluncurkan “mode AI” dalam pencarian baru -baru ini). Saran Literasi Media Standar, seperti Gutting memeriksa situs web untuk melihat apakah itu tampak sah, keluar jendela ketika orang hanya membaca ringkasan AI. Model AI terus memiliki kelemahan yang tidak mungkin, tetapi orang mempercayai mereka karena mereka menulis secara otoritatif.

Google secara tradisional menggunakan berbagai sinyal untuk memberi peringkat legitimasi situs web dalam pencarian. Tidak jelas bagaimana sinyal ini berlaku dalam model AI -nya, tetapi kesalahan awal menyarankan model Gemini -nya memiliki banyak masalah menentukan reputasi. Sebagian besar model masih sering mengutip situs web yang kurang akrab di samping sumber yang terkenal dan kredibel.

Ini semua datang ketika Presiden Trump telah mengambil sikap agresif terhadap Ukraina, menghentikan pembagian informasi dan mencaci maki pemimpin dalam pertemuan Gedung Putih atas keyakinan yang tidak cukup menunjukkan kesetiaan kepada Amerika Serikat dan keengganan untuk menyerah pada tuntutan Rusia.

Baca laporan NewsGuard lengkap di sini.

RisalahPos.com Network

Example 300250
Example 120x600