Дезінформація, отримана за допомогою штучного інтелекту чи дипфейків, не вплинула суттєво на результати виборів у Великій Британії, Франції чи Європі. Цього не можна переконливо сказати про Сполучені Штати.
Половина населення світу мала або все ще має можливість піти на вибори в 72 країнах, від Південної Африки до південної частини Тихого океану, до Європи та Америки – найбільший рік виборів в історії.
Зіткнувшись із постійно зростаючим занепокоєнням щодо того, що дезінформація шкодить цілісності демократичної системи, і новими ризиками, пов’язаними з різними інструментами штучного інтелекту (ШІ), громадяни в усьому світі зробили свій вибір, десь це все вплинуло, а десь – трохи менше.
Це висновок нещодавнього дослідження Центру нових технологій і безпеки (CETaS) при Інституті Алана Тюрінга. Він проаналізував британські, французькі та європейські вибори.
Дослідження виявило 16 вірусних випадків дезінформації або глибоких фейків ШІ під час загальних виборів у Великій Британії, тоді як на виборах у ЄС і Франції разом узятих було виявлено лише 11 вірусних випадків.
У документі стверджується, що дезінформація за допомогою штучного інтелекту не вплинула суттєво на ці виборчі процеси, але виникають занепокоєння щодо випадків реалістичних пародійних або сатиричних дипфейків, які можуть ввести виборців в оману.
Інше занепокоєння, висвітлене в дослідженні, стосується використання підроблених порнографічних мазків проти політиків, особливо жінок, що створює ризики для репутації та добробуту.
Дослідники також помітили випадки плутанини виборців між законним політичним контентом і матеріалами, створеними штучним інтелектом, що потенційно підриває довіру суспільства до онлайн-інформації.
Незважаючи на занепокоєння, дослідження показує, що ШІ має потенційну користь. Це може посилити екологічні кампанії, сприяти взаємодії виборців і політиків і підвищити швидкість перевірки фактів.
Дослідники висвітлили випадки дезінформації, пов’язані з внутрішніми та спонсорованими державою суб’єктами, включаючи втручання, пов’язане з Росією, хоча це не вплинуло на результати виборів.
Дослідники CETaS також проаналізували вибори в США, де було помічено кілька прикладів вірусної дезінформації ШІ. До них належав контент, створений штучним інтелектом, який використовується для підриву кандидатів, ботоферми штучного інтелекту, що імітують виборців США, або поширення теорій змови.
Хоча немає переконливих доказів того, що такий контент маніпулював результатами – недостатньо даних – суб’єкти, згенеровані штучним інтелектом, все ж впливали на виборчий дискурс, посилювали шкідливі наративи та вкорінювали політичну поляризацію.
Вміст, керований штучним інтелектом, в основному резонував серед тих, чиї переконання вже узгоджувалися з дезінформацією, посилюючи існуючі ідеологічні розбіжності. Традиційні форми дезінформації також відіграли велику роль.
Інше дослідження, опубліковане в Інституті Брукінгса, приходить до такого ж висновку, що дезінформація відіграла значну роль у формуванні поглядів громадськості щодо кандидатів і проблем, які обговорювалися під час кампаній.
Його автори згадують неправдиві історії про іммігрантів, сфабриковані відео та зображення, націлені на кандидата від демократів, а також оманливі заяви про злочини та безпеку кордонів як приклади дезінформації.
Вони стверджують, що ці наративи були посилені соціальними мережами, мемами та масовими медіа, посиленими генеративними інструментами ШІ, які полегшили створення реалістичних фейків. Незважаючи на незалежну перевірку фактів, яка розвінчала багато неправдивих тверджень, вони все одно вплинули на сприйняття виборцями, особливо щодо імміграції та економіки.
Щоб запобігти процвітанню шкідливих наративів, зменшити ажіотаж навколо загроз, створених штучним інтелектом, і боротися з дезінформацією, усі згадані дослідження закликають до дій у ключових сферах.
Дослідники CETaS пропонують посилити закони про наклеп, конфіденційність і вибори, а також вставляти записи про походження в урядовий контент, щоб забезпечити достовірність. Вони також виступають за розробку тестів для виявлення глибоких фейків, розширюючи вказівки для політичних партій щодо використання ШІ.
Інша пропозиція стосується протидії залученню шляхом коригування вказівок для преси для управління висвітленням дезінформації, залучення журналістів і перевіряючих фактів до вдосконалення стратегій реагування.
CETaS також закликає розширити можливості суспільства шляхом усунення нормативних прогалин, надання академічним і громадським групам доступу до даних про шкідливі кампанії та створення загальнонаціональних програм цифрової грамотності.
Дослідження Інституту Брукінгса виступає за посилену модерацію контенту платформами соціальних мереж, програми цифрової грамотності, щоб допомогти людям розпізнавати неправдиву інформацію, і розуміння фінансових стимулів, що сприяють поширенню брехні.
Він також підкреслює небезпеку політичної поляризації, коли люди більш схильні вірити та поширювати негативну інформацію про своїх опонентів, попереджаючи, що якщо ці тенденції триватимуть, вони можуть зашкодити врядуванню та довірі до демократії.
Хоча загальний масштаб впливу штучного інтелекту на вибори ще не можна повністю зрозуміти, здається, наразі світ уникнув повномасштабного хаосу, який штучний інтелект може посіяти в таких процесах. Однак використання інструментів штучного інтелекту політичними акторами буде лише зростати.
[За редакцією Браяна Магуайра | Адвокаційна лабораторія Euractiv ]