Це переклад матеріалу Washington Post "It"s not easy to spot disinformation on Twitter. Here"s what we learned from 8 political "astroturfing" campaigns.". В свою чергу, він базується на науковому дослідженні, оригінал опубліковано 28 жовтня 2019, список авторів в кінці статті.

Нещодавно Facebook заявив про припинення роботи кількох ініціатив, у ході яких, скоріш за все, поширювалась дезінформація. В одній з цих кампаній акаунти російських троллів використовувались для атак проти кандидатів у президенти від Демократичної партії США. Також протягом літа Twitter та Facebook призупинили тисячі акаунтів через підозру в розповсюдженні неправдивої китайської інформації про протести у Гонконзі.

Кампанії з дезінформації, ініційовані з Єгипту та Об'єднаних Арабських Еміратів, використовували підробні акаунти для підтримки ряду авторитарних режимів на Близькому Сході та в Африці. Крім того, у доповіді Мюллера згадується, що російські троллі видавали з себе правих активістів та прихильників руху Black Lives Matter, щоб сіяти хаос під час виборів президента США у 2016.

Чи можливо відрізнити справжніх людей від фейків, які неявно використовуються для інформаційного впливу в Твітері? Це непросто.


Сліди прихованих кампаній

Ми дослідили вісім неявних пропагандистських кампаній, в яких було задіяно більше 20000 акаунтів. Серед них був російський вплив на вибори 2016 року і спроба спецслужб Південної Кореї вплинути на вибори у цій країні у 2012. Також ми розглянули інші приклади, які пов'язують з Росією, Китаєм, Венесуелою, Каталонією та Іраном.

Метою в усіх випадках був астротурфінг — громадськість намагались обманути, створюючи враження того, що певна ініціатива має широку низову підтримку.

Всупереч деяким популярним дослідженням, ми з'ясували, що "боти" або повністю автоматизовані акаунти не дуже часто використовуються у кампаніях з поширення дезінформації. Тільки невелика частина з 20000 досліджених акаунтів (від 0% до 18%) були ботами, що постили регулярно постили більше 50 твітів — саме таке порогове значення деякі дослідники пропонують використовувати для розрізнення автоматизованих акаунтів та справжніх людей.

Такий результат не дивує. Інсайдери давно стверджували, що основну роботу на тролячих фермах виконують саме живі люди, а не програмісти та штучний інтелект. Матеріали судових процесів щодо Служби Розвідки (National Intellligence Service, NIS) Південної Кореї показують, що вона була організована подібним чином.


Троллі поводяться так само, як ви та я

Отже, якщо для визначення бота ми будемо перевіряти лише кількість "спамних" твітів, то зможемо виявити лише невелику частину акаунтів, що займаються астротурфінгом. Для того, щоб знайти всі інші, слід розуміти, що насправді за ними стоять реальні люди, які за гроші створюють пости.

Перевіряючи цифровий слід, що залишили по собі астротурфінгові акаунти, ми виявили унікальні паттерни того, що у суспільних науках називають проблемою агентства. Люди, що стоять за акаунтами, не настільки мотивовані, як реальні активісти, тому вони намагатимуться зменшити обсяг своєї роботи, допускаючи певну халтуру. Астротурфери (“агенти") будуть знаходити простіші способи, щоб виконати доручення, які їм дають їх керівники.

На додачу, дії агентів можуть відображати особливості розпорядку, відповідно до якого вони отримують інструкції. Також часто вони прив'язуються до конкретної мети або події, що планується в ході кампанії. На відміну від них, справжні активісти діють більш природно, з більшою варіативністю у часі та змісті повідомлень.

Наприклад, у Південній Кореї співробітники спецслужб проходили інструктаж вранці кожного робочого дня. Працювали вони з 9 до 17: на графіках добре видно залежність кількості відправлених твітів від часу доби та дня тижня.


5e4da3a35db2d.png

Залежність інтенсивності твітів від часу доби. Пунктирна лінія — твіти звичайних людей, червона — твіти підозрілих акаунтів, активних у звичайний робочий час

5e4da412db1a9.png

Залежність інтенсивності від дня тижня: у робочі дні більше твітів з підозрілих акаунтів (червона лінія), звичайні користувачі (чорний пунктир) виглядають інакше.

Таку ж картину можна спостерігати і для інших астротурфінгових кампаній. Наприклад, деякі дослідження показують, що російські тролі, як правило, активні протягом робочого дня за часом Санкт-Петербургу.

Звісно, не всі акаунти, що твітять протягом робочого часу, є ботами. На що ще можна звернути увагу? Наше дослідження показує, що важливою ознакою є загальна координація. Під час будь-якої кампанії, навіть зі справжніми активістами, спостерігається ситуація, коли з'являється велика кількість схожих один на одного твітів з певним змістом. Проте, оскільки астротурфери отримують інструкції одночасно, вони так само одночасно (або протягом дуже невеликого проміжку часу) створюють свої пости.

Щоб виявити та ілюструвати це явище, ми відслідковували мережі, що постили скоординований вміст, пов'язуючи акаунти, що запостили схожі твіти протягом одної хвилини, або занадто часто ретвітили одне одного.


Координація є основною ознакою.

Справжні користувачі сильно відрізняються від астротурферів. У кейсі Південної Кореї ми виявили 153632 випадки, коли пара акаунтів запостили один і той самий твіт протягом хвилини. У схожій за розміром групі звичайних користувачів такої кількості збігів не буває.

Мережі координованих твітер-акаунтів виглядають досить концентрованими. Так зокрема виглядала мережа, що належала російському Агентству Інтернет Досліджень і використовувалась протягом виборів у 2016 році. Доведено, що кампанія АІД була націлена на обидва кінці політичного спектру і там створювались абсолютно різні повідомлення. Проте у нашому дослідженні видно, що ліві за поглядами троллі, що вдавали з себе активістів Black Lives Matter та правих активістів запостили 1661 ідентичний твіт. Це сталось через те, що деякі агенти отримали однакові інструкції по обговоренню теми #OscarsSoWhite. Не зважаючи на те, що вони мали б видавати себе за різних персонажів, результатом став копіпаст однакових повідомлень.

Таким чином, методи, розроблені у нашому дослідженні, можуть допомогти соцмережам більш ефективно виявляти астротурфінгові кампанії. Поки що не ясно, чи здійснюється подібний аналіз на постійній основі. Наприклад, коли Twitter виявив іранську мережу впливу, було опубліковано п'ять окремих масивів даних, попри те, що серед цих масивів зустрічались однакові повідомлення. Створюється враження, що працівники Twitter не так прискіпливо шукав збіги, порівняно з нашою методикою.

То ж як можна виявити російських тролів у Твітері? Навряд чи це вдасться зробити, розглядаючи окремі акаунти. Натомість слід оцінювати великі групи підозрілих користувачів. Чи ці підозрювані слідкують або ретвітять інші підозрілі пости? Чи публікують підозрілі акаунти однакові твіти у той же самий час? Чи можливо виділити групу пов'язаних акаунтів, наскільки вони подібні за змістом? Відповіді на всі ці питання і є ознакою астротурфінгової кампанії.

Автори: