Перед тим, як продовжити виклад щодо методів маніпуляції суспільною свідомістю зі сторони соціальних ботів, перша частина якого опублікована у пості, зробимо декілька зауважень.
Деякі читачі можуть вдаватися до питання, чи навіть закидати звинувачення у застосуванні терміну «бот» до «живих людей»: «ось дивись, акаунт, у ньому присутня фотографія, є прізвище та ім'я, є навіть акаунти в соціальних мережах на кшталт Facebook чи X Twitter. І взагалі саме поняття бот стосується власне комп'ютерних програм, а ніяк не біологічних істот». І тому подібні «заперечення».
Що ж в цьому випадку можна сказати? По перше, наявність імені та прізвища в акаунті може бути таких самим «псевдо», як і «псевдо» автора цих матеріалів. Скомбінувати будь-який набір букв, що будуть викликати асоціацію з ім'ям та прізвищем загалом зараз не складає жодної проблеми. Навіть можна скористатися сервісами на кшталт «Рідні», коли формується бот-троль, який буде виконувати роль лідера суспільної думки (ЛСД, більш відомого за російською абревіатурою — ЛОМ (лидер общественного мнения)). Це складний бот, який «прокачується» значний проміжок часу, коли мережевий профіль для правдоподібності буде наповнюватися навіть матеріалами місцевого характеру, що будуть емулювати проживання бота з таким «ім'ям та прізвищем» в певному регіоні, який покаже той самий сайт Рідні.
По друге, наявність фото на аватарці людської істоти також не може зараз слугувати індикатором того, що перед вами матеріали власне певної конкретної особи. Просто потрібно сказати, що вже понад тридцять років існує програма редагування зображень Adobe Photoshop, яка еволюціонувала вже так, що має дуже потужний інструментарій шарів та масок, що дозволяє комбінувати в одному зображення різні типи зачісок, переносити особливості облич одних людей чи навіть лиць тварин на зображення інших людей чи тварин, змінювати одежу, і багато чого іншого. Щоб було зрозуміло, це досягалося завдяки армії програмістів які розробляли та вдосконалювали алгоритми обробки графіки, що стали настільки продуктивними та дешевими, а обчислювальні можливості комп'ютерів настільки зросли, що ось ці маніпуляції з графікою стали частиною різних комп'ютерних систем, які зараз називають «штучним інтелектом». Тобто, якщо в такій системі Ви напишете щось на кшталт: «хочу отримати кота-самурая», то така комп'ютерна система просто візьме фото кота та фото самурая, виділить за алгоритмами того ж таки Photoshop необхідні частини із кожного зображення та «склеїть» їх у результуючому зображенні. Або зараз звичайний користувач може взяти декілька фото людей з Інтернету та «створити нове життя» сформувати комбіноване зображення нової особи. Як зрозуміло, ніякого «інтелекту» ця дія не демонструє, за виключенням інтелекту програмістів які сформували ці алгоритми. Але зрозуміло, що для багатьох звичайних мешканців планети Земля навіть не завжди відомо, як же насправді виглядали та одягалися звичайні самураї. Тобто так, такий алгоритм може перевищувати певні «середньостатистичні інтелекти». Плюс тут є так, що власне такі алгоритми можуть бути більш «інтелектуальні» чи позбавлені парадигми «яка різниця», коли ми насміхалися з російських Photoshop-ів привітань з 23 лютого з американськими танками Абрамс та літаками F-35. Але питання штучного інтелекту також настільки велика тема, що потребує окремого обговорення.
Наразі висновок: ні набір букв, що «емулює ім'я та прізвище» чи «ім'я та по батькові», ні фото особи вже зараз не може слугувати критерієм того, що перед вами власне певна конкретна особа. Тому, будь-які «мережеві істерики» соціального бота, що він «публічна особа» тільки на основі цих даних, можуть слугувати повідомленням про його неадекватність щонайменше, навіть якщо в коментарях інші «особи» запевняють, що «його знають». Бо в коментарях до постів цілком реально можуть це писати такі самі «штатні боти», як і соціальний бот — генератор поста. На даний час говорити, що перед вами не соціальний бот, а дійсно реальна особа можна за наявності набору букв «ім'я та прізвище» чи «ім'я та по батькові» та «фото» тільки в тому випадку, якщо ви цю особу можете бачити «наживо» — особисто знайомі, чи бачите на екрані телевізора, чи з програми на Youtube. Хоча не за горами часи, коли шляхом діпфейк ведучі у студіях будуть вести діалог із «зеленим екраном», на якому комп'ютерні алгоритми будуть «транслювати певну особу». Але поки що такі алгоритми є дорогими до застосування щодо кожного «диванного експерта» і наразі можна за наявністю у телевізорі чи на екрані комп'ютера говорити про «публічну особу». Це є єдиний критерій відрізнити реальну особу, що генерує суспільні меседжі й змісти від різних мережевих «Штірліців». Але, як зрозуміло, якщо генеровані реальною особою суспільні меседжі чи змісти будуть нести в собі деструктивні зерна, то тут повністю застосовне іменування й щодо цієї особи поняття соціальний бот.
І до прикладу, тут на ресурсі новий соціальний бот «Анна Михайлова» продемонструвала описані в попередніх частинах серії методи «хакнути рейтинги» на цій платформі, успішно використавши для підтримки своєї популярності спосіб додавання на платформу ботів — так виглядає, що їх додано біля десяти. Це можна доволі легко прослідкувати за результатами «голосування» під постами. Також цей бот видає за свої дописи пости публічних осіб: Ігоря Луценка, Олега Шарпа та Дани Ярової відповідно до хронології дописів бота. Розуміючи, що ці публічні особи самі можуть «розіслати» свої пости по різних мережевих майданчиках, так виглядає, що цей соціальний бот здійснює деструктивну діяльність з метою знецінення в алгоритмах Інтернет цих дописів. Також ця діяльність ілюструє висновок про те, що з часом мережевий мешканець зі стану «Штірліц за лінією інформаційного фронту» має «відкрити личко, Гюльчатай», якщо хоча б найменшою мірою дорожить результатами своєї мережевої роботи та й тому прив'яже свої тести до реальної особи. Інакше ситуація, що один «Штірліц» інформаційного фронту поцупить тести іншого «Штірліца» без будь-якого посилання на джерело, є абсолютно звично для нашого травмованого совком суспільства, де відсутня від слова взагалі повага до інтелектуальної власності. Або інакше сам графоман «генератор контенту» розуміє нікчемність своїх зусиль, чи цілком вдовольняється результатами, які ці зусилля приносять. Один пише під замовлення, і йому байдуже, як той текст далі використають. Інший пише, бо в душі є «Джокером» і формування хаосу в інфопросторі приносить якщо не матеріальне, то моральне задоволення. А хтось на таких платформах тестує комп'ютерні алгоритми генерації контенту комп'ютерними ботами.
Та загалом, не будемо «заздрити» «спритним» мережевим мешканцям, які використовують усі «можливості платформи», бо так виглядає, що цю платформу (site.ua) формували особи, які в комп'ютерні ігри в дитинстві гралися з використанням чит-кодів. І за «щирістю душі» широко розкрили двері платформи для деструктивної мережевої діяльності, згорнувши модерацію.
Ну а тепер можна продовжити виклад матеріалів щодо методів маніпуляції суспільною свідомістю з боку соціальних ботів.
Напівправда. Надзвичайно ефективний метод викликати співчуття читачів на кшталт «ну чого ви причепилися до людини, загалом він же все правильно говорить (написав)». Загалом брехня в чистому вигляді лежить на поверхні й тому зразу відштовхує, але якщо змішати не перевірені, хибні чи видумані «факти» або твердження з реальними фактами або твердженнями, які або легко перевіряються, або ґрунтуються на життєвому чи професійному досвіді особи, то отримаємо доволі потужну зброю маніпуляцій. Напівправда приваблює напускним благородством, особливо якщо у тексті чи у виступі зачіпаються резонансні теми, чи звертаються до емоцій. Тут будь-який скептик, що береться вказати на невідповідності, перекручування чи відверту брехню, йде проти хвиль емоцій осіб, які вдовольняються ось цим «емоційним погладжуванням» чи сформованою реальністю з правильних та брехливих тверджень. Особам, які «купилися» на цю напівправду немає потреби сприймати будь-які заперечення, уточнення чи спростування. Для них наявних змістовних маркерів загалом досить для загального позитивного враження про сформований текст чи виступ. І загалом потужність напівправди, як інформаційної зброї, суттєво зростає зі збільшенням долі правдивих та очевидних фактів.
Метод Геббельса 60 на 40. Частково синонімічний до напівправди прийом, і загалом граничний випадок, коли починає працювати цей метод напівправди, тобто вмикається суспільний механізм «не все так однозначно». За цим методом не менше 60 відсотків інформації у повідомленні повинно бути таким, що живить довіру авдиторії, на яку скеровуються матеріали. Решту відсотків може складати дезінформація. Загалом цей метод прийшов в інформаційний простір з часів Другої світової війни, коли німецькі націонал-соціалісти здійснювали радіотрансляції на територію союзників за цією схемою у розподілі контенту.
Тобто, щоб особа почала сприймати інформацію, зацікавилася нею, необхідно щоб прийнятної для особи інформації в повідомленні було більш ніж половина, а ще краще від 60 відсотків. Зрозуміло, що тут вже виникають суттєві вимоги до «генераторів» деструктивного контенту щодо ширшого кругозору, особливо, якщо потрібно просувати стрижневий деструктивний контент значний проміжок часу чи на більшу авдиторію. Тобто, широта кругозору необхідна для зменшення повторюваності у повідомленнях, що обгортають деструктивний контент, додаванні нових інтерпретацій реальності. Це зразу висуває вищі вимоги до соціального бота, його послуги стають дорожчими, але тим самим слугують індикаторами його вищого інтелектуального розвитку. Для прикладу, на цій платформі є соціальний бот «Хто Це» з його серією «магічних збігів в новітній історії України», які є чудовим прикладом напівправди та підміни реальності, описаної в попередній частині матеріалів.
Багаторазове повторення. Ще один метод впливу на суспільну свідомість, «винахід» якого приписують Геббельсу. Вище писалося, що генерування контенту стилю напівправда потребує значно більшої кваліфікації від виконавців, а значить і здорожчення їх послуг. Та й реакція цільової авдиторії на зміну «обгортки» деструктивних меседжів не може бути однозначно спрогнозованою. Не виключено, що комбінація правдивої обгортки та деструктивної інформації не тільки не ствердить авдиторію у спонукальних меседжах, а й навпаки, відверне авдиторію. Тому використовується інший метод, який, окрім того, експлуатує «народну мудрість» — «якщо є багато успішних випадків слідування, то значить це є правдою та потрібно робити так само». Експлуатують, бо нагадайте собі часи фінансових пірамід, на кшталт МММ, та «рекламу на телебаченні успішних вкладників».
За цим методом, «брехня, що повторюється багато разів, стає правдою». Власне цей вислів і приписують Геббельсу. Тобто, тут здійснюється «проламування» свідомості від багаторазового «бомбардування» особи певними повідомленнями. Для прикладу, згадайте, як Ви піддавалися на купівлю певних товарів у гіпермаркетах, підсвідомо скеровані агресивною та настійливою рекламою цих товарів в тому ж телевізорі. Цей метод загалом є базовим при створенні реклами, формуванні слоганів, і зрозуміло, при формуванні пропаганди.
Метод гнилого оселедця. Згідно з цим методом береться абсолютно брехливе звинувачення. Важливо, щоб воно було максимально брудним і скандальним, тобто таким, що ганьбить об'єкт, стосовно якого і висунуто це звинувачення. Метою цього методу є ні доведення, ні спростування, а власне скерування на бурхливе обговорення. Як тільки звинувачення стає предметом публічного обговорення, то неминуче виникають його прихильники та противники, «знавці» та «експерти». І, незалежно від своїх поглядів, усі учасники дискусії знову й знову вимовляють ім'я обвинувачувального у зв'язку з цим ганебним, брудним та скандальним «обвинувачуванням». Таким чином, за алегорією, у «одяг цієї особи втирається гнилий оселедець доти, доки нарешті цей запах не починає слідувати за ним усюди». Тобто подальші будь-які викриття брехливості чи замовленості «звинувачень» будуть розбиватися об сформовані стереотипи.
Цей метод застосовується не тільки щодо певної особи, а й навіть може бути використаний проти будь-якої країни. До прикладу, «міцне» пов'язування України з корупцією в уяві західного обивателя дозволяє ворожій пропаганді експлуатувати цей стереотип та формувати будь-які звинувачення, наприклад у нелегальному експорті озброєння. Зразу тут потрібно зробити уточнення, що тут у пості не виправдовують наявну в Україні корупцію та не перекручують можливі реальні випадки, але прив'язані стереотипи дозволяють ворожій пропаганді практично «не напружуватися» та формувати «факти» практично «від стелі».
Загалом в нашому інфопросторі це вже є просто «класичний» прийом у політичній боротьбі, ефективність якого підсилюється певними природніми особливостями психології представників української нації, що не є ні добре, ні погано і має вже нами сприйматися як даність. Тому, якщо Ви вловлюєте в інформації це запах «гнилого оселедця», бажаним є дуже критично віднестися до цієї інформації.
Ну і в якості прикладу застосування цього методу (гнилого оселедця), можна подивитися коментарі штатних ботів для «автора» цього ресурсу — соціального бота "Serhiy Grigorovich". Його «штатні боти» «Серж Григоровский», «Серг Тихонов», «Николай Кобко» та "VIPtek eng" в коментарях голослівно використовують щодо опонентів «звинувачення» у «деменції», «роботі на ворога», «приписування своїх висловлювань опоненту» та інші «втирання запаху», що не підкріплюються жодними аргументами, окрім тиску на емоції.
Також до прикладу, притаманне українцям на побутовому рівні практично несвідомо «навішування ярликів» (використання методу гнилого оселедця), як один з базових елементів ось цієї суспільної української психології, дуже добре використовується ворогом. Бо на Заході використання як аргументів у дискусії посилань на фізичні чи психічні вади особи, певні назви націй та народностей, міцне слівце та образливі епітети, та й вільні трактування «свободи» висловлювань поза межами пристойності є неприпустимим у всі сферах, і в соціальних мережах зокрема, що регламентується мережевим етикетом, на слідування якому налаштовані алгоритми комп'ютерної модерації в соціальних мережах. А ось українським несвідомим спересердя сформованим «гнилим оселедцем» в сторону опонента користуються для інформаційної атаки, коли «одноразові» боти атакують певний пост особи та провокують особу на такий вислів обурення в стилі «дурень — сам дурень» з використанням невідповідної лексики. Пізніше, несвідомо спересердя сформовані відповіді, наприклад, алгоритмами Facebook, забезпечують бан обом учасникам «такої дискусії». Але бот і створювався для таких провокацій, а особа починає «мережеві плачі» про «несправедливість та упередженість Facebook», що банить на звичну побутову «свободу висловлювань». А ворог, який добре знає цю психологічну особливість, послужливо пропонує Telegram, де вимоги до поширення інформації суттєво м'якші та за звичні побутові «висловлювання» в стилі «гнилого оселедця» немає жодного покарання. Але, як то кажуть, дешевий сир буває хіба що у мишоловці. І знову ж таки, детальне обговорення методів мережевих провокацій в соціальних мережах є великою окремою темою.
Щодо рекомендації, то кібербезпека особи в мережі Інтернет складається із технічних засобів та засобів розуміння та протидії методам соціальної інженерії та деструктивного впливу на свідомість. Можна витратити величезні кошти на технічні засоби захисту, оплатити дуже велику кількість годин роботи програмістів, а пізніше отримати злам комп'ютерних систем через «паролі, записані на листочку та приклеєні до монітора», чи паролі, сформовані з даних особи чи її родини та домашніх тварин (дат народження, пестливих найменувань, імен дітей та онуків і т.п.), що витягне соціальний інженер. Або мережевими провокаціями та інформаційними хвилями й атаками, якими також керують соціальні інженери, отримати купу «скриншотів» невідповідних висловлювань в соціальних мережах, які буде використовувати ворожа пропаганда.
Тому повертаючись до початку цього посту: мережевий мешканець переходить межу між особою та соціальним ботом в той момент, коли свідомо чи несвідомо починає «підігрувати» деструктивній діяльності соціальних інженерів та генераторів інформаційних хвиль. А тим більше він може розглядатися як соціальний бот, коли сам стає на стежку такої мережевої діяльності, яка деструктивно впливає на суспільну свідомість.
Далі буде...