Знову ж таки, перед тим, як продовжити виклад щодо методів маніпуляції суспільною свідомістю зі сторони соціальних ботів, друга частина якого опублікована у пості, зробимо декілька зауважень.

Для ілюстрації серії постів про соціальних ботів застосуємо «новітні віяння» — скористаємося генераторами зображень, щоб не порушувати авторські права інших мережевих мешканців, просто вибираючи ілюстрації з мережі Інтернет. Наразі скористаємося одним із сервісів, які з легкої руки «журналістів» отримали назву «штучного інтелекту» — генеративною нейромережею Bind Image Creator.  Щодо поняття нейромережі, то тут використовується поняття «штучна нейронна мережа», або комп'ютерна система, алгоритми якої мають вміти розібрати вхідне повідомлення (це може бути інформація з фізичних датчиків, текстова чи графічна інформація) на такі частини, кожна з яких прив'язана до певного елементу в так званій «бібліотеці асоціацій» та пізніше зібрати (а краще кажучи «найкраще припасувати») отримані асоційовані елементи у вихідний результат. «Бібліотека асоціацій» — бо кожній частині відповідає не одне якесь значення, а певна множина з так званими ваговими коефіцієнтами для елементів множини, що є емуляцією людської свідомості — згадайте, що в різних обставинах одне й те ж подразнення Ваших чуттів викликало у вас різні образи, пов'язані з цими подразненнями. Тому і «припасовування», а не просте збирання — такому то сигналу такий то відповідник. Тут результат збирається таким чином, що для кожної частини береться певний елемент з відповідної «асоційованої множини», так, щоб результат цього «припасовування», що обраховується через вагові коефіцієнти, задовольняв вже певні умови задач оптимізації. Це доволі спрощене пояснення роботи штучної нейронної мережі, яке, однак передає закладені в це поняття зусилля програмістів. Це є одним зі способів наблизитися до функціонування людської свідомості. І дійсно тільки наблизитися, бо до реальної конкуренції з нейронними зв'язками у мозку людини таким мережам ще далеко, і різні алярми про швидке захоплення світу «штучним інтелектом» є не більше ніж «страшилки» від соціальних ботів від журналістики. І так, про вплив на суспільну свідомість через залякування буде нижче в цьому пості.

Генеративна нейромережа, як зрозуміло з першого слова у цьому словосполученні, призначена до збирання асоціацій (генерації результату) за меншим числом параметрів, ніж отримано з вхідного повідомлення. Для простоти розуміння: є величезний текст, зміст якого можна передати загалом невеликим числом ключових слів, бо значна частина цього тексту — «просто вода», яку «накидав», наприклад, соціальний бот. Якщо подати цей текст на вхід генеративної нейромережі, то добре «навчена» нейромережа просіє весь це «словесний понос» та виділивши ключові слова, видасть певний результат, що відображатиме власне основне скерування цього вхідного тесту. Наразі, один зі шляхів подальшого розвитку алгоритмів такого типу нейромереж і скеровується на засоби пошуку «прихованих» чи «деструктивних» змістів у текстах, згенерованих соціальними ботами. Власне в цьому і є «корисність діяльності» соціальних ботів: «їх тексти» — це «корм» для навчання таких генеративних соціальних мереж. Як було сказано в попередніх частинах циклу, не за горами часи, коли дані в мережі розділяться на загальнодоступні, або для «піпла, що хаває», та такі, що будуть попередньо «просіяні» через фільтри нейронних мереж та доступні вже, наприклад, за підпискою. Ну, і зрозуміло, що як і в будь-якій людській діяльності, буде наступний рівень людської деструктивності — спроби «прорватися» через такі фільтри.

Якщо повернутися до початку посту, то використання генеративних нейромереж, що за текстовим описом формують графічне зображення, зараз може слугувати таким собі «поглядом» «штучного інтелекту» на пропоновані тексти. Зрозуміло, що за більшу функціональність потрібно заплатити, а наразі безплатні сервіси генеративних нейромереж формують зображення за невеликих описів. Тому тут на вхід в таких мережах потрібно подати набір певних слів чи термінів, і чим точніший набір, тим кращий графічний результат можна отримати внаслідок генерації. Для прикладу, на цьому ресурсі є соціальний бот «Карина Койнаш», яка демонструє застосування генеративних нейромереж при генерації «дизайну одягу». Чому бот — бо на жаль в мережі не знайдено жодного відео демонстрації «наживо» будь-якого із запропонованих «дизайнерських» рішень, бо так виглядає, що те, що намалювали нейроалгоритми наразі неможливо відтворити «у тканині» — ну хіба що «відливаючи» чи «друкуючи» із різних видів пластичних волокон. Ну і за «агресивне мережеве просування» цей соціальний бот на багатьох майданчиках в мережі отримав бан від модераторів. Але, якщо розглядати його результати як демонстрацію можливостей генеративних нейромереж, то його діяльність є значно корисніша ніж діяльність багатьох інших соціальних ботів на цій платформі.

Друге важливе зауваження стосується того, що зараз для цілого людства існує дві реальності — наявна навколишня, в якій перебувають люди, та інформаційна, яку люди створюють, щоб описати навколишню. Тут мова не йде про відому кінофраншизу «Матриця», а про те, що кожен експерт чи «експерт», «диванний експерт», соціальний бот, реальний вчений чи «вчений» зайнятий описом наявної навколишньої реальності в міру свого заглиблення у питання, життєвого та професійного досвіду, свідомої чи несвідомої націленості на конструктивну, чи деструктивну діяльність. Хтось береться за невелику частину навколишньої реальності й внаслідок наявності певних життєвих запобіжників (дійсної віри в Бога, високого інтелекту, совісті, ...) описує цю частину максимально повно, чітко та прогнозовано, і його описи (внесок до інформаційної реальності) можна розглядати як експертну думку. А хтось внаслідок яскраво вираженого в нього «ефекту Данінга-Крюгера», чи відсутності описаних вище запобіжників, чи через дану собі обіцянку, що от вже другий мільйон доларів, він заробить чесно, починає застосовувати та вигадувати різні способи деструктивного впливу на людську свідомість, певну частину яких описано в постах цієї серії, бо гра на людських вадах значно простіша та прибутковіша, ніж підтримка людських чеснот, як би це сумно не виглядало. Моралізаторства тут не буде, буде просто констатування очевидного факту — можна спробувати перевірити людину — свідомо чи несвідомо вона здійснює деструктивну діяльність, чи спробувати декількома зауваженнями натякнути, щоб вона пробувала фільтрувати «свій інтелектуальний понос» чи «стримувала своїх тарганів». Якщо ж зміни в мережевій поведінці не спостерігаються, то нескінченні «доведення неправоти» та «вказування на невідповідності» ні до чого не приведуть, окрім «мережевих срачів», на які шкода витраченого часу. Краще для самого себе перевести такого персонажа в категорію соціального бота, та перестати його «навчати», бо будь-які Ваші уточнення чи заперечення він виключно «припасовує» до своєї «збоченої інформаційної реальності», яка все більше «закривається» в його «збоченій бездоганній логіці». Якщо є інтерес, можна і далі знайомитися з його «описами реальності», і як то кажуть, такого бота можна «використовувати» у своїх цілях без будь-яких моральних застережень, але сприймати його висновки та описи за щось дійсно реально вартісне не варто.

А далі можна продовжити виклад матеріалів щодо методів маніпуляції суспільною свідомістю з боку соціальних ботів.

Узагальнення. За цим методом маніпулятор певні часткові випадки починає видавати як загальну тенденцію. Тобто, дуже часто в тексті чи виступі можна почути певне твердження (чи набір тверджень), а пізніше наводиться один чи декілька випадів (прикладів) з реальності з констатацію: «це підтверджує тільки що сформовані твердження». Власне маніпуляція тут полягає в тому, що жоден випадок (приклад) не може підтвердити певне твердження, бо або це твердження може бути сформовано за методом «Підміни реальності» і маніпулятор в догоду «вибирає» необхідний «випадок» ("приклад") чи тлумачення. Або навіть якщо твердження і повністю відповідає чинній навколишній реальності, використаний випадок (приклад) відповідає наявним в певний момент умовам, що можуть більше не повторитися чи повторюватися циклічно, і це твердження не може бути застосовано весь час. Загалом певний випадок (приклад) чи випадки не можуть підтвердити будь-яке твердження, навіть якщо воно певному читачеві видається "очевидним", а можуть тільки проілюструвати його. Як правило конструкція "те то і те то підтверджує раніше сформований висновок" дуже часто є маніпулятивним, бо правильнішим є  "те то і те то ілюструє раніше сформований висновок".

Як наслідок, будь-який випадок (приклад), що задовольняє вимоги твердження, не може підтвердити це твердження — цей випадок (приклад) може тільки проілюструвати, або заперечити твердження. Останнє змушує того, хто сформулював твердження, починати вносити корективи у твердження, щоб знайдений випадок (приклад) почав ілюструвати це нове уточнене твердження, тобто твердження вже буде подаватися зі зменшеною загальністю у своєму формулюванні. І так далі. Тобто загалом твердження у формі як є, вважаються істинними, якщо не знайдено випадку (прикладу), що задовольняє усі властивості твердження і такого, що може заперечити це твердження. Власне це є базове поняття мислення, яке бере свій початок ще від давньогрецького філософа Сократа з його методом спростування. Його ще називають методом Сократа, і який детально описаний в працях іншого давньогрецького філософа Платона. Власне висуваючи певне твердження змішане з "Напівправди", "Підміни реальності" та "Абсолютної очевидності" як узагальнення і є ціллю соціальних ботів, коли дискусію перетворюють на безрезультативні суперечки.

Тобто, тут працює доволі просте правило: "твердження вважається істинним, якщо не знайдено його заперечення". З цим правилом знайомі усі, хто справді можуть вважатися причетними до наукової діяльності і його слідування й формує саме поняття про дискутування. Тобто, якщо один опонент висунув якесь твердження, а інший опонент знайшов його заперечення, тоді починається обговорення і дискутуючі сторони визначають: або для твердження потрібно додати додаткові умови, коли воно залишається істинним, бо ось знайдено випадок (приклад), що не дозволяє застосовувати це твердження в умовах такого випадку (прикладу). Або знайдений випадок (приклад) побудовано на таких умовах, що не відповідають сформованому твердженню, тобто випадок (приклад) є помилковим. Для непричетних виглядає, що "ось воно, ха-ха, одна сторона програла — ату-ату ту програвшу сторону" або "чого ж фраєр здав назад". Для причетних же до наукової діяльності ніякого "програшу" немає, бо, як кажуть, перемогла істина. Ніколи не можна ніякого твердження приймати на віру просто так, якщо це твердження не пройшло перевірку на заперечення.

Як правило, закинути таку перевірку на слідування цьому правилу, є цілком логічно щодо кожної особи, що заявляє про причетність до наукової діяльності.  Якщо соціальний бот, для прикладу "класичний" для цього циклу "Serhiy Grigorovich", що маскується "дотичним до наукової, методичної, просвітницької,... діяльностей" починає "мережеві істерики" на знайдені приклади, що заперечують його твердження, чи починається "атака підшефної йому ботоферми", то тут практично однозначно можна говорити про власне відсутність такої дотичності до наукової діяльності. Соціальний бот навіть може "ушляхетнити" атаку ботоферми стилем "сенсей та послідовники", як робить це інший, дуже відомий, мережевий персонаж — Олексій Арестович, що також полюбляє себе зараховувати до причетних до "просвітництва". І, можуть втрачати "мережеве обличчя" власне реальні науковці, які в мережі долучаються до "мережевих срачів".

Дискусія "твердження-заперечення" перетворюється у "срач", якщо опоненти, замість перегляду свого твердження та заперечення, йдуть "простим шляхом" — будь-яким тиском або "продавити" свою думку, або "натерти гнилим оселедцем" опонента. В древності сенсей відправляв своїх учнів побити опонента, в СРСР можна було звернутися за "допомогою у продавлюванні" до райкому компартії, чи до комітету держбезпеки, або "натерти гнилим оселедцем" через характеристику чи "пропісочивши" на зборах трудового колективу. Зараз, у мережі, можна запустити атаку ботоферми.  

Залякування. Тут маніпулятор за шальки терезів суспільної свідомості ставить два Зла: одне — велике та жахливе, інше — трохи менше, а отже інтуїтивно сприйнятливіше і навіть іноді привабливіше. Цей метод застосовується для вибудовування суспільної свідомості так, щоб загалом суспільство мало саме вибрати "менше зло". Це є спотворений метод вікон можливостей, або інакше "Вікон Овертона" за яким для основної частини суспільства в кожен проміжок часу є діапазон ідей та тем, прийнятних до дискусії.

Загалом "вікна Овертона" сам по собі є доволі підступний прийом. За цим методом, в певний момент часу відкривається "вікно можливостей" для обговорення певних тем та ідей, які власне можуть бути сприйняті у суспільстві, або в цей час особи, що висловлюють свою точку зору, не будуть автоматично скомпрометовані в очах оточення, тобто їх дискусійні аргументи будуть взяті до уваги, а не зразу відкинуті. Як зрозуміло, якісний та відповідальний соціальний інженер, користуючись ось цим вікном можливостей, може запустити певні позитивні процеси, однак загалом історія знає радше більше негативних прикладів. До найпростішого негативного прикладу можна віднести Жовтневий переворот 1917 року в Російській імперії, коли доволі маргінальна на той час партія більшовиків Леніна-Троцького зуміла захопити й надалі втримати владу та кардинально вплинула на історію всього людства. До позитивного прикладу напевно можна віднести часи президенства Рональда Рейгана, що зумів скориставшись введенням СРСР військ в Афганістан розвернути світову суспільну думку так, що навіть відкриття СРСР своїх ресурсів для Європи (нафто- та газогони), не змогло врятувати економічну та соціальну ситуацію в тій країні, що стало причиною її розвалу.

Так от, спотворення механізму "вікон можливостей" до дискусії, яке із Зол вибрати, попри те, що всі дискусанти висувають аргументи на користь Зла (не має значення — великого чи маленького, за інших обставин їх аргументи взагалі б не бралися до уваги), і складає основу методу залякування. Деструктивізм тут також полягає в тому, що почуття страху є звичайним проявом людських емоцій, і тут деструктивний соціальний бот ще й збільшує загальну нервозність суспільства, якщо, окрім того, висуває абсурдні аргументи до цієї дискусії, або паразитує на інформаційній хвилі такої дискусії, привертаючи увагу до своїх матеріалів з використанням різних залякуючих конструкцій, наприклад, у заголовках своїх матеріалів для "клікабельності". Щонайменше неадекватність особи може прослідковуватися в поясненнях, що до своїх матеріалів він змушений для "клікабельності" додавати заголовки стилю "ви всі помрете, якщо не подивитися цей матеріал", або "вас посадять у в'язницю, якщо ви не виконаєте таку дію", чи "вас будуть так називати, якщо ви не будете виконувати таке розпорядження". А от далі в самому матеріалі чи виступі він вже буде виключно доброчесно переслідувати цілі "просвітництва суспільства". Тобто, загалом він на стороні добра, але ось загальні інформаційні тенденції ну просто змушують його вдаватися до такого стилю. Або, знову ж таки, ось вже "Золоту кнопку Youtube" він отримає, дотримуючись усіх моральних принципів, але "Срібна кнопка Youtube", як ціль, виправдовує застосування усіх засобів та способів. Або пізніше він це почне говорити стосовно золотої та діамантової кнопки, чи діамантової та рубінової. Ну Ви зрозуміли ці цинічні "гнилі відмазки".

Як можна очікувати від дезорієнтованої та знервованої особи та й суспільства загалом, збільшення продуктивності праці, ініціативності чи креативності, зростання патріотизму? Але загалом соціального бота у його "засліпленні просвітництва суспільства" не хвилює використання механізму залякування. А особливо цинічні ще й будуть розповідати, що он за Сталіна була "ого-го яка промисловість", попри реальне, а не тільки інформаційне залякування. Як би тут потрібно нагадати, що тотально залякане тогочасне суспільство демонструвало одну з найменших у світі продуктивностей праці та загородзагони "стимулювання патріотизму" попри державну пропаганду "стахановців" та "матросових".

Тому, й для таких горе просвітників, які вдаються до залякування, можна тільки нагадати прислів'я, що благими намірами встелена дорога до пекла. І попри їх реальну публічність (присутність наживо на Youtube, а не тільки "голосом" за кадром), відносити їх не до "суспільних просвітників", а до соціальних ботів. Якби для "клікабельності" заголовків можна і "напружитися" за потреби, поритися в книжках та мережею й просувати мережею інші методи спонукання, ніж використання примітивного залякування, яке очевидно значно простіше у застосуванні.

Інформація із відкритих джерел. Повернувшись до початку посту, до абзацу про навколишню та інформаційну реальність, далі опишемо метод соціальних ботів, що дозволяє їм формувати свою "збочену віртуальну реальність" побудовану на "їх логіці".

Саме поняття інформації із відкритих джерел застосовується тоді, коли явно не подається інформація, яку людина шукає. Наприклад, не можна знайти у відкритому доступі даних, скільки, наприклад, снарядів противник підвозить на певну територію. Але, це можна оцінити, порівнявши дані про залізничні перевезення у довоєнний час з даними про залізничні перевезення під час війни. За зміною кількості пройдених поїздів та оцінці кількості снарядів у вагоні можна зробити вже певні висновки. І тому подібне, думаю загальний принцип зрозумілий — це так званий опосередкований спосіб пошуку необхідної інформації.

Для подальшого потрібно зробити невеличкий екскурс в історію. За часів СРСР тогочасна пропаганда дуже часто вдавалася до такого прийому: формувалося певне повідомлення про проблеми "загниваючого Заходу", яке навіть просто видумувалося. Пізніше на тому ж Заході шукалася газета чи журнал, яка погоджувалася опублікувати це повідомлення (чи через маніпуляцію "свободою слова", чи через фінансове стимулювання). Це повідомлення публікувалося у західному виданні і радянська пропаганда могла "підтверджувати" власному населенню свої вигадки про "загниваючий Захід" в стилі: "ось дивіться, ми говоримо вам "правду" про "загнивання Заходу", бо ось є "підтвердження" власне у їх ЗМІ".

А тепер повернемося до наших соціальних ботів. Так от, суспільний бот генерує певні меседжі, ретранслюючи їх у суспільство. На слушне та цілком логічне запитання, на чому ґрунтуються ваші меседжі та висновки, слідує відповідь: "на інформації із відкритих джерел". На додаток до цього, на уточнювальне запитання: "з яких джерел? Можете дати посилання?", слідує або відповідь стилю: "ну як же, це всім відомо, про це всі говорять", або інша відповідь стилю: "я не хочу тут займатися рекламуванням джерел, інформацію з яких ми тут обговорюємо". Як то кажуть, для соціального бота формується комбінація "флеш-рояль", або він вважає себе хитріше зробленим.

Думаю, що для більшості читачів, як кажуть євреї, "весь цимес" ситуації має бути зрозумілий, але все ж таки намалюємо можливі сценарії. Логічність питання: "звідки берете інформацію" має бути цілком очевидна. За сумнівів у правдивості наведених даних та висновків хочеться прослідкувати, на основі яких даних ці висновки зроблені? Чи це реальні факти, чи вони дійсно беруться у потрібному контексті, чи отримані з надійних та перевірених джерел?

Так от, варіант "ну як же, це всім відомо, про це всі говорять" за деструктивністю може оперувати такими сценаріями:

Якщо говорити про "я не хочу тут займатися рекламуванням джерел, інформацію з яких ми тут обговорюємо", то тут взагалі просто "клондайк" для деструктивної діяльності. Ворожа пропаганда абсолютно спокійно може створити, наприклад, телеграм-канал, за стилем "60 на 40", ба більше — навіть 90 на 10, "патріотичний із патріотичних" за 90 відсотками поданої в ньому інформації, але ось ці 10 відсотків залитих відео бойових дій, "одкровень якихось людей у балаклавах з українськими шевронами", описами бану в західних соціальних мережах за патріотичні висловлювання, ну можливо з невеличкими, побутово звичними закидами стилю "гнилого оселедця" для привертання уваги авдиторії і тому подібне. І ось, для нашого соціального бота просто створили джерело даних для його діяльності, і ці 10 відсотків дези він понесе далі у мережу, засліплений своєю "інформаційно-месіонерською місією". Більш навчені чи досвідчені мережеві мешканці могли б зрозуміти, що це генерує не деструктивний троль, а "корисний ідіот", якби знали звідки взято ці дані.

Ну, і зрозуміло, що цим: "я не хочу тут займатися рекламуванням джерел, інформацію з яких ми тут обговорюємо" можна також замаскувати просто "взяті зі стелі" соціальним ботом твердження та висновки.

Щодо рекомендації, то будь-яка інформація чи висновки мають бути такими, щоб можна було прослідкувати весь ланцюжок її походження. Просто якесь відео чи текст з мережевого майданчика, чи телеграм-каналу може бути виключно розважальним контентом, і ніяк не слугувати джерелом прийняття Вами життєвих чи професійних висновків. Особливо, зараз, коли інформації багато, а часу, щоб ознайомитися з нею мало. Краще не витрачати свій дорогоцінний час за слідкуванням за сумнівними джерелами.

Далі буде...