Научно електронно списание за медии, PR, журналистика, бизнес комуникация и реклама

Съдържание

Дигиталният надзор: критика на поведенческото моделиране

Медии и обществени комуникации

Резюме

В статията се изследват ефекти на дигитализацията, които могат да са предизвикателства пред индивидуалната свобода и обществената структура, видяни в обектива на технологичната етика. Въвежда се концепцията „дигитален паноптикум“, осветляваща  тенденцията за „програмиране на човека да действа по предписание“, като се дискутират нови форми на социален контрол. Критически се анализира ролята на технологиите в процеса на алгоритмично моделиране на поведението на потребителя и автоматизираното вземане на решения, които могат да подтикнат към дигитални зависимости и ограничаване на автономността. Акценти са „невидимите“ дигитални механизми на глобалния пазарен капитализъм, които предпоставят човешките избори чрез използването на лични данни като икономическа стойност. В тази нова реалност индивидите стават пасивни участници в процеси, които не разбират напълно, като губят контрола върху собствените си избори и желания. Аргументира се тезата, че съвременните технологии, възприемани като инструментариум на нова икономическа рационалност, улесняват формирането на тоталитарни модели на подчинение, при които властта и информацията се централизират, а автентичността на изборите, прозрачността в отношенията и свободата на личността са поставени под въпрос. Подчертава се необходимостта от нови регулаторни механизми за постигане на баланс между технологичните иновации и общочовешките ценности, лежащи в основата на демократичните принципи. Сред препоръките за ограничаване на т. нар. „техно-тоталитаризъм“ са: изискване за разбираемост на алгоритмите, децентрализация на дигиталните платформи и етичен дизайн.

Ключови думи: дигитален паноптикум, дигитален надзор, технологии, етика, техно-тоталитаризъм.

Summary

This article examines the effects of digitalization that may pose challenges to individual freedom and societal structure, viewed through the lens of technological ethics. The concept of the „digital panopticon“ is introduced, shedding light on the tendency to „programming the human to act by prescription“ while discussing new forms of social control. The role of technologies in the process of algorithmic modeling of user behavior and automated decision-making is critically analyzed, with an emphasis on how these processes may push individuals toward digital dependencies and limit autonomy. The focus is on the „invisible“ digital mechanisms of global market capitalism, which precondition human choices by utilizing personal data as an economic asset. In this new reality, individuals become passive participants in processes they do not fully understand, losing control over their own choices and desires. The thesis argues that modern technologies, as instruments of a new economic logic, also facilitate the creation of totalitarian models of subjugation, through which power and information are centralized, while the authenticity of choices, transparency in relationships, and individual freedom are called in question. The need for new regulatory mechanisms is emphasized, to achieve a balance between technological innovations and universal human values that underpin democratic principles. Among the recommendations to limit so-called „techno-totalitarianism“ are the requirement for algorithm transparency, decentralization of digital platforms, and ethical design.

Keywords: digital panopticon, digital surveillance, technology, ethics, techno-totalitarianism.

Съдържание

Увод

В епохата на ускорена дигитализация, човешкото поведение и социалните отношения все по-често се преплитат с непроследими, неверифицирани структури от информационни данни и алгоритми. Това създава нова онтология на публичното и частното, на видимото и незабележимото, на избора и неговата предварителна предзададеност. Технологиите (ТТ) – някога възприемани като неутрални инструменти в служба на човешката воля – днес все по-често играят ролята на посредници, които не само разширяват хоризонта на възможното, но и оформят условията, при които мислим, действаме и вземаме решения. Те конструират среда, в която всяко поведение се наблюдава, изчислява и прогнозира. В тази трансформирана реалност, етическият фокус постепенно се измества – от въпроса кой насочва технологичното развитие към въпроса как самата природа и силата на технологичните системи оформят модели на „централизирана власт“ [1] и проблематизират основанията на личната автономност.

Технологичните новости – в духа на понятието pharmakon [2, 3] – проявяват амбивалентна природа: те функционират едновременно като средство за растеж и като потенциален носител на зависимости и подчинение. От една страна, създават нови форми на мобилност, свързаност и достъп до знание; от друга – внедряват механизми за моделиране на обществени нагласи, междуличностни отношения и индивидуално поведение. ТТ освобождават и ограничават; свързват и сегрегират; улесняват избора и го подменят същевременно.

Сиглър разгръща тази двойственост върху схващането, че ТТ структурират темпоралността на човешкия опит –  от инструменти в услуга на човека, се превръщат в протези на съзнанието [4]. В ерата на дигитализацията подобна „протеза“ се слива с индивидуалното Аз; тя възпроизвежда една различна когнитивна инфраструктура, която прерамкира човешкото възприятие, внимание, памет и воля. Критическите коментари на Зубоф в рамките на концепцията за „надзорен капитализъм“ [5] изострят разбирането, че икономическите субекти не само регистрират човешкото поведение, но и активно го моделират чрез алгоритми, целенасочено манипулиращи бъдещи действия. В тази парадигма желанието се транспонира в икономически предсказуем актив, а свободата – в статистически артефакт. Подобен подход изисква преразглеждане на етически валидния избор, особено когато – както подчертава Харари [6] – дигиталните системи започват да идентифицират и интерпретират нашите мотивации с по-голяма точност от самосъзнанието. Оказва се, че живеем в свят, в който сме застрашени от „хакване“ [7], в който „вече не ние използваме технологиите – те използват нас“ [8].

Тези критики намират продължение в анализа на Паскал, който насочва вниманието към познавателната непрозрачност на алгоритмичното управление [9]. Според него „невидимите“ решения, вземани от автоматизирани системи (като изкуствения интелект, биометричния мониторинг, алгоритмичната цензура), препятстват всякаква форма на лична съпротива. Това показва, че ако не разбираме логиката на една система, не можем нито да ѝ се противопоставим, нито да я подложим на морална преценка. Подобна среда, съставена от невидим надзор, поведенческа предикция и алгоритмична селекция, изтънява границите между свободата и контрола до степен на взаимна подменяемост.

Съществуват основания за тревога и по отношение на етическите и правни последствия от подобни процеси. Алгоритми, които влияят върху достъпа до работа, кредит, образование или здравеопазване, често оперират със структурно заложени предразсъдъци [10]. В този контекст социалната справедливост и индивидуалната автономност се оказват обект на системни деформации, които изискват нова форма на отговорност – едновременно технологична и морална. Именно в това напрежение между (технологична) функционалност и (надзорна) власт се заражда необходимостта от критичен етико-философски анализ.На този фон се появяват редица въпроси, които придобиват интердисциплинарна насоченост. Какво означава автономност в контекста на алгоритмична прогнозируемост? Доколко личната свобода остава устойчива, когато индивидуалните избори са системно моделирани на основата на дигитални профили? Какви форми на демократично участие са възможни, когато публичната сфера е организирана от непрозрачни логики на персонализация, филтрация и контрол?

Настоящото изследване не противопоставя човешкото и технологичното, а се стреми да осмисли онези гранични полета, в които тяхното съжителство поражда дълбоки етически и психологически предизвикателства. Целта е да се аргументира тезата, че иновативните ТТ, отвъд тяхната инструментална ефективност, функционират като форми на социално инженерство, които преобразуват екзистенциалните модалности на свободното действие и себерефлексията. Въз основа на съвременни концепции от технологичната етика и когнитивната психология, са интерпретирани както трансформациите в понятието за власт, така и невидимите механизми, чрез които автономността постепенно се заменя с поведенческа предсказуемост. Към анализа се подхожда критично, но и съзидателно – не просто да посочва рискове, а да поставя въпроси за възможностите: за нов тип дигитална отговорност, за етика на алгоритмите, за преосмисляне на човешката автономност в един взаимосвързан, кибернетичен свят.

1. От класически тоталитаризъм към „дигитален паноптикум“

Социалният контрол е неизменен спътник на властта във всичките ѝ исторически и културни форми. От централизирания надзор във времето на абсолютните монархии [11] до инструментите за пропаганда и цензура на тоталитарните режими през XX век [12], ТТ винаги са изпълнявали функцията на дисциплинираща инфраструктура, целяща редуциране на несигурността чрез поведенческа предвидимост. В съвременния дигитален свят тази парадигма претърпява качествен скок: ТТ не просто поддържат ред – те го проектират предварително. За разлика от пряката физическа принуда/санкция, типична за класическите форми на тоталитаризъм, съвременният дигитален контрол функционира чрез „прогнозна аналитика“ [13], основана на масово събиране на поведенчески данни. Възможността за непрекъснато извличане и селектиране на данни трансформира самото понятие за контрол – той става невидим, персонализиран и динамичен, като повлиява поведението ни в реално време. Това затруднява идентифицирането му като властова интервенция. Социалният контрол става ефективен не чрез забрани, а чрез конфигуриране на предпочитания, афекти и очаквания.

Преходът от явна интервенция към неосезаем дигитален надзор изисква преформулиране на класическите понятия за власт и автономност. Става дума за преминаване от телесна регулация към алгоритмично моделиране на избора – процес, който все повече се доближава до онова, което можем да определим като „дигитален паноптикум“. Като моделират потребителски предпочитания чрез скрити механизми, дигиталните алгоритми заобикалят съзнателното и консенсусно вземане на решения. Платформи като Google и Meta извличат стойност от поведенчески излишъци – данни, които надхвърлят необходимото за предоставяне на услуга, и се използват за прогнозиране и модулиране на бъдещо поведение [14]. Социални мрежи, мобилни приложения, алгоритми за персонализирани реклами и системи за препоръки (например: Netflix, Amazon, YouTube) оформят бъдещето ни още преди да осъзнаем, че сме „програмирани“ да следваме определен път. Тази „метаморфоза на социалната реалност“ в различна степен променя онтологичните хоризонти за формиране на моралното мислене и действие. При това автономността е силно ограничена. Разграничаването между „видима“ и „невидима“ власт, интерпретирано като модерна форма на тоталитаризъм, е едно от най-ярките прозрения, които се пренасят и в дигиталния свят. Затова е необходима не просто техническа, а дълбоко етически ангажирана критика на новите механизми за влияние – включително тяхната съвместимост с ценностните идеали за свобода, добродетел и демокрация.

Дигиталният надзор не се изчерпва с външно наблюдение – той прониква в структурата на субективното действие. За разлика от тоталитарните модели, които разчитаха на явна цензура, принуда и репресии, съвременните технологии постигат сходни резултати чрез автоматизирано моделиране на възприятието, вниманието и волята. Паскал например твърди, че алгоритмите, които управляват дигиталната среда, работят като „черни кутии“, чиято логика остава скрита дори за регулаторите [15]. Той посочва, че властта вече не се упражнява чрез физическа принуда, а чрез непрозрачни механизми, които оформят възприятията и изборите ни, без дори да го осъзнаваме. Тази идея кореспондира с популярната метафора за „паноптикум“ (J. Bentham), доразвита в структуралистките и постструктуралистките концепции за властта, по-конкретно – от Фуко [16]. Той описва паноптикум, където властта се екстраполира чрез „невидим надзирател“, което ѝ придава ефективност и неоспоримост. Външното упражняване на контрол води до интернализиране на този контрол. Така властта елиминира всяка форма на съпротива чрез оперантно обусловена саморегулация (основен подход на бихейвиоризма). Днес този механизъм е усилен с изкуственият интелект (ИИ) и неосезаемото управление на данни [17, 18, 19, 20]. В дигиталната ера подобен принцип се прилага в нов контекст: алгоритмите на ИИ действат като незабележими пазители на социалния ред, формиращи наши нагласи и поведение, и дори представите ни за свободна воля. Така например, ИИ функционира тук не като инструмент, а като психополитически агент (B. Han) – той не просто събира и сортира информация, а я вгражда в психичното на субекта, конструирайки желания, идентичности и светоглед [21].

Паноптикумът вече не е физическа архитектура, а организация на потока от съдържание, алгоритмично персонализирана за всеки дигитален потребител, в който индивидът не е просто надзираван, а активно програмиран да действа по предписание. Последното позволява формулиране на понятието „дигитален паноптикум“, опериращ по метода на това, което можем да наречем „дигитален надзор“. Неговата функционалност е детерминирана от три основни фактора:

  • Масово събиране на данни – корпорации и правителства натрупват безпрецедентно количество информация за всеки дигитално свързан потребител. Всяко кликване, пауза, търсене, гласово запитване и реакция става част от глобален профил, който надхвърля дори познанието на индивида за самия себе си.
  • Алгоритмично вземане на решения – автоматизираните системи определят кои новини и реклами получаваме и дори какви работни възможности ни се предлагат. Дигиталните платформи избират какво виждаме, какво пропускаме, кого срещаме, какво четем, и с кого влизаме в спор.
  • Непрозрачност на технологичния контрол – ако класическите тоталитарни режими разчитат на принуда, то дигиталните ТТ постигат същия ефект чрез персонализирано съдържание и когнитивни пристрастия [22]. Това кореспондира и с концепцията за мека намеса(soft paternalism), която Thaler и Sunstein въвеждат в тяхната теория за „побутването“ (nudge theory), целящо проектиране на избора [23]. Само че, в дигиталния свят, това побутване се случва милиони пъти в секунда, в глобален мащаб и без съзнателно участие на индивида. Това вече не е етика на избора, а алгоритмична икономика на внушението.

Сравнявайки класическите тоталитарни стратегии с дигиталния контрол, можем да заключим, че вторият се отличава със своята висока ефективност, дискретност и адаптивност. Ясен пример за подобен подход е социалната кредитна (рейтингова) система в Китай, която е в пилотна фаза от 2014 г. [24]. Правителството прилага всеобхватен дигитален надзор върху поведението на гражданите – от коректността на финансовите плащания и съдържанието на онлайн публикации до социалните контакти. Нисък рейтинг може да доведе до ограничения в пътуванията, трудовия пазар и достъпа до обществени услуги. Тази система олицетворява институционализирана форма на дигитален паноптикум, при която контролът не се осъществява чрез репресия, а чрез алгоритмична регулация на репутацията. Тя показва фундаментално изместване на понятието за власт, която вече не се изразява чрез забрана, а чрез алгоритмична „геймификация“ на лоялност и послушание.

Като допълнителна илюстрация може да послужи и емблематичното изследване на Крамер, Гилори и Ханкок, проведено с подкрепата на Facebook [25]. В рамките на този експеримент платформата манипулира новинарския поток (newsfeed) на 689 003 потребители, променяйки съотношението между позитивно и негативно съдържание, без тяхното знание и съгласие. Целта е била да се провери дали емоциите могат да бъдат цифрово „заразни“. Резултатите потвърждават, че потребителите, изложени на повече негативни постове, сами започват да публикуват повече негативно съдържание – и обратното. Този експеримент е от особено значение за анализа: той показва как дигиталната среда може неподозирано да моделира както поведения, така и афективни състояния. Това е ключова характеристика на дигиталния паноптикум – не просто надзор, а „инжектиране“ на определени емоционални импулси, които усилват зависимостта от платформата и редуцират автономността на субекта.

Особено уязвими при такъв режим са младите поколения, които прекарват средно 7 часа дневно в дигитална среда [26]. В този контекст всяко действие – харесване, коментиране, споделяне – бива подложено на метрики, сравнение и алгоритмична оценка. Културата на „харесвания“, броене на гледания и поддържане на дигитална видимост чрез алгоритми води до социална инфантилизация, при която валидирането на идентичността се измества от вътрешния свят на индивида към външния, машинно регулиран поглед.

В този смисъл дигиталният паноптикум не е архитектура от бетон и решетки, а интерфейс – една архитектура на вниманието. Структурните елементи на социалните мрежи – непрекъснатото скролване, push-нотификациите, автоматичното възпроизвеждане – са на пръв поглед неутрални, но са инженерно проектирани с цел поведенческа модулация: задържане на вниманието, удължаване на престоя, максимизиране на ангажираността и, в крайна сметка, монетаризация на потребителските данни. Това трансформира паноптичния модел от чисто политически механизъм в етичен, икономически и психосоциален въпрос.

Традиционно търсеният от античната и класическа философия баланс между контрол и свобода, в съвременния дигитален свят изглежда нарушен в полза на централизацията на информация и власт. Възходът на цифровия надзор поставя под въпрос традиционните представи за демокрация и автономност. Както твърди Братън дигиталната среда не е просто инструмент за наблюдение – тя пренаписва правилата на социалните и властовите отношения, създавайки нови форми на зависимост с цикличен характер [27]. Това директно кореспондира с теорията за „порочните кръгове на допамина“, развита от Лембке [28]. Тя анализира алгоритмите, които стимулират отделянето на допамин, посочвайки, че те го правят непрекъснато, за да ни задържат пред екрана. Така се пренастройва работата на човешкия мозък за повишаване толерантността ни към пристрастяване и намаляване способността за самоконтрол. Психологическият ефект е задействане на т.нар. система 1 в модела на Канеман – бърза, автоматична и емоционална преценка – за сметка на система 2, която изисква волево усилие и рационална обработка [29]. Така индивидът все по-малко действа, но все повече реагира – импулсивно, несъзнателно и предсказуемо. Това води до „външно моделирано съзнание“, под въздействието на външни технократични интереси, а не в резултат на вътрешна автономна рефлексия.

Зависимостите, както и ефектът на предсказуемост на поведението, са диктувани от потребността за социално взаимодействие, информация и валидиране. Те лесно могат да се култивират в платформи като Facebook, Instagram или X (Twitter) и да станат елемент в културата на лайковете, автоматизираните реакции и постоянното сравнение с другите.

Индивидуалното поведение в тази антиутопична перспектива на дигиталната комуникация не бива санкционирано. Дигиталните платформи по-скоро насочват вниманието ни, награждават ни с лайкове, изолират ни във балони от съгласие и дозират допамин, когато се държим „както трябва“. Това е оперантна обусловеност, вече не в лабораторията на Скинър [30], а в ежедневието ни. Подобни процеси налагат създаването на нова етично-правна регулация и критично преосмисляне ролята на ТТ в обществото. Алгоритмичният контрол може да бъде ефективен и удобен, но без демократичен механизъм за прозрачност и отговорност той носи риск да превърне дигиталното пространство в своеобразен техно-тоталитаризъм.

2. Автономност и демократичен дефицит в условията на дигитален паноптикум

Поведенческото моделиране в контекста на дигитализация поставя под въпрос основни етични принципи като автентичността на изборите, свободата на личността, социалната справедливост и пр. Когато възможността за избор е редуцирана до технологични решения, които не само го предсказват, но го и заместват, е логично да се запитаме: могат ли дигиталните ТТ да съществуват в синхрон с основните човешки ценности, или неизбежно ще репродуцират форми на доминация, контрол и манипулация?

Класическата философия разглежда автономността като основополагаща ценност в постигането на морална зрялост и морална отговорност. За Кант тя е символ на идеала за свободна воля, на способността на индивида да се идентифицира не с желанието или външната принуда, а с неговото „по-висше“, рационалното Аз [31]. В дигиталния свят обаче автономността е застрашена от алгоритми, които не просто предлагат избори, а формират условията, при които тези избори се случват. Според Зубоф, когато корпорациите обработват данни за нашите мисли, емоции и поведение, те подменят избора ни с предварително програмирани предразположения [32]. Тук възниква етичната дилема: може ли да мислим за някого, че е независим, ако неговото поведение е резултат от алгоритмични внушения?

Когато алгоритми на YouTube или TikTok подбират съдържание, базирано на поведението на милиони потребители със сходен профил, те не само прогнозират какво ще бъде интересно за тях, но и дирижират вниманието им така, че то да следва най-вероятния, а не най-смисления път [33, 34]. Неврокогнитивните изследвания сочат още, че честото взаимодействие с дигитални алгоритми води до засилване на автоматичните реакции и отслабване на изпълнителните функции, свързани със саморефлексията, моралната преценка и отговорността [35, 36]. Това означава, че индивидът става все по-малко автор на действията си и все повече техен потребител.

В либералните демокрации легитимността на властта произтича от информираното съгласие на гражданите. Тук се корени фундаменталният проблем на „алгоритмичното управление“: може ли да има реално съгласие, ако самото информиране е алгоритмично насочвано и филтрирано? Морозов е категоричен, че дигиталната власт оперира на равнище, на което съгласието не се изисква, защото системата знае достатъчно, за да предвиди нуждите на субекта [37]. Това е форма на технократична патернализация, в която контролът е облечен в реторика на удобството и ефективността.

От тази гледна точка понятието за демократичен дефицит придобива ново измерение: не става дума само за липса на участие в институционалните процеси, а за конституиране на политическата воля чрез технологични интерфейси, които предварително стесняват хоризонта на мислимото и възможното. Според Морозов, дигитализацията не гарантира демокрация [38]. Напротив, тя може да доведе до един вид „авторитаризъм по подразбиране“, ако липсва адекватна регулация. Той смята, че властта в дигиталната ера принадлежи не на тези, които гласуват, а на тези, които притежават алгоритмите [39]. Последното поражда дилемата: може ли демокрацията да функционира в условията на информационна асиметрия, при която корпорации разполагат с несравнимо повече данни и контрол от самите граждани? В духа на Хабермас, демокрацията изисква участие в рационален публичен диалог[40]. Но когато информационният поток е управляван от алгоритми, диалогът става продукт на корпоративни интереси.

Разширявайки тази теза, Варуфакис твърди, че алгоритмите на дигиталната икономика водят до замяна на пазара с нова форма на дигитална рента, при която технологичните гиганти не просто участват в икономиката, а контролират нейната логика – определят какво е търсене, какво е предлагане, как се дефинира стойността [41]. Това е отказ от либералния идеал за пазарна саморегулация и демократичен достъп, и преминаване към цифрово феодално разпределение, при което достъпът до данни е новата монета на властта. В съвременната икономика поведението е новата „суровина“, която се добива, анализира и продава – и в този смисъл индивидът вече не е субект, а ресурс. Това означава, че алгоритмите не просто „показват съдържание“, а „предначертават възможните маршрути на избора“, като премахват алтернативите или ги правят недостъпни. Така свободната воля се свива до псевдоизбор, моделиран от цифровата трансформация.

Тази асиметрия е остро проблематизирана и от Паскал, който смята, че алгоритмите компрометират правовия ред, защото не подлежат на одит, оспорване или разбиране дори от самите технолози [42, 43]. Властта тук не е легитимирана по силата на социален договор, а заради техническата необходимост, която трудно може да бъде отхърлена. Това води не просто до технологична зависимост, а до епистемологично обезсилване на гражданството – хората вече не знаят какво точно ги управлява, а още по-малко – как да се противопоставят на него.

В тази перспектива, традиционните форми на политическо представителство започват да изглеждат все по-символични, докато същностната регулация на човешкото поведение се извършва чрез непрозрачни корпоративни алгоритми, чието функциониране излиза извън обхвата на демократичния контрол. Това поражда следния парадокс: демократичните общества функционират в условия, в които реалната власт е все по-малко подложена на демократични механизми.

Психологическите изследвания подкрепят тази теза: когато хората усещат, че поведението им е предвидимо или манипулирано, намалява чувството им за лична отговорност, а с това и мотивацията за етичен избор [44]. Така дигиталната среда не само ограничава автономността – тя реконструира фундаменталното разбиране за личност и свободно действие.

Всичко това насочва вниманието към етическите последици от дигиталното моделиране. Когато поведението бива прогнозирано и преобразувано, възниква въпросът: може ли да има морална отговорност за действия, чиято мотивация е технологично индуцирана? В цифровизацията на ежедневието ни вината се размива, тъй като решенията вече не са лични, а резултат от сложни вериги на дигитални зависимости [45]. Това води до грешки в етическия компас и до дълбока криза в способността на индивида да възприема себе си като автономен морален агент.

Ако приемем, че дигиталният надзор не е неизбежен, то как следва да противодействаме на технологичния тоталитаризъм? От направения анализ дотук, можем да изведем няколко етични правила, които биха възпрепятствали споменатите рискове:

  • Прозрачност и отговорност – създаването на регулаторни рамки, които да изискват разбираемост на алгоритмите [46], получаване на информирано съгласие и поверителност на данните.
  • Дигитална децентрализация – създаване на дигитални платформи с повишена автономност на потребителя, за да се намали концентрацията на власт в ръцете на малък брой технологични корпорации [47].
  • Етичен дизайн – въвеждане на подхода на „технологичната хуманизация“ (включващ емпатия, приобщаване, достъпност), който изисква етично-съобразени алгоритми и поверителност на личните данни.

3. Психосоциални и етични аспекти на дигитализацията

Контролът на информацията е централен инструмент за формиране на обществени нагласи и поведение – от класическите техники на пропагандата, описани от Е. Bernays до модерните алгоритмични манипулации [48]. Ако в миналото властта е разчитала на медийна цензура, днес корпорации и политици използват микротаргетирането с цел убеждаване и когнитивно-поведенческа модификация. Добре проучени са например въздействията на алгоритми в социалните мрежи и търсачки (напр., Facebook, Instagram, Google), свързани с явления като „филтърни балони“ и „ехо-камери“ [49, 50]. Въпреки че филтърните балони се формират главно чрез алгоритмично персонализиране на съдържание, а ехо-камерите – в контекста на груповата динамика, и двата феномена водят до повишена поляризация, ограничаване на критичното мислене и затвърждаване на стереотипни нагласи, което затруднява диалога и препятства разширяването на мирогледа. Те създават изолирана информационна среда, в която потребителят целенасочено е изложен на само едно конректно съдържание, което да потвърди неговите предпочитания, и така игнорира или не получава нова и различна от неговата перспектива.

В дигиталното пространство обаче властта над съзнанието не се реализира само на идеологическо или институционално ниво, а навлиза в биохимичната и когнитивна конституция на отделния човек. Този преход е възможен благодарение на синтеза между поведенчески науки, невронауки и ИИ, при което вниманието и афектът (емоционалната реактивност) се превръщат в основни ресурси за анализ, прогнозиране и моделиране на поведението. В този смисъл, дигиталният паноптикум не просто наблюдава, а се вгражда в невронните навици, превръщайки технологичната стимулация в част от личностната саморегулация.

Спомената система 1 е най-уязвима към алгоритмичното въздействие – тя не проверява достоверността, а реагира по пътя на най-ниската когнитивна съпротива. Алгоритмите на социалните мрежи и търсачки са проектирани да експлоатират точно тази структура: те въздействат през визуални импулси, повтаряемост, афективна наситеност и микродозирани допаминови стимули, които водят до постепенно формиране на навик, но без осъзнатост на избора от страна на субекта.

Тук е особено уместна концепцията за допаминовата икономика [51]. Дигиталните платформи функционират подобно на вещества – всяко взаимодействие (лайк, коментар, нова нотификация) активира бързо освобождаване на допамин, което води до моментен афективен пик, последван от спад, който създава нужда от повторна стимулация. Резултатът в невробиологичен план е десензитизация на удоволствието и зависимост от компулсивни цикли (повтарящи се стимул-ангажименти), често съпроводени с тревожност и емоционално изтощение [52]. Емпирични данни от невроизобразяващи изследвания сочат, че при участници, подложени на продължителна дигитална експозиция, се наблюдава засилена активност в амигдалата – мозъчна структура, свързана с емоционални реакции като страх, тревожност, възбуда – наред с отслабена активация в префронталната кора, отговаряща за рационалното вземане на решения, саморегулацията и моралната преценка [53]. Установява се изместване от рационална към емоционална когниция, което значително улеснява изкривяване на познавателните способности, манипулация и податливост на внушения. По този начин невро-когнитивният контрол в дигиталното пространство деформира автономното мислене не толкова чрез твърдения и аргументация, колкото чрез емоционално-афективно моделиране – потребителят възприема дадено нещо като вярно, само защото то е емоционално наситено и многократно предлагано [54].

Гореспоменатите изследвания намират философски паралел с теорията на Метцингер и по-конретно – понятието „автоматизирано Аз“ [55]. С него той обозначава съвременния дигитален субект като поток от когнитивни състояния, преживявани през прозрачен интерфейс, лишен от осъзната рефлексия. В този модел автономността се редуцира до реактивност: индивидът не е автор на своето съзнание, а приемник на външно продуцирани когнитивни импулси. Именно тук се разкрива най-деликатната форма на власт – да моделираш не поведението, а субективността, не съзнателния избор, а преживяването за избор като автентичен и свободен. Тази власт е особено устойчива, защото не се възприема като такава, а като функционалност, като удобство, като „интуитивен интерфейс“. Така дигиталният паноптикум се институира не само като технологична, но и като когнитивна организация, вградена в субективното преживяване за себе си. Това налага да се предефинира понятието за „автономност“ – не просто като право на избор, а като способност за когнитивна съпротива срещу автоматизацията на мисловни процеси и емоционални преживявания.

Тази концептуална рамка резонира с откритията в когнитивната психология, където се подчертава склонността на човешкия ум да следва енергийно икономични, но не винаги рационални модели на мислене. Нобеловият лауреат, психологът Канеман, в изследването си върху когнитивните пристрастия подчертава, че хората са силно податливи на автоматизирани решения, които изискват минимални познавателни усилия [56]. Това е ключов механизъм, успешно прилаган в социалните мрежи. Състои се от алгоритми, които задържат вниманието на потребителя като предизвикват емоционални реакции(възмущение, радост и др.), без да се осъзнава тази динамика. Този феномен е известен като „икономика на вниманието“. В тази връзка Тристан Харис, бивш дизайнер в Google и критик на дигиталния маркетинг, описва как платформи като Facebook, Instagram и Twitter използваттози механизъм, за да максимизират времето, което потребителите прекарват онлайн(вж. филма “The Social Dilemma”). Той обяснява, че алгоритмите, проектирани по този модел, експлоатират „слабости“ на човешката психика, засилвайки тревожността, социалния натиск и емоционалната нестабилност. В други проучванията (напр., Twenge) сред по-млади хора, въздействието на социалните мрежи включва още увеличаване на зависимостите, депресия и социална изолация [57].

Дигитализацията променя както индивидуалните когнитивни процеси, така и поведението на масите. От класическите анализи на Льо Бон и Фройд върху психологията на тълпите ни е известно, че масите действат ирационално, водени от емоции и внушения [58]. В дигиталната среда тази динамика се усилва експоненциално, тъй като социалните мрежи импулсират групови поляризации, водейки до по-бързо разпространение на крайни възгледи. Алгоритмите не просто предоставят информация, а активно насочват потребителите към по-радикални позиции, защото те задържат повече внимание и ангажираност. Те не различават истина и лъжа, умереност и екстремност – те просто оптимизират процеси за максимално взаимодействие [59]. Но това би довело до създаване на общества, в които дезинформацията, конспиративни теории и политически манипулации се разпространяват по-ефективно от всякога.

От така направените проучвания и анализ на данни, можем да посочим три по-важни рискови аспекта на влияние на дигиталните алгоритми върху индивида и масите:

  • Загуба на критично мислене поради постоянния приток на персонализирана информация, която не подлежи на съмнение или проверка.
  •  Засилване на социалната поляризация, тъй като алгоритмите насърчават радикални мнения и емоционални реакции; и
  • Емоционално и когнитивно изтощение, причинено от свръхстимулация и постоянна онлайн ангажираност на потребителите в дигитални платформи.

Всичко това показва, че при непрекъсната цифрова хиперстимулация и невро-афективно моделиране, автономността вече не може да се възприема като естествено състояние, а като активен процес, изискващ усилия. Тя е възможна при култивиране на определена когнитивна и емоционална хигиена – умението да задържаме внимание, да овладяваме импулси и да поставяме под съмнение външни стимулации. В този контекст изпъкват две взаимосвързани концепции – когнитивна екология [60], която очертава средата като определящ фактор за мисловния процес, и критическа саморефлексия – способността за съзнателно противодействие на автоматизирани дигитални внушения. Втората формулировка може да се разглежда като културно-философски израз на емоционалната устойчивост [61], чрез която не просто устояваме на дигитална хиперстимулация, а я разпознаваме, анализираме и преодоляваме с помощта на самонаблюдение, критично мислене и резистентност към автоматичната интернализация на външни стимули.

Както сочи съвременната когнитивна наука, съзнанието функционира като динамична, външно разширена когнитивна система, силно зависима от средата, в която оперира [62, 63]. Човешкото мислене се оформя в тясно взаимодействие с околната информационна екосистема (дигитални интерфейси, платформи, алгоритми). Когато тази среда е структурирана така, че намалява възможностите за критическа рефлексия – чрез потоци от фрагментарна информация, повърхностни данни и емоционално наситени стимули – отслабва и способността за автономно мислене. Това може да доведе до когнитивни дефицити, включително понижено внимание, влошена памет и затруднения в абстрактното мислене – състояние, което Спицер описва като „дигитална деменция“ [64].

Един възможен отговор на този процес е изграждането на когнитивна среда, която не саботира, а подкрепя автономността. Това предполага култивиране на следните практики:

  • Фокусирано внимание вместо мултитаскинг.
  • Дълбочинно четене вместо скролване.
  • Метакогнитивна саморегулация, насочена към себерефлексия и контрол над вътрешните състояния, вместо автоматизирани реакции на външни стимули.

Психологическият механизъм зад тази индивидуална форма на съпротива може да се обясни чрез теорията за интероцептивното осъзнаване – способността на индивида да разпознава собствените си телесни и емоционални състояния, преди те да бъдат обработени и автоматизирани в дигиталната среда. Проучвания в невронауките показват, че индивиди с високо интероцептивно осъзнаване са по-малко податливи на емоционална манипулация и афективни импулси, което ги прави по-способни да устоят на поведенческо моделиране [65].

От философска гл. т., тук можем да въведем концепцията за „онтологична устойчивост“ или способността на субекта да остане свързан със себе си, дори когато външната когнитивна среда е агресивна и дестабилизираща. Тази устойчивост не е фиксирана, а се развива чрез практики на самоанализ, мълчание, интелектуална аскеза, идващи от учението на стоиците. Следователно, алтернативата на дигиталния паноптикум не е бягство от технологиите, а формиране на критическо съзнание в рамките на дигиталната среда. Това предполага изграждане на дигитална грамотност не като техническа компетентност, а като екзистенциално-философска дисциплина: умението да разграничаваме автентични желания от автоматизирани импулси, лични убеждения от наложено поведение, съзнателна преценка от нахлуваща от вън информация.

Заключение

Съвременните технологии все по-убедително се разкриват не само като инструменти за комуникация и ефективност, но и като архитекти на социалната реалност. Те не просто регистрират или анализират действията на индивида в глобалната мрежа – те ги профилират, предугаждат и моделират. Алгоритмите вече не се ограничават до обслужващи функции, а активно се включват в процесите на вземане на решения, формиране на нагласи и поведение. Ако в предходни исторически етапи тоталитаризмът е разчитал на външна репресия и контрол, днес дигиталните технологии осъществяват сходна власт чрез непроследими механизми, включващи персонализирана информация, поведенчески анализ и когнитивна интервенция.

Изводите сочат, че дигиталните технологии оперират не като неутрални посредници, а като активно оформящи поведението ни структури – чрез съблазънта на удобството, интуитивния интерфейс и илюзията за спонтанен избор. Те не отнемат свободата открито, а я трансформират в предвидимо, оптимизирано преживяване, което прикрива реалната липса на автономност. Свободата не е отменена, а симулирана – толкова добре, че нейната фрагментация остава незабелязана. Обещанието за дигитална еманципация рискува да се превърне в безмълвен и усъвършенстван техно-тоталитаризъм – лишен от насилие, но не и от власт. Интердисциплинарният анализ разкрива, че алгоритмичният надзор и биометричното моделиране не функционират като външна заплаха, а като вътрешно структуриращи фактори на индивидуалното съзнание. Това поставя под въпрос традиционните понятия за личност, воля и морална отговорност. Възниква нова етика – такава, която не само пита какви технологии използваме, а която проблематизира как технологиите ни използват. В тази нова реалност борбата на индивида за автономност изисква не просто техническа грамотност, а етичен анализ и политическа чувствителност спрямо структурите на дигитална власт. Следователно, неизбежна и социално потребна е разумна и приемлива степен на дигитален надзор, обединяваща съвременни регулаторни подходи, прозрачност и критичен анализ на дигиталната власт, като определящо условие за възпиране на манипулации и злоупотреби чрез поведенческо моделиране, което поставя фундаментални етични въпроси за свободната воля и автономността на индивида.

Бележки

[1] Zuboff, S. The Age of Surveillance Capitalism.PublicAffairs, 2019.

[2] Derrida, J. Plato’s Pharmacy. In: Dissemination, University of Chicago Press, 1981.

[3] Stiegler, B. What makes life worth living: on pharmacology. UK: Polity, 2013.

[4] Stiegler, B. What makes life worth living: on pharmacology. UK: Polity, 2013.

[5] Zuboff, S. The Age of Surveillance Capitalism.PublicAffairs, 2019.

[6] Harari, Y.Homo Deus:A Brief History of Tomorrow.Harper, 2017.

[7] Harari, Y.Homo Deus:A Brief History of Tomorrow.Harper, 2017.

[8] Zuboff, S. The Age of Surveillance Capitalism.PublicAffairs, 2019.

[9] Pasquale, F. The Black Box Society. Harvard Univ. Press, 2016.

[10] O’Neil, C. Weapons of Math Destruction. Crown, 2016.

[11] Foucault, M. Discipline and Punish. Vintage Books, 1977.

[12] Arendt, H. The Origins of Totalitarianism. Meridian Books, Cleveland & N.Y., 1951.

[13] Siegel, E., Davenport, T. Predictive Analytics: The Power to Predict Who Will Click, Buy, Lie, or Die. John Wiley & Sons Inc., 2013.

[14] Zuboff, S. The Age of Surveillance Capitalism.PublicAffairs, 2019.

[15] Pasquale, F. The Black Box Society. Harvard Univ. Press, 2016.

[16] Foucault, M. Discipline and Punish. Vintage Books, 1977.

[17] Brunton, F. & Nissenbaum, H. Obfuscation. MIT Press, 2015.

[18] Kahneman, D. Thinking, Fast and Slow. Farrar, Straus & Giroux, N. Y., 2011.

[19] Morozov, E. The Net Delusion. PublicAffairs, 2011.

[20] Thaler, R. & Sunstein, C. Nudge. Penguin Books, 2021.

[21] Han, Byung-Chul. Psychopolitics: Neoliberalism and New Technologies of Power. Polity Press, 2017.

[22] Kahneman, D. Thinking, Fast and Slow. Farrar, Straus & Giroux, N. Y., 2011.

[23] Thaler, R. & Sunstein, C. Nudge. Penguin Books, ISBN: 9780143137009, 2021.

[24] Dai, X. China’s Social Credit System: Fragmented in Practice, Uncertain in Direction. DataEthics.eu, 2021. Available from: https://dataethics.eu/chinas-social-credit-system-anno-2021-is-fragmented/.

[25] Kramer, A., Guillory, J. E., & Hancock, J. T. Experimental evidence of massive-scale emotional contagion through social networks. Proceedings of the National Academy of Sciences, 111(24), 2014, pp. 8788–8790.

[26] Twenge, J. iGen. Atria Books, 2017.

[27] Bratton, B. The Stack. The MIT Press, England, 2015.

[28] Lembke, A. Dopamine Nation. Dutton, 2021.

[29] Kahneman, D. Thinking, Fast and Slow. Farrar, Straus & Giroux, N. Y., 2011.

[30] Virue´s-Ortega, J. The Case Against B. F. Skinner 45 Years Later: An Encounter with N. Chomsky. The Behavior Analyst, No. 2: 29, 2006.

[31] Кант, И. Основи на метафизиката на нравите. София: Наука и изкуство, 1974.

[32] Zuboff, S. The Age of Surveillance Capitalism.PublicAffairs,ISBN-10:610395697, 2019.

[33] Ribeiro, M. H., Ottoni, R., West, R., Almeida, V., & Meira, W. YouTube has managed to stop its algorithm serving up extreme videos. Preprint, 2020.

[34] Roesner, F., et al. Q&A: How TikTok’s ‘black box’ algorithm and data collection practices affect user engagement. EurekAlert!, 2024 Available from: https://www.eurekalert.org/news-releases/1042463 Разгледано на 19.04.2025

[35] Kahneman, D. Thinking, Fast and Slow. Farrar, Straus & Giroux, N. Y., 2011.

[36] Lembke, A. Dopamine Nation. Dutton, 2021.

[37] Morozov, E. The Net Delusion. PublicAffairs, 2011.

[38] Morozov, E. The Net Delusion. PublicAffairs, 2011.

[39] Morozov, E. The Net Delusion. PublicAffairs, 2011.

[40] Habermas, J. The Structural Transformation of the Public Sphere. The MIT Press, 1991.

[41] Варуфакис, Я. Техно-феодализъм. Изд. „Изток-Запад“, 2024.

[42] Pasquale, F. The Black Box Society. Harvard Univ. Press , 2016.

[43] Pasquale, F. New Laws of Robotics. Harvard Univ. Press, 2020.

[44] Thaler, R. & Sunstein, C. Nudge. Penguin Books, ISBN: 9780143137009, 2021.

[45] Шнуренко, И. Демонът отвътре. Изд. „Изток-Запад“, 2022.

[46] Pasquale, F. New Laws of Robotics. Harvard Univ. Press, 2020.

[47] Lanier, J. You Are Not a Gadget: A Manifesto. Vintage, 2011.

[48] Bernays, E. Propaganda. Horace Liveright, N.Y., 1928.

[49] Sunstein, C. #Republic. Princeton University Press, 2017.

[50] Pariser, E. The Filter Bubble. Penguin Books, 2012.

[51] Virue´s-Ortega, J. The Case Against B. F. Skinner 45 Years Later: An Encounter with N. Chomsky. The Behavior Analyst, No. 2: 29, 2006.

[52] Lembke, A. Dopamine Nation. Dutton, 2021.

[53] He, Q., Zhang, J., & Zhang, X. Excess social media use in normal populations is associated with amygdala-striatal but not with prefrontal morphology. Psychiatry Research: Neuroimaging, 269, 2017, pp. 1–6.

[54] Cambria, E. Affective computing and sentiment analysis. IEEE Intelligent Systems, 31(2), 2016, pp. 102–107.

[55] Metzinger, T. The Ego Tunnel: The Science of the Mind and the Myth of the Self. Basic Books, 2009.

[56] Kahneman, D. Thinking, Fast and Slow. Farrar, Straus & Giroux, N. Y., 2011.

[57] Twenge, J. iGen. Atria Books, 2017.

[58] Фройд, З. Въжделение и страдание. Изд. Наука и изкуство, 1996.

[59] Tufekci, Z. Twitter and Tear Gas. Yale Univ. Press, 2017.

[60] Hutchins, E. Cognitive Ecology. Topics in Cognitive Science, 2(4), 2010, pp. 705–715.

[61] Sarrionandia, A., Ramos-Díaz, E., & Fernández-Lasarte, O. Resilience as a Mediator of Emotional Intelligence and Perceived Stress: A Cross-Country Study. Frontiers in Psychology, No 9, 2018.

[62] Metzinger, T. The Ego Tunnel: The Science of the Mind and the Myth of the Self. Basic Books, 2009.

[63] Clark, A. Supersizing the Mind: Embodiment, Action, and Cognitive Extension. Oxford University Press, 2008.

[64] Spitzer, M. Digitale Demenz: Wie wir uns und unsere Kinder um den Verstand bringen. Droemer Knaur, 2012.

[65] Garfinkel, S. N., & Critchley, H. D. Interoception and emotion. Current Opinion in Psychology, 17, 2017, pp. 7–14.

Библиография

Варуфакис, Я. Техно-феодализъм. Изд. „Изток-Запад“, 2024.

Кант, И. Основи на метафизиката на нравите. София: Наука и изкуство, 1974.

Фройд, З. Въжделение и страдание. Изд. Наука и изкуство, 1996.

Шнуренко, И. Демонът отвътре. Изд. „Изток-Запад“, 2022.

Arendt, H. The Origins of Totalitarianism. Meridian Books, Cleveland & N.Y., 1951.

Bernays, E. Propaganda. Horace Liveright, N.Y., 1928.

Bratton, B. The Stack. The MIT Press, England, 2015.

Brunton, F. & Nissenbaum, H. Obfuscation. MIT Press. ISBN: 9780262331319, 2015.

Cambria, E. Affective computing and sentiment analysis. IEEE Intelligent Systems, 31(2), 2016, pp. 102–107.

Clark, A. Supersizing the Mind: Embodiment, Action, and Cognitive Extension. Oxford University Press, 2008.

Dai, X. China’s Social Credit System: Fragmented in Practice, Uncertain in Direction. DataEthics.eu, 2021. Availble from: https://dataethics.eu/chinas-social-credit-system-anno-2021-is- fragmented/.

Derrida, J. Plato’s Pharmacy. In: Dissemination, University of Chicago Press, 1981.

Foucault, M. Discipline and Punish. Vintage Books, 1977.

Garfinkel, S. N., & Critchley, H. D. Interoception and emotion. Current Opinion in Psychology, 17, 2017, pp. 7–14.

Habermas, J. The Structural Transformation of the Public Sphere. The MIT Press, 1991.

Han, Byung-Chul. Psychopolitics: Neoliberalism and New Technologies of Power. Polity Press, 2017.

Harari, Y. Homo Deus:A Brief History of Tomorrow.Harper, 2017.

He, Q., Zhang, J., Zhang, X. Excess social media use in normal populations is associated with amygdala-striatal but not with prefrontal morphology. Psychiatry Research: Neuroimaging, 269, 2017, pp. 1–6.

  Hutchins, E. Cognitive Ecology. Topics in Cognitive Science, 2(4), 2010, pp. 705–715.

Kahneman, D. Thinking, Fast and Slow. Farrar, Straus & Giroux, N. Y., 2011.

Kramer, A., Guillory, J. E., & Hancock, J. T. Experimental evidence of massive-scale emotional contagion through social networks. Proceedings of the National Academy of Sciences, 111(24), 2014, pp. 8788–8790.

Lanier, J. You Are Not a Gadget: A Manifesto. Vintage, 2011.

Lembke, A. Dopamine Nation. Dutton, 2021.

Metzinger, T. The Ego Tunnel: The Science of the Mind and the Myth of the Self. Basic Books, 2009.

Morozov, E. The Net Delusion. PublicAffairs, 2011.

O’Neil, C. Weapons of Math Destruction. Crown, 2016.

Pariser, E. The Filter Bubble. Penguin Books, 2012.

Pasquale, F. New Laws of Robotics. Harvard Univ. Press, 2020.

Pasquale, F. The Black Box Society. Harvard Univ. Press, 2016.

Ribeiro, M. H., Ottoni, R., West, R., Almeida, V., & Meira, W. YouTube has managed to stop its algorithm serving up extreme videos. Preprint, 2020.

Roesner, F., et al. (2024). Q&A: How TikTok’s ‘black box’ algorithm and data collection practices affect user engagement. EurekAlert! Available from: https://www.eurekalert.org/news-releases/1042463.

Sarrionandia, A., Ramos-Díaz, E., Fernández-Lasarte, O. Resilience as a Mediator of Emotional Intelligence and Perceived Stress: A Cross-Country Study. Frontiers in Psychology, No 9, 2018.

Siegel, E., Davenport, T. Predictive Analytics: The Power to Predict Who Will Click, Buy, Lie, or Die. John Wiley & Sons Inc., 2013.

Spitzer, M. Digitale Demenz: Wie wir uns und unsere Kinder um den Verstand bringen. Droemer Knaur, 2012.

Stiegler, B. What makes life worth living: on pharmacology. UK: Polity, 2013.

Sunstein, C. #Republic. Princeton University Press, 2017.

Thaler, R. & Sunstein, C. Nudge. Penguin Books, 2021.

Tufekci, Z. Twitter and Tear Gas. Yale Univ. Press, 2017.

Twenge, J. iGen. Atria Books, 2017.

Virue´s-Ortega, J. The Case Against B. F. Skinner 45 Years Later: An Encounter with N. Chomsky. The Behavior Analyst, No. 2: 29, 2006.

Zuboff, S. The Age of Surveillance Capitalism. Public Affairs, 2019.

Цитат формат (Suggested Bibliographic Citation):

Маринов, Билиан. Дигиталният надзор: критика на поведенческото моделиране. Изд. УНСС; Алма комуникация. 2025, № 60. ISSN 1313-9908. Available from: https://media-journal.info/society/digitalniyat-nadzor-kritika-na-povedencheskoto-modelirane/

E-mail: bilinic@tu-sofia.bg

прочетена: 100