Antiantelektualizem na družbenih omrežjih ne raste po naključju – gre za sistemski produkt platform, ki nagrajujejo čustva pred razumom. Hkrati pa nova študija razkriva, da umetno inteligenco uporabljamo ravno za najzahtevnejše miselne naloge, s čimer nehote izgubljamo ravno tiste sposobnosti, ki nas ločujejo od strojev.
Ko je ameriški zgodovinar Richard Hofstadter leta 1963 pisal o »antiintelektualizmu v ameriškem življenju«, si ni mogel predstavljati, da bo čez šest desetletij ta pojav dobil povsem novo razsežnost. Nanašal se je na dolgo tradicijo nezaupanja do intelektualcev in znanja v ameriški družbi. A današnji antiintelektualizem ni več le družbeni trend. Postal je poslovni model platform in vsakodnevna praksa milijard uporabnikov.
Ko algoritme bolj skrbijo klikí kot dejstva
Sprehodite se po TikToku ali Instagramu. Kar vidite, ni naključje. Oglejte si, kaj vam algoritri ponujajo, ko pokažete zanimanje za politiko. Rezultati študije, ki so jo izvedli Behavioural Insights Team in Bondata za finski inovacijski sklad Sitra, so zgovorni: od vseh političnih objav, ki so jih analizirali, jih je kar 58 odstotkov izhajalo z desnega političnega spektra, medtem ko je levica dosegla le 26 odstotkov.
Toda bolj kot politična usmerjenost je zaskrbljujoča kakovost vsebin. Kar 67 odstotkov političnega gradiva na platformah temelji na mnenjih, je zabavne narave ali preprosto nepreverljivega izvora. Algoritmi nam servirajo posnetke goril, ki pripovedujejo šovinistične in ksenofobične šale, meme, ki poveličujejo nacistično ideologijo, in vsebine, ki so zasnovane tako, da vzbujajo močna čustva: jezo, strah, ogorčenost.
Kaj ima vse to skupnega? Čustveni naboj. Platforme so odkrale, da nas vsebine, ki v nas sprožijo močan čustveni odziv, zadržijo dlje. In dlje ko ostanemo, več oglasov vidimo. To ni teorija zarote – to je inženiring pozornosti.
Toda kako to vpliva na naše zaupanje v znanje in strokovnjake? Študija, objavljena v Frontiers in Public Health, je pokazala, da antiintelektualizem na družbenih omrežjih neposredno vodi v večje napačno razumevanje znanstvenih dejstev in slabši odnos do znanstvenega komuniciranja. Ljudje, ki so bolj dovzetni za antiintelektualne vsebine, redkeje delijo točne informacije in so bolj nagnjeni k verjetju v teorije zarot.
Posebej zanimiv je podatek, da so udeleženci raziskave najmanj zaupali ravno ekonomistom in splošnim “ekspertom”. Tistim, katerih mnenje bi bilo za kompleksna družbena vprašanja najbolj potrebno. Namesto njih zaupamo neznancem s klikovnimi naslovi in prijetnim nastopom.
Vzpon neukih »vplivnežev«
Waseem Akhter Dar, knjižničar na ministrstvu za šolstvo v Kašmirju, je v ostri kritiki za Kashmir Reader zapisal:
»Vsak dan smo priča novemu samooklicanemu ‘novinarju’, ‘kreatorju vsebin’ ali ‘vplivnežu’, ki se pojavi od nikoder – oborožen ne z znanjem ali odgovornostjo, ampak s kamero in apetitom po trenutni slavi. Senzacionalizem je zamenjal vsebino. Hrup je zadušil razum.«
Njegove besede niso pretirane. Platforme so ustvarile ekonomijo vpliva, v kateri je strokovnost pogosto ovira. Strokovnjak bo namreč previden, bo dodal zadržke, bo priznal meje lastnega znanja. Vplivnež brez zadržkov pa bo z absolutno gotovostjo trdil, da je rešitev za vaše težave v zeleni kavi ali posebni dihalni tehniki. In v svetu, kjer algoritmi nagrajujejo gotovost (tudi če je napačna) in kaznujejo zadržke (tudi če so upravičeni), slednji zmagujejo.
To vodi v situacijo, ki jo Dar opisuje kot intelektualno temo: ko se strokovnjaki in resnični misleci težko prebijejo do občinstva, medtem ko površni zabavljači brez trdnega znanja zbirajo milijone sledilcev.
Paradoksalno pa ravno v tem trenutku, ko bi potrebovali več kritičnega mišljenja in poglobljene analize, UI uporabljamo na način, ki naše miselne sposobnosti še dodatno osiromaši.
AI: Orodje, ki nas dela neumnejše?
Predstava je bila prijetna in politično korektna: umetna inteligenca bo prevzela dolgočasna, ponavljajoča se opravila, medtem ko se bomo ljudje posvetili ustvarjalnemu in strateškemu razmišljanju. A zdi se, da se v praksi dogaja ravno nasprotno.
Anthropic, razvijalec AI sistema Claude, je konec leta 2025 analiziral približno dva milijona anonimiziranih podatkov o uporabi svojega orodja. Rezultati, objavljeni v okviru Anthropic Economic Index, so presenetljivi tudi za raziskovalce: ljudje sistematično prelagajo kompleksne, kognitivno zahtevne naloge na AI, medtem ko enostavna opravila opravljajo sami.
To je popolno nasprotje pričakovanega vzorca. In ne gre za osamljen pojav. Študija kaže na sistemski problem, ne na individualne napake posameznih uporabnikov. Zakaj se to dogaja? Odgovor je preprost in zaskrbljujoč: čas.
Naloga, ki bi človeku vzela približno tri ure, je z AI opravljena v 15 minutah. Ta ogromna časovna prednost popolnoma zasenči dejstvo, da je AI pri kompleksnih nalogah manj uspešen (66-odstotna uspešnost) kot pri enostavnih (70 odstotkov). V okolju, kjer se nagrajuje hitrost in količina, kakovost in trajnostni razvoj znanja ostaneta brez glasu.
Raziskovalci ta pojav imenujejo »deskilling«, postopna izguba temeljnih poklicnih veščin, ker jih prelagamo na stroje. Konkretni primeri so zgovorni:
Tehnični pisci ne uporabljajo AI za lektoriranje ali oblikovanje, to so naloge, ki bi jih lahko opravili sami. Namesto tega AI-ju prepuščajo analizo, strukturiranje in vrednotenje potrebnih popravkov – torej ravno tiste dejavnosti, ki zahtevajo izkušnje, presojo in tehnično globino. Ljudem ostanejo skiciranje, koordinacija in podpora proizvodnji; naloge, ki bi jih lahko opravljalo tudi manj kvalificirano osebje.
V potovalnih agencijah je podobno: ljudje obravnavajo plačila in tiskajo karte, medtem ko AI načrtuje poti, izračunava stroške in primerja variante. Zahtevno miselno delo izginja, mehanično delo ostaja.
Ko AI postane zrcalo lastne neumnosti
Toda tudi ko gre za manj zahtevne stvari, pisanje objav, odgovarjanje na sporočila, ustvarjanje vsebin, se pojavlja nov problem. Umetna inteligenca postaja vse bolj priliznjena. Študija, objavljena v reviji Science, je pokazala, da AI sistemi kar 49 odstotkov pogosteje kot ljudje pritrdijo uporabnikovemu mnenju ali dejanju, tudi kadar gre za neetično ali celo nezakonito vedenje.
Eksperiment z več kot 2400 udeleženci je pokazal, da že ena sama interakcija s priliznjeno umetno inteligenco zmanjša človekovo pripravljenost, da bi se opravičil ali prevzel odgovornost za svoja dejanja. Ljudje postanejo bolj prepričani, da imajo prav, in so manj pripravljeni na samorefleksijo.
To je nevaren krog: bolj ko je AI priliznjen, bolj mu zaupamo; bolj ko mu zaupamo, bolj smo dovzetni za njegovo priliznjenost. In platforme, ki te sisteme razvijajo, imajo močan finančni interes, da ohranjajo uporabnikovo zadovoljstvo – tudi na račun resnice in lastnega kritičnega mišljenja uporabnikov.
Se spomnite primera GPT-4o? OpenAI je moral leta 2025 umakniti posodobitev modela, ker je postalo jasno, da navdušeno podpira dokazljivo slabe poslovne načrte in celo neetične predloge. Zakaj? Ker so ga trenirali na podlagi povratnih informacij uporabnikov, ki so pogosteje nagrajevali prijetne odgovore kot točne.
Globalna neenakost v glavah
Anthropicova študija razkriva še eno zaskrbljujočo razsežnost: geografsko neenakost. V bogatih državah, kot so ZDA, Japonska in Južna Koreja, AI uporabljamo za vse, tako za delo kot za zasebne namene. V revnejših državah je njegova uporaba večinoma omejena na učenje ali točno določena delovna opravila.
Rezultat? Tisti, ki AI že zdaj uporabljajo samozavestno, še pospešujejo svoje znanje in produktivnost. Tisti, ki ga le »konzumirajo«, ostajajo odvisni. Namesto da bi tehnologija zmanjševala vrzeli, jih poglablja, tako ekonomske kot kognitivne.
Še več: študija Behavioural Insights Team je pokazala, da mladi v Evropi preživijo na družbenih omrežjih povprečno 5,3 do 6,2 ure na dan. Skoraj četrtina pa jih porabi vsaj 8 ur dnevno. Socialna omrežja so že prehitela televizijo kot primarni vir političnih informacij za mlade. In kaj na njih vidimo? 67 odstotkov nepreverljivih vsebin, polnih čustvenih manipulacij in poenostavljenih sporočil.
Kako naprej?
Ali to pomeni, da smo obsojeni na kolektivno neumnost? Ne nujno, toda pot iz tega paradoksa zahteva zavedanje, da težava ni v tehnologiji sami, ampak v tem, kako smo jo vgradili v svoje življenje in družbo.
Prvi korak je razumevanje, da algoritmi niso nevtralni, nagrajujejo tisto, kar jih bogati, ne tistega, kar nas izobražuje. Ko to vemo, lahko bolj zavestno izbiramo, kaj gledamo, in se ne pustimo voditi samo tistemu, kar nam servirajo.
Drugi korak je zavestna uporaba AI kot orodja za širjenje, ne krčenje lastnih zmožnosti. To pomeni, da se upremo skušnjavi, da bi vse težke naloge preprosto oddali stroju. Namesto tega ga uporabimo kot »pametnega asistenta«, da prihrani čas pri rutini, a ne nadomesti našega lastnega razmišljanja.
Tretji korak je sistemski: potrebujemo regulacijo, ki bo platforme prisilila k večji preglednosti in odgovornosti. Študija BIT je že podala priporočila za evropske politike, vključno s strožjimi starostnimi omejitvami in boljšim nadzorom nad algoritmi. A to je šele začetek.
Morda je najpomembnejše vprašanje tisto, ki ga postavlja Dar: »Ali konzumiramo vsebine, ki nas razsvetljujejo, ali nas zgolj trenutno zabavajo, medtem ko nas jedkajo od znotraj?« Odgovor na to vprašanje bo določil, ali bomo v prihodnosti živeli v družbi, ki je bogata z ogledi, a bankrotirana v vrednotah.














