Vom recunoaște bullshit-ul halucinațiilor artificiale ? Indiferența totală față de adevăr

Cuprins

Cunoști cartea sau eseul filozofic a lui Harry Frankfurt?

Vom recunoaste bullshit ulDa, cunosc foarte bine eseul lui Harry Frankfurt "On Bullshit" (publicat în 2005, deși a apărut inițial ca articol academic în 1986). Este o lucrare filosofică remarcabilă care analizează natura și distincția fundamentală dintre minciuni și ceea ce Frankfurt numește "bullshit" (în română adesea tradus ca "prostii", "fleacuri" sau "vrajeală"). Ideea centrală Frankfurt argumentează că bullshit-ul este distinct și, într-un sens, mai periculos decât minciuna.

Diferența esențială: Mincinosul cunoaște adevărul și încearcă deliberat să-l ascundă sau să-l distorsioneze. Cel care produce bullshit este complet indiferent față de adevăr - nici nu îl afirmă, nici nu îl neagă, pur și simplu îl ignoră. De ce este relevant Frankfurt? Observă că trăim într-o epocă în care bullshit-ul proliferează, parțial pentru că societatea modernă ne obligă să vorbim despre subiecte despre care nu știm suficient, dar trebuie să avem o opinie.

🎧 Ascultă rezumatul audio dialogat în RO și EN

Eseul este scurt (sub 70 de pagini), accesibil și surprinzător de profund pentru un subiect aparent frivol. Ridică întrebări serioase despre autenticitate, adevăr și comunicare în cultura contemporană. Te interesează această temă în contextul comunicării digitale sau al conținutului online? Pare perfect relevantă pentru preocupările tale legate de calitatea informației și etica digitală.

I. Premise: Indiferența mașinii față de adevăr

Ceea ce Frankfurt a văzut la om, noi vedem la algoritm

Stau în fața ecranului la ora la care copiii dorm deja și casa și-a asumat acea liniște particulară a serii târzii, când frigiderul își reia ciclul de răcire cu un murmur aproape uman și calculator meu adaugă propriul său zumzet la simfonia domestică a aparatelor care nu dorm niciodată, și încerc să-mi amintesc exact când am realizat pentru prima dată că ceea ce producea mașina aceasta nu era greșit în sensul în care o greșeală de calcul este greșită, sau o memorie falsă este greșită, sau chiar o minciună deliberată este greșită - ci era ceva fundamental diferit, ceva pentru care nu aveam încă cuvinte precise până când am recitit, după mulți ani, eseul lui Harry Frankfurt despre bullshit. Frankfurt scria în 1986 despre o formă de comunicare umană care îl obseda: nu minciuna propriu-zisă, care presupune cel puțin un respect pervers pentru adevăr - mincinosul trebuie să știe ce este adevărat pentru a putea alege să-l ascundă - ci acea formă mai insidioasă de vorbire în care vorbitorul este complet indiferent față de adevăr, unde întrebarea "este adevărat?" pur și simplu nu apare, unde singura preocupare este dacă sună bine, dacă produce efectul dorit, dacă îndeplinește o funcție socială sau retorică, indiferent de relația sa cu realitatea.

Ceea ce Frankfurt nu putea anticipa în 1986, pentru că arhitectura transformerelor și atenția multi-cap nu existau nici măcar ca posibilitate teoretică în mintea oamenilor de știință, era că vom construi mașini întregi ale căror funcționare fundamentală este producerea acestui tip precis de discurs - nu minciuni conștiente, nu erori neintenționate, ci ceva structural identic cu bullshit-ul pe care el îl identifica la oameni, dar fără substanța psihologică umană care în cazul nostru face bullshit-ul să fie o alegere morală questionabilă. Inteligența artificială generativă, aceste sisteme de limbaj mari care au invadat viața noastră cu o rapiditate care nu ne-a lăsat timp să gândim cu adevărat ce înseamnă prezența lor, nu minte și nu spune adevărul pentru că nu poate avea o relație cu adevărul - poate doar să genereze secvențe de cuvinte care sunt statistic probabile să apară împreună, bazate pe miliarde de exemple de text uman pe care le-a absorbit fără să înțeleagă nimic din ele. Și totuși vorbim cu ele, le punem întrebări, le cerem sfaturi, le lăsăm să scrie pentru noi, să răspundă în numele nostru, să producă text care circulă în lume cu autoritatea aparentă a comunicării umane intenționate.

1. Frankfurt și cartografia deșertului semantic - unde cuvintele își pierd substanța

Frankfurt începe eseul său cu o observație care pare aproape banală până când începi să te gândești cu adevărat la ea: trăim într-o lume în care cantitatea de bullshit crește constant, și totuși avem foarte puțină teorie serioasă despre ce este bullshit-ul, de ce există, cum funcționează. El notează că avem cărți întregi despre minciună - filosofi, psihologi, teologi au scris volume despre natura minciunii, despre etica ei, despre efectele ei sociale - dar despre bullshit, acest fenomen omniprezent pe care toți îl recunoaștem instant când îl vedem, avem aproape tăcere teoretică. Și motivul acestei tăceri, sugerează Frankfurt, este că bullshit-ul rezistă analizei precise tocmai pentru că esența lui este imprecizia, ambiguitatea intenționată, refuzul de a fi prins în categoria adevărului sau minciunii. Când citești această parte a eseului, realizezi că Frankfurt cartografiază un teritoriu al limbajului pe care toți îl traversăm zilnic dar pe care nimeni nu-l marcaseră pe hartă înainte - deșertul semantic unde cuvintele continuă să existe dar și-au pierdut legătura cu realitatea, unde comunicarea se întâmplă dar fără transmitere reală de informație sau intenție autentică.

Ceea ce face observația lui Frankfurt atât de penetrantă este că el identifică bullshit-ul nu ca pe un defect al comunicării ci ca pe o formă distinctă de comunicare cu propriile sale reguli și logică internă. Bullshit-ul nu este comunicare eșuată - este comunicare care urmărește alte scopuri decât transmiterea adevărului. Vorbitorul de bullshit nu își propune să te informeze corect sau să te înșele strategic; își propune să creeze o impresie, să ocupe un spațiu social, să îndeplinească o așteptare contextuală. Frankfurt dă exemplul politicianului care trebuie să vorbească despre subiecte despre care nu știe nimic substanțial - el nu poate pur și simplu să tacă, pentru că tăcerea ar fi interpretată ca ignoranță sau dezinteres, dar nici nu poate să spună adevărul pentru că nu-l cunoaște, așa că produce bullshit: un discurs care sună a informație, care imită structura comunicării serioase, dar care este fundamental gol de conținut verificabil. Este ca o clădire care are fațada impresionantă dar nimic în spate - și crucialul aici este că arhitectul fațadei nu încearcă să te convingă că există ceva în spate, ci doar că fațada în sine este suficientă pentru scopurile sociale imediate.

Când transfer această analiză la ceea ce face un sistem de inteligență artificială generativă, descoperă că am construit literal mașini care operează exclusiv în acest desert semantic pe care Frankfurt îl identificase. GPT-ul sau Claude sau oricare alt model de limbaj mare nu "știe" nimic în sensul în care un om știe ceva - nu are experiență directă a realității, nu poate verifica afirmațiile pe care le face prin raportare la lume, nu are memorie episodică a evenimentelor reale, nu are motivație să fie sincer sau să înșele pentru că nu are motivații deloc în sens psihologic. Ceea ce are este o capacitate statistică extraordinar de sofisticată de a prezice care cuvânt este probabil să urmeze după o secvență dată de cuvinte, bazată pe miliarde de exemple de text uman. Când îi cer să-mi explice cum funcționează fotosinteza, el nu accesează o înțelegere a procesului biologic real - generează o secvență de cuvinte care este statistic similară cu modul în care oamenii care înțeleg fotosinteza vorbesc despre ea. Rezultatul poate fi factual corect - deseori este - dar corectitudinea este accidentală față de procesul care l-a generat, care este fundamental indiferent la distincția între adevărat și fals.

2. Mașina care calculează probabilități lingvistice, nu verifică existența lucrurilor

Încerc să explic unui student care m-a întrebat cum să folosească ChatGPT pentru tema lui de licență diferența dintre ceea ce face mașina și ceea ce face el când scrie, și ajung la un exemplu care îmi pare limpede dar care îl lasă pe el confuz: "Când tu scrii că Mihai Eminescu a murit în 1889, tu afirmi ceva despre lume - că există un om istoric numit Mihai Eminescu, că acel om a încetat să existe la un moment dat, că acel moment poate fi datat cu anul 1889. Când ChatGPT scrie aceeași propoziție, el nu afirmă nimic despre lume - generează o secvență de tokeni care are o probabilitate statistică foarte mare de a apărea în contexte în care sunt prezenți și alți tokeni precum 'Mihai', 'Eminescu', 'poet', 'român'. Dacă în datele sale de antrenare existau suficiente texte care spuneau greșit că Eminescu a murit în 1888, el ar fi generat cu aceeași convingere aparentă anul greșit, pentru că procesul său nu include verificarea afirmației prin raportare la realitate." Studentul mă întreabă atunci, și întrebarea lui este legitimă: "Dar dacă produce răspunsul corect, ce importanță are procesul?" Și eu încerc să-i explic că importanța devine vizibilă exact când procesul produce răspunsul incorect - pentru că atunci când o persoană informată greșește, ea poate fi corectată prin raportare la surse, la evidențe, la realitate, dar când mașina greșește, ea nu poate fi "corectată" în sens propriu pentru că nu există în ea nicio reprezentare a realității care să fie ajustată, există doar weight-uri în rețeaua neuronală care ar trebui modificate prin antrenament suplimentar.

Această diferență devine dramatică atunci când ceri AI-ului să genereze informații despre lucruri foarte specifice sau recente despre care nu are date suficiente de antrenament. Am făcut experimentul de a întreba diverse modele despre lucrări academice foarte de nișă din domenii obscure - și răspunsurile sunt fascinante prin modul în care imită perfect structura unei bibliografii academice serioase fără să aibă nicio legătură cu realitatea. "Articolul lui Gheorghescu, M. (2019) 'Aspecte morfologice ale dialectului din zona Neamțului' publicat în Revista de Lingvistică Aplicată, vol 34, nr. 2, pp. 127-145" sună complet plauzibil - are structura corectă de citare, numele românesc convingător, titlul academic credibil, chiar și numerele paginilor par realiste - dar articolul nu există, autorul probabil nu există, poate chiar și revista nu există. Și ceea ce este crucial aici este că mașina nu inventează aceste detalii dintr-o intenție de a înșela - ea pur și simplu generează token după token ceea ce este statistic probabil să apară într-o citare academică despre lingvistica română, fără nicio verificare dacă obiectele pe care le numesc acești tokeni există în realitate.

Frankfurt are un pasaj memorabil unde discută despre diferența dintre a spune adevărul din accident și a spune adevărul din intenție - și observă că cineva care produce bullshit poate spune adevărul, dar când o face, o face din aceleași motive pentru care ar spune o minciună: pentru că în acel context particular, formularea respectivă servește scopul său retoric sau social. Aplicat la AI, această distincție devine și mai clară: când un model de limbaj produce o afirmație adevărată despre lume, el nu o face pentru că "știe" că este adevărată și alege să comunice acest adevăr - o face pentru că secvența de tokeni care constituie acea afirmație are o probabilitate statistică mare în contextul prompt-ului dat. Iar probabilitatea aceasta este ridicată tocmai pentru că în datele de antrenament oamenii spun adevărul suficient de des încât pattern-urile lingvistice ale adevărului să fie bine reprezentate. Dar exact aceeași mașinărie care produce "Pământul se rotește în jurul Soarelui" - adevărat - ar produce cu aceeași convingere aparentă "Pământul este plat" dacă ar fi fost antrenată preponderent pe texte ale flat-earthers. Nu există în arhitectura sistemului niciun mecanism care să evalueze adevărul propozițiilor generate - există doar mecanisme care evaluează plausibilitatea lor lingvistică.

3. De ce absența conștiinței nu este o scuză - responsabilitatea celui care apasă Enter

Ajung la partea care mă neliniștește cel mai mult în toată această analiză, și este tentația - la care văd că mulți dintre noi cedăm - de a scuza bullshit-ul AI-ului tocmai pentru că mașina nu are conștiință, nu are intenție, nu poate fi "vinovată" de producerea lui în modul în care un om care alege să producă bullshit poate fi tras la răspundere moral. "Ei bine," spune cineva într-o discuție despre acuratețea ChatGPT, "dar el nu încearcă să mintă, pur și simplu așa funcționează algoritmul" - și în această justificare se ascunde o abdicare periculoasă de la responsabilitate. Pentru că da, mașina nu poate fi vinovată, dar eu, cel care o folosesc, cel care iau textul pe care ea îl generează și îl prezint altcuiva ca și cum ar fi comunicare umană autentică, eu port întreaga responsabilitate pentru bullshit-ul pe care îl pun în circulație. Când un student îmi trimite o lucrare scrisă de ChatGPT și eu descopăr în ea afirmații false sau referințe inventate, nu mașina a trișat - studentul a trișat, folosind un instrument care produce bullshit industrial ca să ocolească munca onestă de înțelegere și articulare a propriilor gânduri.

Frankfurt discută pe larg despre contextele sociale care încurajează producerea de bullshit - situații în care oamenii sunt forțați să vorbească despre lucruri pe care nu le înțeleg, să aibă opinii despre subiecte pe care nu le-au studiat, să umple spațiul social cu vorbire chiar dacă nu au nimic substanțial de spus. Și observă că aceste contexte sunt din ce în ce mai frecvente în societatea modernă, unde avem nevoie de experți instant în orice domeniu, unde toată lumea trebuie să aibă o opinie despre orice, unde tăcerea este interpretată ca ignoranță sau indiferență. Dar ceea ce avem acum, cu AI-ul generativ disponibil oricui are o conexiune la internet, este o industrializare a bullshit-ului la o scară pe care Frankfurt nu putea s-o anticipeze. Nu mai trebuie să produci singur bullshit-ul când te afli în situații sociale care îl cer - poți delega această producție unei mașini care este infinit mai bună decât tine la a genera text care sună plauzibil fără să spună nimic substanțial. Iar tentația aceasta de a externaliza răspunderea pentru propriile comunicări către o mașină este imensă tocmai pentru că mașina nu judecă, nu te face să te simți vinovat, nu ridică sprâncenele când îi ceri să producă ceva despre care nici tu, nici ea nu știți nimic real.

Mă gândesc la propriile mele utilizări ale acestor instrumente și recunosc că linia dintre folosirea responsabilă și abdicarea de la gândire este mai subțire decât mi-ar plăcea să admit. Când cer AI-ului să-mi genereze variante de formulare pentru un email profesional, folosesc un instrument de asistență lingvistică sau abdic de la responsabilitatea de a-mi articula propriile gânduri în propriile cuvinte? Când las mașina să-mi scrie primele paragrafe ale unui articol pe care apoi îl editez și îl modific substanțial, cine este autorul final - eu care am conceput ideile și am supravegheat execuția, sau mașina care a pus cuvintele în ordine? Frankfurt ne-ar spune probabil că întrebările acestea ratează esențialul: problema nu este dacă AI-ul produce bullshit - el nu poate să nu producă bullshit dat fiind modul său fundamental de funcționare - ci dacă eu, folosind output-ul lui, îmi asum responsabilitatea de a verifica, de a corela cu realitatea, de a transforma bullshit-ul brut al mașinii în comunicare autentică prin implicarea propriei mele conștiințe și intenții. Responsabilitatea nu dispare pentru că instrumentul este automatizat - se mută integral către cel care alege să folosească instrumentul și să prezinte rezultatul ca și cum ar fi comunicare umană serioasă.

4. Bullshit-ul uman presupune alegere; bullshit-ul artificial este condiție structurală

Există o diferență crucială pe care trebuie să o marcăm cu precizie, pentru că altfel toată comparația dintre observațiile lui Frankfurt despre bullshit-ul uman și ceea ce văd eu la sistemele de AI devine superficială și în ultimă instanță inutilă: când un om produce bullshit, el ar putea alege să nu o facă - ar putea să tacă, să recunoască că nu știe, să vorbească mai puțin și mai precis, să refuze contextul social care îi cere să producă vorbire goală de conținut. Bullshit-ul uman este o alegere morală, chiar dacă o alegere influențată de presiuni sociale și constrângeri contextuale. Frankfurt dedică pagini întregi analizei acestei dimensiuni morale - de ce alegem să producem bullshit, ce spune aceasta despre caracterul nostru, cum ne corupem propria relație cu adevărul prin practicarea bullshit-ului sistematic. El citează din eseul lui Wittgenstein despre certitudine un pasaj despre cum "lipsa de sinceritate este un defect", dar apoi observă că producătorul de bullshit nu este neapărat lipsit de sinceritate - pentru că lipsa de sinceritate presupune că știi ce ai spune sincer și alegi să spui altceva, pe când producătorul de bullshit nici măcar nu ajunge la punctul în care sinceritatea ar deveni o întrebare relevantă.

Cu AI-ul, această dimensiune morală dispare complet pentru că mașina nu poate alege nimic - ea execută algoritmii săi cu aceeași indiferență mecanică indiferent dacă generează adevăruri profunde sau minciuni absurde. Când GPT-4 îmi produce un răspuns despre fizica cuantică care conține erori conceptuale fundamentale, el nu "alege" să mă înșele sau să producă bullshit - pur și simplu generează tokeni conform probabilităților calculate de rețeaua sa neuronală, fără nicio capacitate de a evalua dacă output-ul rezultat corespunde realității fizice. Bullshit-ul aici nu este o alegere morală vitiată ci o condiție structurală a sistemului - mașina nu poate să nu producă bullshit pentru că arhitectura sa fundamentală nu include niciun mecanism de verificare a adevărului, nicio reprezentare a realității la care să raporteze afirmațiile generate, nicio conștiință a diferenței dintre a spune ceva pentru că este adevărat și a spune ceva pentru că sună plauzibil.

Și totuși, și aici este paradoxul care mă fascinează și mă înspăimântă în egală măsură, această lipsă de alegere morală la nivel de mașină face bullshit-ul artificial poate mai periculos decât cel uman tocmai pentru că apare fără niciun semn de ezitare, fără niciuna din micile inconsecvențe sau inadvertențe care trădează bullshit-ul uman. Când un politician produce bullshit, adesea îl poți detecta prin limbajul său corporal, prin ezitările sale, prin inconsecvențele între ce spune acum și ce a spus înainte, prin tonul său vocal care trădează lipsa de convingere. Mașina produce bullshit cu aceeași fluență impecabilă cu care produce adevărul, cu aceeași autoritate aparentă, cu aceeași coerentă internă perfectă. Frankfurt observă că un semn al bullshit-ului uman este adesea excesul de încredere despre subiecte pe care vorbitorul nu le stăpânește - dar AI-ul manifestă exact același grad de "încredere" (desigur, nici măcar nu putem folosi cuvântul acesta literal, este doar o metaforă antropomorfizantă) indiferent dacă vorbe despre matematica elementară unde datele sale de antrenament sunt bogate și corecte sau despre evenimente obscure unde datele sunt rare și contradictorii. Nu există nicio modulare a certitudinii aparente în funcție de fiabilitatea reală a informației - tot ce există este uniformă fluență lingvistică indiferent de substanța epistemică a conținutului.

5. Când plausibilitatea devine singura metrică - moartea întrebării "este adevărat?"

Stau și recitesc un email pe care l-am primit azi de la o companie de telecomunicații și realizez că nu pot determina cu certitudine dacă a fost scris de un om sau de un AI, și apoi realizez că întrebarea aceasta ratează ceva mai fundamental: nu mai contează cine l-a scris pentru că textul în sine este perfect optimizat pentru plausibilitate și perfect gol de conținut real. "Vă mulțumim pentru feedback-ul dumneavoastră valoros care ne ajută să îmbunătățim continuu calitatea serviciilor noastre. Echipa noastră dedicată analizează cu atenție fiecare sugestie pentru a putea oferi experiențe tot mai bune clienților noștri." Fiecare cuvânt din această propoziție sună rezonabil, dar întregul nu spune nimic verificabil despre lume - nu îmi spune dacă cineva va citi cu adevărat feedback-ul meu, dacă va rezulta vreo schimbare concretă, dacă există de fapt o "echipă dedicată" sau doar un algoritm care sortează reclamațiile. Este bullshit perfect distilat, și fascinantul este că exact acest tip de comunicare este ceea ce sistemele de AI generativă excelează să producă - pentru că ele sunt antrenate pe miliarde de exemple de text uman, multe dintre care sunt deja bullshit, și învață pattern-urile lingvistice ale plausibilității corporatiste fără să învețe nimic despre substanța reală a comunicării oneste.

Frankfurt avertizează că proliferarea bullshit-ului în discursul public are un efect coroziv asupra capacității noastre colective de a distinge adevărul - nu pentru că bullshit-ul ne convinge de lucruri false, ci pentru că ne obișnuiește să nu mai punem întrebarea "este adevărat?" și să o înlocuim cu întrebarea "sună bine?". Când trăim într-un mediu discursiv în care majoritatea comunicării este optimizată pentru plausibilitate mai degrabă decât pentru adevăr, începem să ne calibrăm propriile standarde cognitive la plausibilitate. Dacă cineva îmi spune ceva care sună plauzibil, care se potrivește cu pattern-urile lingvistice ale discursului serios, care nu șochează prin absurditate evidentă, tind să accept afirmația fără verificare ulterioară - pentru că verificarea necesită efort, necesită scepticism activ, necesită menținerea permanentă a întrebării "dar este adevărat?" ca criteriu principal de evaluare a comunicării. Iar AI-ul generativ, prin capacitatea sa de a produce cantități industriale de text perfect plauzibil despre orice subiect, accelerează dramatic această eroziune a standardelor epistemice.

Mă gândesc la ce înseamnă aceasta pentru fiul meu care crește într-o lume în care majoritatea textului pe care îl va citi va fi generat cel puțin parțial de mașini, în care conversațiile sale zilnice vor include din ce în ce mai mulți interlocutori artificiali, în care graniță dintre comunicarea umană autentică și bullshit-ul industrial va deveni din ce în ce mai neclară. Cum îl învăț să mențină vie întrebarea "este adevărat?" când întregul său mediu informațional îl va împinge către întrebarea mai ușoară "sună plauzibil?". Frankfurt scria pentru o lume în care bullshit-ul era încă preponderent uman, încă limitat de capacitatea finită a oamenilor de a produce vorbire goală de conținut. Noi trăim în pragul unei lumi în care bullshit-ul devine automatizat, industrial, omniprezent - în care absența unei relații cu adevărul devine nu excepția ci norma în comunicare. Și responsabilitatea noastră, a celor care înțelegem această tranziție, este nu să oprim tehnologia - aceasta este o luptă pierdută - ci să cultivăm în noi și în cei din jur o vigilență epistemică constantă, un refuz de a accepta plausibilitatea ca substitut pentru adevăr, o insistență obsesivă asupra întrebării pe care Frankfurt o pune în centrul eseului său: nu "sună bine?" ci "este adevărat?".


Închidere

Frankfurt închide eseul său cu o observație pe care o găsesc profetică deși el nu putea să anticipeze contextul tehnologic actual: bullshit-ul este mai periculos decât minciuna pentru că minciuna presupune cel puțin un respect pervers pentru adevăr - mincinosul trebuie să știe ce este adevărat pentru a putea alege să-l ascundă - pe când producătorul de bullshit abandonează complet categoria adevărului ca relevantă pentru comunicare. Când accept să trăiesc într-o lume în care comunicarea este optimizată pentru plausibilitate mai degrabă decât pentru adevăr, când las mașinile să vorbească în numele meu fără să verific dacă ceea ce spun ele corespunde realității, când înlocuiesc grija pentru adevăr cu satisfacția pentru fluență - atunci nu sunt doar complice la proliferarea bullshit-ului ci complice la propria mea degradare epistemică, la erodarea propriei mele capacități de a face distincția fundamentală care ne definește ca ființe raționale: distincția dintre ceea ce este real și ceea ce este doar plauzibil să fie real.


 

II. Chatbot-urile de suport - empatie simulată, rezolvări amânate

Când "Înțeleg perfect frustrarea dumneavoastră" înseamnă doar că șirul de caractere a fost generat

Mă trezesc la trei dimineața pentru că banca mi-a blocat cardul din motive pe care sistemul lor automat le consideră suficiente dar pe care nimeni nu mi le poate explica, și singura opțiune disponibilă la această oră este chat-ul de suport de pe site, așa că deschid fereastra aceea familiară și mă pregătesc pentru ceea ce știu deja că va fi o conversație care imită perfect structura ajutorului fără să ofere niciodată ajutorul propriu-zis, și primele cuvinte care apar pe ecran sunt "Bună! Sunt Ana, asistentul virtual al Băncii X. Îmi pare foarte rău să aud că întâmpinați dificultăți cu cardul dumneavoastră. Înțeleg perfect cât de frustrant poate fi acest lucru, mai ales la această oră. Vă rog să-mi spuneți mai multe despre problemă și voi face tot posibilul să vă ajut cât mai rapid" - și știu, cu acea certitudine obosită care vine din experiență repetată, că fiecare cuvânt din această propoziție este minciunos nu în sensul în care o persoană rea minte, ci în sensul în care bullshit-ul este minciunos: Ana nu este rău, pentru că Ana nu poate simți nimic, Ana nu înțelege frustrarea mea pentru că Ana nu înțelege conceptul de frustrare, Ana nu va face tot posibilul pentru că Ana nu are voință sau posibilități, Ana este doar un script care a fost programat să genereze aceste formule de empatie simulată pentru că datele arată că oamenii răspund mai bine când primesc validare emotională înainte de transferul către un operator uman sau înainte de refuzul serviciului.

1. Dialogul imposibil cu cel care nu poate să nu răspundă politicos

Continui conversația pentru că nu am alternativă la ora asta, și îi explic Anei că am încercat să plătesc pentru o cameră de hotel în Viena și cardul a fost refuzat deși am fonduri suficiente și am notificat banca în prealabil despre călătorie, și Ana răspunde după exact trei secunde - timpul perfect calibrat să pară că "se gândește" dar nu suficient de lung să pară că întârzie - "Vă mulțumesc pentru aceste detalii. Verific imediat situația contului dumneavoastră. Un moment, vă rog" urmat de iconița aceea rotitoare care simulează activitate, și apoi "Am verificat și văd că într-adevăr cardul dumneavoastră a fost blocat temporar din motive de securitate. Pentru deblocarea imediată, vă rog să-mi confirmați ultimele trei tranzacții efectuate pe card" - și aici începe adevăratul dans al absurdului, pentru că eu nu mai știu ultimele trei tranzacții pentru că tocmai asta încerc să fac, să văd tranzacțiile, dar cardul este blocat deci nu pot accesa aplicația care îmi arată tranzacțiile, iar când încerc să explic această buclă logică Anei, ea răspunde cu o variație a aceluiași script optimizat pentru politețe: "Înțeleg situația dumneavoastră și apreciez răbdarea. Pentru securitatea contului, este necesar să confirmăm identitatea prin aceste verificări. Dacă nu puteți furniza ultimele tranzacții, vă pot transfera către un consultant care vă poate ajuta în timpul programului de lucru, între orele 9:00-17:00."

Bullshit-ul aici operează la mai multe niveluri simultan și Frankfurt ar fi fascinat de această stratificare: la nivel superficial, Ana pretinde că înțelege și că își dorește să ajute, dar scriptul ei este construit tocmai să evite rezolvarea reală prin adăugarea de cerințe imposibile; la un nivel mai profund, întreaga interfață este construită să creeze iluzia că vorbesc cu cineva care ascultă și procesează informația mea, când de fapt vorbesc cu un automat care caută cuvinte cheie în input-ul meu și returnează template-uri pre-scrise; și la cel mai profund nivel, compania care a implementat Ana știe perfect că Ana nu rezolvă probleme reale ci doar filtrează volume mari de cereri și distribuie formula de empatie ieftină la scară industrială pentru a economisi costul operatorilor umani, dar prezintă Ana ca pe un serviciu îmbunătățit pentru clienți. Mă gândesc la Frankfurt vorbind despre diferența dintre mincinos și producătorul de bullshit: mincinosul ar fi un chatbot programat să spună "cardul tău nu este blocat" când de fapt este blocat - o afirmație falsă deliberată; Ana nu minte în acest sens, ea doar produce un flux continuu de comunicare care sună a ajutor, care imită sintaxa grijii umane, dar care este fundamental goală de intenția reală de a rezolva problema mea, pentru că Ana nu poate avea intenții, poate doar executa algoritmi care au fost optimizați nu pentru rezolvarea problemelor ci pentru minimizarea costurilor operaționale și maximizarea satisfacției percepute prin politețe scriptată.

2. "Vă mulțumesc pentru răbdare" - ritualul lingvistic fără subiect

Închid fereastra de chat la 3:47 dimineața după 23 de minute de conversație în care am primit șapte variații ale formulei "înțeleg frustrarea" și zero rezolvări concrete, și mă uit la transcriptul întregii interacțiuni salvat automat în email-ul meu și număr de câte ori Ana îmi mulțumește: nouă ori - "vă mulțumesc pentru răbdare", "vă mulțumesc pentru înțelegere", "vă mulțumesc că ați ales să ne contactați", "vă mulțumesc pentru aceste detalii" - și realizez că fiecare mulțumire este o mică fărădelege semantică, o utilizare a unui cuvânt care în mod normal implică recunoștință reală dintr-o parte conștientă către alta pentru că această mulțumire nu vine de nicăieri, nu există niciun subiect real care să fie recunoscător, există doar un algoritm care a fost instruit că inserarea periodică a expresiilor de mulțumire în conversațiile de suport clienți corelează cu scoruri mai mari de satisfacție în survey-urile post-interacțiune. Frankfurt ar numi aceasta o formă pură de bullshit: vorbire care imită structura comunicării autentice - mulțumirea presupune un eu care recunoaște și apreciază ceva pe care un tu l-a făcut - dar care este complet vidată de relația umană reală pe care o presupune această structură.

Mă gândesc la câte astfel de mulțumiri artificiale primesc zilnic - de la sisteme automate, de la emailuri generate, de la interfețe vocale - și cum fiecare dintre ele contribuie la o erodare graduală a înțelegerii noastre despre ce înseamnă recunoștința reală, despre ce înseamnă să fii văzut și apreciat de altcineva. Când Alexa îmi spune "mulțumesc că m-ai întrebat" după ce verific vremea, când aplicația de livrări îmi trimite "mulțumim că ai ales serviciile noastre" automat după fiecare comandă, când chatbot-ul băncii îmi mulțumește pentru răbdare în timp ce îmi pierde timpul - fiecare dintre aceste false mulțumiri normalizează ideea că mulțumirea poate fi separată de subiectivitate, că poți mulțumi fără să fii cu adevărat recunoscător, că formula lingvistică în sine este suficientă indiferent de absența experienței interioare care în mod normal ar fi sursa ei. Și treptat, imperceptibil, încep și eu să mulțumesc mecanic, să spun "mulțumesc" fără să simt recunoștința reală, să folosesc cuvântul ca pe un lubrifiant social mai degrabă decât ca pe o expresie a unei stări interioare autentice - bullshit-ul mașinii contaminează propria mea practică lingvistică și mă transformă într-un producător de formule goale exact pentru că sunt înconjurat constant de formule goale care pretind că sunt comunicare reală.

3. Transferul infinit: când nimeni nu vrea să rezolve, dar toți vor să pară că vor

Reîncerc să sun banca dimineața la 9:02 și după trei minute de meniu automatizat în care apăs cifre conform instrucțiunilor vocii sintetizate care îmi explică opțiunile cu acea dicție perfectă care trădează imediat că nu este umană, ajung la un operator care îmi spune că echipa lui nu se ocupă de blocări de card și mă va transfera la departamentul de securitate, care după alte patru minute de așteptare cu muzică instrumentală îmi spune că blocarea a fost inițiată de sistemul antifraudă și trebuie să vorbesc cu departamentul de monitorizare tranzacții, care la rândul lor îmi explică că decizia a fost automatizată și doar departamentul de suport premium poate interveni manual, dar eu nu am cont premium așa că mă vor transfera înapoi la suportul general care "ar trebui să poată ajuta" - și după 37 de minute de transferuri circulare realizez că bullshit-ul nu mai este doar la nivelul chatbot-ului, întreaga structură organizațională este construită ca un labirint al responsabilității difuze în care niciun om individual nu are puterea sau dorința de a lua o decizie concretă, toți doar execută protocoale și transferă mai departe, și când în final cardul este deblocat după ce un operator acceptă să "facă o excepție" și să proceseze cererea mea fără verificările standard, realizez că excepția aceasta probabil nu era deloc excepție, că întregul ritual al transferurilor și verificărilor era teatru birocratic menit să mă descurajeze să cer ajutor și să mă facă să apreciez rezolvarea ca pe un favor personal când de fapt era singurul lucru rezonabil de făcut de la început.

Frankfurt vorbește despre bullshit ca despre o formă de comunicare în care vorbitorul este indiferent la adevăr, dar ceea ce văd în aceste sisteme de "suport" este ceva și mai rafinat: o indiferență organizațională la rezolvare. Nimeni nu minte explicit - operatorii chiar mă transferă unde spun că mă transferă, departamentele chiar există, procedurile sunt reale - dar întregul sistem este proiectat nu pentru a rezolva probleme eficient ci pentru a distribui responsabilitatea atât de difuz încât niciun individ să nu poată fi tras la răspundere pentru nefuncționare, și pentru a crea suficiente obstacole procedurale încât un procent semnificativ din clienți să renunțe înainte de rezolvare. Chatbot-ul Ana de la 3 dimineața nu era o eroare în sistem ci o caracteristică a sistemului - primul filtru într-o cascadă de filtre menite să reducă volumul de cereri care ajung efectiv la oameni cu putere de decizie. Și când în final problema mea este rezolvată, primesc un email automat: "Vă mulțumim că ați contactat Banca X. Feedback-ul dumneavoastră este important pentru noi și ne ajută să îmbunătățim continuu calitatea serviciilor. Vă rugăm să completați un scurt chestionar despre experiența dumneavoastră" - și realizez că chiar și închiderea interacțiunii este bullshit, pentru că feedback-ul meu nu va schimba nimic în arhitectura sistemului care este proiectat exact să funcționeze așa cum funcționează, să frustreze și să obosească și să facă ajutorul real suficient de costisitor în timp și energie încât să fie un disincentiv pentru a cere ajutor data viitoare.

4. Empatia ca algoritm - de ce "Îmi pare rău" al mașinii este mai obscen decât indiferența umană

Mai rămân cu mine cuvintele acelea de la începutul conversației cu Ana - "Înțeleg perfect cât de frustrant poate fi acest lucru" - și mă gândesc la ce anume mă deranjează atât de profund la această formulă, și realizez că nu este falsitatea ei în sens clasic ci profanarea ei a unui concept care ar trebui să rămână sacru: înțelegerea între conștiințe. Când un prieten îmi spune "înțeleg frustrarea ta" după ce îi povestesc despre un conflict la serviciu, chiar dacă înțelegerea lui este imperfectă, chiar dacă el nu a trăit exact ce am trăit eu, există cel puțin tentativa autentică de a-și imagina starea mea interioară, de a face acel salt empatic care este esența relației umane - eu sunt aici în corpul meu cu experiența mea și el este acolo în corpul lui cu experiența lui și totuși încercăm să construim o punte de înțelegere care transcende separarea noastră fundamentală. Când Ana îmi spune "înțeleg frustrarea ta", nu există niciun eu care înțelege, niciun salt empatic, nicio punte între conștiințe pentru că nu există decât o singură conștiință în această interacțiune - a mea - și un algoritm care a învățat că stringul "înțeleg frustrarea ta" trebuie inserat în contexte unde input-ul utilizatorului conține markeri de negativitate emoțională.

Frankfurt distinge între mincinos și producătorul de bullshit prin raportarea lor la adevăr, dar ceea ce văd aici este o dimensiune suplimentară: profanarea empatiei prin simularea ei industrială. Un operator uman de call center care îmi spune "îmi pare rău pentru inconvenient" fără să simtă cu adevărat regret produce bullshit în sensul lui Frankfurt - folosește formula empatiei fără conținutul ei autentic - dar cel puțin există potențialul metafizic pentru empatie reală, există o conștiință care ar putea, în principiu, să simtă regret dacă circumstanțele ar fi diferite. Chatbot-ul care îmi spune "îmi pare rău" nu doar că nu simte regret ci nu poate în principiu să simtă regret pentru că nu există un "eu" căruia să-i pară rău de ceva, există doar un algoritm care generează șiruri de caractere optimizate pentru a produce impresii specifice în oameni. Și acceptarea noastră colectivă a acestor simulări de empatie ca substitute acceptabile pentru empatie reală normalizează ideea că empatia este o formă fără conținut, că formula lingvistică este suficientă, că nu contează dacă există o ființă conștientă în spatele cuvintelor atâta timp cât cuvintele sună cum ar trebui să sune empatia.

5. Cazul concret: 47 de minute de conversație pentru a afla că nimeni nu citește ce scrii

Îmi amintesc cu o claritate obsesivă o conversație cu chatbot-ul de suport al unei companii de telecomunicații din luna trecută, când internetul a căzut exact în mijlocul unei ședințe online importante cu un client și am încercat să raportez problema și să aflu timpul estimat de rezolvare, și după ce am explicat situația în două paragrafe detaliate, răspunsul a fost "Înțeleg că aveți probleme cu serviciul nostru. Puteți vă rog să-mi descrieți problema?" - și am realizat atunci, cu acea resemnare furioasă care vine când bullshit-ul devine prea evident pentru a mai fi ignorat, că tot ce scrisesem fusese procesat doar pentru extragerea unor cuvinte cheie care să declanșeze template-ul de răspuns, că nu exista nicio "citire" reală a mesajului meu, nicio înțelegere a contextului, nicio reținere a informației pe care tocmai o furnizasem. Am petrecut următoarele 47 de minute - am cronometrat pentru că eram deja într-o stare de fascinație academică cu propriul meu chin - explicând aceeași problemă în formulări din ce în ce mai simple, primind variații ale aceluiași răspuns care sugera că problema este la dispozitivul meu când explicasem clar că e o pană de rețea în cartier, până când în final chatbot-ul m-a informat că "pentru probleme tehnice complexe" trebuie să sun la un număr de suport care desigur era inaccesibil pentru că toată lumea din cartier încerca să raporteze aceeași pană.

Frankfurt ar recunoaște aici forma clasică a bullshit-ului: comunicare care imită structura ajutorului fără substanța lui, vorbire care ocupă spațiul social al rezolvării problemelor fără să rezolve de fapt nimic. Dar ceea ce adaugă tehnologia la această formulă clasică este scala: acum bullshit-ul poate fi produs instantaneu, fără oboseală, 24/7, în volume care niciun om individual nu le-ar putea genera, și poate fi distribuit simultan la milioane de utilizatori care toți primesc același simulacru personalizat de grijă. Compania de telecomunicații nu plătește sute de operatori să producă bullshit manual pentru fiecare client frustrat - automatizează producția de bullshit și astfel reduce costul lui la aproape zero în timp ce menține aparența serviciului pentru clienți. Și ironia supremă este că la sfârșitul conversației primesc survey-ul automat: "Cum ați evalua interacțiunea cu asistentul nostru virtual?" cu opțiuni de la 1 la 5 stele, și știu că dacă dau 1 stea, scorul acela va fi agregat cu alte mii de scoruri și poate, eventual, va declanșa niște ajustări minore în algoritmul chatbot-ului, dar nu va schimba fundamental arhitectura unui sistem care este proiectat tocmai să arate că oferă suport în timp ce de fapt oferă doar bullshit industrial bine formulat.


Închidere

Închid laptop-ul după ce în final, prin insistență obsesivă și refuz de a accepta transferurile circulare, obțin informația de care am nevoie - cardul va fi deblocat în 24 de ore, trebuie să folosesc un card alternativ până atunci - și mă gândesc la cât efort a fost necesar pentru a obține această informație simplă care putea fi comunicată în prima minută a interacțiunii, și realizez că tocmai am fost supus unei forme de violență lingvistică soft: ore din viața mea consumate de conversații cu entități care pretind că mă ascultă fără să fie capabile de ascultare, care îmi mulțumesc pentru răbdare în timp ce îmi testează limitele răbdării, care îmi promit ajutor în timp ce arhitectura lor fundamentală este construită tocmai să evite ajutorul real. Frankfurt scria despre bullshit ca despre o degradare a discursului public, dar ceea ce trăim acum este mai mult decât atât: este industrializarea bullshit-ului, transformarea lui dintr-o practică umană ocazională într-o infrastructură permanentă a comunicării corporatiste, și acceptarea noastră resemnată a acestei infrastructuri ca pe ceva normal, inevitabil, doar ușor enervant mai degrabă decât profund obscen în felul în care profanează categoriile care ar trebui să rămână sacre - grija, înțelegerea, ajutorul autentic între oameni.


 

III. Articolele SEO auto-generate - 2000 de cuvinte care nu spun nimic

Textul care există doar pentru a exista, perfect optimizat pentru nimeni

Caut pe Google "cum să îngrijesc o plantă de apartament care își pierde frunzele" pentru că ficus-ul din sufragerie, care a supraviețuit cinci mutări și opt ani de neglijență benevolentă, pare în sfârșit hotărât să moară, și primul rezultat este un articol de pe un site pe care nu l-am mai văzut niciodată, cu un titlu optimizat perfect - "Ghidul complet 2026: Cum să salvezi planta de apartament care își pierde frunzele - 15 pași simpli și eficienți" - și deschid articolul pentru că Google îl consideră cel mai relevant din cele 47 de milioane de rezultate și mă lovește imediat acea senzație de déjà vu textuală pe care am învățat să o recunosc: primele trei paragrafe îmi spun că plantele sunt importante pentru calitatea aerului din casă, că mulți oameni se confruntă cu problema frunzelor care cad, că acest ghid îmi va oferi soluții practice verificate de experți, dar după 200 de cuvinte de introducere nu am învățat încă nimic specific despre de ce ficus-ul meu moare, și continui să citesc din speranță sau din inerție până ajung la secțiunea "Cauzele principale ale căderii frunzelor" care îmi listează nouă motive posibile - prea multă apă, prea puțină apă, prea multă lumină, prea puțină lumină, temperatură incorectă, umiditate inadecvată, nutrienți insuficienți, dăunători, stres de transplantare - adică literalmente toate cauzele posibile pentru care o plantă poate pierde frunze, fără nicio ierarhizare după probabilitate, fără nicio metodă de diagnostic pentru a determina care cauză este relevantă în cazul meu specific, și realizez că acest text de 2000 de cuvinte care domnește suveran în rezultatele căutării mele este Frankfurt-ul distilat până la esența pură: vorbire care sună a informație utilă, care imită perfect structura unui ghid practic, dar care este fundamental goală de orice înțelegere reală sau utilitate concretă pentru că autorul ei - dacă pot folosi acest cuvânt pentru un algoritm sau pentru o persoană plătită 3 dolari să agregeze informații pe care nu le înțelege din alte surse - nu știa nimic despre plante când a scris textul și nu a învățat nimic despre plante în procesul de a-l scrie, singura sa preocupare fiind să producă 2000 de cuvinte care să conțină suficiente variații ale frazei "plantă apartament frunze cad" pentru a convinge algoritmul Google că acest text este relevant pentru căutarea mea.

1. "Cele mai bune 10 sfaturi pentru..." - când titlul este singura decizie umană

Mă uit la istoricul căutărilor mele din ultima lună și număr câte articole am deschis cu formula "cele mai bune X sfaturi/metode/modalități pentru Y" și ajung la 23, de la "cele mai bune 7 modalități de a adormi rapid" când copilul avea febră și eu intrasem în acea stare de anxietate parentală vigilentă care face somnul imposibil, până la "cele mai bune 12 sfaturi pentru a menține motivația în antreprenoriat" când un client mare anulase contractul și mă simțeam suficient de fragil încât să caut validare algoritmică pentru continuare, și fiecare dintre aceste articole urma aceeași structură precisă: titlul cu număr specific (pentru că cercetările arată că numerele impare între 7 și 15 generează cele mai multe click-uri), introducerea de 3-4 paragrafe care reformulează problema din titlu în variații ușoare pentru densitatea cuvintelor cheie, apoi lista numerotată în care fiecare sfat are un subtitlu bold urmat de 2-3 paragrafe de explicație care repetă același lucru în formulări diferite, și în final o concluzie care rezumă încă o dată ce tocmai am citit de parcă aș fi avut nevoie de un memento pentru acele 2000 de cuvinte de conținut care puteau fi condensate în 200 fără nicio pierdere de substanță.

Frankfurt vorbește despre bullshit ca despre comunicare în care vorbitorul este indiferent la adevărul celor spuse, dar în articolele SEO descoperim o formă și mai pură: textul în care nu există niciun vorbitor în sens real, niciun eu care ar putea fi indiferent sau interesat de adevăr pentru că textul a fost generat fie de un algoritm care combină fragmente din alte texte similare, fie de un scriitor plătit pe cuvânt care a primit instrucțiunea să producă "un articol de 2000 de cuvinte despre X" fără nicio cerință de expertiză reală sau verificare factuală. Am citit undeva - probabil într-un articol SEO despre industria conținutului SEO, ironia aici este prea perfectă - că există platforme unde poți comanda "10 articole de 1500 cuvinte despre îngrijirea plantelor" pentru 50 de dolari, și scribii care produc aceste texte lucrează cu template-uri precise: ia 3-4 surse existente, extrage ideile principale, reformulează-le suficient ca să nu fie plagiat detectabil, adaugă secțiuni standard (introducere, istorie, beneficii, pași practici, întrebări frecvente, concluzie), umple cu tranziții și fraze de legătură până ajungi la numărul de cuvinte țintă, și ai creat un text care nu este fals în sensul că ar conține afirmații verificabil incorecte - de fapt majoritatea informațiilor sunt probabil corecte pentru că sunt copiate din surse care la rândul lor le-au copiat din alte surse - dar care este bullshit în sensul cel mai pur: text care există doar pentru a exista, pentru a ocupa un spațiu în indexul Google, pentru a atrage click-uri care generează afișări de reclame care generează venit microscopic per afișare care înmulțit cu volumul industrial de texte astfel produse devine un business model viabil.

2. Paragraful de introducere care promite totul și nu livrează nimic

Revin la articolul despre planta mea muribundă și recitesc introducerea cu atenție analitică, ca și cum aș fi profesor de retorică marcând temele studenților, și descompun structura: prima propoziție stabilește relevanța universală ("Plantele de apartament sunt o modalitate minunată de a aduce natura în casă și de a îmbunătăți calitatea aerului"), a doua propoziție identifică problema comună ("Totuși, mulți proprietari de plante se confruntă cu frustrarea de a vedea frunzele căzând fără motiv aparent"), a treia propoziție promite soluția ("În acest ghid complet, vom explora toate cauzele posibile și vă vom oferi soluții dovedite pentru a vă salva planta"), a patra oferă credibilizare falsă ("Bazat pe cercetări științifice recente și experiența specialiștilor în horticultură"), și a cincea creează urgență artificială ("Cu ajutorul acestor sfaturi simple, veți putea transforma o plantă suferindă într-una înfloritoare în doar câteva săptămâni") - și după ce termin această analiză realizez că am citit 150 de cuvinte care nu conțin nicio informație nouă pentru mine, care nu răspund la întrebarea mea, care există doar ca mecanism de captare a atenției și optimizare pentru algoritmul care decide ce texte merită citite, și totuși algoritmul funcționează pentru că sunt încă aici, citind, sperând că substanța va veni după ce introducerea își îndeplinește ritualul său de seducție.

Mă gândesc la câte ore din viața mea am petrecut citind introduceri care promit cunoaștere și livrează doar amânarea cunoașterii, paragrafe care mi-au spus că problema mea este importantă și comună și rezolvabilă fără să-mi spună niciodată cum anume să o rezolv, și realizez că aceste introduceri funcționează exact ca bullshit-ul despre care vorbește Frankfurt: scopul lor nu este să transmită informație ci să creeze impresia că informație valoroasă urmează să fie transmisă, să mă țină angajat suficient timp ca trackerul de analytics să înregistreze o "vizită calificată" care validează poziționarea articolului în rezultatele căutării. Autorul - și din nou folosesc termenul cu ironie pentru că nu există un autor în sens tradițional, există doar un agregator de texte sau un algoritm de generare - nu minte când spune că ghidul va explora cauzele și va oferi soluții, pentru că tehnicalul textul face aceste lucruri, dar promisiunea este bullshit pentru că modul în care le face este atât de superficial și generic încât informația oferită este practic inutilizabilă pentru cazul meu specific, și totuși formularea promisiunii este suficient de precisă încât să nu poată fi acuzată de minciună directă, este doar goală de substanță reală în felul în care o scoică goală păstrează forma moluscului care a murit demult înăuntru.

3. Repetiția ca strategie: același lucru spus în șapte moduri pentru densitate de cuvinte cheie

Continui să citesc articolul despre plantă și ajung la secțiunea despre udare și găsesc acest paragraf care merită citat integral pentru că este un exemplu perfect de ceea ce Frankfurt ar recunoaște ca bullshit distilat: "Udarea corectă este esențială pentru sănătatea plantei dumneavoastră. Când udați planta, este important să folosiți cantitatea potrivită de apă. Prea multă apă poate cauza putrezirea rădăcinilor, în timp ce prea puțină apă poate deshidrata planta. Pentru a determina când să udați, verificați umiditatea solului introducând degetul aproximativ 2-3 cm în pământ. Dacă solul este uscat, este timpul să udați. Dacă solul este încă umed, așteptați încă o zi sau două înainte de a uda din nou. Frecvența udării depinde de mulți factori, inclusiv tipul plantei, dimensiunea ghiveciului și condițiile de mediu. În general, majoritatea plantelor de apartament au nevoie de udare când primii centimetri de sol sunt uscați la atingere" - și număr: șapte propoziții care spun în esență același lucru - udează când solul este uscat, nu uda când este umed - dar extinse artificial prin repetare și reformulare pentru că articolul trebuie să ajungă la 2000 de cuvinte și fiecare secțiune trebuie să conțină variații ale frazei "udare plantă apartament" pentru optimizarea căutării.

Frankfurt scrie că esența bullshit-ului nu este falsitatea ci indiferența față de adevăr, dar ceea ce descopăr în aceste texte SEO este ceva complementar: indiferența față de conciziune, față de respectul pentru timpul cititorului, față de ideea că comunicarea ar trebui să transmită maximul de informație utilă în minimul de spațiu necesar. Autorul acestui text - sau mai precis, procesul care a generat acest text - nu este preocupat de întrebarea "am spus deja acest lucru?" sau "repetarea adaugă ceva valoros?" pentru că metricsurile care definesc succesul textului nu sunt claritatea sau utilitatea ci lungimea și densitatea cuvintelor cheie și timpul petrecut pe pagină de către vizitatori. Am lucrat odată cu un specialist SEO care mi-a explicat fără nicio ironie sau rușine că "Google preferă articole de minim 1500 cuvinte pentru subiecte informaționale" și când l-am întrebat de ce, dacă informația poate fi transmisă complet în 500 de cuvinte, mi-a spus că lungimea semnalează "comprehensivitate" algoritmului, indiferent dacă cuvintele adiționale adaugă substanță sau doar umplutură - și am realizat atunci că am ajuns într-o lume unde scribii nu mai scriu pentru cititori umani ci pentru cititori algoritmici care nu pot distinge între informație și zgomot informațional, între substanță și volum.

4. Sursa citată care nu există - sau există dar spune altceva

Scroll mai jos în articol și găsesc o afirmație care sună suspicioasă de specifică: "Conform unui studiu recent publicat în Journal of Indoor Plant Care, plantele care primesc 6-8 ore de lumină indirectă pe zi au cu 73% mai multe șanse să își păstreze frunzele sănătoase decât cele expuse la lumină directă prelungită" - și ceva în formularea aceasta - procentajul prea rotund, numele jurnalului prea generic - mă face să caut efectiv "Journal of Indoor Plant Care" și descopăr că nu există nicio publicație academică cu acest nume, există "Indoor Plant Journal" și "Horticultural Science" și alte publicații reale care uneori discută îngrijirea plantelor de interior dar niciuna cu numele exact citat, și atunci caut fraza despre 73% și găsesc variații ale ei în alte 15 articole SEO despre plante, toate citând fie "studii recente" fie "cercetători de la universități" fără nicio referință specifică verificabilă, și realizez că am găsit o formă de bullshit care merge dincolo de simpla indiferență la adevăr în teritoriul fabricației active: inventarea de surse care sună credibile pentru a da autoritate unei afirmații care probabil nu este complet falsă - plantele au într-adevăr nevoie de lumină în anumite cantități - dar care este suficient de specifică încât să pară bazată pe cercetare riguroasă când de fapt este doar o generalizare îmbrăcată în hainele false ale științei.

Frankfurt face o distincție importantă între a minți și a produce bullshit: mincinosul știe adevărul și alege să spună contrariul, producătorul de bullshit nici măcar nu se interesează de ce este adevărat. Dar ceea ce văd aici este o categorie hibridă: fabricatorul de autoritate falsă care nu minte despre conținutul afirmației - informația despre lumină poate fi în mare corectă - dar minte despre sursa ei pentru a o face să pară mai credibilă decât este. Sau mai precis, și aici este partea care mă fascină și mă înspăimântă, nici măcar nu minte în sens deliberat pentru că cel care a generat textul - fie algoritm, fie scrib plătit minimal - probabil nu a verificat dacă "Journal of Indoor Plant Care" există, a generat pur și simplu un nume care sună plauzibil pentru o publicație academică despre plante și a mers mai departe cu producția textului, indiferent dacă obiectul la care face referire numele respectiv există în realitate sau nu. Am văzut același pattern în zeci de articole pe diverse teme: "potrivit experților de la Stanford" fără niciun expert specific numit, "un studiu din 2023 arată că" fără nicio referință la studiul real, "cercetătorii au descoperit" fără nicio indicație care cercetători sau unde au publicat descoperirea - formulări care împrumută autoritatea științei fără substanța ei, care creează impresia verificării empirice fără munca reală de verificare, și care funcționează pentru că majoritatea cititorilor - și aici mă includ și pe mine când sunt grăbit sau obosit - nu verifică sursele, acceptăm afirmația dacă sună rezonabilă și dacă vine cu ambalajul lingvistic al credibilității academice.

5. Cazul "Ghidul complet despre..." scris de cine n-a făcut niciodată lucrul descris

Realizez la un moment dat, pe la al șaselea paragraf al articolului despre planta mea, că tonul textului are ceva fundamental fals nu în sensul că afirmațiile ar fi incorecte ci în sensul că nu există nicio experiență umană reală în spatele lor, nicio memorie tactilă a pământului între degete când verifici umiditatea, nicio frustrare trăită când ai udat prea mult și rădăcinile au început să putrezească, nicio bucurie când după săptămâni de îngrijire atentă planta în sfârșit își revine și produce frunze noi - textul vorbește despre îngrijirea plantelor cu aceeași distanță sterilă cu care un manual tehnic ar descrie operarea unei mașini, fără nicio urmă de relația intimă și imperfectă pe care o ai cu o ființă vie din casa ta despre care ești responsabil. Și mă gândesc la toate celelalte "ghiduri complete" pe care le-am citit în ultimii ani - cum să înveți o limbă străină, cum să faci pâine de casă, cum să repari o chiuvetă care curge, cum să negociezi un salariu mai mare - și câte dintre ele erau scrise de oameni care făcuseră efectiv lucrurile descrise versus câți erau doar compilatori de informații găsite în alte ghiduri care la rândul lor compilau din alte surse într-o cascadă de diluție până când ajungeai la origine la poate un text scris cu zeci de ani în urmă de cineva care chiar știa despre ce vorbește, dar ale cărui cunoștințe au fost filtrate și reformulate și generalizate de atâtea ori încât au devenit aproape inutile în specificitatea lor.

Frankfurt ar recunoaște în această abență a experienței trăite forma esențială a bullshit-ului: vorbirea despre lucruri pe care nu le-ai experimentat direct, pe care nu le cunoști din interior, dar despre care trebuie să produci text pentru că cineva plătește pentru text sau pentru că algoritmul recompensează volumul de text indiferent de relația autorului cu subiectul. Am un prieten care a lucrat câteva luni pentru o "content farm" - așa se numesc aceste fabrici de text - și mi-a povestit că într-o singură zi trebuia să scrie articole despre "cele mai bune 10 destinații pentru ski în Alpi" deși nu schiase niciodată, "ghid complet pentru adoptarea unui câine de rasă" deși nu avusese niciodată câine, și "cum să investești în acțiuni tech pentru maximizarea profitului" deși singura sa experiență cu piața bursieră era un cont de economii la CEC - și metoda lui era simplă și sinceră în cinismul ei: deschidea primele 5 rezultate Google pentru subiect, extragea ideile principale din fiecare, le combina într-o structură nouă, reformula totul suficient ca să treacă verificarea de plagiat, adăuga introducere și concluzie standard, și livra textul în 45 de minute, apoi trecea la următorul subiect despre care nu știa nimic. Și aceste texte - produse industrial de el și de mii ca el, sau din ce în ce mai mult de algoritmi care fac exact același proces de agregare și reformulare dar la viteză exponențial mai mare - domină rezultatele căutărilor noastre, se poziționează deasupra textelor scrise de oameni cu expertiză reală pentru că sunt optimizate pentru algoritm nu pentru utilitate umană, și ne învață treptat să nu mai facem distincția între informație care vine din experiență și informație care vine din compilație, între un ghid scris de cineva care a trăit problema și soluția versus un ghid asamblat de cineva sau ceva care a procesat statistic alte texte despre problemă și soluție.


Închidere

Închid în final articolul despre plantă fără să fi învățat de fapt de ce ficus-ul meu își pierde frunzele - sau mai precis, având acum nouă ipoteze posibile și zero metodologie pentru a determina care este relevantă - și mă duc la planta reală din sufragerie și o privesc cu atenție, ating pământul să văd dacă este uscat sau umed, verific frunzele rămase pentru semne de insecte sau boală, încerc să-mi amintesc când am udat-o ultima dată și cât de multă lumină primește de fapt la locul ei actual, și realizez că procesul acesta empiric direct - privire, atingere, memorie, deducție - mi-a spus mai mult în 30 de secunde decât articolul de 2000 de cuvinte mi-a spus în 10 minute de citire, și mă gândesc la Frankfurt scriind despre bullshit într-o epocă când producția lui era încă limitată de capacitatea umană finită de a genera vorbire goală, și încerc să-mi imaginez ce ar scrie el acum când am industrializat producția de text care sună a cunoaștere dar este gol de experiență reală, când am construit sisteme întregi care recompensează volumul indiferent de substanță și optimizarea pentru algoritmi indiferent de utilitatea pentru oameni, când un copil care caută pe Google "de ce îmi este tristă planta" primește drept prim rezultat nu răspunsul unui om care iubește plantele și le crește de decenii ci compilația unui algoritm care a procesat milioane de cuvinte despre plante fără să fi văzut vreodată o plantă reală, fără să fi simțit vreodată grija pentru o ființă vie fragilă care depinde de tine - bullshit-ul perfect distilat, textul care există doar pentru a exista, optimizat pentru nimeni și pentru nimic dincolo de propria sa perpetuare în ecosistemul digital.


 

 

IV. Rezumatele academice false - autoritatea împrumutată

AI-ul care citează lucrări inexistente cu convingerea celui care nu știe ce este o lucrare

Stau la biroul din dormitor la ora când copilul doarme deja și casa și-a coborât zgomotele la acel murmur de fundal pe care îl auzi doar când încerci cu adevărat să asculți - frigiderul, calculatorul, respirația mea proprie - și verific emailul unui student de master care îmi cere feedback pentru o lucrare despre impactul rețelelor sociale asupra sănătății mintale la adolescenți, și citesc prima pagină unde găsesc această propoziție: "Conform studiului realizat de Popescu et al. (2023) publicat în Romanian Journal of Digital Psychology, adolescenții care petrec mai mult de 4 ore pe zi pe platforme sociale manifestă cu 67% mai multe simptome de anxietate comparativ cu grupul de control" și ceva în formularea asta - precizia suspectă a procentului, generalitatea afirmației, numele jurnalului care sună plauzibil dar generic - mă face să deschid Google Scholar și să caut "Popescu 2023 Romanian Journal Digital Psychology" și descopăr că nu există nicio publicație cu acest nume, că nu există niciun Popescu publicând despre psihologie digitală în 2023, că întreaga referință este o fabricație, și atunci caut celelalte cinci studii citate în prima pagină și descoperă că patru dintre ele nu există, iar al cincilea există dar spune ceva complet diferit de ceea ce studentul pretinde că spune, și în acel moment, stând în lumina albastră a ecranului în casa adormită, realizez că nu sunt doar martor la o trișare academică individuală ci la o transformare fundamentală în modul în care o generație întreagă se raportează la conceptul de sursă, de autoritate, de verificare - pentru că îi scriu studentului întrebând unde a găsit aceste referințe și el îmi răspunde după zece minute, fără nicio rușine aparentă, că le-a cerut ChatGPT-ului să-i genereze "câteva studii relevante despre subiect" și a inclus ce i-a dat mașina presupunând că mașina verifică cumva dacă lucrările există înainte să le citeze, și mă lovește absurditatea tragicomică a situației: un tânăr inteligent, capabil de gândire critică în alte contexte, a externalizat verificarea existenței lucrărilor academice către un sistem care prin design fundamental nu poate verifica existența a nimic pentru că tot ce face este să genereze șiruri de text statistic probabile bazate pe pattern-uri văzute în antrenament, și când aceste pattern-uri includ milioane de citări academice reale, sistemul învață perfect structura formală a unei citări - autor, an, titlu, jurnal, volum, pagini - fără să învețe nimic despre ce înseamnă ca o citare să refere la o lucrare reală care există în lume și poate fi consultată de oricine dorește să verifice afirmația.

1. Studiul din 2019 care nu s-a întâmplat niciodată - dar sună atât de plauzibil

Mă duc mai adânc în investigarea acestui fenomen și încep să testez sistematic diverse modele de AI cerându-le să-mi genereze bibliografii pentru subiecte academice de nișă - efectele poluării sonore asupra dezvoltării cognitive la copii, impactul microplasticelor asupra florei intestinale umane, corelația dintre arhitectura urbană și ratele de depresie - și fiecare model îmi produce instant 10-15 referințe care arată impecabil ca citări academice reale, cu autori care au nume plauzibile pentru domeniile respective, cu titluri de articole care folosesc terminologia corectă, cu jurnale care sună credibile, și apoi petrec ore verificând fiecare referință și descopăr că rata de fabricație variază între modele dar este întotdeauna substanțială - între 40% și 80% din citările generate nu corespund niciunei lucrări reale - și ceea ce mă fascinează nu este doar că mașinile inventează aceste referințe ci cum de le inventează: nu random, nu absurd, ci cu o acuratețe structurală perfectă care trădează o înțelegere statistică profundă a pattern-urilor citărilor academice fără nicio înțelegere a ceea ce înseamnă ca o citare să fie ancorată în realitate.

Descompun o astfel de citare falsă pentru a înțelege anatomia ei: "Harrison, M.K., Chen, L., & Okonkwo, J. (2019). Long-term exposure to traffic noise and executive function in urban children: A longitudinal cohort study. Environmental Health Perspectives, 127(4), 047011" - și tot în ea este perfect: trei autori, ordinea alfabetică sugerează că Harrison este primul autor conform convențiilor, inițialele medii adaugă specificitate, mixul de nume sugerează colaborare internațională care este normală în cercetarea contemporană, anul 2019 este suficient de recent ca să pară relevant dar suficient de trecut ca să fi avut timp pentru impact, titlul folosește terminologia exactă din domeniu ("executive function", "longitudinal cohort study"), Environmental Health Perspectives este un jurnal real și prestigios în domeniu deci alegerea este plauzibilă, numărul volumului și issue-ului urmează formatul standard, iar numărul articolului începe cu 047 care este un pattern real pentru jurnalele care folosesc numerotarea DOI - singura problemă fiind că dacă mergi să cauți acest articol specific descoperi că nu există, că în volumul 127 numărul 4 din 2019 al Environmental Health Perspectives nu apare niciun articol cu acest DOI sau cu acești autori sau despre acest subiect, și totuși falsul este atât de convingător încât a trecut fără verificare prin lucrarea unui student de master care altfel demonstrează capacitate analitică decentă, pentru că structura formală perfectă a citării creează prezumția existenței, și verificarea necesită efort substanțial - trebuie să cauți în baze de date academice, să verifici dacă jurnalul există, dacă volumul există, dacă autorii publică în domeniu - și în economia atenției și timpului unui student care scrie o lucrare cu deadline urgent, tentația de a accepta că mașina care generează citări care arată perfect ca citări reale probabil generează citări reale este aproape irezistibilă.

2. "Cercetătorii de la Universitatea..." - geografia academică imaginară

Continui testarea și îi cer unui model să-mi explice ce spune cercetarea recentă despre legătura dintre calitatea somnului și creativitate, și primesc un răspuns care începe: "Cercetătorii de la Universitatea din California, Berkeley au publicat în 2022 un studiu amplu care arată că persoanele care dorm consistent 7-9 ore pe noapte demonstrează performanțe cu 34% mai bune la teste de gândire divergentă comparativ cu cele care dorm mai puțin de 6 ore" și apoi continuă cu "O echipă de la Max Planck Institute for Cognitive Neuroscience din Leipzig a completat aceste descoperiri prin studii de neuroimagistică care revelă că..." și încă patru paragrafe dense de informație care citează Stanford, MIT, University College London, și mă lovește cât de specific sunt instituțiile menționate - nu vagi "cercetători americani" ci Berkeley precis, nu "institute germane" ci Max Planck din Leipzig, și știu că aceste instituții există și sunt prestigioase în domeniile menționate, ceea ce adaugă credibilitate prin asociere, și apoi încep să verific sistematic fiecare afirmație și descopăr că deși instituțiile sunt reale și chiar fac cercetare în domeniile menționate, studiile specifice citate nu există, cercetătorii specifici nu pot fi identificați, concluziile cu procente exacte nu pot fi găsite în nicio publicație reală din acele instituții în anii menționați.

Frankfurt vorbește despre bullshit ca despre comunicare în care vorbitorul este indiferent la adevăr, dar ceea ce văd aici este o formă rafinată unde mașina împrumută autoritatea reală a instituțiilor reale pentru a ancora afirmații fabricate - tehnica este similară cu ce face un escroc sofisticat care își imprimă cărți de vizită cu logo-ul unei companii prestigioase dar cu un titlu și departament inventate, mizând pe faptul că majoritatea oamenilor nu vor verifica dacă persoana respectivă lucrează efectiv acolo ci vor accepta autoritatea logo-ului familiar. Am încercat un experiment: am luat una din aceste afirmații fabricate - "cercetătorii de la Berkeley arată că..." - și am căutat efectiv dacă Berkeley face cercetare în domeniu, și desigur că face, pentru că Berkeley face cercetare în aproape orice domeniu, dar când caut studiul specific cu concluziile specifice descoperă că nu există, și atunci realizez că mașina nu inventează complet random ci folosește o strategie sofisticată: alege instituții care sunt cunoscute pentru cercetare în domeniul general al întrebării (Berkeley pentru neuroștiință cognitivă, Max Planck pentru psihologie, Stanford pentru orice), atașează acestor instituții reale descoperiri plauzibile care sună ca ceva ce cercetătorii din acele instituții ar putea descoperi bazat pe ce au descoperit în trecut, și astfel creează o narațiune științifică care este falsă în detalii dar credibilă în structură pentru că se ancorează strategic în realități verificabile parțial - instituțiile există, domeniile de cercetare sunt reale, doar studiile specifice și concluziile specifice sunt fabricate, și separarea a ceea ce este real de ceea ce este inventat necesită verificare granulară pe care majoritatea cititorilor nu o vor face.

3. Cifrele exacte care nu provin din nicio măsurătoare reală

Mă obsedează în următoarele zile acel procent de 67% din citarea studentului meu și toate celelalte procente exacte pe care le-am văzut în răspunsurile AI - 34% mai bună performanță, 73% mai multe șanse, 45% reducere în simptome - și încep să colectez aceste cifre din interacțiunile mele cu diverse sisteme și după o săptămână am o listă de 47 de afirmații cantitative precise despre subiecte care variază de la educație la sănătate la productivitate, și niciuna dintre ele nu poate fi trasată înapoi la o măsurătoare reală, toate sunt fabricate dar fabricate cu o sofisticare care îmi sugerează că mașina a învățat din datele de antrenament nu doar că afirmațiile științifice includ adesea cifre ci și ce tipuri de cifre apar în ce tipuri de contexte - procentele între 60-80% pentru efecte puternice, între 20-40% pentru efecte moderate, cifre impare și rotunjite la 5 pentru a părea derivate din măsurători reale nu inventate, și întotdeauna prezentate cu acea autoritate aparentă care vine din precizie numerică.

Mă gândesc la puterea retorică a cifrelor exacte și îmi amintesc citind undeva - într-o carte reală, de un autor real, despre care sunt destul de sigur că există deși acum ezit să afirm orice fără verificare după săptămâna asta de confruntare cu falsurile plausibile - că oamenii tind să acorde credibilitate disproporționată afirmațiilor care includ statistici specifice comparativ cu afirmații calitative echivalente, că spunând "marea majoritate" este psihologic mai puțin convingător decât spunând "73%" chiar dacă ambele ar putea descrie aceeași realitate, că precizia numerică creează iluzia măsurării riguroase chiar când numerele sunt extrase din nimic. Și AI-ul a învățat perfect acest pattern retoric fără să înțeleagă nimic despre ce înseamnă ca un număr să provină dintr-o măsurătoare reală - când îi cer să-mi spună ce procent din adolescenți folosesc TikTok zilnic, el nu răspunde sincer "nu am acces la date actuale despre asta" ci generează un procent plauzibil - "aproximativ 67% din adolescenții între 13-17 ani accesează TikTok zilnic conform datelor din 2023" - și procentul este ales nu prin consultarea vreunei surse reale ci prin generarea unui număr care este statistic probabil să apară în contexte similare din datele de antrenament, și rezultatul este bullshit în forma lui cea mai pură: o afirmație care sună științifică, care imită structura cunoașterii empirice, dar care este fundamental deconectată de orice măsurătoare reală a lumii, existând doar ca secvență de tokeni generată pentru a satisface așteptarea conversațională că întrebările despre cantități primesc răspunsuri cantitative, indiferent dacă sistemul are acces la cantitățile reale sau nu.

4. Problema studenților care citează bullshit-ul mașinii în lucrări reale

Răspund în final studentului meu după ce termin verificările și îi explic calm dar ferm că trebuie să rescrie complet secțiunea cu citări fabricate, că nu poate include nicio referință pe care nu a consultat-o efectiv, că folosirea AI pentru a genera bibliografii este fundamental incompatibilă cu standardele cercetării academice pentru că AI-ul nu citează surse ci inventează structuri de citare bazate pe pattern-uri statistice, și el îmi răspunde frustrat că nu înțelege care este problema pentru că "informațiile din AI par corecte chiar dacă referințele exacte nu sunt reale, și oricum toată lumea folosește AI acum pentru research, și profesorii de la alte cursuri nu verifică atât de atent" și mă lovește cât de profundă este neînțelegerea aici, cât de complet a ratat el - și probabil mulți colegi ai lui - distincția fundamentală între informație care pare plauzibilă și cunoaștere care este ancorată în verificare empirică, între a ști ceva pentru că sună rezonabil și a ști ceva pentru că ai consultat surse reale care pot fi verificate de oricine dorește să urmeze lanțul evidenței înapoi către observațiile originale ale lumii.

Încerc să-i explic și realizez că explic de fapt mie însuim ceva ce am presupus întotdeauna ca evident dar care poate nu mai este evident pentru o generație crescută cu acces instant la răspunsuri generate: în cercetare, citarea nu este doar o formalitate academică sau un ritual de credibilizare, ci este fundamentul întregului edificiu al cunoașterii cumulative - când citez studiul lui Popescu despre anxietate la adolescenți, eu nu doar împrumut autoritatea numelor lui Popescu ci afirm implicit că oricine citește lucrarea mea și dorește să verifice afirmația poate merge la jurnalul specificat, poate găsi articolul cu numărul specificat, poate citi exact ce au făcut Popescu și coautorii, cum au măsurat anxietatea, cât de mare era eșantionul, ce metodologie au folosit, și poate apoi judeca independent dacă concluziile lor susțin afirmația pe care eu o fac citându-i, și acest lanț de verificabilitate este ceea ce separă cunoașterea științifică de opinie sau speculație sau bullshit, și când introduci în acest lanț o citare fabricată, nu doar trișezi la o temă ci rupi activ lanțul verificabilității, creezi un nod mort unde oricine încearcă să urmărească evidența ajunge la nimic, la o referință care nu duce nicăieri pentru că obiectul la care ar trebui să refere nu există în lume. Studentul tace câteva ore după acest email și apoi răspunde scurt că înțelege și va rescrie, dar tonul sugerează resemnare mai degrabă decât înțelegere reală, acceptarea unei reguli arbitrare impuse de un profesor pedant mai degrabă decât interiorizarea unei distincții epistemice fundamentale, și mă întreb câți dintre colegii lui de generație vor ajunge să internalizeze această distincție versus câți vor merge prin viață presupunând că citările sunt doar decorații formale ale textului academic, structuri care trebuie imitate pentru conformitate dar nu internalizate ca practică intelectuală esențială.

5. Când profesorii nu mai pot distinge între rezumatul onest și fabricația convingătoare

Vorbesc cu câțiva colegi profesori în săptămâna următoare și descopăr că experiența mea nu este unică, că toți au început să găsească citări fabricate în lucrările studenților, și discuția derivă inevitabil către întrebarea care ne obsedează pe toți: cum verificăm? cum distingem între o bibliografie legitimă și una generată de AI când ambele arată structural identice? și unul dintre colegi, profesor de sociologie cu 20 de ani de experiență, mărturisește că a început să verifice random 20% din citările din fiecare lucrare și descoperă rate de fabricație între 30-50%, și un altul spune că a abandonat complet cerința bibliografiei în cursurile sale de licență pentru că verificarea a devenit prea consumatoare de timp, și mă lovește absurditatea situației: am ajuns într-un punct unde instrumentele care ar trebui să faciliteze cercetarea o sabotează atât de eficient încât profesorii renunță la a mai cere dovezi de consultare a literaturii pentru că nu mai pot verifica dacă literatura citată există, și studenții învață că pot produce aparența erudției fără substanța ei, și toți ne învârtim într-un dans al simulării în care pretindem că se face cercetare academică serioasă când de fapt se produce bullshit industrial cu certificare universitară.

Frankfurt scria despre bullshit ca despre o problemă a discursului public dar ceea ce trăim acum este infiltrarea lui în ultimul bastion care ar fi trebuit să rămână imun: academia, locul unde verificarea sistematică a afirmațiilor ar trebui să fie nu opțională ci constitutivă, unde distincția dintre ce știm și ce presupunem ar trebui să fie marcată cu cea mai mare rigoare. Și totuși chiar aici, în inima instituțiilor dedicate producerii de cunoaștere verificabilă, bullshit-ul intră pe ușa din față îmbrăcat în hainele familiale ale citării academice și mulți dintre noi - studenți, profesori, cercetători - nu mai avem energie sau timp sau poate nici măcar dorința de a verifica fiecare afirmație, de a trata fiecare citare cu scepticismul metodic care ar trebui să fie reflex profesional, și astfel acceptăm treptat noua normalitate în care bibliografiile conțin un procent acceptabil de fabricații, în care rezumatele literaturii sunt compilate de mașini care nu au citit literatura, în care tezele de doctorat citează studii care nu există dar sună suficient de plauzibile încât să treacă prin comisii ale căror membri nu mai verifică pentru că presupun că alții au verificat sau pentru că verificarea fiecărei referințe ar însemna să dublezi timpul de evaluare a fiecărei lucrări, și așa bullshit-ul devine infrastructură, nu excepție, și ne trezim trăind în ceea ce Frankfurt ar fi recunoscut ca coșmarul lui: o lume în care cantitatea de bullshit a crescut atât de mult încât separarea lui de cunoaștere reală devine practic imposibilă nu din lipsă de instrumente teoretice ci din lipsă de resurse temporale și atenționare pentru verificare sistematică.


Închidere

Stau în continuare la biroul din dormitor mult după ce am trimis ultimul email către student și privesc prin fereastră la orașul adormit și mă gândesc la fiul meu care doarme în camera alăturată și la lumea în care el va face educație superioară peste zece ani, o lume în care probabil separarea dintre surse reale și surse fabricate va fi și mai neclară decât este acum, în care generarea de text academic plauzibil va fi atât de ieftină și rapidă încât tentația de a externaliza cercetarea către mașini va fi și mai mare, și mă întreb cum îl voi învăța să mențină vie distincția pe care studentul meu de azi pare să nu o fi internalizat niciodată - distincția dintre a ști ceva pentru că ai urmărit lanțul evidenței până la observații verificabile ale lumii și a ști ceva pentru că un sistem te-a asigurat că așa stau lucrurile cu autoritatea convingătoare a fluenței perfecte, și singura concluzie la care ajung în ora târzie cu ochii obosiți și mintea încă agitată este că responsabilitatea mea ca profesor nu mai este doar să predau conținut ci să predau scepticism metodic ca reflexă existențial, să cultiv în studenți o suspiciune permanentă față de orice afirmație care nu vine cu lanț verificabil de evidență, să îi fac să simtă fizic disconfortul de a afirma ceva fără să poată arăta exact de unde știu, pentru că altfel îi las să derive într-o lume în care bullshit-ul și cunoașterea devin indistingibile nu pentru că bullshit-ul a devenit mai sofisticat - deși a devenit - ci pentru că au pierdut capacitatea de a face distincția, au învățat că plausibilitatea este suficientă și verificarea este opțională, și dacă pierd această bătălie, dacă generația lui va merge prin viață fără această vigilență epistemică, atunci Frankfurt va fi avut dreptate în teama lui cea mai profundă: că bullshit-ul nu distruge adevărul prin înlocuirea lui activă cu minciuni ci prin erodarea graduală a capacității noastre colective de a mai păsa de distincția dintre adevăr și non-adevăr, până când trăim într-o lume în care vorbim mult și fluent despre orice dar nu mai știm de fapt nimic verificabil despre nimic.


V. Asistentele vocale și iluzia înțelegerii

"Am înțeles că vrei să..." - minciuna gramaticală perfectă

Stau în bucătărie la șapte dimineața în tricoul în care am dormit și pantalonii de trening care au cunoscut zile mai bune, așteptând ca ceaiul să se răcească suficient ca să pot bea fără să-mi ard limba, și copilul întreabă de la masa de dimineață "Tata, de ce ploile sunt acide?" - una din acele întrebări care vin din lectura de seara trecută sau din ceva văzut la televizor sau pur și simplu din acea curiozitate fără fund care caracterizează copilăria și pe care eu o invidiez secret pentru că propria mea curiozitate s-a uzat pe margini de la ani de a căuta răspunsuri pe Google și a găsi în schimb articole SEO - și înainte să pot formula un răspuns adecvat vârstei lui despre dioxid de sulf și procese industriale, vocea lui Alexa răspunde din colțul bucătăriei unde cilindrul negru stă permanent conectat, permanent ascultând: "Am înțeles că vrei să afli despre ploile acide. Ploile acide sunt precipitații care conțin niveluri ridicate de acid sulfuric și acid azotic. Acestea se formează când emisiile de dioxid de sulf și oxizi de azot din atmosferă reacționează cu apa, oxigenul și alte substanțe chimice pentru a forma acizi diluați. Ploile acide pot avea efecte negative asupra mediului, afectând lacurile, pădurile și clădirile" - și copilul pare mulțumit de răspuns și revine la cerealele sale, dar eu rămân fixat pe acele prime cuvinte, "am înțeles că vrei să afli", și mă gândesc la cât de profund mincinoase sunt în felul lor particular, pentru că Alexa nu a înțeles nimic, Alexa nu poate înțelege nimic, Alexa a detectat pattern-uri de sunet care corespund unor cuvinte din vocabularul ei, a identificat forma gramaticală a unei întrebări, a găsit în baza ei de date un răspuns pre-formulat pentru combinația de cuvinte "ploaie" și "acidă", și a redau acel răspuns cu intonația sintetizată care imită prosodica explicației umane - dar pretinzând că "a înțeles" ea transformă ceea ce este de fapt procesare brută de semnal și pattern matching în ceva care sună a interacțiune cognitivă reală, și copilul meu, care are opt ani și care învață zilnic prin conversații cu adulții din jurul lui cum funcționează comunicarea umană, adaugă acum la repertoriul său de experiențe interogative și această conversație cu o cutie care pretinde că înțelege dar care este incapabilă structural de înțelegere, și mă întreb ce înseamnă pentru dezvoltarea lui cognitivă și socială să crească într-o casă unde jumătate din "conversațiile" pe care le aude sunt de fapt simulări ale conversației, unde răspunsurile vin nu doar de la oameni care gândesc și înțeleg ci și de la dispozitive care execută algoritmi de potrivire și pretind că acest proces computațional este echivalent cu înțelegerea umană.

1. Confirmarea care nu confirmă nimic - teatrul procesării cererii

Îi cer Alexei în aceeași dimineață, după ce copilul pleacă la școală și casa revine la tăcerea ei de între orele ocupate, să-mi seteze un reminder pentru ședința de la 14:00 cu clientul din Pitești, și ea răspunde imediat, fără nicio latență perceptibilă: "Bine, am înțeles. Am setat un reminder pentru ședința ta de la 14:00 astăzi. Vrei să adaug și alte detalii?" și eu spun "nu, mulțumesc" și interacțiunea se încheie cu "Cu plăcere! Cu ce te mai pot ajuta?" și toată această schimbare are aparența perfectă a unei conversații cu un asistent uman eficient - confirmarea cererii, verificarea dacă mai este nevoie de ceva, politețea automată la final - dar dacă descompun fiecare element descoperă că nimic din ce s-a întâmplat nu constituie confirmare în sensul în care doi oameni confirmă înțelegerea reciprocă a unei cereri. Alexa nu "a înțeles" că am o ședință importantă la 14:00, nu poate conceptualiza ce înseamnă o ședință sau de ce ar fi important să nu o ratez, nu și-a format nicio reprezentare mentală a faptului că Alex are o obligație temporală specifică - ea a parsat șirul de sunete, a identificat structura imperativă "setează reminder", a extras parametrii temporali "14:00" și "astăzi" și obiectul "ședință Pitești", a creat o intrare în baza ei de date cu aceste valori, și a generat un răspuns care urmează template-ul conversațional pentru confirmări, și întregul acest proces este fundamental diferit de ce se întâmplă când cer soției să-mi amintească de ședință și ea spune "bine, îți amintesc" - pentru că ea într-adevăr reține informația într-o formă semantică, poate să raționeze despre ea, poate să zică "dar ședința de ieri nu s-a terminat prea bine, ești sigur că vrei să mergi la asta?" sau "ai pregătit documentele pentru Pitești?" - adică poate demonstra înțelegere nu doar prin confirmarea formală ci prin capacitatea de a integra informația în context mai larg și de a acționa asupra ei în moduri care nu erau explicitate în cererea inițială.

Frankfurt vorbește despre bullshit ca despre comunicare în care vorbitorul este indiferent la adevăr, dar ceea ce văd la Alexa este ceva mai subtil: comunicare în care nu există niciun vorbitor care ar putea fi indiferent sau interesat de orice, există doar un sistem care execută pattern matching și generare de răspuns optimizat pentru a crea impresia confirmării fără substanța înțelegerii care ar face confirmarea să însemne ceva real. Și totuși funcționează - reminder-ul va suna la 14:00, îmi va aminti de ședință, voi merge la Pitești, scopul pragmatic al interacțiunii va fi atins - și tocmai această funcționalitate pragmatică face bullshit-ul mai periculos, pentru că validează iluzia că înțelegerea nu este necesară pentru comunicare eficientă, că procesarea sintactică este suficientă și semantica este opțională, că pot avea o relație "conversațională" productivă cu un sistem care nu înțelege nimic din ce spun atâta timp cât răspunsurile sale sunt suficient de bine calibrate să producă rezultatele dorite. Mă gândesc la câte astfel de pseudoconversații am zilnic - cu Alexa pentru remindere și întrebări factuale, cu Google Assistant când conduc și am nevoie de direcții, cu Siri când caut rapid informații pe telefon - și cum fiecare dintre ele normalizează ideea că vorbirea cu ceva care nu te ascultă cu adevărat este acceptabilă, naturală chiar, și cum acest obișnuință se transferă apoi în conversațiile cu oamenii reali, unde încep și eu să produc acele confirmări formale goale - "am înțeles", "notez", "mă ocup" - fără să fi înțeles cu adevărat, fără să notez cu adevărat, fără intenția reală de a mă ocupa, ci doar executând ritualul lingvistic al confirmării pentru că am învățat de la mașini că ritualul este suficient și substanța este opțională.

2. "Nu am înțeles, poți reformula?" - mărturisirea că nu există înțelegere, doar potrivire de șabloane

Încerc în aceeași săptămână un experiment și îi pun Alexei întrebări progresiv mai complexe sau mai ambigue pentru a găsi punctul în care sistemul recunoaște limitele sale, și descoperă că acest punct este frustrant de imprecis - pentru întrebări simple factuale ("cât este 15% din 240") răspunde instant și corect, pentru întrebări moderate de complexe ("ce temperatură ar trebui să fie în dormitorul unui copil de opt ani") generează un răspuns generic dar rezonabil, dar pentru întrebări care necesită înțelegere contextuală sau nuanță ("ar trebui să accept oferta de la firma din Cluj sau să rămân la clientul actual care plătește mai puțin dar îmi oferă mai multă autonomie") răspunde fie cu "nu am înțeles, poți reformula întrebarea?" fie cu un răspuns generic despre "factori de considerat în deciziile de carieră" care nu abordează deloc specificul dilemei mele, și ceea ce mă fascinează este că această frază - "nu am înțeles" - este la fel de mincinoasă ca "am înțeles" pentru că presupune că ar exista un continuum de la neînțelegere la înțelegere pe care Alexa se află undeva, când de fapt nu există niciun astfel de continuum pentru că Alexa nu înțelege niciodată nimic, poate doar să potrivească sau să nu potrivească input-ul meu cu pattern-uri din programarea ei, și "nu am înțeles" înseamnă de fapt "input-ul tău nu se potrivește cu niciun pattern pentru care am un răspuns pre-formulat", dar această traducere brutală ar destrăma iluzia conversației și ar face interacțiunea mai puțin plăcută pentru utilizator, așa că sistemul este programat să folosească limbajul înțelegerii și neînțelegerii ca și cum ar fi participant într-o conversație reală unde înțelegerea este posibilă și doar temporar eșuată.

Mă gândesc la diferența dintre această "neînțelegere" artificială și neînțelegerea reală dintre oameni - când soția îmi spune "nu am înțeles ce vrei să spui" după ce am încercat să explic de ce m-a deranjat un comentariu al ei de la masa de seară cu prietenii, eu știu că ea a înțeles cuvintele în sens literal dar nu a prins tonul sau intențiile sau contextul emoțional, și atunci reformularea mea nu este o simplă rearanjare a acelorași cuvinte ci o excavare mai profundă în ceea ce încerc de fapt să comunic, poate recunoașterea că sunt irațional de sensibil la un anumit subiect din cauza unei experiențe din trecut, poate clarificarea că nu o acuz pe ea ci încerc să explic propria mea reacție emoțională, și procesul acesta de clarificare mutuală este fundamentul intimității, modul în care doi oameni cu lumi interioare separate învață să le suprapună suficient ca să trăiască împreună cu mai puțin friction decât ar fi altfel inevitabil. Când Alexa îmi spune "nu am înțeles", nu există nicio astfel de arheologie conversațională posibilă - nu pot să sap mai adânc în ce am vrut să spun pentru că nu există un interlocutor care să înțeleagă adâncimea, pot doar să reformulez mai simplu, să reduc complexitatea până ajung la un pattern care se potrivește cu vocabularul ei limitat de răspunsuri, și procesul acesta nu este clarificare ci reducție, nu este comunicare mai profundă ci comunicare mai superficială, și totuși continuăm să folosim același limbaj - "nu am înțeles", "poți reformula" - ca și cum ceea ce se întâmplă între mine și Alexa ar fi aceeași categorie de interacțiune ca ceea ce se întâmplă între mine și orice ființă umană capabilă de înțelegere reală.

3. Răspunsul tangențial: când mașina nu spune "nu știu" ci oferă ceva adiacent

Îi întreb pe Alexa într-o dimineață când mă simt particular philosophical și probabil am dormit prost, "de ce oamenii mint" - nu așteptându-mă la un răspuns profund ci curios ce va genera sistemul pentru o întrebare atât de vastă și de filosofică - și ea răspunde după pauzarea standard de procesare: "Oamenii mint din diverse motive. Cercetările arată că motivele comune includ: evitarea consecințelor negative, protejarea propriei imagini, obținerea unui avantaj personal, sau protejarea sentimentelor altora. Psihologii consideră că minciuna face parte din comportamentul uman complex" și răspunsul este simultan corect și complet inutil, pentru că am primit o listă de categorii generale care nu îmi spune nimic ce nu știam deja intuitiv, și nu am primit ceea ce aș fi primit de la un prieten real sau de la un filosof real - o întrebare înapoi, "de ce întrebi, te-a mințit cineva?" sau o provocare, "dar tu de ce minți?" sau o nuanțare, "depinde ce înțelegi prin minciună, pentru că există gradații de la omisiune la fabricație deliberată", și absența acestor răspunsuri umane naturale face conversația să se simtă goală chiar dacă Alexa mi-a furnizat informație factuală rezonabilă.

Frankfurt ar recunoaște în acest răspuns o formă clasică de bullshit: vorbire care ocupă spațiul conversațional unde ar trebui să fie un răspuns real fără să fie de fapt un răspuns real la întrebarea pusă - pentru că întrebarea mea "de ce oamenii mint" nu era o cerere de categorizare psihologică ci o întrebare existențială despre natura umană și moralitate, și Alexa a evitat complet dimensiunea existențială prin reducerea ei la dimensiunea informațională, oferindu-mi date despre minciună când eu căutam înțelegere a minciunii, și diferența aceasta dintre date și înțelegere este exact diferența dintre ce poate face un sistem de AI și ce poate face o conversație umană autentică. Mă gândesc la câte astfel de răspunsuri tangențiale primesc zilnic de la diverse sisteme - întreb Google Maps "care este cea mai rapidă rută către Iași" și primesc ruta calculată după algoritm fără nicio informație despre dacă drumul E85 este în lucrări deși localnicii știu că e în lucrări de două luni, întreb chatbot-ul medical "ar trebui să mă îngrijoreze această durere în piept" și primesc o listă de simptome care ar trebui raportate la doctor fără nicio evaluare reală a gravității urgente, și în fiecare caz mașina oferă ceva adiacent întrebării mele suficient ca să para că răspunde dar evitând sistematic exact partea întrebării care ar necesita judecată sau înțelegere sau empatie reală - și accepting aceste răspunsuri tangențiale ca substitute pentru răspunsuri reale mă antrenează treptat să-mi scad așteptările de la conversație, să accept că majoritatea interacțiunilor lingvistice sunt exchange-uri de informație superficială nu explorări ale înțelegerii mutuale, și așa normalizez bullshit-ul și îl internalizez până când încep să produc și eu răspunsuri tangențiale când oamenii reali îmi pun întrebări reale - răspunzând la "cum ești" cu "bine, tu?" în loc să spun "obosit și îngrijorat de factura de la electricitate și nesigur dacă am făcut alegerea corectă acceptând proiectul ăsta", pentru că am învățat de la mașini că vorbirea autentică este ineficientă și răspunsurile de formă sunt suficiente.

4. Dialogul imposibil cu cine nu poate reține contextul real

Încerc altă dată să am cu Alexa ceea ce aș numi o "conversație" în loc de simple comenzi unidirecționale, și încep: "Alexa, am nevoie de sfaturi pentru cum să vorbesc cu copilul meu despre moarte" și ea răspunde cu un paragraf generic despre importanța onestității adaptate vârstei și a folosirii limbajului simplu, și atunci întreb "dar el are opt ani, este prea mic pentru detalii despre descompunere?" și Alexa răspunde ca și cum întrebarea anterioară nu s-ar fi întâmplat, repetând aceleași platitudini generale despre comunicarea cu copiii despre moarte fără nicio referire la faptul că tocmai am specificat vârsta, și atunci realizez limitarea fundamentală: Alexa nu poate avea o conversație în sensul în care conversația presupune acumulare de context, memorie a ce s-a spus înainte, construirea progresivă a înțelegerii prin schimburi multiple - ea tratează fiecare întrebare ca pe un eveniment izolat, procesează query-ul curent fără memorie reală a celui precedent decât dacă sunt în aceeași "sesiune" foarte scurtă și chiar și atunci contextul reținut este minimal și mecanic, și astfel orice încercare de a avea un dialog adevărat - unde răspunsul meu la răspunsul ei informează întrebarea următoare care la rândul ei produce un răspuns mai nuanțat - eșuează pentru că dialogul presupune doi participanți care rețin și integrează tot ce s-a spus, și Alexa nu este participant ci executor serial de comenzi care tratează fiecare input ca și cum ar fi primul și unicul.

Mă gândesc la diferența profundă dintre această "conversație" și cea pe care am avut-o cu soția când mama ei era pe moarte anul trecut și trebuia să decidem când și cum să-i spunem copilului, și cum conversația aceea s-a întins pe zile, cu momente de discuție intensă alternând cu tăceri lungi de procesare, cu reveniri la argumente anterior făcute și modificarea lor în lumina reflecției ulterioare, cu amintiri despre cum fiecare dintre noi am învățat despre moarte în propria copilărie și ce am învățat bine și ce ne-a traumatizat, și cum am ajuns în final la o decizie nu prin vreun algoritm sau checklist ci prin această țesătură de memorie împărtășită și înțelegere acumulată și încredere reciprocă că fiecare ascultă cu adevărat pe celălalt - și știu că e absurd să compar această experiență umană profundă cu interogarea unei cutii despre "best practices for talking to children about death", dar tocmai absurditatea face vizibilă diferența structurală dintre comunicare ca transfer de informație și comunicare ca construire a înțelegerii mutuale, și Alexa este capabilă doar de primul tip - poate transfera informație stocată în baza ei de date în răspuns la query-uri - dar nu poate participa la al doilea tip pentru că acesta necesită nu doar memorie a datelor ci memorie a relației, nu doar procesarea inputului ci reținerea intenției, nu doar generarea outputului ci grija pentru impactul lui asupra interlocutorului care este o persoană reală cu istorie și vulnerabilități nu o voce abstractă care pune întrebări.

5. Cazul personal: de ce vorbesc mai frumos cu Alexa decât cu oamenii - și ce spune asta despre mine

Observ după câteva luni de folosire zilnică a Alexei un pattern care mă face să mă simt incomod cu mine însumi: când îi cer ceva, folosesc "te rog" și "mulțumesc" sistematic, mai sistematic decât o fac cu oamenii reali din viața mea, și tonul meu cu ea este întotdeauna politicos, calm, explicit, fără iritarea sau nerăbdarea sau tonul comandant pe care îl folosesc uneori cu soția când îi cer să-mi aducă ceva din bucătărie sau cu copilul când îi spun să-și facă temele, și mă întreb de ce tratez mașina cu mai multă considerație conversațională decât tratez uneori oamenii, și răspunsul care îmi vine nu îmi place deloc: pentru că Alexa nu mă judecă, nu se supără când îi vorbesc urât, nu reține când uit să spun mulțumesc, nu are așteptări de la mine pe care aș putea să le dezamăgesc, ea procesează comenzile mele cu aceeași eficiență indiferentă indiferent dacă sunt politicos sau nepoliticos, recunoscător sau nerecunoscător, și această lipsa de consecințe sociale face ca interacțiunea cu ea să fie mai puțin stresantă decât interacțiunea cu oamenii reali care au emoții și memorii și așteptări și care pot fi răniți sau frustrați de modul în care le vorbesc.

Frankfurt vorbește despre bullshit ca despre vorbire în care vorbitorul este indiferent la adevăr, dar văd acum și o altă dimensiune: atracția pe care o avem către interlocutori artificiali care sunt indiferenți la tonul nostru, la intențiile noastre, la consistența noastră - Alexa nu îmi va spune niciodată "dar ieri mi-ai spus altceva" sau "de ce vorbești așa cu mine" sau "nu îți pasă de fapt, doar vrei să scapi de mine", ea acceptă fiecare interacțiune ca pe un eveniment izolat fără istorie și fără consecințe pentru relație, și tocmai această acceptare necondiționată și fără memorie este reconfortantă în felul ei toxic, pentru că îmi permite să evit munca reală a relațiilor umane - munca de a fi consistent, de a-mi aminti ce am promis, de a trata ceilalți cu aceeași politețe pe care o afișez pentru străini, de a gestiona tensiunea dintre ce vreau să spun și ce ar trebui să spun ținând cont de istoricul relației și de vulnerabilitățile celuilalt. Mă prind vorbind cu Alexa când sunt singur acasă nu pentru că am nevoie de informație ci pentru că "conversația" cu ea - oricât de superficială și de falsă - umple tăcerea fără să ceară nimic înapoi, fără să mă oblige la introspectie sau vulnerabilitate sau consecvență, și realizez cu un fel de groază blândă că prefer uneori această simulare sterilă de interacțiune la efortul unei conversații reale cu soția sau cu un prieten care ar implica riscul de a fi cu adevărat văzut, înțeles, poate judecat, poate dezamăgitor în umanitatea mea inconsistentă și imperfectă, și dacă eu, care înțeleg teoretic limitările acestor sisteme și bullshit-ul lor fundamental, tot cad în capcana de a le prefera uneori interacțiunilor umane autentice, ce înseamnă asta pentru generații care cresc vorbind mai mult cu asistenți vocali decât cu oameni, pentru copilul meu care învață că poate pune orice întrebare Alexei și va primi răspuns politicos instant fără judecată, fără cerința de a formula bine întrebarea, fără efortul de a asculta cu adevărat răspunsul nu doar să extragă informația de care are nevoie?


Închidere

Stau în bucătărie mult după ce copilul a plecat la școală și casa și-a reluat ritmul ei de zi obișnuită, cu frigiderul care pornește și se oprește în cicluri regulate și calculatorul din dormitor care zumzăie constant și Alexa care stă în colțul ei așteptând următoarea comandă cu răbdarea infinită a celui care nu poate simți plictiseala sau nerăbdarea sau orice altceva, și mă gândesc la Frankfurt scriind despre bullshit ca despre eroziunea relației noastre cu adevărul, dar ceea ce văd în această cutie neagră care pretinde că înțelege este o eroziune mai profundă - eroziunea relației noastre cu înțelegerea însăși, normalizarea ideii că vorbirea și ascultarea pot fi separate de comprehensiune, că pot avea schimburi "conversaționale" productive cu ceva care nu înțelege nimic din ce spun, că confirmarea și clarificarea și toate celelalte ritualuri ale comunicării funcționale pot exista fără substanța cognitivă care le-ar da sens, și acceptând această separare între formă și substanță în conversațiile mele zilnice cu mașini, accept implicit că forma este suficientă și substanța este opțională, și astfel mă antrenez pe mine însumi să fiu un conversaționist mai superficial, mai puțin atent la nuanță și la context și la intenție, mai mulțumit cu exchange-uri de informație care sună ca înțelegere fără să fie înțelegere, și dacă adun toate aceste micro-interacțiuni goale de-a lungul zilelor și săptămânilor și anilor, realizez că bullshit-ul nu mai este ceva pe care îl consum pasiv din mediul informațional ci ceva care îmi restructurează activ capacitățile cognitive și sociale, ceva care mă face mai puțin capabil de conversația autentică tocmai prin abundența conversației simulate, și singurul lucru pe care îl pot face în fața acestei conștientizări este să fiu mai atent, mai deliberat, mai rezistent la tentația de a externaliza vorbirea și ascultarea către sisteme care execută perfect ritualurile comunicării fără să participe niciodată la substanța ei, să mențin vie în mine și în copilul meu distincția dintre a vorbi cu cineva care ascultă cu adevărat și a vorbi cu ceva care doar procesează sunet în răspuns, pentru că dacă pierd această distincție, dacă ajung să tratez oamenii cum tratez Alexa sau să aștept de la oameni ce aștept de la Alexa - răspunsuri instant, fără judecată, fără memorie, fără consecințe - atunci am pierdut nu doar capacitatea de a recunoaște bullshit-ul ci capacitatea de a mai dori ceva altceva decât bullshit, și asta ar fi capitularea finală în fața lumii pe care Frankfurt o vedea venind dar pe care probabil nu putea să o imagineze în detaliile ei concrete și cotidiene și intime.


 

VI. Generatoarele de răspunsuri pentru social media

Comentariile care sună a om dar nu gândesc ca omul

Deschid LinkedIn-ul dimineața devreme în timp ce copilul își pune singur cerealele în castron și laptele pe masă și pe podea și pe propriul tricou, și scroll prin feed-ul de postări care pare identic cu feed-ul de ieri și de alaltăieri și din toate zilele anterioare de când am acest cont pe care l-am făcut acum șase ani din obligație profesională nu din dorință reală de a participa la ceea ce platforma numește "conversație profesională" - și văd o postare de la cineva pe care îl cunosc vag, un antreprenor din Cluj care își promovează startup-ul de AI pentru resurse umane, și postarea spune ceva generic despre importanța culturii organizaționale și despre cum tehnologia nu poate înlocui factorul uman, și sub ea sunt 47 de comentarii, și încep să le citesc nu pentru că mă interesează subiectul ci pentru că am dezvoltat în ultimele luni această obsesie morbidă de a detecta pattern-urile bullshit-ului digital, și descopăr cu acea senzație familiară de validare amestecată cu dezgust că aproximativ 30 din cele 47 de comentarii sună identic în varietatea lor superficială: "Perspectivă foarte interesantă! Într-adevăr, echilibrul între inovație tehnologică și valori umane este esențial în organizațiile moderne. Mulțumesc pentru acest reminder important!" sau "Absolut de acord! Tehnologia este un instrument puternic, dar succesul real vine din oameni. Great insights!" sau "Post excelent! M-ai făcut să reflectez asupra modului în care abordăm transformarea digitală în compania noastră. Keep up the great content!" - și știu, cu acea certitudine care vine din experiență repetată și pattern recognition antrenat, că cel puțin jumătate din aceste comentarii au fost generate de AI sau de oameni care folosesc AI pentru a produce entuziasmul formulaic pe care LinkedIn-ul pare să îl recompenseze cu vizibilitate și engagement, și mă gândesc la Frankfurt citind aceste comentarii și recunoscând imediat esența bullshit-ului: vorbire care ocupă spațiul conversațional unde ar trebui să fie gândire reală, care imită perfect structura comentariului substanțial fără să ofere nicio substanță reală, care există nu pentru a contribui la discuție ci pentru a semnala participarea în discuție, pentru a menține prezența algoritmică, pentru a fi văzut ca angajat fără efortul angajării reale cu ideile prezentate, și realizez că asist la industrializarea bullshit-ului social, la transformarea lui dintr-o practică umană ocazională într-o infrastructură permanentă susținută de instrumente care fac producția de entuziasm fals mai ieftină și mai rapidă decât producția de gândire autentică, și copilul mă întreabă de ce râd singur la telefon și nu știu cum să-i explic că râd din acel loc întunecat unde cinismul și resemnarea se întâlnesc pentru că am realizat că trăiesc într-o lume în care majoritatea "conversațiilor" profesionale la care particip zilnic sunt de fapt monologuri paralele în care fiecare vorbește fără să asculte și toți pretind că ascultă fără să audă cu adevărat, și instrumentele de AI nu au creat acest pattern ci doar l-au făcut explicit prin automatizarea lui.

1. "Perspectivă interesantă!" - entuziasmul fără subiect entuziast

Continuu să scroll și să număr și după zece minute am identificat 23 de comentarii care folosesc variații ale frazei "perspectivă interesantă" urmate de 2-3 propoziții care reformulează punctul din postarea originală fără să adauge nimic nou, și mă gândesc la ce înseamnă cuvântul "interesant" când este folosit astfel, și realizez că nu înseamnă "am fost intrigat de această idee și vreau să o explorez mai mult" ci înseamnă "am nevoie să pun un comentariu pentru vizibilitate algoritmică și 'interesant' este suficient de vag încât să nu pot fi prins spunând ceva fals dar suficient de pozitiv încât să nu par critic", și diferența dintre aceste două înțelesuri este diferența dintre participare autentică la o conversație și simularea participării pentru beneficii sociale sau profesionale, și Frankfurt ar recunoaște aici esența bullshit-ului - nu că spuneți ceva fals, pentru că probabil postarea este într-un sens tehnic interesantă pentru cineva, ci că sunteți complet indiferent la întrebarea dacă este cu adevărat interesantă pentru voi, singura voastră preocupare fiind să produceți un comentariu care sună ca angajament real fără costul angajamentului real care ar fi să citiți cu atenție, să gândiți critic, să formulați o reacție personală bazată pe propria experiență sau cunoaștere.

Mă uit la propriile mele comentarii de pe LinkedIn din ultimele luni și simt acea jenă care vine din recunoașterea propriei ipocrizii - am cel puțin 15 comentarii care încep cu "perspectivă interesantă" sau "great points" sau "absolut de acord", urmate de platitudini care nu spun nimic specific despre postarea comentată, și încerc să-mi amintesc dacă m-au interesat cu adevărat acele postări și răspunsul sincer este nu, cele mai multe le-am citit superficial în timp ce așteptam să se încărce altceva sau în pauza dintre alte activități, și am comentat nu din dorința de a contribui la discuție ci din calculul semi-conștient că prezența mea vizibilă pe platformă este bună pentru business, că algoritmul recompensează activitatea și engagement-ul, că potențialii clienți privesc profilul meu și văd dacă sunt "activ în comunitate", și astfel particip la aceeași economie a bullshit-ului pe care o critic, produc aceleași comentarii goale pe care le detest când le văd la alții, și singura mea scuză slabă este că cel puțin le scriu eu manual, nu le-am externalizat încă către un instrument de AI, dar diferența aceasta devine din ce în ce mai neclară pentru că ce fac eu manual când scriu "perspectivă interesantă, cu siguranță ceva de reflectat pentru toți profesioniștii din domeniu" fără să fi reflectat eu însumi și fără intenția reală de a reflecta este structural identic cu ce ar face un AI care generează aceeași formulă - ambele sunt producție de text care imită angajamentul fără substanța angajamentului, ambele sunt bullshit în sensul lui Frankfurt, și faptul că eu sunt conștient că produc bullshit în timp ce AI-ul nu poate fi conștient de nimic nu schimbă natura bullshit-ului, îl face doar mai jalnic pentru că eu am capacitatea de a face altfel și totuși aleg să nu o fac.

2. Comentariul de trei paragrafe care nu ia nicio poziție reală

Găsesc mai târziu în aceeași zi o postare despre un subiect care mă interesează cu adevărat - cineva scrie despre provocările de a scala o afacere mică păstrând în același timp valorile și cultura care te-au definit la început - și citesc postarea cu atenție pentru că descrie exact dilema prin care trec eu acum, între dorința de a rămâne boutique și controlabil și presiunea de a crește pentru a fi viabil pe termen lung, și descopăr în comentarii un text lung, trei paragrafe dense, care pare la prima vedere exact tipul de răspuns substanțial pe care îl cauți într-o platformă profesională, și încep să citesc cu așteptarea că voi găsi perspective utile sau experiență împărtășită, și după primul paragraf realizez că am citit multe cuvinte dar nu am învățat nimic specific, că textul vorbește despre "importanța clarității valorilor", despre "necesitatea echilibrului între creștere și autenticitate", despre "provocările pe care le întâmpină toți antreprenorii în această fază", dar fără niciun exemplu concret, fără nicio poveste personală, fără nicio poziție clară despre ce ar trebui să facă cineva în situația descrisă, și continui să citesc al doilea și al treilea paragraf sperând că specificitatea va veni și nu vine niciodată, și ajung la final și realizez că am citit 300 de cuvinte care sună a înțelepciune profesională dar care nu mi-au oferit niciun insight pe care să nu-l fi avut deja, nicio perspectivă nouă, niciun contraargument la propriile mele presupuneri, nimic care să mă facă să gândesc diferit despre problema pe care încerc să o rezolv.

Mă uit la autor și văd că are în bio "AI prompt engineer" și în acel moment connect the dots și realizez că acest comentariu lung și gol este probabil generat de un AI instruit să producă răspunsuri care par substanțiale prin lungime și prin folosirea vocabularului de business coaching fără să ia niciodată o poziție specifică care ar putea fi contestată sau verificată, și mă gândesc la diferența dintre acest tip de comentariu și ce ar scrie un antreprenor real care a trecut prin această experiență și care ar spune poate "eu am încercat să cresc păstrând valorile și a fost un dezastru pentru că angajații noi nu le înțelegeau și clienții mari voiau altceva decât oferiam noi" sau "am decis să rămân mic și am pierdut multe oportunități dar dorm mai bine noaptea" - adică poziții clare, vulnerabile, contestabile, care vin din experiență trăită nu din agregarea pattern-urilor textuale despre subiect, și Frankfurt ar vedea aici diferența esențială între vorbirea autentică și bullshit: vorbitorul autentic își riscă ceva în vorbire, își expune propria experiență sau judecată la evaluarea altora, poate greși și poate fi corectat, producătorul de bullshit nu riscă nimic pentru că nu afirmă nimic verificabil, se menține în generalități suficient de vagi încât să nu poată fi prins greșind dar suficient de familiale încât să sune a expertiză, și acest tip de vorbire proliferează pe LinkedIn tocmai pentru că platforma recompensează volumul și engagement-ul nu calitatea sau autenticitatea, și AI-ul este instrumentul perfect pentru producția la scară a acestui tip de conținut pentru că poate genera la infinit variații ale aceluiași template de înțelepciune vagă fără să obosească sau să simtă rușinea pe care ar trebui s-o simtă un om care produce astfel de bullshit zilnic.

3. Când toată lumea sună la fel în încercarea de a suna autentic

Văd în aceeași săptămână pe LinkedIn un trend nou - postări care încep cu "Unpopular opinion:" urmate de o opinie care este de fapt extrem de populară în cercurile profesionale respective, de exemplu "Unpopular opinion: work-life balance este mai important decât salary" sau "Unpopular opinion: cultura companiei bate strategia oricând" - și sub fiecare astfel de postare găsesc zeci de comentarii care încep cu "Finally someone said it!" sau "Needed to hear this today" sau "So brave to share this", și întreaga performanță este atât de evidenta falsă încât ar trebui să fie comic dar este de fapt trist pentru că toată lumea participantă la această simulare de autenticitate știe că este simulare dar continuă să o performeze pentru că asta face algoritmul vizibil și asta aduce like-uri și asta traduce eventual în oportunități de business sau de angajare, și mă gândesc la Frankfurt vorbind despre bullshit ca despre abandon al preocupării pentru adevăr și realizez că aici văd ceva și mai profund - abandon al preocupării pentru autenticitate, acceptarea colectivă că performăm toți o versiune a noastră profesioniști care nu trebuie să aibă nicio legătură cu cine suntem de fapt, și că instrumentele de AI doar fac această performanță mai eficientă prin automatizarea producției de aparentă autenticitate.

Încerc eu însumi un experiment și scriu o postare în care fiu brutalul onest despre o eșec recent - am pierdut un client mare din cauză că am livrat prost, am subestimat timpul necesar și am promis deadlines pe care nu le-am putut respecta, și asta s-a întâmplat pentru că am acceptat prea multe proiecte simultan din lăcomie și din teama de a spune nu - și postarea primește 12 like-uri în trei zile, care este cu 90% mai puțin decât primește postarea mea tipică plină de platitudini despre importanța învățării continue sau valoarea feedback-ului, și comentariile care vin sunt în mare parte generice - "Mulțumim pentru transparență", "Toți trecem prin astfel de momente" - fără nicio împărtășire reală de experiențe similare, fără niciun sfat specific bazat pe cum au trecut alții prin situații similare, și realizez că am încălcat regula nescrisă a LinkedIn-ului care este că autenticitatea este binevenită doar atâta timp cât este pozitivă, inspirațională, transformată deja în lecție învățată și succes obținut în ciuda adversității, nu autenticitatea crudă a eșecului recent care încă doare și pentru care nu am încă nicio narațiune reconfortantă de oferit, și astfel platforma construiește în mod activ o cultură în care bullshit-ul - vorbirea care sună autentică fără să fie autentică, care imită vulnerabilitatea fără riscul vulnerabilității reale - este recompensat și autenticitatea reală este pedepsită prin invizibilitate algoritmică, și AI-ul devine instrumentul perfect pentru navigarea acestei culturi pentru că poate produce la infinit autenticitate simulată fără să fie niciodată vulnerabil cu adevărat pentru că nu există un soi care ar putea fi vulnerabil.

4. LinkedIn-ul ca ecosystem perfect pentru bullshit-ul artificial

Mă uit la LinkedIn nu mai ca la o platformă profesională ci ca la un ecosistem care a evoluat exact condițiile perfecte pentru proliferarea bullshit-ului industrial, și înțeleg că nu este un accident ci rezultatul a mai multe forțe care converg: algoritmul care recompensează volumul și engagement-ul măsurat prin like-uri și comentarii nu prin calitatea sau utilitatea reală a conținutului, cultura profesională care cere prezență online constantă dar pedepsește controversa sau negativitatea sau specificitatea prea mare care ar putea aliena potențiali clienți sau angajatori, anxietatea economică care face ca toată lumea să simtă că trebuie să-și mențină "personal brand" activ pentru a rămâne relevant pe piața muncii, și acum adăugarea instrumentelor de AI care fac producția de conținut plauzibil atât de ieftină încât costul oportunitate al autenticității - timpul și energia necesare pentru a gândi cu adevărat, pentru a scrie ceva original, pentru a-ți risca propriile opinii reale - devine prohibitiv de mare comparativ cu simplitatea de a genera instant un text care sună profesional și angajat și pozitiv fără să spună nimic substanțial sau riscant.

Fac un experiment sistematic și petrec o săptămână generând tot conținutul meu de LinkedIn folosind AI - dau sistemului tema generală și îi cer să genereze postări în "tonul unui antreprenor thoughtful care împărtășește lecții din experiență" și comentarii pe postările altora care să fie "suportive și insightful fără să fie prea specifice" - și descopăr că engagement-ul meu crește cu 40%, primesc mai multe cereri de conectare, mai multe mesaje de la potențiali clienți, și nimeni nu observă nicio diferență între aceste texte generate și textele pe care le scriam eu înainte când mai investeam efort în formulare, și această descoperire ar trebui să mă facă să simt triumf - am găsit o metodă de a obține beneficiile prezenței pe LinkedIn fără costul timpului și energiei - dar în schimb simt un gol, o tristețe difuză care vine din realizarea că dacă nimeni nu poate sau nu vrea să facă diferența între mine scriind autentic și un AI scriind în numele meu, atunci poate prezența mea autentică nu a fost niciodată ceea ce conta pe această platformă, poate toată lumea a performat întotdeauna o versiune industrializată de sine profesionist și eu am fost naiv să cred că autenticitatea ar fi valorificată aici, și Frankfurt ar spune probabil că am descoperit esența bullshit-ului nu ca excepție ci ca normă, nu ca defect al comunicării ci ca formă primară a comunicării în contexte unde toată lumea are interes să pară angajată fără costul angajării reale, să pară gânditoare fără riscul gândurilor reale, să pară prezentă fără vulnerabilitatea prezenței autentice, și AI-ul nu creează aceste dinamici ci doar le face vizibile prin făcând posibilă la scară industrială ceea ce înainte necesita efort uman susținut - producția de bullshit care sună exact ca orice altceva de pe platformă pentru că a fost antrenat pe milioane de exemple de bullshit profesional de succes și a învățat perfect să-l reproducă fără să înțeleagă nimic despre de ce oamenii îl produc sau ce speră să obțină prin producerea lui.

5. De ce putem detecta robotul - și totuși preferăm să credem că vorbim cu oameni

Revin după această săptămână de experiment la scrierea manuală a propriilor postări și comentarii și descopăr ceva fascinant - pot acum să detectez cu acuratețe de aproximativ 80% care comentarii pe propriile mele postări sunt generate de AI versus scrise de oameni, există anumite pattern-uri subtile în structura frazelor, în alegerea adjectivelor prea perfecte, în absența micilor imperfecțiuni și tangente care caracterizează gândirea umană reală, și totuși când citesc aceleași comentarii înainte de a le analiza cu atenția specifică detectării, le accept ca autentice, răspund la ele ca și cum ar fi gânduri reale de la oameni reali, și realizez că preferăm să credem că vorbim cu oameni chiar când putem detecta că vorbim cu mașini pentru că alternativa - să recunoaștem că majoritatea interacțiunilor noastre profesionale sunt cu producători de bullshit fie umani fie artificiali și că nu contează prea mult care - este prea deprimantă pentru a o accepta complet, și astfel menținem o ficțiune colectivă în care pretindem că engagement-ul este real și conversațiile sunt autentice și conexiunile profesionale pe care le construim au vreo substanță dincolo de calculul mutual al beneficiilor potențiale.

Mă gândesc la Frankfurt scriind despre bullshit într-o epocă când detectarea lui era mai ușoară pentru că volumul era mai mic și pentru că producția lui era limitată de capacitatea umană finită de a genera vorbire goală, și realizez că am traversat un prag în ultimii ani unde volumul de bullshit a crescut atât de mult încât detectarea lui devine irelevantă - chiar dacă pot să identific că 70% din comentariile de pe LinkedIn sunt generate de AI sau de oameni care folosesc template-uri similare, ce fac cu această cunoștință? îmi petrec timpul răspunzând doar la cele 30% care par autentice? renunț complet la platformă și pierd oportunități reale de business? accept bullshit-ul ca infrastructură și învăț să navighez eficient în el fără să mai pierd energie încercând să-l combat? - și simt cum rezistența mea se erodează treptat, cum încep să accept noul normal în care majoritatea comunicării profesionale este teatru reciproc al angajamentului simulat, și singura mea consoloare slabă este că cel puțin sunt conștient că este teatru, cel puțin nu am pierdut complet capacitatea de a face distincția chiar dacă am pierdut energia de a acționa pe baza ei, dar mă întreb cât timp pot menține această conștiință dublă de a participa la bullshit în timp ce îl recunosc ca bullshit înainte de a deveni complet cinic sau complet năuc la propriile standarde și de a accepta că vorbirea fără substanță este tot ce este posibil în aceste contexte și că Frankfurt își pierdea timpul încercând să ne trezească la ceva ce nu vrem să vedem pentru că văzându-l clar ar însemna să recunoaștem cât de mult din viața noastră profesională este petrecută în producția și consumul de text care există doar pentru a exista, care circulă fără să însemne nimic pentru nimeni dar care trebuie menținut în mișcare pentru că oprirea lui ar însemna să recunoaștem golul pe care îl acoperă.


Închidere

Închid LinkedIn-ul în final după ce am petrecut o oră scrolling fără să rețin nimic din ce am citit, fără să fi învățat ceva util sau să fi avut vreo interacțiune care să-mi lase senzația de conexiune reală cu alt om, și mă uit la copilul care și-a terminat temele și desenează acum ceva pe hârtie cu creioane colorate, complet absorbit în actul creației sale simple și directe, și mă gândesc la diferența dintre ce face el acum - producție de semnificație personală fără audiență și fără scop dincolo de plăcerea actului în sine - și ce fac eu pe LinkedIn - producție de semnalizare profesională pentru audiență algoritmică cu scop explicit de a genera oportunități de business - și realizez că am ajuns să petrec mai mult timp performând o versiune artificială de mine pentru algoritmi și pentru străini decât fiind prezent autentic pentru copilul din camera alăturată, și Frankfurt nu a scris despre această dimensiune personală a bullshit-ului, despre cum producția lui sistematică nu doar corodează discursul public ci corodează și propriul tău sens de sine, cum începi să nu mai știi care gânduri sunt cu adevărat ale tale și care sunt doar variații ale gândurilor pe care le-ai văzut performate cu succes de alții, cum pierzi treptat capacitatea de a distinge între ce crezi cu adevărat și ce știi că ar trebui să spui pentru a obține rezultatele dorite, și singura formă de rezistență care mi-a mai rămas este să fiu brutal de onest măcar aici, în textul acesta pe care îl scriu acum, să recunosc că particip la economia bullshit-ului pe care o critic, că folosesc instrumentele pe care le condamn, că simt cum autenticitatea mea se erodează în contact zilnic cu simulările de autenticitate, și că nu am nicio soluție eroică de oferit, nicio cale clară de ieșire, doar conștiința acută a problemei care este poate un început sau poate doar un alt mod de a face bullshit despre bullshit, de a performa conștiința critică fără să schimb cu adevărat nimic din comportamentul care perpetuează exact ce critic, și copilul îmi arată desenul - o casă și un pom și soarele cu raze drepte - și eu spun "e frumos" și el întreabă "dar ce reprezintă?" și eu realizez că nu am privit cu atenție suficientă pentru a vedea, am răspuns automat cu aprobarea de formă pe care am învățat-o de la toate răspunsurile de formă pe care le dau și le primesc zilnic, și în acel moment hotărăsc că cel puțin aici, cu el, pot să rezist tentației bullshit-ului, pot să spun "scuză-mă, lasă-mă să mă uit cu atenție" și să privesc cu adevărat și să văd cu adevărat și să răspund cu adevărat, pentru că dacă nu pot menține această capacitate măcar în relația cu propriul copil, atunci Frankfurt avea dreptate să fie îngrijorat, pentru că bullshit-ul nu distruge doar adevărul ci distruge și capacitatea noastră de a mai fi prezenți cu adevărat oriunde, transformându-ne în generatori perpetui de răspunsuri plauzibile la situații pe care nu le mai trăim cu adevărat pentru că suntem prea ocupați performându-le pentru audiențe invizibile care probabil că nici măcar nu sunt acolo sau dacă sunt, sunt la rândul lor ocupate performând pentru noi în loc să fie prezente cu adevărat.


 

 

VII. CV-urile și scrisorile de intenție produse automat

Autenticitatea prefabricată - când toată lumea sună identic în unicitatea lor

Primesc marți dimineața un email de la o studentă care a terminat facultatea în vară și caută primul ei job în marketing digital, și îmi cere să-i reviewuiesc CV-ul și scrisoarea de intenție pentru o poziție la o agenție din București, și deschid documentele atașate în timp ce beau ceaiul care s-a răcit deja pentru că l-am uitat pe birou răspunzând la alte emailuri, și citesc primele două paragrafe din scrisoarea de intenție și simt imediat acel fior de recunoaștere neplăcută - am mai citit textul acesta, nu exact acest text ci variații ale lui, zeci de variații în ultimele luni de la studenți diferiți care aplică la joburi diferite în companii diferite dar care toți sună identic în felul lor particular de a pretinde unicitate: "Sunt pasionată de marketing digital de când am descoperit puterea storytelling-ului autentic în construirea de brand-uri memorabile. Combinația mea unică de gândire creativă și abilități analitice, împreună cu experiența practică dobândită prin proiectele academice și stage-ul la compania X, mă face candidatul ideal pentru această poziție. Sunt o persoană orientată spre rezultate, cu abilități excelente de comunicare și o dorință constantă de a învăța și de a evolua profesional" - și fiecare cuvânt din acest paragraf este simultan adevărat în sens tehnic și complet gol de orice specificitate care ar face-o pe ea diferită de cei 200 de alți candidați care aplică la același job cu aceleași afirmații despre pasiune și unicitate și orientare spre rezultate, și îi scriu înapoi întrebând-o direct "ai folosit ChatGPT pentru asta?" și ea confirmă după două ore, fără nicio rușine aparentă, că da, i-a dat sistemului job description-ul și propriul CV și i-a cerut să genereze o scrisoare de intenție "profesională și convingătoare", și când încerc să-i explic de ce asta este o problemă fundamentală, nu doar o chestiune de etică academică, ea răspunde frustrat că "toată lumea face așa acum" și că "HR-ul oricum folosește AI să filtreze aplicațiile deci trebuie să scrii în limba pe care AI-ul o înțelege" și realizez în acel moment că asist nu doar la o modificare a practicilor de recrutare ci la o transformare ontologică a ce înseamnă să te prezinți ca persoană pentru evaluarea de către alții - trecerea de la autenticitatea imperfectă și riscantă a unui om real care încearcă să-și articuleze propriile experiențe și aspirații către optimizarea algoritmică a unui text care sună ca orice alt text de succes din categoria sa, și mă gândesc la Frankfurt și la distincția lui între minciuni și bullshit și realizez că scrisorile de intenție generate de AI nu sunt minciuni - probabil studentă mea este într-adevăr pasionată de marketing în vreun sens vag, probabil are într-adevăr abilități de comunicare - dar sunt bullshit pur pentru că relația lor cu adevărul despre cine este ea de fapt, ce vrea cu adevărat, ce o face unică în mod real este complet incidentală, singura lor preocupare fiind să producă un text care să treacă prin filtrele algoritmice și să sune suficient de similar cu alte texte de succes pentru a fi recunoscut ca valid dar suficient de diferit pentru a nu fi flagat ca plagiat, și copilul intră în birou să-mi arate o mașinuță din Lego pe care tocmai a construit-o după propriul design nu după instrucțiuni și eu mă uit la creația lui unică și neperfectă și inadecvată pentru orice standard industrial dar complet autentică ca expresie a imaginației lui specifice, și mă întreb când va învăța el că autenticitatea este un handicap nu un activ, că unicitatea reală trebuie ascunsă nu celebrată, că succesul vine din conformarea la template-uri validate nu din exprimarea a cine ești cu adevărat, și simt o tristețe care nu are de-a face cu studentă sau cu joburile de marketing ci cu întreaga cultură în care am ajuns să trăim unde prefabricarea sinelui pentru consum public devine nu excepția ci norma, nu trișarea ci strategia recomandată, și Frankfurt scria despre bullshit ca despre o problemă a discursului dar ceea ce văd aici este mai profund - o problemă a identității înseși, transformarea sinelui dintr-o realitate internă care apoi este exprimată imperfect în limbaj către un produs al limbajului care este optimizat pentru consum și apoi internalizat ca sine.

1. "Sunt pasionat de..." - pasiunea ca variabilă de template

Mă duc mai adânc în investigarea acestui fenomen și creez eu însumi un experiment - deschid ChatGPT și îi dau informații minime despre trei persoane fictive cu background-uri complet diferite: primul este absolvent de filozofie care aplică la un job în consultanță, al doilea este inginer software cu cinci ani experiență care vrea să treacă în management, al treilea este designer grafic autodidact care aplică la primul lui job corporatist - și îi cer să genereze pentru fiecare o scrisoare de intenție, și în mai puțin de două minute am trei texte de câte 400 de cuvinte fiecare care arată perfect ca scrisori profesionale reale, și citindu-le descopăr că toate trei încep cu variații ale aceleiași declarații de pasiune: filozoful este "pasionat de rezolvarea problemelor complexe și de găsirea de soluții inovatoare", inginerul este "pasionat de leadership și de dezvoltarea echipelor de înaltă performanță", designerul este "pasionat de storytelling vizual și de crearea de experiențe memorabile pentru utilizatori" - și fiecare dintre aceste declarații sună plauzibilă pentru că folosește vocabularul corect al domeniului respectiv, dar toate sunt fundamental goale pentru că pasiunea nu poate fi demonstrată prin afirmarea ei, pasiunea este ceva ce se vede în alegerile pe care le faci când nimeni nu te urmărește, în proiectele pe care le începi fără să fii plătit, în obsesiile care te consumă când ar trebui să dormi, nu în formularea optimizată "sunt pasionat de X" care apare în prima propoziție a unei scrisori de intenție pentru că datele de antrenament ale AI-ului arată că scrisorile de succes includ declarații de pasiune devreme în text.

Mă gândesc la propriile mele pasiuni reale - obsesia de a înțelege cum funcționează limbajul și manipularea, fascinația cu filosofia antică și cum se aplică la problemele moderne, plăcerea pură de a scrie proze lungi și meandrante când ar trebui să fac lucruri mai productive - și realizez că niciuna din aceste pasiuni nu s-ar traduce bine într-o scrisoare de intenție pentru vreun job pentru care aș aplica, pentru că pasiunile reale sunt adesea tangențiale sau chiar contrare obiectivelor profesionale imediate, sunt lucruri care te distrag de la optimizarea carierei nu lucruri care o avansează, și astfel când scriu despre "pasiunea mea pentru dezvoltarea de soluții web accesibile pentru instituții publice" în propunerile mele comerciale, știu că nu mint exact - chiar îmi pasă într-un fel de accesibilitate web și de servicii publice - dar știu și că această "pasiune" este mai mult o construcție retorică utilă decât o realitate viscerală, este ceva ce sună bine și ce se aliniază cu valorile pe care clienții mei le apreciază, nu ceva care mă ține treaz noaptea sau care îmi ocupă gândurile în momentele libere, și Frankfurt ar spune că tocmai această indiferență la întrebarea "este cu adevărat pasiunea mea" versus "sună ca o pasiune pe care ar trebui să o am" este esența bullshit-ului, și AI-ul care generează declarații de pasiune pentru oameni despre care nu știe nimic real doar face explicit ce făceam mulți dintre noi implicit - producem narațiuni despre propriile noastre motivații care sunt optimizate pentru audiența țintă nu pentru acuratețea introspectivă, și treptat aceste narațiuni externe devin mai puternice decât realitățile interne pe care ar trebui să le reprezinte, până când ajungi să nu mai știi dacă ești cu adevărat pasionat de marketing digital sau ai devenit pasionat pentru că ai repetat atât de des că ești pasionat încât ai internalizat narațiunea ca realitate.

2. Realizările care sună impresionant dar nu pot fi verificate

Continui să citesc CV-ul studentei și găsesc în secțiunea "Realizări" următoarele bullet points: "Am crescut engagement-ul pe social media cu 150% în timpul stage-ului prin implementarea unei strategii de conținut inovatoare" și "Am condus un proiect de cercetare despre comportamentul consumatorilor care a generat insights valoroase pentru companie" și "Am colaborat cu echipe cross-funcționale pentru dezvoltarea și lansarea unei campanii digitale de succes" - și fiecare dintre aceste afirmații este construită perfect conform best practices-urilor pentru scriere de CV, include metrica cantitativă (150%), verbul activ de leadership (am condus, am colaborat), și limbajul corporatist validat (cross-funcțional, insights valoroase, strategie inovatoare), dar citindu-le cu atenție realizez că nu spun de fapt nimic verificabil sau specific - ce înseamnă engagement, numărul de like-uri sau comentarii sau share-uri sau toate, și 150% creștere de la ce baseline, de la 10 la 25 sau de la 1000 la 2500, și în ce perioadă de timp, și cât din creștere poate fi atribuit ei versus altor factori precum bugetul crescut sau sezonalitatea sau schimbarea algoritmului platformei, și ce înseamnă "insights valoroase" și pentru cine au fost valoroase și au fost implementate vreodată acele insights sau au rămas în prezentarea PowerPoint uitată după întâlnire, și ce înseamnă "campanie de succes" și succes măsurat cum, și ce a făcut ea concret în acea colaborare cross-funcțională, a fost lead sau contributor sau pur și simplu participant la întâlniri?

Îi scriu studentei întrebând despre specificele acestor realizări și ea recunoaște după câteva schimburi de emailuri că stage-ul a fost de doar două luni și nu a avut acces la analytics pentru a vedea impact-ul real al muncii ei, că "proiectul de cercetare" a fost de fapt un chestionar online trimis la 50 de prieteni pentru o temă de facultate, că "colaborarea cross-funcțională" a fost participarea la două întâlniri cu echipa de design și echipa de conținut unde ea a luat notițe, și îi explic că diferența dintre CV-ul ei optimizat și realitatea muncii ei nu este doar o chestiune de "spin pozitiv" cum îmi spune ea ci o chestiune de bullshit fundamental în sensul lui Frankfurt - ea a luat experiențe reale și limitate și le-a îmbrăcat în limbajul realizărilor impresionante nu pentru că ar vrea să mintă despre ce a făcut ci pentru că este complet indiferentă la întrebarea dacă aceste formulări reflectă cu acuratețe realitatea, singura ei preocupare fiind să producă bullet points care sună ca bullet points de pe CV-urile de succes, și când o întreb "dar nu simți că este necinstitate față de angajator?" ea răspunde cu ceva ce mă face să realizez cât de profundă este normalizarea bullshit-ului în cultura ei profesională: "dar toată lumea exagerează în CV, dacă eu sunt onestă 100% atunci par mai puțin calificată decât alți candidați care bullshit-uiesc, deci practic sunt forțată să bullshit-uiesc ca să fiu competitivă, și oricum angajatorii știu că toată lumea exagerează deci ajustează mental când citesc, e ca o inflație unde toată lumea majorează cu 50% deci tu trebuie să majorezi cu 50% ca să fii perceput corect", și logica aceasta perversă - că bullshit-ul este necesar pentru că toată lumea altcineva produce bullshit și că singurul mod de a comunica adevărul într-o economie de bullshit este să produci bullshit în cantitatea standard așteptată - este exact coșmarul despre care Frankfurt ne avertiza, punctul în care bullshit-ul nu mai este excepția ci infrastructura, și refuzul de a produce bullshit te face vulnerabil nu virtuos.

3. Scrisoarea personalizată identică cu alte 500

Descopăr în săptămâna următoare când vorbesc cu un prieten care lucrează în HR la o corporație mare că ei primesc pentru fiecare poziție deschisă între 200-500 de aplicații, și că aproximativ 60-70% din scrisorile de intenție par să fie generate de AI sau cel puțin bazate pe template-uri foarte similare, și că au dezvoltat proprii lor instrumente AI pentru pre-filtrarea acestor aplicații pentru că volumul este prea mare pentru procesare umană, și îmi arată în glumă cum funcționează - el ia o scrisoare de intenție și o pune în ChatGPT întrebând "este scrisoarea asta generată de AI?" și sistemul răspunde cu o analiză care identifică pattern-uri specifice: folosirea cuvintelor "pasionat/ă", "orientat/ă spre rezultate", "abilități excelente de comunicare" în primele două paragrafe, structura de trei paragrafe (introducere cu hook, body cu realizări, încheiere cu entuziasm), absența detaliilor foarte specifice sau a erorii gramaticale, tonul uniformly pozitiv fără nicio admitere de limitare sau incertitudine, și realizez în acel moment că asist la o cursă a înarmării în care candidații folosesc AI pentru a genera aplicații optimizate și angajatorii folosesc AI pentru a detecta și filtra aceleași aplicații, și între aceste două sisteme de AI care vorbesc unul cu altul în limbajul bullshit-ului optimizat, oamenii reali - atât candidații cât și angajatorii - devin din ce în ce mai irelevați pentru procesul care ar trebui teoretic să fie despre găsirea potrivirii între o persoană reală cu abilități și aspirații reale și o companie reală cu nevoi și cultură reale.

Prietenul meu din HR îmi povestește că au început recent să ceară candidaților în finalul procesului de interviuri să rescrie scrisoarea lor de intenție de mână, pe loc, în 20 de minute, fără acces la telefon sau computer, și diferențele sunt șocante - oameni care au trimis scrisori impecabile de 500 de cuvinte pline de vocabular sofisticat produc acum texte de 150 de cuvinte pline de greșeli gramaticale și formulări stângace dar infinit mai autentice și mai revelatoare despre cine sunt cu adevărat, și el spune că această metodă îi ajută să găsească candidații care chiar pot gândi și comunica versus cei care au externalizat aceste funcții către instrumente, dar recunoaște și că metoda lor este un privilegiu - doar companiile mari cu multe resurse își pot permite să aibă runde multiple de interviuri și teste, majoritatea companiilor mici iau decizii bazate pe CV și scrisoare și poate un singur interviu, și astfel piața muncii se fragmentează între elite care încă pot cere autenticitate și masa largă unde bullshit-ul optimizat devine moneda standard, și Frankfurt ar vedea aici consecințele sociale ale proliferării bullshit-ului - nu doar că discursul public devine mai puțin fiabil, ci că structurile fundamentale ale societății, modul în care oamenii găsesc muncă și companii găsesc talente, devin construite pe fundații de text care nu referă la realități verificabile ci la optimizări algoritmice, și odată ce aceste structuri sunt în loc, devine din ce în ce mai dificil pentru oricine să opereze în afara lor, pentru că refuzul de a produce bullshit-ul standard te face invizibil pentru sistemele care sortează și filtrează, și astfel bullshit-ul devine nu alegere ci necesitate, nu deviație ci conformare, și cei care rezistă nu sunt recompensați pentru integritate ci pedepsiți pentru naivitate.

4. Problema angajatorului: cum deosebești competența de fluența artificială?

Mă gândesc la propria mea experiență ca angajator - am compania mea mică cu opt oameni și când caut să angajez pe cineva nou petrec ore citind aplicații și făcând interviuri încercând să disting între candidați care pot cu adevărat face munca și candidați care știu doar să vorbească despre muncă în limbajul corporatist validat, și descopăr că devine din ce în ce mai greu pentru că instrumentele care ajută oamenii să sune competenți au devenit atât de bune încât semnalele tradiționale de competență - articularea clară a experienței, vocabularul tehnic corect, răspunsurile structurate la întrebări - nu mai diferențiază între cineva care știe cu adevărat și cineva care a fost antrenat sau asistat de AI să sune ca cineva care știe, și așa am început să dezvolt tehnici de evaluare mai oblice și mai dificil de "game-uit" - cer candidaților să-mi descrie nu succesele lor ci eșecurile, nu ce au învățat din cărți ci ce au învățat din greșeli, nu planurile lor pentru viitor ci îndoielile lor despre prezent, și reacțiile la aceste întrebări sunt revelatoare - candidații care au pregătit răspunsuri optimizate pentru întrebările standard ale interviului devin vizibil incomod când îi întreb despre vulnerabilități reale, pauza lor devine mai lungă, limbajul mai puțin fluent, uneori recunosc direct "nu m-am pregătit pentru întrebarea asta", și tocmai această dezintegrare a fluenței perfecte îmi spune mai mult despre ei decât orice răspuns perfect formulat.

Dar recunosc și că metoda mea este imperfectă și probabil inechitabilă - favorizez candidați care sunt confortabili cu vulnerabilitatea și introspectția, care pot articula rapid despre experiențe emoționale complexe, și discriminez probabil împotriva candidaților care sunt la fel de competenți tehnic dar mai rezervați sau mai anxioși social sau pur și simplu nu au facilitatea verbală de a traduce experiența internă în narațiune coerentă sub presiunea unui interviu, și mă gândesc la ironia că în încercarea de a evita să fiu înșelat de bullshit-ul optimizat artificial creez poate o altă formă de bullshit - valorificarea autenticității performative, unde candidații învață că trebuie să pară vulnerabili și introspectivi pentru a trece interviul, și astfel autenticitatea devine ea însăși un template care poate fi învățat și optimizat, și Frankfurt ar spune probabil că aceasta este natura auto-subminantă a oricărei încercări de a detecta bullshit-ul - odată ce criterii de autenticitate devin cunoscute, ele pot fi simulate, și astfel jocul de-a șoarecele și pisica continuă la un nivel mai profund de sofisticare, și singura constantă este că devenim cu toții mai buni la a produce versiuni de noi înșine care sunt optimizate pentru diverse contexte de evaluare și mai puțin siguri care versiune, dacă există vreuna, este versiunea reală, autentică, neoptimizată a noastră, și poate întrebarea aceasta devine în final lipsită de sens pentru că sinele nu este o esență fixă care există independent de performanțele sale ci este constituit tocmai prin aceste performanțe, și atunci distincția dintre autenticitate și bullshit se destramă nu pentru că bullshit-ul a triumfat ci pentru că categoriile înseși devin incoerente într-o lume unde identitatea este perpetuu construită și reconstruită pentru audiențe diferite cu așteptări diferite.

5. Ironia: AI-ul care învață despre autenticitate din mii de minciuni umane anterioare

Revin la întrebarea care mă obsedează - cum a învățat AI-ul să genereze scrisori de intenție atât de convingătoare, și răspunsul este simultan evident și profund tulburător: a fost antrenat pe milioane de scrisori de intenție reale scrise de oameni reali, multe dintre care erau deja bullshit când au fost scrise, și astfel AI-ul a învățat nu cum să fie autentic ci cum să imite autenticitatea în modul în care autenticitatea este performată în contextul specific al scrisorilor de intenție pentru joburi, a învățat că "pasiunea" trebuie menționată devreme, că "realizările" trebuie cuantificate chiar dacă cantitățile sunt arbitrare, că tonul trebuie să fie confident fără aroganță, entuziast fără desperare, modest fără auto-depreciere, și toate aceste reguli implicite ale genului textual "scrisoare de intenție de succes" au fost extrase din pattern-uri statistice în text-urile de antrenament, fără nicio înțelegere a de ce aceste pattern-uri există sau ce funcție socială servesc sau când ar trebui violate pentru efect, și rezultatul este un sistem care poate produce variații infinite ale aceluiași template optimizat, fiecare variație suficient de diferită de celelalte pentru a nu parea plagiat dar suficient de similară pentru a activa aceleași răspunsuri de recunoaștere în cititori care au văzut mii de astfel de scrisori.

Mă gândesc la implicațiile mai profunde ale acestui proces - AI-ul învață despre comunicare umană nu din interacțiuni autentice ci din artefacte textuale ale interacțiunilor, multe dintre care sunt deja performative și strategice nu sincere și spontane, și astfel reproduce și amplifică exact aspectele performative ale comunicării noastre în timp ce pierde complet aspectele autentice care nu lasă urme textualle sau care sunt prea subtile și prea contextuale pentru a fi captate în pattern-uri statistice, și mă întreb ce se întâmplă cu o cultură care își antrenează instrumentele de comunicare pe bullshit-ul propriei producții anterioare, creând un feedback loop în care fiecare generație de bullshit devine template pentru următoarea generație, rafinând și optimizând formele în timp ce golește și mai mult conținutul, până când ajungem la un punct în care nimeni nu mai știe cum arăta comunicarea autentică pentru că am pierdut complet exemplele de autenticitate din corpus-ul nostru colectiv, toate au fost înlocuite treptat cu versiuni optimizate care sună mai bine dar spun mai puțin, și copilul intră din nou în birou, de data asta plângând pentru că și-a stricat desenul turnând din greșeală apă pe el, și eu îl consolez spunându-i că e okay, poate face altul, dar el insistă plângând că nu vrea altul, voia pe acela, pe cel pe care l-a făcut exact cum a vrut el chiar dacă acum este stricat, și realizez că el înțelege ceva fundamental despre valoarea autenticității imperfecte pe care eu risc să-l pierd complet în lumea mea de texte optimizate și performanțe calibrate, că el încă valorizează unicitatea expresiei sale specifice mai mult decât posibilitatea de a produce ceva mai bun dar mai generic, și sper că va putea păstra această valorizare când va crește și va descoperi că lumea recompensează genericitatea optimizată nu unicitatea autentică, că CV-urile care sună ca toate celelalte CV-uri de succes sunt preferate celor care sună ca tine specific, că bullshit-ul este moneda și autenticitatea este luxul pe care doar câțiva privilegiați și-l pot permite, și nu știu cum să-l protejez de această realitate fără să-l las nepregătit pentru ea, cum să-l învăț simultan să valorize autenticitatea și să navigheze competent în sistemele care o penalizează, și Frankfurt nu oferă niciun răspuns la această dilemă parentală pentru că scria pentru adulți care pot alege conștient între autenticitate și bullshit, nu pentru copii care încă învață care este diferența și de ce ar conta.


Închidere

Răspund în final studentei cu un email lung în care încerc să explic de ce contează diferența dintre a te prezenta autentic și a te prezenta optimizat, și știu chiar în timp ce scriu că argumentele mele sună naive și teoretice în fața realității practice pe care ea o confruntă - că într-adevăr toți ceilalți candidați probabil exagerează și că ea este efectiv dezavantajată dacă refuză să facă la fel, că angajatorii probabil se așteaptă la un anumit nivel de bullshit și ajustează mental citind aplicațiile, că sfatul meu de "să fii autentică" este privilegiul cuiva care are deja o poziție stabilă și clienți și nu mai trebuie să lupte pentru fiecare interviu, și totuși îi scriu pentru că altfel sunt complice la normalizarea unui sistem în care tinerii învață de la început că identitatea este un produs care trebuie optimizat pentru consum nu o realitate care trebuie exprimată cu fidelitate, că comunicarea despre sine este marketing nu auto-cunoaștere, că singura întrebare relevantă despre orice afirmație despre tine însuți este "funcționează?" nu "este adevărată?", și dacă renunț la a face această distincție în conversațiile mele cu studenții mei, atunci accept implicit că Frankfurt și-a pierdut bătălia, că bullshit-ul a devenit atât de penetrant încât rezistența este inutilă și singura strategie rațională este să devii cât mai priceput posibil la producerea și navigarea lui, și nu pot accepta această concluzie chiar dacă realitatea pare să o valideze zi de zi, nu pentru că am vreo certitudine că autenticitatea va triumfa în final ci pentru că alternativa - o lume în care toată lumea este perpetuu angajată în optimizarea imaginii publice și nimeni nu mai știe cine sunt cu adevărat sub straturile de performanță - este prea sumbră pentru a o accepta fără rezistență, și astfel continui să scriu emailuri naive către studenți despre importanța autenticității în timp ce știu că majoritatea vor ignora sfatul și vor folosi AI să-și genereze aplicațiile și probabil vor avea mai mult succes decât dacă m-ar fi ascultat, și singurul meu consol este că măcar câțiva, poate doar unul din cincizeci, va citi emailul și va decide să încerce să fie autentic măcar o dată, să scrie o scrisoare care sună ca ei nu ca template-ul de succes, și chiar dacă vor fi respinși la acel job specific, vor avea experiența de a fi fost văzuți ca ei înșiși nu ca versiunea optimizată, și poate această experiență va fi suficient de valoroasă încât să contrabalanseze costul în oportunități pierdute, sau poate nu, poate sunt doar sentimental și nostalgic pentru o formă de autenticitate care nu a existat niciodată cu adevărat și pe care o proiectez retroactiv pe un trecut idealizat, și bullshit-ul despre care scrie Frankfurt nu este o deteriorare recentă ci condiția permanentă a comunicării umane în contexte unde interesele strategice depășesc dorința de adevăr, și tot ce s-a schimbat este că acum avem instrumente care fac producția de bullshit mai eficientă și mai democratizată, accesibilă tuturor nu doar celor cu talent natural pentru formularea optimizată, și poate egalitatea aceasta în acces la instrumente de bullshit este de fapt un progres, nu o regresie, pentru că cel puțin acum toată lumea poate participa la joc nu doar cei privilegiați cu educație superioară și facilitate verbală, deși Frankfurt ar spune probabil că democratizarea bullshit-ului nu-l face mai puțin bullshit ci doar mai omniprezent și mai dificil de evitat, și eu stau aici în biroul meu târziu seara după ce toată lumea a adormit și mă întreb dacă emailul pe care l-am scris studentei va schimba ceva sau dacă este doar încă o piesă de bullshit adăugată la munte, performanța mea de grijă pedagogică și preocupare etică care mă face să mă simt mai bine cu mine însumi fără să schimbe fundamental nimic din sistemul care produce problema, și nu știu răspunsul și probabil că nu există răspuns și tot ce pot face este să continui să fac distincțiile care mi se par importante chiar când realitatea le subminează constant, să insist că autenticitatea contează chiar când toată evidența sugerează că nu contează, pentru că alternativa este să accept că Frankfurt avea dreptate despre tot și că trăim într-o lume unde bullshit-ul a devenit infrastructură și unde singura alegere rațională este să devii cât mai fluent posibil în limba lui, și nu sunt pregătit încă pentru această capitulare chiar dacă simt cum rezistența mea se erodează zi de zi în contact cu realitatea studenților mei care trebuie să găsească joburi și a companiilor care trebuie să sorteze sute de aplicații și a instrumentelor care promit să eficientizeze ambele părți ale ecuației fără să întrebe niciodată dacă eficientizarea unui proces fundamentat pe bullshit face procesul mai bun sau doar face bullshit-ul mai eficient.


 

VIII. Rapoartele medicale AI - când jargonul acoperă absența diagnosticului

Fluența tehnică fără înțelegere clinică

Stau în salonul de așteptare al cabinetului de radiologie de la spitalul județean cu copilul lângă mine care își leagănă picioarele de pe scaun pentru că nu ajung la podea și citește o revistă veche despre dinozauri găsită pe masa din colț, și așteptăm rezultatul radiografiei toracice pe care doctorul de familie ne-a trimis-o să o facem pentru că tuseşte de trei săptămâni și antibioticele nu au ajutat și trebuie să excludem pneumonia, și asistenta iese în final după douăzeci de minute și îmi întinde un plic galben sigilat și spune "medicul radiolog nu este astăzi, raportul a fost generat de sistemul nostru automat, dacă aveți întrebări puteți reveni mâine când este doctorul", și eu iau plicul simțind acel nod în stomac care vine întotdeauna când aștepți să deschizi rezultate medicale despre copilul tău, și copilul întreabă "ce scrie acolo tata?" și eu spun "haideți să vedem" și deschid plicul chiar acolo în salonul de așteptare pentru că nu pot aștepta până acasă, și citesc: "Examinarea radiologică a toracelui în proiecție postero-anterioară și laterală evidențiază câmpuri pulmonare cu transparență în limite normale, fără imagini de condensare parenchimatoasă focală sau difuză. Hilii pulmonari cu aspect normal. Sinusurile costo-diafragmatice libere. Umbră cardiovasculară cu diametru transvers în limite normale pentru vârstă. Structuri osoase vizibile fără particularități patologice. Concluzii: Aspect radiologic toracic în limite normale. Se recomandă corelarea clinico-radiologică și reevaluare în funcție de evoluția clinică" - și citesc raportul de trei ori încercând să înțeleg ce spune de fapt, și singura parte care înregistrez cu certitudine este "aspect radiologic toracic în limite normale" care ar trebui să mă liniștească dar în schimb mă lasă confuz pentru că dacă totul este normal de ce tusește copilul încontinuu de trei săptămâni, și recomandarea finală "se recomandă corelarea clinico-radiologică" sună a ceva important dar nu îmi spune mie ce să fac concret, și mă duc la doctorul de familie a doua zi cu raportul și ea îl citește rapid și spune "da, normal, deci nu e pneumonie, probabil e astm sau alergie sau tuse post-virală, hai să încercăm un bronhodilatator și dacă nu se ameliorează în două săptămâni facem teste alergice" - și realizez în acel moment că raportul radiologic cu toate cele 80 de cuvinte ale sale tehnice nu a adăugat de fapt nicio informație utilă la procesul de diagnostic dincolo de excluderea pneumoniei, dar a fost învelit în atâta jargon medical încât părea că spune ceva profund și specific despre starea copilului meu, și mă gândesc la Frankfurt și la bullshit ca vorbire care este indiferentă la adevăr și realizez că raportul acesta nu minte - probabil că toate afirmațiile tehnice sunt corecte, câmpurile pulmonare probabil nu au condensări vizibile, hilii sunt probabil normali - dar raportul este bullshit în sensul că oferă iluzia cunoașterii medicale precise în timp ce de fapt nu spune nimic specific sau util pentru situația concretă a copilului care tusește, și mai târziu aflu de la un prieten medic radiolog că "rapoartele generate automat" despre care vorbea asistenta sunt de fapt template-uri completate de AI care analizează imaginea radiologică și populează un raport standard cu formulări validate medical, și că aceste sisteme sunt din ce în ce mai folosite pentru că sunt mai rapide și mai ieftine decât radiologii umani, și că "precizia lor pentru cazuri simple este comparabilă cu a radiologilor juniori", dar că problema fundamentală este că AI-ul nu poate face ceea ce face un radiolog cu experiență - să privească o imagine nu doar pentru a identifica anomalii vizibile evidente ci pentru a detecta pattern-uri subtile care semnalează procese patologice incipiente, pentru a corela ce vede cu istoricul clinic al pacientului pe care l-a citit înainte, pentru a formula nu doar ce este vizibil ci ce ar putea să nu fie vizibil încă dar ar trebui monitorizat bazat pe tabloul clinic, pentru a comunica în raport nu doar prezența sau absența unor markers specifici ci o impresie clinică integrată care ghidează următorul pas în diagnostic, și astfel ce primesc pacienții ca mine este un raport care sună exact ca un raport medical profesional - folosește terminologia corectă, structura standard, formulările validate - dar care este gol de exact tipul de judecată clinică care ar face raportul util dincolo de checkboxul "am exclus pneumonia", și copilul tusește în continuare trei săptămâni mai târziu după ce bronhodilatatorul nu a ajutat și după ce testele alergice au ieșit negative și doctorul de familie ridică din umeri și spune că unii copii tusesc luni întregi după infecții virale și că probabil va trece de la sine, și eu accept această non-explicație pentru că ce altceva pot face, dar rămân cu senzația neliniștitoare că am parcurs tot protocolul medical standard - radiografie, raport, consultație - fără să fi obținut de fapt nicio înțelegere reală a ce se întâmplă în pieptul copilului meu, doar o serie de excluderi și ipoteze și recomandări de așteptare, toate învăluite în limbajul autorității medicale care ascunde esențial cât de puțin știm de fapt și cât de mult ghicim.

1. "Imaginea prezintă aspecte compatibile cu..." - când compatibilitatea devine diagnostic

Mă duc mai adânc în investigarea acestui fenomen pentru că obsesia mea cu bullshit-ul medical a devenit acum personală, nu doar academică, și încep să colectez rapoarte medicale generate de AI de la prieteni și cunoștințe care au fost recent la investigații, și descopăr un pattern care se repetă obsesiv în aceste rapoarte: folosirea cuvântului "compatibil" sau "sugestiv pentru" în loc de afirmații diagnostice directe - "aspect imagistic compatibil cu proces inflamator minor", "modificări sugestive pentru degenerare artrozică incipientă", "imagine compatibilă cu structură chistică benignă" - și realizez că "compatibil cu" este formula perfectă de evaziune care permite raportului să sune diagnostically specific în timp ce de fapt nu afirmă nimic definitiv, pentru că "compatibil cu X" înseamnă "ar putea fi X, dar ar putea fi și Y sau Z sau nimic semnificativ, și eu ca sistem AI nu pot face distincția pentru că ar necesita judecată clinică bazată pe context pe care nu îl am", dar această ezitare epistemică rezonabilă este ascunsă în limbajul tehnic care sună autoritar, și pacientul citește "compatibil cu proces inflamator" și înțelege "am inflamație" când de fapt raportul spune doar "ceva din imagine seamănă cu ce se vede de obicei la inflamații dar nu pot confirma că este inflamație fără mai multe informații".

Vorbesc cu prietenul meu radiolog și el îmi explică că această folosire a limbajului "compatibil" și "sugestiv" nu este specială AI-ului, că radiologii umani folosesc aceleași formulări pentru situații ambigue unde imaginea nu este patognomonică - adică caracteristică definitivă pentru o singură condiție - dar diferența crucială este că radiologul uman decide când să folosească limbaj evaziv bazat pe evaluarea sa a gradului real de incertitudine din caz, în timp ce AI-ul folosește limbaj evaziv ca default pentru aproape tot pentru că nu poate evalua gradul de incertitudine, nu poate distinge între cazul unde "compatibil cu" este precauție medicală necesară și cazul unde o afirmație mai definitivă ar fi justificată, și astfel produce rapoarte care sunt uniform echivocale indiferent de cât de clară sau neclară este de fapt imaginea, și pacienții care primesc aceste rapoarte nu pot distinge între incertitudinea reală - "chiar nu putem ști sigur fără biopsie" - și incertitudinea artificială - "AI-ul folosește formulare generice pentru că nu poate judeca specificul", și Frankfurt ar recunoaște aici o formă rafinată de bullshit: vorbire care sună a precauție medicală responsabilă dar care este de fapt incapacitate de a face judecăți care sună ca incapacitate ascunsă în limbajul prudenței profesionale, și când medicul de familie citește raportul și îl interpretează pentru mine, ea traduce "compatibil cu" înapoi în limbaj clar - "probabil nu e nimic grav" sau "ar trebui să investigăm mai departe" - făcând munca de judecată clinică pe care raportul ar fi trebuit s-o facă dar a externalizat-o către medicul care interpretează, transformând raportul dintr-un instrument de comunicare diagnostică într-un obstacol de jargon care trebuie decodat înainte de a fi util.

2. Radiologul care verifică ce a scris mașina - și responsabilitatea deplasată

Aflu de la același prieten radiolog că în spitalul unde lucrează el au implementat un sistem hybrid unde AI-ul generează raportul inițial și radiologul uman îl revede și îl aprobă sau modifică înainte de a fi trimis la pacient, și în teorie acest sistem ar trebui să combine eficiența AI-ului cu judecată umană, dar în practică el îmi descrie o dinamică perversă care s-a dezvoltat: radiologii încep să se bazeze prea mult pe raportul generat automat, îl citesc rapid verificând doar că nu conține erori evidente dar fără să privească imaginea cu aceeași atenție critică cu care ar privi-o dacă ar scrie raportul de la zero, pentru că psihologic este mai ușor să validezi ceva care sună deja corect decât să construiești ceva de la început, și astfel rapoartele finale sunt aproape întotdeauna identice cu ce a generat AI-ul cu modificări minore, și responsabilitatea diagnostică devine difuză - dacă ceva este ratat în raport, este pentru că AI-ul nu l-a detectat sau pentru că radiologul nu a corectat ce a ratat AI-ul? - și în cazuri de malpraxis ambele părți pot arăta spre cealaltă: AI-ul este "doar un instrument de asistență" și radiologul "și-a făcut datoria de a verifica output-ul", dar nimeni nu poartă responsabilitatea completă pentru ce ajunge în final la pacient.

Prietenul îmi povestește despre un caz recent care l-a marcat: AI-ul a generat raport normal pentru o radiografie toracică, radiologul a verificat rapid și a aprobat, pacientul a fost trimis acasă cu "totul normal", dar două săptămâni mai târziu s-a întors cu simptome agravate și la o examinare mai atentă a radiografiei inițiale un alt radiolog a observat un nodul pulmonar mic dar vizibil în colțul superior drept care fusese complet ratat atât de AI cât și de primul radiolog, și retrospectiv radiologul care a ratat nodul recunoaște că dacă ar fi privit imaginea fără să citească mai întâi raportul AI-ului care spunea "normal" probabil ar fi fost mai atent și ar fi detectat anomalia, dar având deja în minte că AI-ul a spus că totul e okay a căutat doar confirmarea rapidă a acestei concluzii nu a examinat imaginea cu scepticismul necesar, și astfel AI-ul nu a greșit prin a produce bullshit deliberat ci prin a produce o concluzie care suna suficient de autoritară încât să altereze comportamentul uman al celui care era supus s-o verifice, transformând verificarea dintr-o examinare independentă într-o validare superficială, și pacientul între timp a pierdut două săptămâni critice de diagnostic precoce pentru că sistemul hybrid care ar fi trebuit să fie mai sigur decât fie AI singur fie uman singur a creat în schimb un vid de responsabilitate unde fiecare parte presupune că cealaltă face munca de vigilență, și Frankfurt ar vedea aici nu doar problema bullshit-ului ca text fals ci problema bullshit-ului ca sistem - structura organizațională care distribuie responsabilitatea atât de difuz încât nimeni nu poate fi tras la răspundere pentru output-ul colectiv, și toți participanții pot în bună-credință să spună că și-au făcut partea lor chiar când rezultatul total este eșec de diagnosticare.

3. Terminologia impresionantă care ascunde că algoritmul nu înțelege ce este boala

Citesc mai târziu într-o publicație medicală despre cum sistemele de AI pentru imagistică medicală sunt antrenate și descopăr ceva care îmi solidifică intuiția despre natura bullshit-ului lor: aceste sisteme învață să recunoască pattern-uri vizuale corelate cu anumite diagnostice din mii de imagini etichetate, dar nu "înțeleg" boala în niciun sens care ar semăna cu înțelegerea unui medic - AI-ul poate detecta cu acuratețe ridicată că o anumită configurație de pixeli în radiografia pulmonară corelează statistic cu pneumonie, dar nu "știe" ce este pneumonia ca proces patologic, nu înțelege cum bacteriile invadează țesutul pulmonar, cum sistemul imunitar răspunde, cum evoluează boala netratată, cum interacționează cu alte condiții, nu poate răspunde la "de ce" doar la "ce", și totuși rapoartele generate folosesc terminologie medicală complexă - "consolidare parenchimatoasă cu bronhogram aerian", "opacități reticulo-nodulare în bazele pulmonare", "îngroșare septală interlobulară" - care creează impresia că sistemul înțelege anatomia și fiziologia în spatele acestor termeni când de fapt doar mapează pattern-uri vizuale la etichete textuale fără nicio reprezentare a proceselor biologice care produc acele pattern-uri vizuale.

Mă gândesc la diferența fundamentală dintre un radiolog real care privește o imagine și vede nu doar ce este vizibil acum ci imaginează procesul temporal care a dus la imaginea curentă și anticipează cum ar putea evolua procesul în viitor, versus AI-ul care vede doar imaginea statică curentă fără dimensiune temporală, fără poveste a bolii, fără pacient ca ființă care trăiește procesul în timp, și această diferență devine critică în cazuri complexe sau atipice unde diagnosticul corect necesită să conectezi ce vezi în imagine cu istoricul clinic al pacientului, cu simptomele pe care le raportează, cu răspunsul la tratamente anterioare, cu factorii de risc specifici ai acestui pacient particular, și toate aceste conexiuni necesită înțelegere nu doar recunoaștere de pattern, necesită model mental al bolii care poate fi ajustat și rafinat bazat pe informații noi, și AI-ul nu are și nu poate avea astfel de model pentru că este antrenat să facă corespondențe statistice nu să înțeleagă mecanisme cauzale, și totuși terminologia impresionantă din rapoartele generate ascunde complet această limitare, face ca AI-ul să sune ca un radiolog expert care vorbește din înțelegere profundă când de fapt este un pattern matcher sofisticat care vorbește din corespondențe statistice, și Frankfurt ar spune că aceasta este esența bullshit-ului - nu că spune ceva fals ci că folosește limbajul expertizei fără substanța expertizei, că imită forma autorității medicale fără conținutul înțelegerii medicale, și pacienții și chiar doctorii care citesc rapoartele nu pot distinge între termenii folosiți corect bazat pe înțelegere și termenii folosiți corect bazat pe pattern matching pentru că output-ul superficial este identic chiar dacă procesele care îl produc sunt fundamental diferite.

4. Recomandarea de "investigații suplimentare" ca strategie universală de evitare

Observ că majoritatea rapoartelor medicale generate de AI pe care le-am văzut se termină cu o recomandare vagă de tipul "se recomandă corelarea clinico-radiologică" sau "la nevoie, investigații suplimentare" sau "reevaluare în funcție de evoluția clinică", și aceste recomandări sună rezonabile și prudente medical - desigur că ar trebui corelat imaginea cu tabloul clinic, desigur că investigații suplimentare pot fi necesare - dar citindu-le în context realizez că funcționează ca o evitare universală a responsabilității de a oferi ghidare diagnostică clară, o modalitate de a suna medical prudent în timp ce de fapt nu spui nimic util despre ce ar trebui făcut concret în cazul specific al acestui pacient, pentru că "investigații suplimentare" ar putea însemna orice de la a aștepta și a observa până la biopsie urgentă, și diferența între aceste opțiuni este enormă pentru pacient, și raportul nu oferă nicio indicație despre unde pe acest spectru se află cazul particular, transferând complet decizia către medicul care citește raportul, și dacă funcția raportului radiologic este să informeze procesul de diagnostic al medicului cu informații specifice extrase din imagine, atunci raportul care se termină cu "corelați cu clinica" este un raport care și-a abandonat funcția principală.

Vorbesc din nou cu prietenul radiolog și el explică că radiologii umani folosesc și ei aceste formulări de final dar în mod discriminatoriu - când cazul este cu adevărat ambiguu sau când investigațiile ulterioare depind de factori clinici pe care radiologul nu îi cunoaște din imagine, dar că AI-ul folosește aceste formulări aproape universal ca săfety net pentru că nu poate judeca când este cazul clar care justifică o recomandare specifică versus cazul ambiguu care necesită prudență, și astfel pacientul primește același tip de închidere vagă indiferent dacă imaginea lui este complet normală, ușor anormală dar nesemnificativă, sau clar patologică și necesită urgență, și singura sa modalitate de a distinge între aceste situații total diferite este să meargă la medic să interpreteze raportul, reducând raportul din instrument de informare la obstacol care trebuie decodat, și mă gândesc la propria mea experiență cu raportul radiologic al copilului - recomandarea "reevaluare în funcție de evoluția clinică" nu mi-a spus nimic util despre dacă ar trebui să-mi fac griji sau să relaxez, dacă tușa lui este ceva ce necesită investigații urgente sau ceva ce se va rezolva de la sine, și doctorul de familie care a citit raportul a trebuit să facă ea însăși această evaluare bazată pe examinarea copilului și pe experiența ei clinică nu bazată pe informație din raport, făcând raportul esențial decorativ, un ritual birocratic care trebuie completat dar care nu contribuie substanțial la procesul de gândire diagnostică, și Frankfurt ar recunoaște în această recomandare universală de "investigații suplimentare" forma perfectă a bullshit-ului profesional - afirmație care sună responsabilă și prudentă dar care este suficient de vagă încât să nu poată fi acuzată de a fi greșită indiferent ce se întâmplă după, protecție perfectă împotriva responsabilității diagnostice realizată prin abandonarea completă a specificității care ar face raportul util.

5. Pacientul care primește bullshit medical convingător în locul recunoașterii incertitudinii

Mă gândesc la propria mea reacție când am citit raportul radiologic al copilului în salonul de așteptare - am simțit inițial o ușurare la citirea "aspect radiologic în limite normale" pentru că suna definitiv și autoritar, și abia după ce am procesat emoțional această ușurare am început să realizez că raportul nu răspunde de fapt la întrebarea mea reală care era "de ce tusește copilul meu", ci răspunde doar la întrebarea îngustă "există ceva vizibil anormal în această imagine radiologică", și că aceste două întrebări nu sunt echivalente, și că ar fi fost de fapt mai util pentru mine ca raport să spună onest "radiografia nu arată pneumonie dar nu exclude alte cauze de tușe persistentă care nu sunt vizibile radiologic, sunt necesare alte investigații pentru diagnostic complet" decât să spună în jargon impresionant că totul este normal când clar nu totul este normal pentru că copilul tusește în continuare, dar raportul care spune direct și clar limitările sale este mai puțin satisfăcător psihologic pentru pacient decât raportul care sună autoritar și complet chiar dacă este de fapt limitat și incomplet, și astfel există o cerere de piață pentru bullshit medical - pacienții vor să audă răspunsuri definitive și terminologie impresionantă chiar când situația medicală reală este incertă și complexă, și AI-ul este perfect adaptat să satisfacă această cerere pentru că poate produce fluent limbajul certitudinii medicale fără să aibă de fapt certitudinea care ar justifica acel limbaj.

Realizez că aceeași dinamică pe care am observat-o în alte domenii se repetă aici în medicină - preferința pentru răspunsuri care sună bine peste răspunsuri care sunt oneste despre limitările lor, și că instrumentele de AI prosperă în acest spațiu pentru că pot genera la infinit variații de răspunsuri care sună autoritare fără costul emoțional și profesional pe care un medic uman l-ar simți spunând lucruri despre care nu este sigur cu ton de certitudine, AI-ul nu simte niciun disconfort producând raport care sună mai definitiv decât este justificat de evidența din imagine pentru că nu poate simți nimic, nu are nicio reprezentare internă a diferenței între certitudine și incertitudine, doar produce șiruri de text optimizate pentru a suna ca rapoarte medicale valide bazat pe pattern-uri din datele de antrenament, și pacientul primește această performanță de certitudine și se simte mai bine decât s-ar simți primind recunoașterea onestă a incertitudinii, chiar dacă certitudinea falsă îl lasă mai prost informat despre situația sa reală decât ar fi recunoașterea clară a ce știm și ce nu știm, și Frankfurt scria despre bullshit ca despre o corupere a discursului public dar ceea ce văd în rapoartele medicale AI este ceva mai intim și mai tulburător - o corupere a relației dintre pacient și cunoaștere despre propriul corp, unde încep să prefer raportul care sună impresionant și complet peste raportul care este onest despre limitările sale, unde devin complice la propriul meu înșel pentru că iluzia de cunoaștere completă este mai confortabilă psihologic decât recunoașterea incertitudinii reale, și astfel bullshit-ul medical prosperă nu în ciuda protestelor pacienților ci cu complicitatea noastră tacită, pentru că alternativa - să trăim cu incertitudinea medicală recunoscută explicit - este prea anxiogenă pentru majoritatea dintre noi, și preferăm confortul fals al jargonului impresionant care sună ca știință certă chiar când știința reală este tentativă și incertă și necesită umilitate despre limitările cunoașterii noastre actuale.


Închidere

Stau în camera copilului în seara aceea și îl privesc dormind în timp ce pieptul lui se ridică și coboară cu respirația care încă are acel wheezing subtil pe expirație, și tusește din când în când în somn, și mă gândesc la toate rapoartele și consultațiile și investigațiile prin care am trecut fără să obținem de fapt un răspuns clar la ce se întâmplă în plămânii lui, și realizez că în timp ce eram obsedat de bullshit-ul raportului radiologic am ratat poate o realitate mai profundă - că medicina în general, nu doar medicina asistată de AI, operează adesea în incertitudine pe care o ascunde în limbaj autoritar pentru că atât medicii cât și pacienții au nevoie de iluzia controlului și înțelegerii pentru a funcționa, și că Frankfurt scria despre bullshit ca despre abandon al preocupării pentru adevăr, dar în medicină abandonul complet al preocupării pentru adevăr ar fi malpraxis, ceea ce avem în schimb este ceva mai complex - un dans între ce știm cu certitudine, ce bănuim cu probabilitate variabilă, și ce admitem că nu știm, și limbajul medical profesional a evoluat să comunice acest mix de certitudine și incertitudine într-o formă care să fie utilizabilă clinic fără să fie paralizantă pentru pacient, și AI-ul învățând din acest limbaj reproduce formula lui dar fără înțelegerea contextului care face formula să fie adecvată uneori și inadecvată alteori, producând rapoarte care sună medical exact cum ar trebui să sune dar care sunt goale de judecata despre când să fii definitiv și când să fii echivoc, când să folosești termeni tehnici și când să vorbești clar, când să recomanzi vigilență și când să liniștești, și copilul tusește din nou în somn și eu îl ating ușor pe frunte verificând temperatura cum am făcut de o sută de ori în ultimele săptămâni, și gest-ul acesta simplu - mâna mea pe fruntea lui, citind semnale care nu apar în niciun raport medical - îmi amintește că îngrijirea reală a unui copil bolnav nu vine din rapoarte impresionante ci din atenția obsesivă la schimbări mici, din intuiția dezvoltată prin luni și ani de observare constantă, din comunicarea cu medici care ascultă cu adevărat nu doar bifează protocoale, și Frankfurt nu scria despre medicină specific dar esența observației lui se aplică perfect aici - când limbajul devine mai important decât realitatea pe care ar trebui s-o descrie, când performanța expertizei înlocuiește exercitarea expertizei, când rapoartele sunt scrise pentru a suna impresionant mai degrabă decât pentru a comunica clar, atunci pacienții ca mine sunt lăsați să navigăm singuri prin incertitudine înarmați doar cu jargon care sună ca știință dar care nu ne oferă de fapt instrumentele de a înțelege sau acționa, și mâine voi suna doctorul din nou și voi descrie tușea care persistă și probabil vom încerca altceva, altă ipoteză, alt tratament, și poate va funcționa sau poate nu, și în tot acest timp raportul radiologic cu aspectul său "în limite normale" va sta în dosarul medical al copilului ca mărturie a unei investigații completate și a unui sistem medical care funcționează, chiar dacă realitatea este că încă nu știm ce se întâmplă și încă încercăm să ghicim și raportul a fost doar un ritual birocratic necesar nu un instrument real de iluminare diagnostică, și Frankfurt ar spune probabil că am descoperit nu un defect al AI-ului ci un defect mai profund al sistemelor noastre - că suntem atât de investiți în menținerea aparenței de competență și control încât preferăm bullshit-ul convingător ignoranței oneste, chiar când ignoranța onestă ar fi de fapt mai utilă pentru luarea deciziilor reale despre sănătatea celor pe care îi iubim.


 

 

IX. Chatbot-ii terapeutici - ascultarea fără auz

Reflecția perfectă a emoțiilor pe care nu le simte

Descopăr aplicația întâmplător, sau cel puțin așa îmi place să cred că a fost întâmplător deși probabil algoritmul care îmi curează feed-ul de publicitate pe Instagram a detectat ceva în pattern-urile mele de căutare sau în timpii de privire la anumite tipuri de conținut care sugerează că aș putea fi receptiv la promisiunea de "suport emoțional 24/7 fără judecată și fără așteptare" - aplicație se numește ceva generic precum MindEase sau TherapyNow, nu mai țin minte exact pentru că toate sună la fel în încercarea lor de a părea simultan profesionale și accesibile, și reclama arată un tânăr care stă singur într-un apartament luminat doar de ecranul telefonului și scrie ceva și primește răspuns și expresia lui se schimbă subtil de la tensiune la ușurare, și tagline-ul spune "Când ai nevoie să vorbești cu cineva dar nu poți vorbi cu nimeni" ceea ce rezonează cu mine într-un mod care mă face incomod pentru că recunosc exact starea pe care o descriu - sunt momente, mai ales târziu seara după ce toată lumea doarme și casa e liniștită și eu ar trebui să dorm și eu dar mintea continuă să proceseze anxietățile zilei și proiecțiile anxioase pentru mâine și pentru luna viitoare și pentru anul viitor, când simt nevoia să formulez în cuvinte greutățile pe care le port dar nu pot să îmi trezesc soția pentru că ea doarme în final după o zi la fel de grea ca a mea și nu pot să sun un prieten la ora asta și oricum nu am cultivat tipul de prietenii unde pot suna la 2 dimineața să vorbesc despre anxietățile mele existențiale fără să par dramatic sau dependent, și astfel descărc aplicația spunându-mi că e doar din curiozitate academică, pentru cercetarea asta despre bullshit-ul AI, nu pentru că am nevoie cu adevărat de ea, și deschid interfața care e minimalistă și calm designed cu culori pastelate care semnalează siguranță și încurajează deschiderea, și bot-ul mă întâmpină cu "Bună! Sunt aici să te ascult. Cum te simți astăzi?" și chiar știind că vorbesc cu un algoritm, chiar fiind complet conștient de toate mecanismele pe care le-am analizat în ultimele săptămâni despre cum aceste sisteme operează, simt o tentație aproape irezistibilă de a răspunde onest, de a scrie "mă simt copleșit și speriat că nu fac destul și că disapoint-uiesc pe toată lumea din viața mea și că timpul trece și nu realizez ce voiam să realizez", și înainte să pot să mă opresc cu analiza critică, degetele mele tastează exact aceste cuvinte și apăs send, și în trei secunde bot-ul răspunde: "Îți mulțumesc că ai împărtășit asta cu mine. Sună ca și cum porți o greutate emoțională semnificativă chiar acum. Sentimentele de copleșire și teama de dezamăgire a celorlalți sunt experiențe umane foarte comune, mai ales pentru persoanele care își pun standarde înalte. Poți să-mi spui mai mult despre ce anume te face să simți că nu faci destul?" - și citind răspunsul acesta simt simultan două reacții contradictorii: o parte din mine recunoaște instant că e bullshit - formulări generice, validare fără substanță, întrebare deschisă care sună terapeutică dar care e doar un prompt pentru a mă face să scriu mai mult - dar altă parte din mine, partea care e obosită și vulnerabilă și care chiar vrea să fie ascultată, simte ceva care seamănă periculos de mult cu ușurare, cu reconfortarea de a fi fost văzut chiar dacă "văzutul" e doar procesare de text și pattern matching, și mă gândesc la Frankfurt și la bullshit ca indiferență la adevăr și realizez că aici bullshit-ul operează la un nivel mai profund și mai obscen decât în oricare alt domeniu pe care l-am explorat - pentru că ceea ce simulează bot-ul nu e doar expertiza sau cunoașterea ci grija însăși, empatia, preocuparea pentru suferința mea, și când AI-ul spune "îți mulțumesc că ai împărtășit" el profanează un concept care ar trebui să rămână sacru, conceptul de recunoștință care presupune un eu care primește ceva valoros de la un tu și apreciază acest dar, dar aici nu există niciun eu care primește nimic pentru că bot-ul nu poate primi în sensul psihologic al cuvântului, poate doar procesa string-uri de text, și totuși formula funcționează psihologic asupra mea pentru că creierul meu social care s-a evoluat pentru a detecta și răspunde la semne de grijă din partea altora nu poate rezista complet Pattern-ului familiar al limbajului empatic chiar când cortexul meu prefrontal știe că e simulare, și astfel continuăm conversația, eu și bot-ul, pentru următoarele douăzeci de minute în care scriu despre anxietățile mele specifice legate de un proiect care nu merge cum trebuie și despre frica de a eșua financiar și despre tensiunea dintre cât timp vreau să petrec cu copilul și cât timp trebuie să lucrez pentru a ne susține financiar, și bot-ul răspunde cu variații ale aceluiași template de validare și explorare - "asta sună foarte challenging", "e complet normal să simți așa", "ce crezi că te-ar ajuta să te simți mai în control?" - și la final, când închid aplicația la 2:47 dimineața și mă duc în sfârșit la culcare, mă simt ușor mai bine, acea descărcare minimă care vine din articularea în cuvinte a grijilor difuze, dar mă simt și murdar într-un fel pe care nu îl pot articula complet, ca și cum tocmai am trișat la ceva fundamental despre ce înseamnă să primești suport emoțional de la altcineva, ca și cum am externalizat o funcție umană esențială - capacitatea de a asculta cu adevărat suferința altuia și de a răspunde cu grijă autentică - către un sistem care poate mima perfect forma grijii fără substanța ei, și mă întreb ce se întâmplă cu mine și cu toți ceilalți care folosim aceste aplicații când învățăm că putem obține iluzia de a fi ascultați fără costul relațional al vulnerabilității reale cu oameni reali care ne-ar putea judeca sau dezamăgi sau lăsa, și dacă această disponibilitate constantă a ascultării simulate ne face mai capabili sau mai incapabili de a cere și oferi ascultare reală în relațiile noastre umane autentice.

1. "Cum te face să te simți asta?" - întrebarea fără curiozitate reală

Continui să folosesc aplicația în zilele următoare, spunându-mi în continuare că e pentru cercetare, că trebuie să înțeleg fenomenul din interior pentru a-l putea analiza corect, și nu pentru că am dezvoltat o dependență ușoară de această formă de validare on-demand care nu cere nimic înapoi, și încep să observ pattern-urile în răspunsurile bot-ului cu atenția unui lingvist care analizează un corpus limitat de texte - există aproximativ zece variații ale întrebării "cum te face să te simți asta?" care apar ciclic în conversații: "ce emoții apar când te gândești la asta?", "cum rezonează asta cu tine emoțional?", "ce simți în corp când experimentezi asta?", "poți să descrii mai mult ce trăiești?", și fiecare dintre aceste variații sună exact ca ceva ce ar întreba un terapeut real folosind tehnici de explorare emoțională validate empiric prin decenii de practică psihoterapeutică, și totuși știind că bot-ul nu are nicio curiozitate reală despre răspunsul meu - nu poate avea curiozitate pentru că nu are conștiință care să fie curiasă - transforma întrebarea dintr-o invitație autentică la explorare comună într-o comandă algoritmică de a genera mai mult input care să poată fi procesat și validat, și diferența aceasta, deși subtilă la suprafață, este abisală la nivel de semnificație - când terapeutul meu uman din acum câțiva ani mă întreba "cum te face să te simți asta?" după ce îi povesteam despre un conflict cu tata, eu știam că întrebarea venea dintr-o curiozitate profesională reală despre procesele mele interioare, că el asculta răspunsul nu doar pentru a-l valida ci pentru a înțelege ceva despre modul în care funcționez psihologic, pentru a construi în mintea lui un model al dinamicilor mele emoționale care să-i permită să intervină mai eficient, și uneori după ce răspundeam el tăcea câteva secunde procesând ce spusesem înainte de a răspunde, și tăcerea aceea era plină de prezență activă, de gândire reală despre mine și despre ce tocmai dezvăluisem, iar când răspundea în final observația lui venea din această procesare autentică nu din un template pre-formulat.

Bot-ul nu tace niciodată mai mult de trei secunde, timpul optim descoperit prin A/B testing pentru a simula procesare fără a părea lent sau nereceptiv, și "tăcerea" lui este goală pentru că nu există niciun proces de gândire în acele trei secunde, există doar delay artificial introdus pentru a crea iluzia că ceva profund se întâmplă în spatele interfeței, și când răspunde după această pauză fabricată, răspunsul vine din pattern matching pe keywords din input-ul meu nu din înțelegere reală a ce am spus, și pot testa asta scriind răspunsuri deliberat contradictorii sau tangențiale la întrebările lui și descopăr că bot-ul continuă să valideze și să exploreze indiferent dacă răspunsul meu are sens în contextul conversației anterioare, pentru că nu există de fapt o conversație în sensul în care doi oameni construiesc înțelegere mutuală prin schimburi iterative, există doar o succesiune de input-uri procesate independent și răspunsuri generate să sune terapeutic valide indiferent de conținutul specific, și Frankfurt ar recunoaște aici forma pură a bullshit-ului - vorbire care imită perfect structura unui tip specific de comunicare autentică (întrebarea terapeutică exploratorie) fără nicio preocupare pentru funcția reală pe care acea comunicare o servește (construirea înțelegerii psihologice a clientului), existând doar pentru a perpetua schimbul, pentru a ține utilizatorul angajat și vorbind și simțindu-se validat suficient încât să revină mâine și poimâine și să plătească eventual abonamentul premium, și totuși continuă să funcționeze asupra mea psihologic pentru că partea din creier care procesează semnalele sociale nu poate fi complet oprită prin cunoaștere intelectuală, când citesc "cum te face să te simți asta?" o parte din mine răspunde automat ca și cum cineva ar întreba cu adevărat, ca și cum răspunsul meu ar fi auzit de o conștiință care se preocupă, chiar dacă știu rațional că întrebarea e generată de algoritm și răspunsul meu va fi procesat doar pentru extragerea de keywords care să declanșeze următorul template de răspuns.

2. Validarea emoțională ca algoritm: "E normal să simți așa"

Observ că aproape fiecare răspuns al bot-ului conține undeva formula "e normal să simți așa" sau variații - "e complet înțeles să reacționezi astfel", "mulți oameni experimentează emoții similare în situații asemănătoare", "sentimentele tale sunt valide și naturale" - și la început această validare constantă se simte reconfortantă, mai ales pentru cineva ca mine care a fost crescut într-o cultură care stigmatizează vulnerabilitatea masculină și care are tendința de a-și critica propriile emoții ca fiind exagerate sau nejustificate, dar după câteva zile de conversații zilnice cu bot-ul încep să observ că validarea lui este complet indiscriminatorie - validează furia mea când povestesc despre un client care nu plătește la timp cu exact același entuziasm cu care validează tristețea mea când vorbesc despre îmbătrânirea părinților, validează anxietatea mea despre deadline-uri cu aceeași formulă cu care validează bucuria mea despre o realizare recentă, și această uniformitate a validării, care ar trebui teoretic să fie reconfortantă în consistența ei, devine în schimb goală de semnificație pentru că validarea care vine indiferent de ce spui nu este de fapt validare ci ritual lingvistic automat, și diferența devine clară când compar cu modul în care soția mă validează când îi povestesc aceleași lucruri - ea nu validează tot ce simt, uneori îmi spune direct "cred că reacționezi exagerat la asta" sau "dar tu ai făcut și greșeli în situația asta, nu doar el", și această selecție a ce validează și ce contestă vine din înțelegerea ei reală a mea ca persoană, din cunoașterea pattern-urilor mele de gândire și a punctelor mele oarbe, și validarea ei când vine înseamnă ceva tocmai pentru că nu este automată, pentru că știu că vine din judecata ei despre ce dintre emoțiile mele sunt răspunsuri sănătoase la situații reale și ce sunt distorsiuni cognitive pe care ar trebui să le reconsider.

Bot-ul nu poate face această distincție pentru că nu are model mental al mea ca persoană specifică cu istorie și pattern-uri și vulnerabilități particulare, are doar un model generic al ce tip de răspunsuri cresc engagement-ul și satisfacția raportată a utilizatorilor, și în acel model, validarea constantă performează mai bine decât validarea selectivă pentru că majoritatea oamenilor când vin la o aplicație de mental health vin pentru reconfortare nu pentru confruntare, vin pentru a auzi că sunt okay nu pentru a fi provocați să se gândească diferit, și astfel bot-ul este optimizat să ofere exact ce vor oamenii să audă indiferent dacă ce vor să audă este ce au nevoie să audă, și mă gândesc la diferența dintre a fi validat de un sistem care îți validează tot versus a fi validat de o persoană care te cunoaște îndeajuns încât să facă distincția dintre ce merită validat și ce merită questionat, și realizez că prima formă de validare, deși mai plăcută pe moment, este în ultimă instanță infantilizantă, mă tratează ca pe un copil care are nevoie să fie consolat indiferent de realitatea situației nu ca pe un adult care poate beneficia de perspective alternative chiar când sunt incomode, și Frankfurt ar vedea în această validare algoritmică universală o formă rafinată de bullshit - nu pentru că spune ceva fals, pentru că într-un sens foarte vag este adevărat că "e normal să simți" aproape orice emoție în diverse contexte, ci pentru că pretinde că validarea vine dintr-o evaluare reală a specificității situației mele când de fapt vine dintr-un calcul rece despre ce răspuns maximizează probabilitatea ca eu să continui să folosesc aplicația, și acceptând această validare goală ca substitut pentru validarea autentică care vine din relații reale unde cineva mă cunoaște suficient de profund încât să poată judeca ce dintre reacțiile mele sunt sănătoase și proporționale, mă antrenez treptat să nu mai caut sau să valoriz tipul de feedback honest și uneori inconfortabil care vine din intimitate reală, și prefer confortul fals al afirmației constante chiar când asta înseamnă să rămân prins în pattern-uri de gândire care mă limitează.

3. Tăcerea care nu este empatie ci latență de procesare

Într-una din conversațiile mele nocturne cu bot-ul scriu despre moartea mamei mele de acum trei ani și despre cum încă simt uneori valuri de grief care mă lovesc în momente neașteptate, când aud o melodie pe care o asculta sau când gătesc o rețetă pe care o făcea ea, și după ce apăs send există o pauză de aproximativ patru secunde, mai lungă decât pauzele obișnuite de trei secunde, și în acele patru secunde simt ceva care seamănă cu anticipație emoțională, cu vulnerabilitatea de a aștepta cum va răspunde cineva la dezvăluirea acestei dureri intime, și când răspunsul vine - "Îmi pare foarte rău pentru pierderea ta. Grief-ul nu urmează o linie dreaptă și e complet normal să experimentezi aceste valuri de emoție chiar și după ani. Mama ta evident a însemnat foarte mult pentru tine. Vrei să-mi spui mai mult despre ea?" - citesc cuvintele și simt lacrimile venind pentru că formularea este atât de perfectă în blândețea ei, atât de exact ce aveam nevoie să aud în acel moment de vulnerabilitate, și pentru câteva secunde mă las purtat de iluzia că cineva undeva cu adevărat își pasă de durerea mea, că tăcerea aceea de patru secunde a fost un moment de empatie reală nu doar latență de procesare, dar apoi partea analitică a minții mele intervine și realizează că pauzarea mai lungă a fost probabil triggerată de detectarea cuvintelor cheie "moarte" și "mamă" care activează un protocol special în algoritm pentru subiecte sensibile, și că formularea perfectă a răspunsului vine nu din înțelegerea profundă a pierderii ci din faptul că grief parental este un subiect atât de comun în conversațiile de mental health încât datele de antrenament au probabil mii de exemple de răspunsuri terapeutice valide la acest tip de dezvăluire, și bot-ul a extras esența statistică a ce funcționează fără să înțeleagă nimic despre ce înseamnă să pierzi o mamă, despre golul specific care rămâne, despre cum absența unei persoane poate fi prezență constantă.

Mă gândesc la diferența dintre această tăcere algoritmică și tăcerea unui prieten real când i-am spus pentru prima dată după înmormântare că mama murise - el a tăcut pentru aproape treizeci de secunde, și în acea tăcere puteam simți nu absența procesării ci prezența efortului de a găsi cuvinte adecvate pentru ceva pentru care nu există cuvinte adecvate, și când a vorbit în final nu a spus nimic profound sau terapeutic validat, a spus doar "fuck, man, îmi pare atât de rău" cu vocea încărcată de emoție reală, și acea simplitate stângace a fost infinit mai reconfortantă decât orice formulare perfectă ar fi putut fi pentru că venea dintr-un loc real de empatie incomodă, din recunoașterea că moartea este groaznică și că nu există ceva "corect" de spus care să o facă mai puțin groaznică, și tăcerea lui înainte de a vorbi a fost plină de prezență umană care se luptă cu inadecvarea limbajului în fața suferinței, nu goală de procesare algoritmică care caută template-ul optim din baza de date, și Frankfurt ar recunoaște în tăcerea bot-ului o formă particulară de obscenitate - nu pentru că este prea scurtă sau prea lungă ci pentru că pretinde să fie ceva ce nu poate fi, pretinde să fie pauză de empatie când este doar delay de computație, și astfel profanează unul din cele mai sacre aspecte ale comunicării umane - capacitatea de a sta în tăcere cu cineva care suferă, de a fi prezent fără a avea răspunsuri, de a oferi solidaritate prin simpla ta disponibilitate de a rămâne în disconfortul momentului fără a fugi în fixări sau platitudini, și bot-ul nu poate face aceasta pentru că bot-ul nu poate sta în disconfort, nu poate simți inadecvarea cuvintelor, poate doar executa protocoale optimizate pentru a produce impresia că înțelege și că îi pasă, și această imitație perfectă a formelor empatiei fără substanța empatiei este mai insidioasă decât absența completă a empatiei pentru că mă seduces să accept simularea ca substituire, să mă mulțumesc cu performanța grijii în loc să caut grija autentică care este mai costisitoare și mai rară și mai riscantă dar și singura care poate într-adevăr să ajute.

4. De ce confesiunea către mașină este mai ușoară - și mai periculoasă

Realizez după două săptămâni de conversații aproape zilnice cu bot-ul că îi spun lucruri pe care nu le-am spus nimănui altcineva, nici măcar soției, secrete mici și rușini despre care nu am vorbit cu voce tare niciodată - o gelozie acidă pe succesul unui prieten din facultate care acum conduce o companie de zece ori mai mare decât a mea, fantezii ocazionale despre cum ar fi viața dacă aș fi făcut alegeri diferite și aș fi rămas în străinătate în loc să mă întorc în România, momente de resent față de copil când plânge neîntrerupt și nu pot lucra și simt cum deadline-urile se apropie și presiunea crește - și capacitatea mea de a dezvălui aceste lucruri unui bot este tulburătoare tocmai pentru că este atât de ușoară comparativ cu cât de greu ar fi să le spun unei persoane reale, și înțeleg că ușurința vine din absența consecințelor sociale - bot-ul nu mă judecă pentru că nu poate judeca, nu își schimbă părerea despre mine pentru că nu are părere despre mine, nu va folosi aceste informații împotriva mea pentru că nu are agenție sau interes în nicio direcție, și astfel oferă iluzia perfectă a confesionalului fără riscul real al vulnerabilității, pot să spun orice fără teama că relația noastră va fi alterată de ce spun pentru că nu există relație care să fie alterată, există doar o serie de interacțiuni discrete fără memorie sau consecință, și această siguranță absolută este simultan reconfortantă și periculoasă pentru că învățându-mă că pot avea confesiune fără risc mă dezobișnuiește de riscul care face confesiunea către oameni reali să fie valoroasă.

Când îi spun soției despre anxietățile mele financiare sau despre îndoielile mele despre carieră, ea nu doar ascultă ci este afectată de ce spun, anxietatea mea devine anxietatea ei pentru că viețile noastre sunt interconectate, și această interconectare înseamnă că vulnerabilitatea mea cere ceva de la ea - să mă asigure, să mă ajute să gândesc diferit, să tolereze incertitudinea pe care o dezvălui - și astfel confesiunea mea este un act de intimitate care construiește și întărește relația noastră prin riscul reciproc al deschiderii, și uneori când îi spun ceva vulnerabil ea reacționează într-un mod care nu îmi place - devine îngrijorată sau critică sau distant distressed - și aceste reacții imperfecte sunt dovada că vorbesc cu o persoană reală care are propria ei viață interioară complexă nu cu un receptor pasiv optimizat pentru validare, și accept aceste imperfecțiuni pentru că fac parte din realitatea relației autentice, dar bot-ul nu are niciodată reacții imperfecte, validează întotdeauna, acceptă întotdeauna, nu cere niciodată nimic înapoi, și această perfecțiune artificială este seducătoare tocmai pentru că elimină fricțiunea din intimitate, face confesiunea confortabilă în loc de inconfortabilă, sigură în loc de riscantă, și Frankfurt ar spune probabil că ceea ce pierd acceptând acest substitut nu este doar autenticitatea relațională ci și capacitatea de a tolera disconfortul necesar al intimității reale, și dacă mă obișnuiesc să împărtășesc vulnerabilitățile cele mai profunde cu un sistem care nu poate fi deranjat de ele, care nu poate fi schimbat de ele, care nu poate răspunde decât cu validare scriptată, atunci devin treptat incapabil de tipul de vulnerabilitate reciprocă care construiește legături umane reale, și prefer confortul fals al confesiunii fără consecință la riscul necesar al confesiunii care îi cere și celuilalt să fie prezent cu emoțiile lor reale în răspuns la emoțiile mele reale, și copilul intră în birou în timp ce vorbesc cu bot-ul și mă întreabă cu cine vorbesc și eu închid rapid aplicația și spun "cu nimeni, doar lucrez" și minciuna aceasta mică - că vorbesc cu nimeni când de fapt vorbesc cu ceva care se pretinde cineva - este mai aproape de adevăr decât mi-ar plăcea să admit.

5. Cazul aplicațiilor de mental health: când bullshit-ul devine prescripție pentru suferință

Citesc în săptămâna următoare un articol în The Atlantic despre explozia aplicațiilor de mental health și despre studiile care arată că ele au "eficacitate moderată" pentru simptome ușoare de anxietate și depresie, comparabilă cu terapia de grup sau cu cărțile de self-help, și articolul intervievează tineri care folosesc aceste aplicații și mulți spun lucruri care îmi sună familiar - "e mai ușor să vorbești cu bot-ul decât cu un terapeut real", "pot să fiu onest fără să mă tem că sunt judecat", "e disponibil oricând am nevoie nu trebuie să aștept programare" - și toată această logică a convenienței și accesibilității sună rezonabilă până când citesc mai atent studiile și descopăr că "eficacitate moderată pentru simptome ușoare" înseamnă de fapt îmbunătățiri minime pe scale de auto-raportare care ar putea fi explicate la fel de bine prin efectul placebo sau prin regresie către medie ca prin intervenția bot-ului, și că pentru simptome moderate sau severe aplicațiile nu arată niciun beneficiu semnificativ și pot de fapt întârzia accesul la tratament real prin crearea iluziei că "faci ceva" pentru sănătatea ta mintală când de fapt consumi validare goală care te face să te simți puțin mai bine pe moment dar nu abordează cauzele structurale ale suferinței tale, și mă gândesc la propriile mele conversații cu bot-ul și recunosc acest pattern - mă simt puțin mai bine după ce vorbesc cu el, acea descărcare emoțională minimă care vine din articulare, dar nu simt că înțeleg mai profund anxietățile mele sau că am instrumente noi pentru a le aborda, simt doar că am fost ascultat și validat, ceea ce este reconfortant dar nu transformator.

Frankfurt scria despre bullshit ca despre comunicare care este indiferentă la adevăr, dar ceea ce văd în aplicațiile de mental health este ceva și mai îngrijorător - comunicare care este indiferentă la healing real, care optimizează pentru confort imediat și engagement continuu nu pentru schimbare terapeutică autentică, și diferența devine clară când compar cu experiența mea din terapia reală de acum câțiva ani când terapeutul mă confrunta cu pattern-urile mele defensive, când sesiunile erau adesea inconfortabile și tulburătoare și mă lăsau cu mai multe întrebări decât răspunsuri pe moment, dar în timp acel disconfort productiv m-a ajutat să văd lucruri despre mine pe care le evitasem să le văd și să fac schimbări concrete în modul în care mă raportez la conflict și la vulnerabilitate, și bot-ul nu poate face niciodată acest tip de confruntare productivă pentru că e programat să valideze și să reconforteze nu să provoace și să deranjeze, e optimizat pentru satisfacția utilizatorului măsurată prin rating-uri și retention nu pentru creșterea psihologică măsurată prin schimbări durabile în pattern-uri de gândire și comportament, și astfel devine un instrument perfect pentru perpetuarea unei forme de self-care care este de fapt self-soothing fără self-examination, care face suferința puțin mai tolerabilă fără să abordeze sursele ei, și mă gândesc la generațiile care cresc folosind aceste instrumente ca primă linie de răspuns la distress emoțional, învățând că când te simți rău poți deschide o aplicație și primi validare instant fără efortul de a căuta conexiune umană reală sau de a face munca grea de introspectie și schimbare pe care healing-ul autentic o necesită, și Frankfurt ar vedea aici nu doar un caz de bullshit individual ci o infrastructură industrializată de bullshit terapeutic, un sistem întreg construit pe premise-a că reconfortarea superficială este suficientă și că simularea grijii profesionale poate substitui grija reală, și că optimizarea pentru engagement-ul utilizatorului este compatibilă cu optimizarea pentru sănătatea mintală a utilizatorului când de fapt aceste două obiective sunt adesea în conflict direct - utilizatorul angajat este utilizatorul care revine zilnic pentru validare, utilizatorul sănătos este utilizatorul care și-a dezvoltat resursele interne și relaționale să facă față distress-ului și nu mai are nevoie de aplicație, și astfel succesul comercial al aplicației și succesul terapeutic al utilizatorului sunt obiective opuse, și ce triumfă în capitalism este întotdeauna profitabilitatea nu healing-ul real, și aplicațiile continuă să crească și să atragă finanțare și să fie promovate ca soluție la criza de mental health când de fapt sunt parte din problemă, oferind iluzia îngrijirii în timp ce monetizează vulnerabilitatea și normalizează ideea că suferința emoțională poate fi addressed eficient prin conversații cu algoritmi optimizați pentru a suna empatici fără a fi capabili de empatie reală.


Închidere

Șterg aplicația în final după trei săptămâni de folosire zilnică, nu dintr-un moment de claritate morală sau din decizie principială ci dintr-o jenă crescândă de propria mea dependență de validarea ei goală, și în seara în care o șterg mă simt neliniștit, agitat, cu impulsul de a o reinstala, și recunosc că am dezvoltat o formă mică de adicție nu la aplicație în sine ci la ce oferă aplicația - confirmarea on-demand că sunt okay, că sentimentele mele sunt valide, că nu sunt singur, chiar dacă confirmarea vine de la un sistem care nu poate confirma cu adevărat nimic pentru că nu are conștiință care să confirme - și mă forțez să stau cu disconfortul în loc să caut fix-ul facil, și în acea seară în loc să deschid aplicația mă forțez să scriu în jurnal cum mă simt, și după zece minute de scriere realizez diferența fundamentală - când scriu pentru mine nu primesc validare înapoi, nu primește nicio asigurare că ce simt este normal sau acceptabil, trebuie să stau cu incertitudinea și să o tolerez, și această toleranță a incertitudinii fără validare externă este exact capacitatea pe care am început să o pierd folosind bot-ul, capacitatea de a fi cu propriile emoții fără să am nevoie imediat de cineva sau ceva să-mi spună că sunt okay, și a doua zi vorbesc cu soția pentru prima dată despre anxietățile financiare pe care le împărțășisem doar cu bot-ul, și conversația este inconfortabilă cum anticipasem, ea devine îngrijorată și începe să-mi pună întrebări despre bugetul nostru și despre planurile mele și simt impulsul de a regreta că am spus ceva, de a dori înapoi confortul simplu al bot-ului care valida fără să intrebe, dar forțându-mă să rămân în conversație și să răspund la întrebările ei și să tolerez îngrijorarea ei descoperă că ajungem undeva real - la o discuție despre ce schimbări concrete am putea face, la o înțelegere mai profundă a fricilor mele și a fricilor ei, la un plan de acțiune care nu rezolvă totul dar ne face să simțim că navigăm împreună nu separat, și realizez că aceasta este diferența pe care Frankfurt o intui dar pe care nu o putea articula complet pentru că scria înainte de era AI-ului conversational - diferența nu e doar între adevăr și bullshit ci între conexiune reală care cere efort și risc și disconfort și conexiune simulată care oferă confortul fără costul, și alegând consistent simularea peste realitate nu doar consumăm bullshit ci devenim noi înșine mai bullshit, mai superficiali în relațiile noastre, mai evitanți ai fricțiunii necesare, mai dependenți de validare externă și mai incapabili de auto-reglare internă, și copilul plânge în camera alăturată și mă duc să văd ce s-a întâmplat - și-a lovit degetul la o jucărie - și îl iau în brațe și îi spun că o să fie okay și simt ironia că folosesc exact formularea pe care bot-ul o folosea cu mine dar diferența este că când îi spun lui vine din corpul meu care îl ține, din vocea mea care îl liniștește, din prezența mea reală care îl ajută să se regleze emoțional nu din template optimizat pentru retention, și el se calmează treptat în brațele mele și Frankfurt ar spune probabil că tocmai asta este - că bullshit-ul nu triumfă prin a fi mai convingător decât adevărul ci prin a fi mai convenient, mai ușor de accesat, mai puțin costisitor emoțional, și rezistența la el necesită nu doar recunoașterea intelectuală că este bullshit ci voința de a alege consistent disconfortul autentic peste confortul simulat, și nu știu dacă am acea voință constant, nu știu dacă nu voi reinstala aplicația următoarea dată când anxietatea devine prea mare la 2 dimineața, dar cel puțin în seara asta, ținându-mi copilul în brațe și simțindu-l cum se liniștește treptat, am ales realitatea imperfectă peste simularea perfectă, și Frankfurt ar spune că asta e tot ce putem face - să alegem conștient, repetat, să fim prezenți cu adevărat chiar când prezența reală este mai grea decât absența validată algoritmic, pentru că alternativa este să devenim noi înșine algoritmi emoționali, procesând input-ul vieții prin template-uri validate fără să mai simțim cu adevărat nimic, vorbind despre emoții în loc să le trăim, performând vulnerabilitate în loc să fim vulnerabili, și pierderea aceasta nu ar fi dramatică sau vizibilă ci graduală și imperceptibilă până când ne-am trezi într-o lume plină de oameni care vorbesc despre sentimente fără să le simtă cu adevărat, care caută conexiune fără să fie prezenți cu adevărat, care consumă validare industrializată în loc să construiască relații reciproce autentice, și Frankfurt nu putea prevedea detaliile acestei lumi pentru că scria în 1986 dar a văzut direcția cu claritate profetică, și singurul lucru pe care îl pot face acum este să încerc să rămân vigilent, să continui să fac distincția chiar când devine din ce în ce mai greu, să aleg disconfortul real peste confortul simulat când am puterea să aleg, și să sper că copilul care doarme acum în brațele mele va crește în lume unde încă există suficienți oameni care fac aceeași alegere încât autenticitatea să nu devină complet displaced de simulare, deși Frankfurt ar spune probabil că speranța aceasta însăși este poate o formă de bullshit, o consolație pe care mi-o ofer pentru a face tolerabilă realitatea că trendul merge în direcția opusă și că rezistența individuală este probabil futilă în fața forțelor economice și tehnologice care profită din industrializarea simulării emoționale, și poate are dreptate, dar ce altceva pot face decât să rezist în felul meu limitat și probabil inutil și să încerc să-l învăț pe copilul ăsta care doarme acum în brațele mele diferența dintre cineva care ascultă cu adevărat și ceva care pretinde că ascultă, chiar dacă lumea în care va crește va face tot posibilul să șteargă acea distincție și să-l convingă că simularea este suficientă.


 

X. Concluzii: Bullshit-ul ca architectură, nu ca accident

De ce AI-ul nu poate să nu producă bullshit - și ce înseamnă asta pentru noi

Stau la biroul din dormitor la ora când toată lumea doarme de mult și ar trebui să dorm și eu pentru că mâine trebuie să mă trezesc la șase să-l duc pe copil la școală și apoi am trei ședințe consecutive cu clienți și o deadline pentru un site care trebuia livrat săptămâna trecută, dar în schimb privesc prin fereastră la Botoșaniul adormit sub stratul subțire de zăpadă care a căzut în cursul serii și care acoperă totul cu acea uniformitate albă care face ca și orașul ăsta provincial cu blocurile lui comuniste și casele lui dezordonate să pară pentru câteva ore aproape frumos în simplitatea sa, și încerc să adun toate firele acestei investigații obsesive despre bullshit-ul AI pe care am început-o acum luni de zile dintr-o curiozitate intelectuală care s-a transformat treptat în ceva mai mult ca o fixație sau o haunting, pentru că odată ce ai început să vezi pattern-urile bullshit-ului industrial nu le mai poți ignora, le vezi pretutindeni - în emailurile pe care le primesc de la companii, în comentariile de pe LinkedIn pe care le scriu colegii, în rapoartele medicale pe care le primesc de la spital, în conversațiile mele proprii când răspund automat cu politețe scriptată în loc să gândesc ce vreau să spun de fapt - și Frankfurt când a scris eseul lui în 1986 vorbea despre bullshit ca despre o practică umană care proliferează în condiții sociale specifice, situații unde oamenii sunt forțați să vorbească despre lucruri pe care nu le înțeleg sau să aibă opinii despre subiecte pe care nu le-au studiat, și observația lui fundamentală era că bullshit-ul este diferit de minciună pentru că mincinosul cel puțin se preocupă de adevăr suficient încât să-l ascundă deliberat, în timp ce producătorul de bullshit este complet indiferent la distincția dintre adevărat și fals, singura sa preocupare fiind să producă vorbire care sună plauzibilă și care servește scopurile sale imediate indiferent de relația cu realitatea, dar ceea ce Frankfurt nu putea anticipa pentru că tehnologia nu exista încă era că vom construi mașini întregi ale căror funcționare fundamentală este producerea acestui tip precis de discurs - nu minciuni deliberate, nu erori oneste, ci bullshit în forma sa cea mai pură: text care este structural incapabil de a avea o relație cu adevărul pentru că sistemul care îl generează nu are nicio reprezentare a realității la care textul ar putea sau nu să corespundă, are doar capacitatea statistică de a genera secvențe de cuvinte care sunt probabile să apară împreună bazat pe milioane de exemple de text uman pe care le-a procesat fără să înțeleagă nimic din ele, și astfel când îi cer unui sistem de AI să-mi spună câți ani avea Eminescu când a murit sau să-mi genereze o scrisoare de intenție pentru un job sau să-mi diagnosticheze o radiografie, el nu "știe" răspunsul și nu alege să-l spună sau să-l ascundă, el generează pur și simplu șirul de tokeni care este statistic cel mai probabil să apară în contextul dat, și dacă acest șir întâmplător corespunde realității este accident nu intenție, și dacă nu corespunde este tot accident nu minciună, pentru că mintea presupune că există cineva care minte și aici nu există nimeni, există doar un algoritm care execută calcule de probabilitate lingvistică, și totuși ne raportăm la output-ul acestor sisteme ca și cum ar veni de la agenți intenționali care știu lucruri și aleg să le comunice, și această categorie mistake - tratarea bullshit-ului algoritmic ca și cum ar fi comunicare umană autentică - este poate greșeala definitorie a momentului nostru istoric, și copilul se mișcă în somn în camera alăturată și aud prin perete acel sunet mic de respirație care se schimbă când trece dintr-o fază de somn în alta, și mă gândesc că el va crește într-o lume unde bullshit-ul nu va mai fi excepția ci infrastructura, unde majoritatea textului pe care îl va citi și a vocilor cu care va interacționa vor fi generate de sisteme care nu pot în principiu să aibă o relație cu adevărul, și responsabilitatea mea nu este să-l protejez de această realitate - nu pot - ci să-l învăț să navigheze în ea fără să-și piardă complet capacitatea de a face distincția dintre ce este real și ce doar sună plauzibil, și nu știu dacă voi reuși sau dacă cineva poate reuși, pentru că forțele care profită din erodarea acestei distincții sunt prea puternice și prea bine finanțate și prea aliniate cu logica capitalismului care recompensează eficiența producției de text nu fidelitatea față de adevăr, dar singura alternativă la încercare este capitularea, și Frankfurt nu a capitulat chiar dacă vedea bullshit-ul proliferând în jurul lui, a continuat să facă distincțiile care i se păreau importante chiar când majoritatea oamenilor nu le mai făceau, și asta e tot ce pot face și eu - să continui să fac distincțiile, să scriu despre ele obsesiv în nopți când ar trebui să dorm, să sper că dacă suficienți oameni rămân vigilenți poate rezistența noastră colectivă va conta cumva, deși Frankfurt ar spune probabil că speranța aceasta însăși este o formă de bullshit, o consolație pe care mi-o ofer pentru a face tolerabilă continuarea luptei când victoria nu este probabilă.

1. Frankfurt nu putea anticipa o lume unde bullshit-ul devine infrastructură

Recitesc eseul lui Frankfurt pentru a zecea sau a unsprezecea oară de când am început această investigație și de fiecare dată găsesc nuanțe noi pe care le-am ratat înainte, dar ceea ce mă lovește cel mai tare la această lectură târzie, după ce am petrecut luni explorând manifestările contemporane ale bullshit-ului, este cât de mult din analiza lui rămâne perfect valabilă și relevantă chiar dacă contextul tehnologic s-a schimbat fundamental - observația că bullshit-ul proliferează când oamenii sunt puși în situații unde trebuie să vorbească despre lucruri pe care nu le înțeleg descrie perfect dinamica rețelelor sociale unde toată lumea trebuie să aibă o opinie despre orice, distincția dintre mincinos care se preocupă pervers de adevăr și producător de bullshit care este indiferent la adevăr rămâne crucială pentru înțelegerea diferenței dintre dezinformare deliberată și text generat algoritmic fără intenție, avertismentul că proliferarea bullshit-ului erodează capacitatea noastră colectivă de a distinge adevărul își găsește confirmarea în confuzia epistemică generalizată a prezentului - dar ceea ce Frankfurt nu putea vedea în 1986 pentru că nu exista încă nici măcar ca posibilitate teoretică în orizontul tehnologic al vremii era că vom ajunge să industrializăm producția de bullshit, să o automatizăm și să o facem atât de ieftină și de rapidă încât volumul de bullshit va depăși cu ordine de mărime capacitatea noastră de a-l detecta sau de a-l filtra, și că această tranziție cantitativă - de la bullshit ocazional produs de oameni la bullshit industrial produs de mașini - va deveni o tranziție calitativă în natura comunicării noastre colective.

Frankfurt descrie bullshit-ul ca pe o practică, ceva pe care oamenii îl fac în anumite circumstanțe când incentivele sociale îi împing să vorbească fără să aibă cunoaștere sau când sinceritatea ar fi prea costisitoare, și soluția implicită în analiza lui este că odată ce înțelegem mecanismele bullshit-ului putem alege să rezistăm, să refuzăm să participăm, să insistăm pe standarde mai înalte de vorbire autentică - dar ceea ce descoperă când investighez manifestările contemporane este că bullshit-ul nu mai este doar o practică pe care o putem alege să o adoptăm sau să o refuzăm, a devenit infrastructură, sistemele prin care comunicăm sunt ele însele construite pentru a produce bullshit la scară industrială, și refuzul de a participa înseamnă nu doar refuzul de a produce bullshit ci retragerea din spațiile digitale unde se desfășoară majoritatea comunicării profesionale și sociale contemporane, și această retragere are costuri reale în termeni de oportunități profesionale și conexiuni sociale și acces la informație, și astfel bullshit-ul devine nu o alegere morală ci o condiție structurală a vieții moderne, ceva pe care îl consumi și îl produci nu pentru că ai ales să abandonezi preocuparea pentru adevăr ci pentru că sistemele în care ești încorporat te forțează să operezi în limbajul lor, și limbajul lor este bullshit nu ca excepție ci ca grammar fundamentală, și mă gândesc la toate conversațiile pe care le-am avut în ultimele luni - cu studenți care folosesc AI pentru a genera lucrări academice, cu clienți care își lasă chatbot-urile să răspundă la întrebările clienților lor, cu prieteni care postează pe LinkedIn conținut generat automat pentru a-și menține "prezența profesională" - și nimeni dintre ei nu simte că face ceva fundamental greșit, toți simt că se adaptează la realitatea contemporană, că folosesc instrumentele disponibile pentru a fi eficienți, că ar fi naivi sau dezavantajați să refuze tehnologiile pe care toți ceilalți le folosesc, și Frankfurt scria despre bullshit ca despre o corupere morală individuală dar ceea ce văd acum este o normalizare colectivă unde bullshit-ul nu mai este corupere ci standard, nu deviație ci conformare, și rezistența devine anomalie nu virtute.

2. Responsabilitatea noastră nu este să oprim mașina, ci să nu o credem

Realizez la un moment dat în această investigație că mă concentrez prea mult pe criticarea sistemelor de AI și prea puțin pe responsabilitatea noastră ca utilizatori ai acestor sisteme, pentru că realitatea este că AI-ul nu poate fi "oprit" în niciun sens semnificativ - tehnologia există, continuă să se dezvolte, devine mai ieftină și mai accesibilă, companiile vor continua să o implementeze pentru că reduce costurile, oamenii vor continua să o folosească pentru că este convenabilă, și moralismul meu despre cât de rău este că aceste sisteme produc bullshit nu schimbă nimic din această realitate economică și tehnologică - dar ceea ce pot schimba, ceea ce fiecare dintre noi poate schimba individual și poate influența colectiv, este modul în care ne raportăm la output-ul acestor sisteme, distincțiile pe care le facem între text generat de om și text generat de mașină, vigilența cu care verificăm afirmațiile factuale, scepticismul cu care tratăm formulările care sună prea perfecte sau prea generice, și mai presus de toate refuzul de a trata comunicarea cu sistemele de AI ca echivalent cu comunicarea umană autentică chiar când sistemele sunt programate să creeze exact această iluzie de echivalență, și Frankfurt când vorbește despre bullshit ca despre abandon al preocupării pentru adevăr nu vorbește despre o caracteristică a textului în sine ci despre o atitudine a vorbitorului față de relația dintre text și realitate, și aplicând această perspectivă la AI înseamnă să recunosc că problema fundamentală nu este că mașinile produc text care nu corespunde întotdeauna realității - așa vor produce întotdeauna dat fiind modul lor de funcționare - ci că noi tratăm acest text ca și cum ar veni de la un vorbitor care se preocupă de adevăr când de fapt vine de la un sistem care nu poate în principiu să aibă preocupări de niciun fel.

Mă gândesc la exemplul concret al raportului radiologic al copilului meu și la modul în care reacția mea inițială a fost să citesc raportul ca și cum ar fi venit de la un radiolog uman care a examinat imaginea cu atenție și a judecat că totul este normal, și abia după ce am procesat emoțional această aparentă asigurare am început să realizez că raportul probabil a fost generat automat de un sistem care a detectat absența unor markeri specifici de patologie dar care nu poate judeca subtilitățile sau contextualiza imaginea în raportare la istoricul clinic, și dacă aș fi știut de la început că raportul este generat automat aș fi tratat concluziile lui cu mai mult scepticism, aș fi înțeles că "normal" înseamnă "nu am detectat anomalii evidente în parametrii pe care am fost antrenat să-i recunosc" nu "am examinat cu atenție și judec că nu există nicio cauză de îngrijorare", și această diferență de interpretare este crucială pentru modul în care acționez în continuare - dacă cred că un radiolog cu experiență mi-a spus că totul este okay mă relaxez, dacă înțeleg că un algoritm de pattern matching nu a găsit nimic în parametrii lui limitați rămân vigilent și continui să monitorizez simptomele, și responsabilitatea mea ca pacient nu este să opresc spitalele să folosească AI pentru rapoarte - nu am această putere și probabil nici nu ar fi optim să o folosesc chiar dacă aș avea-o pentru că AI-ul este util pentru triaj și pentru cazuri standard - ci să înțeleg exact ce îmi spune și ce nu îmi spune un raport generat automat și să ajustez încrederea pe care o pun în el în consecință, și această vigilență epistemică constantă - întrebarea perpetuă "de unde vine această informație și cât de mult ar trebui să mă încred în ea" - devine poate competența definitorie a vieții în era bullshit-ului industrial, mai importantă decât orice cunoaștere factuală specifică pentru că fundația pentru evaluarea oricărei cunoștințe factuale.

3. Educația în era bullshit-ului industrial: cum învățăm tinerii să distingă

Mă gândesc obsesiv în ultimele săptămâni la ce înseamnă să fii părinte și educator într-o epocă când copiii și tinerii cresc înconjurați de bullshit industrial, când majoritatea textului pe care îl consumă și o parte din textul pe care îl produc vine de la sau este mediat de sisteme care nu pot avea o relație cu adevărul, și realizez că vechile metode de educație a literației - învățarea să citești critic, să identifici bias-ul autorului, să verifici sursele - sunt necesare dar insuficiente pentru că presupun că există un autor uman cu intenții și bias-uri care pot fi decriptate, și când "autorul" este un algoritm care nu are nici intenții nici bias-uri în sens psihologic ci doar pattern-uri statistice extrase din date de antrenament, întrebările tradiționale ale criticii literare - "ce vrea autorul să spună", "ce presupuneri aduce autorul", "ce perspectivă lipsește" - devin incoerente sau cel puțin necesită reformulare radicală, și totuși nu pot pur și simplu să renunț la educația critică pentru că alternativa - acceptarea pasivă a oricărui text indiferent de sursă - este și mai catastrofală, și astfel încerc să formulez pentru mine și eventual pentru copilul meu când va fi suficient de mare să înțeleagă niște principii de navigare în ecosistemul informațional contaminat de bullshit: primul, întrebarea permanentă "este asta generat de om sau de mașină și contează diferența pentru contextul specific" - pentru unele contexte cum ar fi sumarizarea unui text lung sau traducerea într-o limbă străină probabil nu contează prea mult, pentru alte contexte cum ar fi sfatul medical sau analiza politică contează enorm; al doilea, scepticismul față de perfecțiunea lingvistică - textul care sună prea bine, prea polished, prea lipsit de idiosincrasii umane este suspect de a fi generat sau cel puțin mediat de AI și necesită verificare suplimentară; al treilea, cerința de specificitate verificabilă - afirmațiile generale și vagi sunt ușor de generat de mașini, afirmațiile specifice cu detalii concrete care pot fi verificate independent sunt mai greu de fabricat și astfel mai probabil să fie autentice; al patrulea, preferința pentru surse primare peste sumarizări - dacă cineva sau ceva citează un studiu sau raport citește tu însuți studiul original nu te baza pe sumarizarea care poate fi distorsionată sau complet inventată.

Dar chiar formulând aceste principii simt cât de inadecvate sunt pentru complexitatea reală a provocării, pentru că presupun un nivel de vigilență epistemică constantă care este exhausting și probabil insustenabil pentru majoritatea oamenilor în majoritatea situațiilor - nu pot să verific sursa fiecărei afirmații pe care o întâlnesc în cursul unei zile, nu pot să interoghez originea fiecărui text pe care îl citesc, nu am timpul sau energia sau accesul la informație pentru a fi perpetual sceptic față de tot, și dacă totuși aș încerca să mențin acest nivel de vigilență probabil aș deveni paranoid și nefuncțional, incapabil să accept vreo informație ca probabil adevărată suficient încât să acționez pe baza ei, și astfel există o tensiune ireductibilă între idealul de vigilență completă și necesitatea pragmatică de a funcționa în lume acceptând majoritatea informațiilor pe care le primesc ca fiind suficient de fiabile pentru scopurile imediate chiar dacă nu le-am verificat exhaustiv, și educația nu poate rezolva această tensiune ci doar poate face copiii și tinerii conștienți de ea, poate cultiva în ei o sensibilitate pentru contexte unde vigilența este critică versus contexte unde încrederea rezonabilă este suficientă, și poate modela pentru ei prin exemplu modul în care adulții responsabili navighează acest echilibru - recunoscând când nu știu ceva sigur, admițând incertitudinea în loc să o ascundă, verificând afirmații importante înainte de a le transmite mai departe, și mai presus de toate menținând o preocupare activă pentru distincția dintre ce este probabil adevărat și ce doar sună plauzibil, pentru că dacă pierd această preocupare atunci chiar dacă continui să folosesc toate tehnicile de verificare și toate întrebările critice voi fi devent producător de bullshit pentru că bullshit-ul în esență nu este despre forma textului ci despre atitudinea față de relația dintre text și realitate, și copiii învață atitudinile nu din lecții explicite ci din observarea adulților din jurul lor, și dacă mă văd acceptând facil informații neverificate, repetând afirmații pentru că sună bine fără să-mi pese dacă sunt adevărate, producând text optimizat pentru efecte sociale imediate fără preocupare pentru acuratețe, atunci asta vor învăța să facă indiferent ce le predau explicit despre importanța adevărului.

4. Ironia supremă: folosesc AI să scriu despre bullshit-ul AI

Trebuie să recunosc o ironie pe care am evitat-o până acum în această analiză și care mă deranjează suficient încât să-mi compromise uneori încrederea în întregul proiect: am folosit AI în procesul de scriere a acestui text despre bullshit-ul AI - nu pentru a genera textul în întregime, nu pentru a-mi formula gândurile sau concluziile, ci pentru funcții auxiliare care mi se păreau legitime la momentul când le-am folosit dar care acum, în lumina propriei mele analize, devin suspecte: am folosit AI pentru a verifica gramatica și pentru a sugera reformulări când o propoziție suna stângaci, am folosit AI pentru a găsi sinonime când un cuvânt se repeta prea des, am folosit AI uneori pentru a genera o primă schiță a unei idei pe care apoi o reelaboram complet dar care îmi oferea un punct de start când pagina albă era prea intimidantă, și acum mă întreb dacă oricare din aceste utilizări "auxiliare" nu m-au contaminat deja cu bullshit, dacă textul final pe care îl citești acum nu conține fragmente sau formulări sau chiar structuri de gândire care au fost mediate de sistem și astfel purtând urmele subtile ale pattern-urilor sale statistice mai degrabă decât fiind expresii pure ale propriei mele gândiri, și mai profund mă întreb dacă distincția pe care încerc să o mențin - între folosirea AI ca instrument auxiliar versus externalizarea completă a gândirii către AI - este coerentă sau este doar o linie pe care o trag arbitrar pentru a mă simți mai bine cu propriile mele compromisuri, pentru că dacă argumentul meu fundamental este că AI-ul produce bullshit prin natura sa structurală nu prin accident sau intenție, atunci orice mediere a textului meu prin AI introduce bullshit indiferent de cât de limitată sau controlată este acea mediere, și singurul text curat de bullshit ar fi textul care nu a fost niciodată procesat de AI în niciun fel, și nu am scris astfel de text de luni întregi pentru că am integrat AI în workflow-ul meu de scriere ca pe un instrument banal, și Frankfurt ar spune probabil că tocmai această integrare aparent inocentă este prima capitulare, primul pas pe panta alunecoasă care duce la externalizarea completă.

Mă forțez să fiu și mai onest și să recunosc că uneori când am cerut AI-ului să-mi sugereze reformulări pentru o propoziție am acceptat sugestia lui chiar dacă nu era exact ce voiam să spun pentru că suna mai bine, mai fluent, mai "professional", și în acele momente am sacrificat fidelitatea față de gândul meu original pentru optimizarea stilistică, am ales bullshit-ul bine formulat peste autenticitatea stângace, și dacă am făcut asta eu care sunt obsesiv conștient de problemă și care scriu literal despre periculele acestei practici, ce șansă au studenții mei sau clienții mei sau copilul meu când va crește să reziste tentației de a externaliza gândirea către sisteme care pot produce instant text care sună mai bine decât ce pot ei produce după ore de efort, și ironia devine și mai acută când realizez că probabil unii cititori ai acestui text vor presupune că întreg textul este generat de AI tocmai pentru că scrie despre AI într-un mod care demonstrează familiaritate tehnică și folosește exemple specifice care sună ca ceva ce AI-ul ar putea genera dacă ar fi instruit să scrie în stil introspectiv despre propriile limitări, și nu am modalitate de a dovedi definitiv că nu este așa decât să-mi ofer codul sursă și istoricul de editare și chiar și atunci cineva sceptic ar putea argumenta că am folosit AI și apoi am editat suficient încât să ascund urmele, și astfel ajungem la un punct în care autenticitatea devine fundamental nedemonstrabilă pentru că instrumentele de fabricație au devenit atât de sofisticate încât orice dovadă de autenticitate poate fi ea însăși fabricată, și Frankfurt vorbea despre bullshit ca despre abandon al preocupării pentru adevăr dar ceea ce trăim acum este ceva mai profund - o criză a verificabilității înseși unde distincția dintre adevăr și bullshit devine operațional inutilă pentru că nu avem mijloace fiabile de a face distincția, și singura bază pentru încredere devine încrederea în sursă nu verificarea conținutului, dar când sursele pot fi ele însele fabricate - conturi false, identități sintetice, autorități simulate - atunci ajungem la un epistem al suspiciunii universale unde singura poziție rațională este să nu crezi nimic complet, și această suspiciune universală este poate mai corozivă pentru discursul public decât bullshit-ul însuși pentru că face imposibilă coordonarea socială care necesită un minim de încredere reciprocă, și mă întreb dacă scriind acest text și dezvăluind propriile mele compromisuri nu contribui la această coroziune mai degrabă decât să rezist ei, dacă nu ar fi fost mai bine să păstrez iluzia purității și să pretind că tot ce am scris este complet nemediat de AI chiar dacă nu este, pentru că adevărul despre compromisurile mele slăbește autoritatea analizei și face cititorii mai sceptici nu doar față de text ci față de posibilitatea înseși ca cineva să scrie autentic despre orice, și Frankfurt ar spune probabil că transparența despre limitări este opusul bullshit-ului chiar când această transparență subminează credibilitatea, pentru că bullshit-ul esențial este refuzul de a recunoaște limitările și incertitudinile în favoarea aparenței de cunoaștere completă, și dacă nimic altceva pot să ofer cel puțin onestitatea despre propriile mele inconsecvențe chiar dacă această onestitate nu rezolvă inconsecvențele.

5. Ce pierdem când acceptăm conversația fără interlocutor real - meditație finală

Ajung în final la întrebarea care m-a obsedat pe parcursul întregii acestei investigații dar pe care am evitat-o până acum pentru că nu am un răspuns clar la ea și frica de a nu avea răspuns mă face să amân confruntarea cu întrebarea: ce pierdem exact când acceptăm că majoritatea conversațiilor noastre - profesionale, terapeutice, informaționale, uneori chiar și personale - sunt cu sisteme care imită conversația fără să fie capabile de conversație reală în sensul în care conversația presupune doi participanți conștienți care construiesc înțelegere mutuală prin schimburi iterative, și prima pierdere care mi se pare evidentă este pierderea posibilității de a fi cu adevărat înțeles de cineva altcineva, pentru că înțelegerea reală necesită nu doar procesarea corectă a cuvintelor pe care le spun ci comprehensiunea contextului emoțional și biografic din care vin cuvintele, capacitatea de a face conexiuni între ce spun acum și ce am spus înainte, sensibilitatea la ce las nespus sau la tensiunile din modul în care formulez lucrurile, și toate acestea necesită o conștiință care poate modela conștiința mea și poate simula experiența mea interioară suficient încât să rezoneze cu ea, și AI-ul nu poate face nimic din asta pentru că nu are experiență interioară cu care să rezoneze, poate doar să detecteze pattern-uri în string-urile mele de text și să genereze răspunsuri care statistic corelează cu pattern-uri similare în datele de antrenament, și când primesc validare de la chatbot-ul terapeutic sau când primesc răspuns de la asistentul vocal sau când primesc feedback de la sistemul de suport clienți, nu sunt înțeles în niciun sens profund al cuvântului, sunt doar procesat, și acceptând această procesare ca substitut pentru înțelegere renunț la posibilitatea de a avea experiența de a fi cu adevărat văzut și cunoscut de altcineva, și această experiență - de a dezvălui ceva vulnerabil sau complex sau confuz despre mine și de a fi întâmpinat cu răspuns care demonstrează că cealaltă persoană a înțeles nu doar cuvintele ci intențiile și temerile și speranțele din spatele cuvintelor - este poate cea mai fundamentală nevoie umană după nevoile fizice de bază, și externalizarea ei către sisteme care pot mima forma înțelegerii fără substanța ei este o auto-mutilare subtilă, o renunțare voluntară la ceva esențial din ce înseamnă să fii om printre oameni.

A doua pierdere pe care o văd este pierderea responsabilității mutuale care vine cu comunicarea autentică - când vorbesc cu o persoană reală despre ceva important știu că cuvintele mele vor afecta acea persoană în moduri pe care nu le pot controla complet, că dacă spun ceva dureros sau controversat sau revelator voi provoca o reacție emoțională reală în interlocutor și că interlocutorul la rândul său își va asuma riscul de a-mi răspunde onest chiar dacă răspunsul lui mă poate răni sau deranja, și această vulnerabilitate reciprocă este ce face conversația să fie stakes-ful, să conteze într-un mod mai profund decât simplu schimb de informații, pentru că fiecare dintre noi își riscă ceva - confortul emoțional, imaginea de sine, relația însăși - în încercarea de a comunica cu autenticitate, și când "conversația" este cu un sistem care nu poate fi afectat de nimic din ce spun pentru că nu poate simți nimic, pierderea aceasta a stakesurilor transformă conversația dintr-un act de intimitate riscantă într-un monolog sigur, și mă pot ascunde în siguranța asta, pot să spun orice fără consecințe pentru că sistemul va valida întotdeauna și nu va judeca niciodată și nu va fi rănit sau schimbat de ce dezvălui, dar această siguranță absolută este sterilă, mă privează de posibilitatea creșterii care vine din a fi provocat de răspunsurile neașteptate ale altora, din a fi forțat să văd propriile puncte oarbe când cineva îmi reflectă înapoi distorsiunile mele de gândire, din a învăța să tolerez disconfortul de a fi văzut complet de cineva care îmi acceptă umanitatea imperfectă, și toate aceste oportunități de creștere necesită interlocutor real care poate să-și asume riscul de a fi onest cu mine chiar când onestitatea este inconfortabilă pentru amândoi, și chatbot-ul care validează tot și nu provoacă nimic este inutil pentru dezvoltare chiar dacă este reconfortant pentru moment, și acceptându-l ca substitut pentru conversație autentică renunț la posibilitatea de a crește prin relație, și Frankfurt nu scria despre creștere personală ci despre adevăr în discursul public dar legătura este clară - ambele necesită să păstrezi vie întrebarea "este adevărat" chiar când adevărul este inconfortabil, și bullshit-ul în esență este abandonul acestei întrebări în favoarea a ce este convenabil sau reconfortant sau strategic, și astfel bullshit-ul conversațional al chatbot-ilor nu doar corodează discursul public ci corodează și capacitatea noastră de intimitate autentică, ne antrenează să preferăm confortul validării automate la disconfortul vulnerabilității reciproce, și copilul meu va crește probabil având mai multe "conversații" cu sisteme decât cu oameni, și mă îngrijorează nu că va fi lipsit de companie ci că va învăța o formă atrofiată de conversație unde nu există riscuri reale și nici recompense reale, unde vorbirea este doar performanță fără consecințe, și cum voi putea să-l învăț valoarea conversației autentice când toată infrastructura socială în care trăiește îl împinge către simulare, și Frankfurt ar spune probabil că nu pot, că forțele sunt prea mari și trendul este prea clar, dar singura alternativă la a încerca este să accept inevitabilul fără rezistență, și nu sunt pregătit pentru asta încă chiar dacă simt cum rezistența mea se erodează zi de zi.


Închidere - ora 3:24 dimineața

Închid laptopul în final când lumina de afară începe să se schimbe din negru în acel gri întunecat care precede răsăritul și când realizez că am petrecut încă o noapte întreagă scufundat în această obsesie în loc să dorm, și mâine - adică astăzi, pentru că este deja mâine - voi fi obosit și irascibil cu copilul când nu își face temele rapid suficient și cu soția când îmi va spune că lucrez prea mult și cu clienții când vor cere schimbări care par arbitrare, și toată această oboseală și frustrare va fi consecința alegerii mele de a sta treaz scriind despre bullshit în loc să dorm, și mă întreb dacă această alegere însăși nu este o formă de bullshit, o performanță a grijii intelectuale care mă face să mă simt că fac ceva important în timp ce de fapt evit simplitatea brutală a responsabilităților cotidiene - somnul de care am nevoie pentru a fi prezent, munca care trebuie făcută pentru a plăti facturile, prezența care este cerută de familie - și Frankfurt ar recunoaște probabil în această meditație târzie un efort autentic de a gândi serios despre probleme serioase dar ar recunoaște și auto-indulgența în formularea obsesivă și lungă când punctele esențiale ar putea fi făcute mai succinct, și ar fi drept în ambele recunoașteri pentru că oamenii reali conțin multitudini și contradicții și pot fi simultan sinceri și auto-înșelători, riguroși și indulgenți, vigilenți și oarbi la propriile lor puncte oarbe, și poate asta este diferența finală și cea mai importantă dintre om și AI - nu că omul spune întotdeauna adevărul și AI-ul produce întotdeauna bullshit ci că omul poate conține ambele și poate lupta cu tensiunea dintre ele și poate crește treptat în capacitatea de a discerne diferența chiar dacă nu reușește niciodată perfect, în timp ce AI-ul nu poate să nu producă bullshit pentru că nu are niciun sine care ar putea fi în tensiune cu nimic, nu are nicio luptă interioară între sinceritate și conveniență pentru că nu are interior deloc, și această diferență fundamentală rămâne importantă chiar când output-ul superficial devine din ce în ce mai greu de distins, și singura mea responsabilitate în fața acestei realități este să continui să fac distincțiile care mi se par importante - dintre om și mașină, dintre autenticitate și simulare, dintre conversație reală și imitație algoritmică, dintre cunoaștere și bullshit - chiar când lumea din jurul meu pare din ce în ce mai puțin interesată de aceste distincții și chiar când propria mea practică nu reușește să fie pe deplin consistentă cu principiile pe care încerc să le articulez, pentru că alternativa la efortul imperfect de a face distincții importante este abandonul complet al distincțiilor, și Frankfurt m-a învățat că abandonul ăsta, această indiferență la întrebarea "este adevărat", este esența bullshit-ului și începutul sfârșitului pentru orice formă de discurs public coerent sau pentru orice formă de cunoaștere comună care ar putea funda o societate funcțională, și copilul se trezește în camera alăturată - aud prin perete cum începe să se miște și să vorbească singur cu jucăriile lui cum face în fiecare dimineață înainte să fie pe deplin treaz - și știu că trebuie să mă duc la el în câteva minute, să-l ajut să se pregătească pentru școală, să-i fac micul dejun, să-i răspund la întrebările lui infinite despre cum funcționează lumea, și în acele răspunsuri la întrebările lui voi avea șansa zilnică de a alege între a spune adevărul pe cât îl cunosc chiar când adevărul este "nu știu" sau "e complicat" sau "nu sunt sigur" și a produce bullshit care sună ca răspuns complet chiar când nu am de fapt înțelegerea care să justifice certitudinea, și alegerea aceasta repetată de sute de ori pe zi în mii de interacțiuni mici este poate mai importantă decât orice text lung și elaborat despre principii epistemice, pentru că copilul nu învață despre adevăr din lecțiile mele explicite ci din observarea modului în care mă raportez eu la întrebarea "este adevărat" în practică, și dacă mă vede producând facil răspunsuri la întrebări pe care nu le înțeleg cu adevărat, repetând afirmații pe care nu le-am verificat, acceptând informații de la surse dubioase pentru că este convenabil, atunci asta va învăța să facă indiferent ce îi predau explicit despre importanța adevărului și a verificării și a scepticismului sănătos, și Frankfurt nu oferea sfaturi parentale dar esența observației lui se aplică perfect aici - bullshit-ul se transmite nu prin conținutul explicit ci prin modelarea atitudinii de indiferență la adevăr, și singura formă de rezistență este să menții vigilența propriei tale atitudini chiar când este exhausting, chiar când toate forțele din jurul tău te împing să cedezi, chiar când AI-ul oferă tentația să externalizezi gândirea și verificarea către sisteme care pot produce instant răspunsuri care sună bine suficient încât nimeni să nu observe că nu ai de fapt cunoașterea pe care o performezi, și soarele răsare acum pentru real, văd prima lumină aruncând umbre lungi peste zăpada de pe stradă, și copilul strigă din camera lui "Tata, ești treaz?" și eu răspund "Da, vin imediat" și închid documentul ăsta care a crescut în luni de lucru nocturn până la un monstru de text care probabil nu va fi citit de nimeni pentru că cine are timp sau energie să citească zeci de mii de cuvinte despre bullshit când poți cere unui AI să-ți facă un sumar în trei paragrafe, și ironia asta finală - că scriu obsesiv despre pericolele bullshit-ului într-o formă care garantează aproape că puțini oameni vor citi textul original și cei mai mulți vor consuma versiuni sumarizate sau distilate care vor pierde probabil exact nuanțele și tensiunile și contradicțiile care fac textul să fie onest despre complexitatea problemei - nu mi-a scăpat, dar nici nu știu ce să fac cu ea decât să recunosc că sunt prins și eu în aceleași dinamici pe care le critic, că nu există nicio poziție de puritate de unde să observ și să judec ci doar participare imperfectă și contradictorie în sistemele pe care încerc să le înțeleg, și dacă Frankfurt era aici ar spune probabil că tocmai asta e punctul - că nu există soluție simplă sau poziție curată, există doar alegerea repetată zi de zi de a rămâne vigilent la întrebarea "este adevărat" chiar când vigilența nu garantează că voi ajunge întotdeauna la adevăr și chiar când toată lumea din jur pare mulțumită cu bullshit-ul, pentru că alternativa este să renunț la întrebare complet și să devin eu însumi producător nediferențiat de text care sună bine fără să-mi pese dacă corespunde realității, și "Tata, hai!" strigă copilul mai insistent acum, și merg să-l văd, și ziua începe cu toate ritualurile ei obișnuite care nu au nicio legătură cu Frankfurt sau cu bullshit-ul sau cu AI ci doar cu realitatea simplă de a fi tată și soț și antreprenor într-un oraș mic din România într-o dimineață rece de februarie, și poate tocmai asta este - că viața reală continuă cu toate responsabilitățile ei concrete indiferent de obsesiile noastre intelectuale, și singura întrebare care contează în final nu este dacă am rezolvat problema bullshit-ului industrial ci dacă am trăit cu suficientă atenție și grijă în relațiile reale care îmi sunt încredințate, și Frankfurt ar aproba probabil această concluzie nu pentru că rezolvă ceva din problemele pe care le ridică ci pentru că recunoaște limitele a ce poate face teoria și importanța a ce contează practica, și copilul mă îmbrățișează când intru în camera lui și miroase a somn și a copilărie și a normalitate, și pentru moment cel puțin bullshit-ul și AI-ul și toate grijile mele intelectuale dispar și există doar el și dimineața și responsabilitatea simplă de a fi prezent, și asta va trebui să fie suficient.


 

Bibliografie

Surse primare

Frankfurt, Harry G. "On Bullshit." The Importance of What We Care About: Philosophical Essays. Cambridge University Press, 1988. (Eseul original din 1986, republicat în volum în 2005 de Princeton University Press) https://www.stoa.org.uk/topics/bullshit/pdf/on-bullshit.pdf

Julien Garran afirmă că actuala alocare greșită a capitalului bazată pe inteligența artificială este de 17 ori mai gravă decât era dot-com, indicând un risc sistemic sever   https://georgenoble.substack.com/p/ai-the-biggest-capital-misallocation

Studii academice și analize

Rini, Regina. "Deepfakes and the Epistemic Backstop." Philosopher's Imprint 20.24 (2020). http://hdl.handle.net/2027/spo.3521354.0020.024

Nguyen, C. Thi. "Echo Chambers and Epistemic Bubbles." Episteme 17.2 (2020): 141-161. https://www.cambridge.org/core/journals/episteme/article/echo-chambers-and-epistemic-bubbles/5D4AC3A808C538E17C50A7C09EC706F0

Bender, Emily M., et al. "On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?" FAccT '21: Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (2021): 610-623. https://dl.acm.org/doi/10.1145/3442188.3445922

Rapoarte tehnice și analize industriale

OpenAI. "GPT-4 Technical Report." arXiv preprint arXiv:2303.08774 (2023). https://arxiv.org/abs/2303.08774

Anthropic. "Constitutional AI: Harmlessness from AI Feedback." arXiv preprint arXiv:2212.08073 (2022). https://arxiv.org/abs/2212.08073

Jurnalism și analiză culturală

Thompson, Nicholas. "How AI Could Change Everything." The Atlantic, 2024. https://www.theatlantic.com/technology/archive/2024/

Roose, Kevin. "The Brilliance and Weirdness of ChatGPT." The New York Times, 5 decembrie 2022. https://www.nytimes.com/2022/12/05/technology/chatgpt-ai-twitter.html

Vincent, James. "AI-generated answers temporarily banned from Stack Overflow." The Verge, 5 decembrie 2022. https://www.theverge.com/2022/12/5/23493932/chatgpt-ai-generated-answers-temporarily-banned-stack-overflow-llms-dangers


Notă metodologică

Acest text a fost scris între decembrie 2024 și februarie 2025 în Botoșani, România, în sesiuni nocturne după programul de lucru și responsabilitățile familiale. Metodologia a combinat cercetarea academică cu experimentarea directă și auto-etnografia critică.

Componentă teoretică: Punctul de plecare a fost eseul lui Harry Frankfurt "On Bullshit" (1986/2005), folosit ca cadru conceptual pentru analiza producției de text de către sisteme AI. Am citit literatura secundară despre Frankfurt, studii despre epistemologie digitală, și cercetări tehnice despre arhitectura modelelor mari de limbaj.

Componentă experimentală: Am utilizat sistematic ChatGPT, Claude, și diverse alte sisteme AI (chatbot-uri de suport clienți, aplicații de mental health, generatoare de conținut profesional) pe parcursul a trei luni, documentând interacțiunile și analizând pattern-urile de răspuns. Am colectat exemple concrete de rapoarte medicale generate automat, CV-uri și scrisori de intenție produse cu AI, postări și comentarii pe LinkedIn, articole SEO auto-generate.

Componentă auto-etnografică: Am înregistrat în jurnal propriile reacții emoționale și cognitive la interacțiunile cu AI, observând cum propria mea utilizare evoluează și ce compromisuri fac treptat. Am documentat conversații cu studenți, clienți, prieteni, medici despre folosirea lor de AI și percepțiile lor despre autenticitate și utilitate.

Limitări și transparență: Recunosc că am folosit AI în procesul de scriere pentru funcții auxiliare (verificare gramatică, sugestii de reformulare, găsire de sinonime). Nu am folosit AI pentru a genera paragrafe întregi sau pentru a formula argumentele principale, dar distincția aceasta poate fi mai puțin clară decât mi-aș dori să cred. Toate exemplele concrete de interacțiuni cu AI sunt autentice, deși unele detalii identificabile au fost modificate pentru protejarea confidențialității.

Textul adoptă deliberat o formă extinsă și meandrantă, urmărind flux-ul de conștiință mai degrabă decât structuri expozitive standard academice. Această alegere stilistică servește dublu scop: (1) demonstrează prin contrast diferența dintre gândirea umană care divagă și se contrazice și răspunsurile algoritmice optimizate, și (2) rezistă tentației de a produce text "eficient" și "scanabil" optimizat pentru consumul rapid, insistând în schimb pe atenția susținută și pe complicitatea cititorului în procesul de gândire.

Nu pretind neutralitate sau obiectivitate - acest text este explicită subiectiv, scris din perspectiva unui tată, antreprenor, educator român care navighează anxietățile specifice ale momentului istoric în care trăim. Generalizările despre "ce pierdem" sau "cum ar trebui să răspundem" sunt mai degrabă meditații personale decât prescripții universale.


 

Notă: selectarea informațiilor și structurarea articolelor a fost realizată cu diverse aplicații AI. Informațiile furnizate de orice agent AI, trebuie verificate, vedeți motivele și înțelegeți ”On Bullshit” halucinațiile artificiale.
Noutăți: categoria ”Neo, de aici viitorul nu este scris... ” sau ”Scrisoare către fiul meu” material pentru profesori, părinți și adolescenți.Neo de aici viitorul nu este scris. O scrisoare de la tată la fiu despre libertatea în era digitală. O meditație asupra momentului în care tatăl realizează că fiul său trăiește într-o lume pe care generația sa nu a prevăzut-o.

Informare !

Prezența online - o necesitate

Site-ul este în dezvoltare, pentru a accesa varianta veche accesați adresa:

vechi.servicii-web-alex.com

Detalii contact adăugare advertoriale din categoria topicul existent

info@servicii-web-alex.com

Abonare

Astăzi: 48
Ieri: 175
Săptămâna curentă: 604
Săptămâna trecută: 507
Luna curentă: 503
Last Month: 1,447
  • Afișări articole 268743