Jag kan inte hjälpa det, och jag är inte den enda. I mitt jobb är det omöjligt att undvika användningen av AI1. Kodning, research, marknadsföring och även vissa mejl är bara enklare och snabbare att producera med hjälp av LLMs2. Men det är sorgligt att detta standarden som förväntas: Oinspirerade, vänliga, torra mejl som hade kunnat komma från autosvar eller en HR avdelning; Onödigt komplicerad kod som är så misstänksamt väldokumenterad att man skäms att commit:a den; Självsäkra "fakta"-påståenden som saknar verklig förankring. Användningen av verktyg som ChatGPT har tagit över så mycket att jag tror att vi behöver lära oss att tänka igen.
Problemet
Jag hade kunnat prata i timmar om de mångsidiga problemen med dagens iteration av vad som kallas "AI", men jag vill att så många som möjligt orkar läsa till min poäng: användningen av generativ AI fräter bort kritiskt och kreativt tänkande.
Ett liknande fenomen beskrivs väl i Yukio Mishimas essä från 1968 "Sol och Stål". Mishima talar om hur ord har en frätande förmåga. När man sätter något i ord så begränsas verkligheten till ordets mening. En beskrivning kan bara vara en abstraktion, aldrig helheten. Det krävs fysiskt arbete för att ge ord tyngd. På samma sätt är ett resonemang bara abstraktionen av tänkande, en målning är en abstraktion av en vision. Det finns en helhet bakom det begränsade.
Det är tanken som räknas
Ett tidsrelevant exempel är att jag har väldigt svårt att komma på presentidéer. Det är enkelt nog när personen önskar sig något specifikt, svårare annars. Jag har förstås gett både bra presenter, och sådana presenter där det är tanken som räknas. I dagsläget verkar många inte värda tanken längre. ChatGPT är nog ansvarig för fler dåliga presenter som ingen vill ha, än alla SEO-spam-blogginlägg med Amazon-affiliate-länkar tillsammans. Alltså sidor på internet med "rekomendationer", vars enda syfte är att få dig att köpa något på Amazon, eftersom de får en kickback av det. Troligtvis är sådana artiklar exakt vad språkmodellen är tränad på till att börja med.
Resultatet av detta är att vi blir djupt försjunkna i blind och meningslös konsumtion, byggd på kombinationen av lathet och traditioner. Endast modern AI möjliggör denna nivå av mental lathet, till skillnad från en vanlig dator, som endast gör exakt vad man instruerar de att göra, utan att dra egna "slutsatser".
Förr var den populäraste presenten för lata personer ett presentkort. Enkelt och smart: vet man inte vad personen kan tänkas vilja ha, så får de välja själva. Med AI så övertygas man istället varför mottagaren kommer älska denna nya dammsamlare. Och vi är inte långt ifrån att inte ens själva veta vad vi vill ha längre, utan istället frågar vi GPT om hur man bäst ska spendera presentkortet.
Om man låter sig tänka några tankar ibland kan man ofta inse varför vissa idéer är sämre än andra, men det som gör användningen av AI så farlig är just att alla klokt-låtande resonemang och förklaringar helt förbipasserar ens eget kritiskt tänkande. Att föredra en maskins rekommendationer, även när det säger emot fakta, har ett namn: Automation bias3. Om det låter som någon redan har tänkt till, då är det bra nog, speciellt om det kommer från en maskin, för maskiner gör ju inga misstag.
Vad händer i praktiken när eget kritiskt tänkande helt outsourcas till AI? Vi behöver inte spekulera, det finns redan studier som visar en skrämmande framtid: AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking visar en signifikant korrelation mellan AI användning och minskat kritiskt tänkande i en grupp deltagare i olika åldersgrupper och med olika utbildningsbakgrund. En annan studie visar hur dessa verktyg leder till minskade kopplingar i hjärnan och fysiskt degraderar organet som gör oss människor: Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task.
En egen tanke
Detta är ett riktigt exempel: När jag programmerar så försöker jag problemlösa själv och låta Claude4 hantera de enkla repetitiva kodändringarna. Men mot eftermiddagen när hjärnbränslet är slut vänder det ofta till motsatsen. Claude får tänka åt mig. Jag börjar stöta på problem. Modellen försöker felsöka och provar en mängd olika lösningar. Jag ger Claude mer dokumentation. Till slut, efter 45 minuter av min tid och 100 sidor chattande fram och tillbaka, så kommer den fram till att det inte är möjligt att lösa problemet.
Jag vill ändå få problemet löst så jag börjar tänka själv, det är trots allt inget superkonstigt jag försöker göra. Och då får jag en idé. Jag skickar idén till AI och den är helt förbluffad.
Om jag är såpass briljant eller om de flesta språkmodellerna är dumma lismare lämnar jag till läsaren att avgöra. Oavsett så hade jag sparat på tid och frustration om jag bara hade tänkt själv först.
För de som redan delar mina åsikter om generativ AI är detta inget nytt. LLMs verkar imponerande för att de, likt charlataner, talar väl och låter självsäkra. Och förstås är de inte byggda för att ljuga, så de kan återgenerera en stor del av faktan de tränats på. Men fysikens lagar finns fortfarande, och modellerna är bara några hundra gigabyte stora, jämfört med internets totala storlek på runt 175 zettabyte5. Alltså inte gigabyte, inte terabyte, inte petabyte, inte exabyte, zettabyte.
Denna avsaknad av kapacitet hos chattbottar märks dagligen, när nya skärmdumpar cirkulerar som visar helt nya sätt som "Artificiell Intelligens" kan missförstå en på, orsaka mer arbete, förstöra, vara frustrerande och ohjälpsam eller bara vara ointelligent. Nedan är ett harmlöst och roligt exempel på detta, som ändå demonstrerar hur naïv och ologisk "AI" faktiskt är:
Slop
Det är inte konstigt hur trendigt det har blivit att kalla AI-genererat innehåll för "slop". En strukturlös onyttig onaturlig röra till för att mätta ointelligenta djur som inte vet bättre. Vet du bättre? Är du medveten om alla uppenbara men även sekundära effekter konsumtionen och användningen av "AI" har på ditt liv?
Att förespråka generativ AI för den ökade produktiviteten det medför är som att förespråka längre arbetsdagar för den ökade lönen man skulle få. Visst, korrelationen kanske är sann, i vissa situationer, med asterisker, men är det faktiskt en förbättring? Hur mycket tid behöver läggas på prompting och debugging kontra utveckling? Hur mycket sämre kan ingenjören systemet? Hur dyra blir misstagen? Hur livlös blir vår vardag, hur okreativ våra hobbyn, hur passionslös vår kärlek? Har vi råd att ge upp på att tänka själva?
Referenser
Footnotes
-
Generativ AI, LLMs och chattbottar representerar endast en bråkdel av AI fältet, men inlägget syftar endast på dessa. ↩
-
En Språkmodell, s.k. Large language model är vad som driver ChatGPT och andra chattbottar. ↩
-
Automationsbias är människors benägenhet att gynna förslag från automatiserade beslutssystem och ignorera motsägelsefull information som görs utan automatisering, även om den är korrekt. ↩
-
Claude är en LLM som utvecklas av Anthropic. ↩

