är ChatGPT bara autokorrigering på steroider

Är ChatGPT Bara Autokorrigering På steroider?


Jag stöter ofta på kommentarer på sociala medier som ”ChatGPT är inget annat än autokorrigering på steroider” eller ”Det förutsäger bara nästa ord; det finns ingen intelligens i det.” Ett mycket delat inlägg på sociala medier framför samma åsikt: Dagens AI-verktyg är inget annat än maskiner som genererar hur ett typiskt svar på en specifik fråga skulle låta.

Även om det finns en viss sanning i detta, är det inte hela sanningen längre.

En historisk tillbakablick

För många var ChatGPT, som lanserades i slutet av 2022 och byggdes på GPT-3.5, deras första erfarenhet av generativ AI. Men den underliggande tekniken hade redan funnits i några år: GPT-1 (2018), GPT-2 (2019) och GPT-3 (2020). Dessa modeller tränades för att förutsäga nästa ord i en textsekvens. Med andra ord, om man ställde en fråga till dem genererade de de statistiskt mest sannolika nästa orden. Inget mer, inget mindre.

Men även om detta är hur modellerna fungerar på en grundläggande nivå, kunde de i praktiken fortfarande utföra ett antal användbara uppgifter. GPT-2 och GPT-3 kunde redan, med rätt indata, översätta, sammanfatta och svara på frågor utan någon speciell finjustering (”few-shot/zero-shot”).

Det som gjorde ChatGPT annorlunda var dess efterträning på instruktioner och mänsklig feedback, samt ett dialogformat med vägledning och vissa filter, vilket avsevärt förbättrade dess funktionalitet och gjorde den mer användbar för allmänheten. En mer korrekt beskrivning är därför att tidigare generationer hade ”nästa ord” som träningsmål, men samtidigt lärde sig mönster som gav dem praktiska förmågor – något som vidareutvecklades i ChatGPT.

För några år sedan tonade den välkände lingvisten och filosofen Noam Chomsky ner hypen med skarpa ord. I en intervju för Debunking the Great AI Lie, en video publicerad på WebSummit YouTube-kanalen, påpekade han att ”GPT egentligen bara är auto-complete på steroider, men det ger en illusion av att det är mer än så”. Chomsky sa vidare att sådana system inte är något annat än papegojor som upprepar vad de har absorberat, stjäl från befintlig kunskap utan att någonsin skapa något genuint nytt.

Även om Chomsky åtminstone till viss del hade rätt när uttalandet gjordes, missar det ändå något av poängen; LLM-modellerna befann sig och befinner sig fortfarande i ett relativt tidigt utvecklingsstadium. Det är ny teknik, och ingen ny teknik är perfekt i början. Om vi hade tillämpat samma typ av argument på andra nya tekniker – Bröderna Wrights första flygplan, den första webbläsaren eller de första mobiltelefonerna – hade de kanske aldrig utvecklats till det vi idag tar för givet. Å andra sidan kan man hävda att vi människor också bara använder det vi har lärt oss. Eller åtminstone kan mycket av det vi gör beskrivas på det sättet.

För specifika uppgifter var de tidiga versionerna helt adekvata: översättning, sammanfattning, standardiserade väder- eller sportrapporter, eller till och med att finslipa texter som man redan hade skrivit – inom dessa områden var det enda man behövde ”förutsäga nästa bit”. Men begränsningarna blev snabbt uppenbara. Ställde man en vetenskaplig fråga till de tidiga modellerna kunde de glatt ”citera” en icke-existerande artikel. Inte avsiktligt, utan för att de gjorde exakt det de var byggda för: att låta rätt, inte att vara rätt.

Förändringen: Varför ”autokorrigering på steroider” är en föråldrad förklaring

Men saker och ting har förändrats sedan november 2022. Ja, de moderna versionerna bygger fortfarande på ord-prediktion. Men mycket har lagts till den enkla idén:

  • Mänsklig feedback: Modellerna finjusteras utifrån vad de lär sig av feedback från användarna (med så kallad förstärkningsinlärning), vilket gör att de anpassas mot svar som är användbara och tillförlitliga snarare än bara flytande.
  • Retrieval-Augmented Generation (RAG): Många modeller är nu kopplade till söksystem, databaser eller API:er. Istället för att bara hitta på saker baserat på förutsägelserna kan de nu slå upp saker och basera sina svar på verkliga data, som kanske inte ens fanns när de ursprungligen tränades.
  • Inbyggd Python-miljö: Vissa LLM:er kan nu översätta frågor till programmeringskod, köra den koden i sin egen Python-miljö och sedan omvandla resultatet tillbaka till normalt språk. Det innebär att de kan använda lämpliga Python-bibliotek för att hantera dataanalys, grafisk framställning eller komplex matematik – och ge dig ett tydligt, textbaserat svar istället för en gissning.
  • Resonemangstekniker: De senaste modellerna är byggda för att ”tänka igenom” problem genom att bearbeta dem steg för steg. När de verkar pausa och ”resonera” går de igenom logiska steg internt och producerar sedan slutligen svaret.

Dagens artificiella intelligens är kanske inte intelligent i den mening som vi människor avser när vi använder det ordet, men det som är mycket viktigare är om AI tillför värde till människors liv. Med dessa tillägg tillför AI utan tvekan mer värde än i början.

Varför detta är viktigt för företag

Här är en lista över områden där AI kan skapa verkligt värde för organisationer: dessa system kan utöka mänskliga processer istället för att ersätta dem.

  • Tråkigt, repetitivt arbete: AI kan hantera lågkvalificerat arbete som att skriva utkast, mata in data eller utföra textuppgifter som vi tycker är tråkiga men som måste göras konsekvent.
  • Dataanalys: Den kan gå igenom stora mängder data, markera avvikelser och spara tid genom att förbereda material som vi kan granska.
  • Felreducering: Om den används försiktigt kan AI minska misstagen i repetitivt arbete där vi missar saker på grund av trötthet eller där distraktioner ofta smyger sig in.
  • Agentisk AI: Tidiga experiment med agentiska system tyder på att AI kan ta sig an små, avgränsade arbetsflöden från början till slut, såsom att förbereda rapporter eller sortera supportärenden.
  • Kodningsstöd: Den kan generera vanlig och enkel kod, föreslå hur koden kan förbättras eller upptäcka triviala misstag. Men låt oss vara tydliga: den ersätter inte skickliga utvecklare för något som inte är trivialt. Marknadsföringens hype ligger miltals före vad som är praktiskt i verkligheten.

Det handlar inte om att maskiner tar över arbetet. Det handlar om att människor befrias från de repetitiva och felbenägna delarna av arbetet så att de kan fokusera på det som verkligen kräver omdöme och kreativitet.

Vad AI verkligen kan göra idag

Så, vad är då en bättre beskrivning av ChatGPT idag?

Det är ett system som:

  • Stöder oss genom att göra det tunga arbetet med rutinuppgifter,
  • Hjälper till att analysera och organisera information,
  • Kan anropa andra verktyg eller få tillgång till extern data,
  • och i allt högre grad resonerar sig fram till lösningar på problem istället för att bara fylla i meningar.

Det är inte längre bara en ”autokorrigering på steroider”. Det är ett produktivitetslager – inte perfekt, ibland fånigt, men alltmer pålitligt när det används på rätt sätt.

ROI-problemet

Det finns dock en hake. Medan många av oss har upptäckt att ChatGPT eller andra AI-verktyg tillför enormt värde i det dagliga arbetet, har företag som satsar hela sin affärsmodell på dem ofta svårt att lyckas.

En ny MIT-studie fann att 95 % av organisationer som investerar i generativa AI-pilotprojekt inte har någon avkastning att visa för de miljarder de har satsat. Forskare granskade 300 offentliga AI-projekt, intervjuade 150 teknikledare och undersökte 350 anställda. Trots produktivitetsvinsterna på individnivå har dessa investeringar inte lett till företagsvinster.

Vad är problemet? Eftersom ChatGPT och Microsoft Copilot är tränade på alla typer av data är de inte experter på specifika organisationers behov och anpassar sig därför inte till en organisations specifika arbetsflöden. De är utmärkta för flexibel, engångsanvändning, men fungerar inte i företagsmiljöer. De 5 % av pilotprojekten som faktiskt lyckas är de som är noggrant utformade kring företagets egna processer, inte de som är tillagda som ett glansigt verktyg för marknadsföring eller försäljning.

Kanske, som en kommentator uttryckte det, hade en del av dessa miljarder varit bättre spenderade på en pizzakalas på kontoret.

Avslutande tankar

Så ja, ChatGPT, Copilot, Gemeni, Grok, Claude, Perplexity osv. är byggda på LLM-modeller som förutsäger nästa ord. Men med tillägg och i praktiken har de blivit något mycket mer: system som stöder människor, utökar processer och sparar tid, samtidigt som de fortfarande förlitar sig på oss för att styra, validera och tillämpa omdöme. Och ja, de hallucinerar fortfarande ibland eller säger dumma saker, men det gör människor också. Är det inte intressant att vi förväntar oss mer av AI? Men precis som vi är mer än ”autokorrigering på steroider”, så är även dagens AI-modeller det.

För företag som vårt är lärdomen tydlig: hypen är en sak, men värdet ligger i noggrant utformade, människocentrerade applikationer. AI ersätter, åtminstone för tillfället, inte människor, förutom möjligen inom mycket tråkiga och repetitiva områden. Det utökar vad vi kan göra.

Om du vill prata om hur AI kan hjälpa ditt företag, kontakta oss idag!

Lämna ett svar