Å si at AI er “det nye store” ville vært å underdrive. Det føles som om “AI vil erstatte flere tusen arbeidere” har vært overskriften i flere år. “Kom deg på toget eller bli igjen på perrongen” har vært en gjenganger i utallige blogger og youtube-videoer.
Likevel har jeg i stor grad ignorert teknologien. Det blir stadig vanskeligere.
Fanatikerne roper høyere og teknologien blir stadig mer utbredt. Flere av mine nærmeste kollegaer, som tidligere har fulgt med på utviklingen med nysgjerrighet, har nå stadfestet at AI er fremtiden.
Det var dermed ingen stor overraskelse at Kodemaker inviterte tre eksterne foredragsholdere til vår interne fagdag for å snakke om AI. En av disse var like begeistret for teknologien som jeg var skeptisk, og klarte ikke å forstå hvorfor det var så mye motstand blant enkelte på å bruke AI til utvikling. “Du blir så mye mer effektiv på å bygge ting,” sa han. “Det er jo tross alt det vi skal gjøre: bygge ting”.
Vi skal, forsåvidt, bygge ting. Men vi skal også hjelpe menneskene rundt oss forstå hvilke ting som kan bygges og hvorfor akkurat denne tingen er best for dem. Aller helst skal vi også bygge ting på en etisk og forsvarlig måte. Selv om AI kan hjelpe oss bygge raskere, så er det ikke gitt at den lar oss bygge bedre.
Samtidig må jeg innrømme at hans fascinasjon for teknologien gjorde meg nysgjerrig. Jeg fikk inntrykk av at han var en dyktig utvikler, og flere av mine egne dyktige kollegaer delte hans entusiasme. Dessuten så burde jeg jo, som konsulent, ha mer enn en ren teoretisk tilnærming til min potensielt fremtidige erstatter.
Men før jeg setter igang med å lære meg AI-assistert utvikling, så synes jeg det er på sin plass å nevne alle de svært så gode grunnene til at vi burde tilnærme oss teknologien med skepsis.
¶Hype
AI er en hype.
Vi vet at dette er tilfellet, blant annet fordi regjeringen har satt et prosentmål om bruk av AI i offentlig sektor. Den eneste grunnen til å gjøre noe sånt er fordi du mener at AI er utelukkende positivt.
I min erfaring er det ingenting som er utelukkende positivt. Spesielt innenfor IT. Alt avhenger av problemet som skal løses og menneskene det skal løses for.
Det at vi er i en hype betyr at altfor mange mangler erfaringen til å vite når AI ikke passer inn. Dette vil endre seg, men frem til AI får en litt mer balansert omtale så kan det være lurt å ta de største lovnadene med en klype salt.
¶Umodent
Det er en setning som går igjen i de fleste artikler og videoer som omhandler AI: ferdighetene til AI øker eksponensielt. “Ting du lærte for seks måneder siden er allerede utdatert!”
Noen vil kanskje si at dette er spennende, men for meg, hvor det ville vært aktuelt å bruke dette i jobbsammenheng, så høres dette utrolig slitsomt ut.
Når det hele tiden kommer nye AI-er, nye verktøy for å bruke de AI-ene, nye råd for hvordan de brukes mest effektivt osv. så krever det enormt med energi å bare følge med.
Hvis du ikke tror meg så spør frontendutviklere. De har fått et revolusjonerende nytt rammeverk hver eneste uke siden 2009. Kode skrevet med React som bare er noen år gammel er ikke til å kjenne igjen i dag. For noen frontendutviklere er dette utrolig spennende, mens andre har blitt backendutviklere istedenfor.
For min del er det mye mer interessant å vente til teknologien har modnet seg og folk har funnet ut hva som fungerer, hva som ikke fungerer og hva som er de definitive verktøyene en skal bruke.
¶Hallusinering
Mitt største ankepunkt er at AI hallusinerer, altså at den kan gi fra seg informasjon som ikke stemmer eller henger på greip. Dette er kjent for de fleste, men jeg har inntrykk av at ikke alle forstår at dette er en iboende egenskap til AI, og ikke en feil som en gang vil fikses.
Du har ingen garanti for at AI-en gir deg det du spør om. Dette kommer ikke til å endre seg. Det er rett og slett sånn teknologien fungerer. Bruken bør derfor begrenses til områder der du enkelt kan kvalitetssikre svarene du får. Men hvis du skal kvalitetssikre alt den gjør så mister du også mye av effektivitetsøkningen den er ment å levere.
Jeg tror at de fleste, mesteparten av tiden, ikke kommer til å kvalitetssikre hva de får fra en AI. Det kan få uheldige konsekvenser.
¶Kontroll
Med den geopolitiske situasjonen som den er i dag er det flere som ønsker å komme seg vekk fra amerikanske selskaper, spesielt Big Tech. Dessverre så er det slik at de beste AI-ene kommer fra nettopp de selskapene.
Vi vet allerede at Grok, fra selveste Elon Musk, bruker sin sjefs meninger som datagrunnlag når den får spørsmål om kontroversielle temaer. Hva stopper da Grok i å gi feilaktig informasjon i perioden rett før et valg?
En annen utfordring er at samtaler med AI innebærer overføring av informasjonen til AI-selskapet. Når det selskapet er basert i USA, så er det ikke helt fjernt å tro at myndighetene etterhvert (om ikke allerede) er fristet til å ønske å se dataene disse selskapene mottar. Når det gjelder programvare vil dette gjøre det mulig å avdekke eventuelle sikkerhetsfeil i potensielt samfunnsnyttige applikasjoner, som så kan utnyttes til egen vinning.
¶Effekten på læring
Det er én ting at det er enkelt å få servert feilinformasjon, generert kode som du kanskje ikke burde bruke uendret, og at du enkelt kan levere fra deg kritisk informasjon, men det er også mange som ser på AI som en mentor.
Det er jo bare å stille spørsmål, så får du svar. Hvis du har oppfølgingsspørsmål så kan de også besvares. Du kan til og med få eksempler, be om råd tilpasset din nåværende situasjon, sammenligne to scenarioer opp mot hverandre osv.
Problemet, som tidligere nevnt, er jo at denne informasjonen ikke nødvendigvis stemmer og burde kvalitetssikres. Det tror jeg de færreste kommer til å gjøre.
Erfaring spiller også en rolle her. Hvordan vet du hvilke spørsmål du skal stille? Hvordan vet du at noe skurrer? Hvis dette blir måten vi hovedsakelig tilegner oss informasjon på, hvor flinke blir vi på å finne informasjon selv i fremtiden?
Jeg tror den beste måten å lære noe på, for de aller fleste, er en bok eller foredrag om et bestemt tema som er tilrettelagt for ditt erfaringsnivå, eventuelt et forum hvor du kan spørre mennesker med peiling på det du lurer på.
Spørsmålet er hvor stort det fremtidige markedet er for sånt når alle bare bruker AI til alt.
¶Ekkokammer
AI har også en tendens til å aldri motsi deg. Hvis du ikke er klar over dette, og ikke er forsiktig, så kan det gå galt av sted.
Skrekkeksemplet her er ungdommer som har tatt livet av seg etter å ha fortalt AI-en om sine planer og fått bekreftet at “de tenker helt rett”.
Også i systemutvikling har jeg sett den potensielle nedsiden her når noen sparret med AI om hvilken arkitektur som skulle brukes for et nytt prosjekt. Når brukeren stilte spørsmål om AI-en var helt sikker på at avgitt svar var bedre enn brukerens foretrukne løsning, så utfordret ikke AI-en utvikleren, men valgte heller å endre svaret sitt for å bli enig.
AI kan derfor forsterke negative mønstre, istedenfor å forhindre dem.
¶Bærekraft
AI koster penger. Mye penger. OpenAI, selskapet som har gitt oss ChatGPT, går flere milliarder dollar i minus hvert eneste år. Fanebæreren i AI-toget, med en av verdens mest brukte programmer, går i dundrende underskudd. De regner også med at de taper penger på sitt dyreste abonnement, som jo koster en del.
Såvidt jeg vet gjelder dette også andre AI-selskaper. En stor del av årsaken her er at teknologien er dyr i drift. Det krever enorme ressurser i form av strøm og nedkjøling, som jo må komme fra et sted. AI er med andre ord ikke bare en økonomisk belastning, men også en klimabelastning.
På et eller annet tidspunkt vil investorene bak disse AI-selskapene forvente avkastning, og hvis driftskostnadene ikke kommer ned, så må vi regne med at det blir en endring av prismodell og innføring av reklame. Jeg vil også tro at vi kommer til å se en del konkurser.
Hva skjer når du har bygd et produkt rundt AI og selskapet bak, sammen med flere andre, går konkurs? Hva skjer hvis prisen øker med det dobbelte? Hvor lett er det å lære ting på den “gamle måten” når bøkene og forumene du lærte ting fra før, nå er borte?
Jeg aner ikke, men det blir spennende å se.
¶Hva var fordelene, igjen?
Det har kanskje blitt så mye negativ omtale i dette innlegget at du har glemt hva utgangspunktet for denne artikkelserien er: at jeg skal lære meg å utvikle med AI.
Det viser seg, heldigvis, at noen av punktene jeg nevner over ikke vil være gjeldende for alltid.
For det første begynner teknologien å modnes. Ferdighetene til de ulike AI-ene vokser ikke lenger eksponentielt. Det er blitt tydeligere hvilken fremgangsmåte som er anbefalt, og det er en tydelig markedsleder, spesielt når det gjelder utvikling. Jeg tror ikke det kommer til å skje så voldsomt mye på AI-fronten i år sammenlignet med årene før, annet enn at de ulike modellene kanskje blir litt raskere, og generer litt mindre feil.
Jeg tror også at klima og økonomibelastningen vil gå ned. Kanskje ikke i år, men på sikt. I desember lanserte Mistral, et fransk AI-selskap, to nye modeller for koding som henholdsvis kalles devstral-2 og devstral-2-small.
Devstral-2 er ikke like bra som Claude, fra amerikanske Anthropic, men den er absolutt brukbar og ifølge Mistral selv er den 7 ganger så effektiv som sistnevnte. Devstral-2-small er igjen dårligere enn devstral-2, men kan til gjengjeld kjøre på en lokal maskin. Jeg tror vi etterhvert beveger oss dithen at enkle oppgaver kan gjøres helt på egen maskin, og kanskje til og med at den lokale maskinen kan avlaste de større modellene. Det kan også virke som at selv de større modellene blir mer effektive enn det vi har brukt til nå.
Devstral-2 modellene er lagt ut under en åpen lisens (Apache 2.0), og det er dermed mulig å benytte denne modellen uten å sende over data til Big Tech ved å drifte den selv i et valgfritt datasenter.
Så da står vi igjen med en teknologi som hallusinerer, er et potensielt ekkokammer og som over tid kan redusere din evne til å lære, men det er kanskje overkommelig så lenge en er klar over det og det tross alt gjør deg mer effektiv?
Det skal vi komme tilbake til i neste artikkel.
