Spännande! Får se på videon vid tillfälle!
Jag skrev något kortare förra året:
https://samuels.bitar.se/ai-magi/
Då var jag lite mer positiv inför möjligheterna med AI. Jag tänkte fortfarande att storföretagens AI bara skulle bli knas men kanske att man kunde gå tillsammans eller att universitet kunde fixa modeller.
Men när jag kollade på det senast så är allt beroende av nvidias grafikkort. Men inte bara det, även deras proprietära ekosystem som behövs för att iaf träna modeller. (Man får gärna rätta mig om jag uppfattat detta fel.)
Det tar massvis med energi och resurser att dels träna modeller och dels använda modeller. Jag tror att det blir svårt att få en uppfattning om vad de riktiga resurserna är innan bubblan spricker och vi ser vad som blir kvar.
Men å andra sidan, om man väntar på att bubblan spricker (som kan ta några år om vi har otur) så hamnar man efter i kunskap. Men samtidigt vill jag inte bli beroende av teknik som sedan visar sig ohållbar.
Jag har använt LLM:er (textrobotar) vid ett antal tillfällen när jag kodar. Men typ hälften av gångerna så ger de fel svar. Och anledningen är att jag skriver en för specifik fråga antar jag. Om jag frågar hur jag ska göra vissa saker så kommer den att säga “du ska göra så här”, sen testar jag, misslyckas, testar igen och till slut konstaterar att det inte funkar. Då skriver jag det till LLM:en varpå den svarar “ja, du har helt rätt, det funkar inte”.
Men när jag frågar väldigt öppna frågor så kan jag få svar som kan hjälpa mig.
Jag tror att det finns användningsområden där LLM:er kan hjälpa en. Men än så länge vill jag bara att bubblan ska spricka.

































Låter som klok användning!
Sen tycker jag man ska använda andra automatiska verktyg som inte är AI. Man kan gott köra på den vanliga stavningskontrollen i sin ordbehandlare (som väl nu också tipsar om gramatik?) istället för att köra AI. Känns onödigt liksom. Det finns massvis med grejer man kan automatisera mer utan att ens nudda AI.