Jag har börjat använda betalversionen av Anthropics Claude rätt frekvent i mitt arbete. När jag är klar med en YH-ansökan så tänker jag gå över till att testa Mistrals LeChat för att slippa betala för en US of A - tjänst.
Jag har användning för AI-verktygen. Det jag använder dem till är:
- Att korrläsa text
- Att omformulera text till social media inlägg
- Research
- Att generera ansökningstexter
Det finns flera risker med att förlita sig till och använda LLMer. Några konkreta risker jag ser är:
- Anthropic och ChatGPT kan mycket väl gå omkull vilken minut som helst. Verksamhet som förlitar sig på dessa får i så fall stora problem.
- Förskitligande av botarna. Botarna är inte finansiellt gångbara, för att få kalkylen att gå ihop så är det knappast osannolikt att de snart börjar serva oss med reklam.
- Hallucinationer och fake news är fortsatt ett problem som kräver ständig vaksamhet.
- Att förlita oss på AI riskerar nog att accellerera trender mot allmän fördumning av mänskligheten.
- Tillgång till de bästa verktygen riskerar att bli riktigt dyrt och är kanske redan idag en klassfråga.
En potentiell lösning som löser en del av problemen är kanske att hosta egna botar. Det finns en del lovande initiativ där öppna modeller släppts. https://www.ai.se/ En del av dessa har kanske tillräcklig kvalitet för att kunna vara ett gångbart alternativ till kommersiella aktörer men det verkar kräva riktigt dyr hårdvara.
Det finns etiska dilemman kring plagiat m.m. men då jag har användning för LLM har jag svårt att vifta bort frågan. Jag tror det behövs ingående strukturell analys om hur LLM:er påverkar maktförhållanden på arbetsmarknaden och i samhället samt hur den tekniska utvecklingen kan bidra till frihet, fred och allmänn välfärd.
Jag tänker att det finns större etiska dilemman än plagiat. Några andra konkreta problem:
Jag tänker också att fördumningen du nämner behöver beskrivas ytterligare. Det handlar inte bara om att studenter inte lär sig saker, eller om att folks kritiska tänkande urholkas, det handlar också om att vi urvattnar våra källor till information i precis alla led, och överväldigar de system som finns för att sålla fram trovärdig information. Forskarvärlden har under lång tid kämpat mot ett hav av undermålig forskning, och nu är det plötsligt i princip gratis att producera skräpartiklar. Flera open source-projekt har stängt ner sina bug bounty-program eller har behövt börja sålla hårdare när folk försöker bidra kod pga stora mängder spam genererat av LLMer.
Något kan vara användbart för enskilda men ha såpass negativa effekter på samhället att det ändå inte är något vi borde ägna oss åt. Min känsla inför LLMer att de är ett sådant fenomen.