Det här tycker jag var otroligt deppigt. AI används mer och mer för att ersätta ”dyrt” arbete utfört av människor, även om resultatet är undermåligt. Så länge det finns pengar att tjäna så kommer det att fortsätta. Jag känner verkligen med författaren i hennes vånda över att totalt tvingas åsidosätta sin yrkesstolthet.
Vad kan vi göra för att vända den här vansinniga utvecklingen?
Ett första steg kanske är att vägra använda generativ AI, eller enbart köra öppna varianter på egen hårdvara men en kommer inte ifrån problemen med träningsdata. Talar i egen sak i egenskap av Syndikalist men jag tror det är klokt att se det som en arbetsmarknadspolitisk fråga och att det bästa är att engagera sig fackligt: [https://www.sac.se/bli-medlem/](Bli medlem)
Är en med i ett LO eller tjänstepersonsfack så går det ju att vara saltig och ställa krav på ledning och förtroendevalda.
Jag tänker lite på vad fotografiet gjorde med konsten. När det går att göra Muzak av all konst så blir den genuina intentionen, handlaget och kvaliteten så mycket mera värd.
Jag tror också att det här nästan helt är en arbetsrättslig fråga på exakt samma sätt som tidigare hantverksyrken specialiserats för att förbilliga arbetet och göra arbetare lättare att ersätta. Jämför med vävstolar osv.
Tyvärr betyder det väl också att det historiskt sett kommer att gå åt helvete eftersom allt annat gjort det.
Deprimerande nog tror jag att det som kommer att funka är upphovsrättsvinkeln (som ju backas av andra företag), men det kommer förmodligen bara att centralisera LLMer på exakt det sättet som Spotify gjorde med piratad musik, med alla Spotifys nackdelar ovanpå det.
Ja, exakt. Upphovsrätten kommer i detta fall inte gynna artister eller allmänheten.
Jesper Nilsson skrev bra om upphovsrätt kopplat till AI i denna krönika:
https://www.etc.se/kronika/11-filterbubbla-kroenika
Det här är en direkt oärlig representation av vad frågan handlar om och Jesper borde veta bättre. Frågan handlar precis om vad en LLM verkligen gör med materialet den tränas på och vad det säger om resultatet, modellen. Jesper utgår från att den ”läser” det, men det är en antropomorfisering av vad som händer. Att träna en LLM på data är att komprimera datan med typiskt enorm förlust.
Den stora frågan är vad det säger om modellen. Amerikansk upphovsrätt har en kraftigt utökad citaträtt som skulle tillåta vissa former av transformativa verk (cut-up-poesi av en artikel) men inte andra (jag får inte publicera artikeln upp och ner i min egen tidning som en nyhet). Specifikt NYT har demonstrerat att med lite provokation kan ChatGPT godtyckligt återskapa artiklar de äger. Frågan är nu dels om en modell blir ett derived work, dels (antar jag) i vilken utsträckning en modell är transformativ och i konkurrens med originalet. Inget av det handlar om vem som får läsa vad utan om rätt enkla koncept, typ att ChatGPT tillhandahåller en tjänst som citerar så mycket ur NYT att det riskerar att ersätta behovet av att läsa NYT. Det metafysiska perspektivet Jesper kommer dragande med är direkt korkat.
Det är klart att det går att ställa upp en licensfråga också och fråga sig ”får jag kräva av användare att de inte läser min text på torsdagar/i svart/vitt” osv, men det är en mycket svårare fråga att begränsa (om någon läser min text på ett träd i skogen och ingen ser det, har den lästs då?). Och framför allt är det inte den huvudsakliga upphovsrättsfrågan som diskuteras. Problemet aktualiseras ju först när jag gör något med en produkt som varit i kontakt med NYTs material (inklusive att publicera en bunt serialiserade matriser som producerats genom att behandla deras text).
Det här påminner mig om Owner-Free File System som också medvetet missförstod upphovsrätten på ett liknande sätt.