Det här tycker jag var otroligt deppigt. AI används mer och mer för att ersätta ”dyrt” arbete utfört av människor, även om resultatet är undermåligt. Så länge det finns pengar att tjäna så kommer det att fortsätta. Jag känner verkligen med författaren i hennes vånda över att totalt tvingas åsidosätta sin yrkesstolthet.

Vad kan vi göra för att vända den här vansinniga utvecklingen?

  • Jonathan
    link
    fedilink
    Svenska
    arrow-up
    5
    ·
    5 months ago

    Ett första steg kanske är att vägra använda generativ AI, eller enbart köra öppna varianter på egen hårdvara men en kommer inte ifrån problemen med träningsdata. Talar i egen sak i egenskap av Syndikalist men jag tror det är klokt att se det som en arbetsmarknadspolitisk fråga och att det bästa är att engagera sig fackligt: [https://www.sac.se/bli-medlem/](Bli medlem)

    Är en med i ett LO eller tjänstepersonsfack så går det ju att vara saltig och ställa krav på ledning och förtroendevalda.

    Jag tänker lite på vad fotografiet gjorde med konsten. När det går att göra Muzak av all konst så blir den genuina intentionen, handlaget och kvaliteten så mycket mera värd.

    • Amanda
      link
      fedilink
      Svenska
      arrow-up
      3
      ·
      edit-2
      4 months ago

      Jag tror också att det här nästan helt är en arbetsrättslig fråga på exakt samma sätt som tidigare hantverksyrken specialiserats för att förbilliga arbetet och göra arbetare lättare att ersätta. Jämför med vävstolar osv.

      Tyvärr betyder det väl också att det historiskt sett kommer att gå åt helvete eftersom allt annat gjort det.

      Deprimerande nog tror jag att det som kommer att funka är upphovsrättsvinkeln (som ju backas av andra företag), men det kommer förmodligen bara att centralisera LLMer på exakt det sättet som Spotify gjorde med piratad musik, med alla Spotifys nackdelar ovanpå det.

      • samuel
        link
        fedilink
        Svenska
        arrow-up
        1
        ·
        4 months ago

        Ja, exakt. Upphovsrätten kommer i detta fall inte gynna artister eller allmänheten.

        Jesper Nilsson skrev bra om upphovsrätt kopplat till AI i denna krönika:

        https://www.etc.se/kronika/11-filterbubbla-kroenika

        Den amerikanska tidningen har samtidigt valt att stämma företaget OpenAI, som ligger bakom ChatGPT. Här handlar det inte, som i de tidigare striderna, om att någon utan tillåtelse kopierat, plagierat eller spridit upphovsrättsskyddat material. Det handlar om att tekniken olovligen tränats på materialet. AI-företag lagrar inte originalverk, de samlar bara analytisk kunskap om dem.

        När New York Times och andra stora medieaktörer nu gör motstånd mot AI-företagen innebär detta alltså inte att de vill begränsa spridandet av deras material, utan att de vill begränsa själva tillgången till det. Ja, de vill rent av villkora det. Vem ska få läsa en viss text? Vem ska få lära sig av den? Och i vilket syfte? Det är en närmast totalitär kunskapssyn.

        Det finns en berättigad oro för att AI-tekniken ska användas till att sprida plagiat eller falsk information (så kallade deep fakes). Men precis som ARL (Association of Research Libraries, som samlar forskningsbibliotek i Kanada och USA) poängterar i sin kommentar till New York Times stämning måste vi göra en ”tydlig distinktion” mellan att begränsa input och output.

        Låt oss inte kasta ut barnet med badvattnet. Fri tillgång till information och kunskap är en förutsättning inte bara för AI-modeller – utan också för ett fungerande och välmående samhälle.

        • Amanda
          link
          fedilink
          Svenska
          arrow-up
          1
          ·
          edit-2
          4 months ago

          Det här är en direkt oärlig representation av vad frågan handlar om och Jesper borde veta bättre. Frågan handlar precis om vad en LLM verkligen gör med materialet den tränas på och vad det säger om resultatet, modellen. Jesper utgår från att den ”läser” det, men det är en antropomorfisering av vad som händer. Att träna en LLM på data är att komprimera datan med typiskt enorm förlust.

          Den stora frågan är vad det säger om modellen. Amerikansk upphovsrätt har en kraftigt utökad citaträtt som skulle tillåta vissa former av transformativa verk (cut-up-poesi av en artikel) men inte andra (jag får inte publicera artikeln upp och ner i min egen tidning som en nyhet). Specifikt NYT har demonstrerat att med lite provokation kan ChatGPT godtyckligt återskapa artiklar de äger. Frågan är nu dels om en modell blir ett derived work, dels (antar jag) i vilken utsträckning en modell är transformativ och i konkurrens med originalet. Inget av det handlar om vem som får läsa vad utan om rätt enkla koncept, typ att ChatGPT tillhandahåller en tjänst som citerar så mycket ur NYT att det riskerar att ersätta behovet av att läsa NYT. Det metafysiska perspektivet Jesper kommer dragande med är direkt korkat.

          Det är klart att det går att ställa upp en licensfråga också och fråga sig ”får jag kräva av användare att de inte läser min text på torsdagar/i svart/vitt” osv, men det är en mycket svårare fråga att begränsa (om någon läser min text på ett träd i skogen och ingen ser det, har den lästs då?). Och framför allt är det inte den huvudsakliga upphovsrättsfrågan som diskuteras. Problemet aktualiseras ju först när jag gör något med en produkt som varit i kontakt med NYTs material (inklusive att publicera en bunt serialiserade matriser som producerats genom att behandla deras text).

          Det här påminner mig om Owner-Free File System som också medvetet missförstod upphovsrätten på ett liknande sätt.

  • samuel
    link
    fedilink
    Svenska
    arrow-up
    2
    ·
    4 months ago

    Riktigt deppigt! Problemet är att den eventuella hjälp man får från AI eller annan teknik inte används för att frigöra tid utan för att pressa arbetarna mer. Tror nog som Jonathan att fackligt arbete kan vara vägen framåt.