Det finns mycket att säga om det vidriga som händer nu när Israel bombar Gaza urskillningslöst. Men en sak som jag fastnat för är teknikanvändningen och då speciellt AI och ansiktsigenkänning.

Den israeliska tidningen 972 magazine har gjort ett väldigt bra reportage om Israels användning av AI-verktyget Lavender

The Israeli army has marked tens of thousands of Gazans as suspects for assassination, using an AI targeting system with little human oversight and a permissive policy for casualties

Artikeln är lång och värd en läsning. Men det jag vill föra vidare här är att exakt samma sak tror jag kommer hända med i princip all AI-användning som ger rekommendationer i verksamheter som har pressad personal. Tänk er en överarbetad socialarbetare i en kommun som ska handlägga bistånd. Hur ofta kommer hen att gå igenom och granska underlaget till det föreslagna avslagsbesluter som AI-verktyget gör när hen använt verktyget i mern ett år?

Jag tror att digitalisering och automatisering är väldigt bra för att förenkla för arbetare. Och det är stor skillnad på ett automatiskt system som visar “personen har ännu inte fyllt i blankett X eller lämnat in intyg Y” utan att hitta på grejer. Med AI så ökar riskerna enormt.

Vad tror ni om AI? När och hur kan man använda AI så att arbetarnas arbete förenklas utan att försämra kvaliteten?

  • @samuelOPM
    link
    Svenska
    26 months ago

    Om du hittar länk om det amerikanska sjukvårdsförsäkringsbolaget så skulle jag gärna läsa det!

    Jag tänker att risken är otroligt stor att man till slut kommer låta AI:n bestämma utan att man knappt tittar. Det blir verkligen en mänsklig gummistämpel på det

    • @ejnro
      link
      Svenska
      26 months ago

      Hittade artikeln. Ars Technica: UnitedHealth uses AI model with 90% error rate to deny care, lawsuit alleges

      But, instead of changing course, over the last two years, NaviHealth employees have been told to hew closer and closer to the algorithm’s predictions. In 2022, case managers were told to keep patients’ stays in nursing homes to within 3 percent of the days projected by the algorithm, according to documents obtained by Stat. In 2023, the target was narrowed to 1 percent.

      And these aren’t just recommendations for NaviHealth case managers—they’re requirements. Case managers who fall outside the length-of-stay target face discipline or firing. Lynch, for instance, told Stat she was fired for not making the length-of-stay target, as well as falling behind on filing documentation for her daily caseloads.

      • @samuelOPM
        link
        Svenska
        26 months ago

        Tack! Ja, kombon av AI och att ställa krav på att ge avslag är ju en mardröm. Men så klart en våt dröm för effektiviseringsliberaler