- cross-posted to:
- world@lemmy.world
- world@lemmy.world
- cross-posted to:
- world@lemmy.world
- world@lemmy.world
Det finns mycket att säga om det vidriga som händer nu när Israel bombar Gaza urskillningslöst. Men en sak som jag fastnat för är teknikanvändningen och då speciellt AI och ansiktsigenkänning.
Den israeliska tidningen 972 magazine har gjort ett väldigt bra reportage om Israels användning av AI-verktyget Lavender
The Israeli army has marked tens of thousands of Gazans as suspects for assassination, using an AI targeting system with little human oversight and a permissive policy for casualties
Artikeln är lång och värd en läsning. Men det jag vill föra vidare här är att exakt samma sak tror jag kommer hända med i princip all AI-användning som ger rekommendationer i verksamheter som har pressad personal. Tänk er en överarbetad socialarbetare i en kommun som ska handlägga bistånd. Hur ofta kommer hen att gå igenom och granska underlaget till det föreslagna avslagsbesluter som AI-verktyget gör när hen använt verktyget i mern ett år?
Jag tror att digitalisering och automatisering är väldigt bra för att förenkla för arbetare. Och det är stor skillnad på ett automatiskt system som visar “personen har ännu inte fyllt i blankett X eller lämnat in intyg Y” utan att hitta på grejer. Med AI så ökar riskerna enormt.
Vad tror ni om AI? När och hur kan man använda AI så att arbetarnas arbete förenklas utan att försämra kvaliteten?
Jag tänker ofta på Israel som en försmak av vad som kommer hända i världen i övrigt. Landet tillåts bete sig som ett undantag, praktikerna bygger upp tolerans, och sedan flyttar taktikerna “hem”. På liknande sätt som kolonierna användes och används än idag. Sven Lindqvists skriver rätt mycket om det senare i sin bok om bombningens historia, “Nu dog du”. Alltså hur man först flygbombade i kolonierna och ingen kunde tänka sig att sådana grymheter skulle kunna användas “hemma i Europa”. Sedan kom världskrigen. Nu tar vi bomberna för givet i krigföringen. Ge det några år så kommer polisen här börja använda det. Först Israel, sedan USA, sedan Europa.
Ja, det ligger mycket i det. Det finns många startups i Israel också som kan testa sin teknik på palestinier och säga att den är “testad i fält”. Mycket av övervakningen är så.
Det är bra att kolla utvecklingen i Israel och USA för som du säger, sen kommer sakernan hit om vi inte bjuder motstånd.
Tamsons (M) sjuka förslag om ansiktsigenkänning i tunnelbanan är ju ett färskt exempel. Inte heller svårt att se att han skulle vilja använda även mot plankare på samma sätt som “jay walkers” upptäcks automatiskt i Kina eller kvinnor utan hijab upptäcks i Iran.
När spamfilter först kom var jag ganska noga med att ändå nån gång i månaden ögna igenom spamkorgen för att se om roboten hade filtrerat bort nåt viktigt av misstag. Men med tiden föll det bort. Och det har ibland lett till totala katastrofer. Ändå är det inte speciellt ofta jag kollar där och när jag gör det så är det med grep.
Vi har en trasig ekonomi, ekonomi i ordets vidare betydelse (“hushållslära”). Kompromisser och genvägar som egentligen inte funkar så bra.
If X is less than the cost of a recall, then we don’t recall. Everywhere I go, there’s the burned-up wadded-up shell of a car waiting for me. I know where all the skeletons are.
Ser fram emot att se fler personer börja anamma en mer medveten och kritisk inställning till teknik och till emergenta konsekvenser av samhällets processer. 👍🏻
Mycket bra exempel med spamkorgen!
Det är en upprörande artikel då det handlar om dråp på civila, men också då det är en teknik som suddar ut beslutsansvaret.
Erfarenheten säger att teknologi som används i krig kommer användas civilt efteråt. Eller rättare sagt det sker redan. Läste för ett tag sen om ett amerikansk sjukvårdsförsäkringsbolag som använde automatiska beslutssystem för att besluta om försäkringar. I teorin skulle alla beslut gås genom av en människa, men i praktiken pressades handläggarna att lägga sig nära AI-beslutet i de flesta fall.
Jag vet att ekonomisk bistånd i Uppsala använt AI som beslitsstöd i flera år, men har ingen koll på hur det används. Det finns säkert i flera kommuner.
Om du hittar länk om det amerikanska sjukvårdsförsäkringsbolaget så skulle jag gärna läsa det!
Jag tänker att risken är otroligt stor att man till slut kommer låta AI:n bestämma utan att man knappt tittar. Det blir verkligen en mänsklig gummistämpel på det
Hittade artikeln. Ars Technica: UnitedHealth uses AI model with 90% error rate to deny care, lawsuit alleges
But, instead of changing course, over the last two years, NaviHealth employees have been told to hew closer and closer to the algorithm’s predictions. In 2022, case managers were told to keep patients’ stays in nursing homes to within 3 percent of the days projected by the algorithm, according to documents obtained by Stat. In 2023, the target was narrowed to 1 percent.
And these aren’t just recommendations for NaviHealth case managers—they’re requirements. Case managers who fall outside the length-of-stay target face discipline or firing. Lynch, for instance, told Stat she was fired for not making the length-of-stay target, as well as falling behind on filing documentation for her daily caseloads.
Tack! Ja, kombon av AI och att ställa krav på att ge avslag är ju en mardröm. Men så klart en våt dröm för effektiviseringsliberaler
Och mina mer generella tankar om riskerna med ML hittar du ju här.
Hej, bra länk om IBM and the Holocaust också! Faran om teknologin kommer alltid att vara där, framför allt om det kontrolleras av högerregeringar.
Här ni läst om Pegasus?
Bra tips! Den boken måste jag läsa! (Ännu ett bra boktips från Aggregatet jag lägger till i listan 😎).
Ja, Pegasus är ju helt sjukt! Amnesty skrev bra rapporter om det.
Åhh, det inlägget hade jag missat! Skummade snabbt och det lilla jag läste var väldigt intressant! Ska läsa mer noggrant snart!
Jag gillar inte AI alls. Eller rätt använt kan det vara bra. Tex i brottmålsundersökningar eller inom sjukvården. Även inom viss typ av forskning kan nog AI vara ett bra hjälpmedel. Men all skit man använder tekniken till. Fy bubblan.
I sjukvården för att hjälpa läkare att t.ex. identifiera cancer är ett område där AI (eller maskininlärning vilket ju är samma samma) kan vara till stor hjälp