Vad kan man lita på?
ALGORITMER Vem eller vad har ansvar när något händer efter att vi följt en uppmaning från en algoritm? Kaos rådde när journalsystemet Millenium infördes och kritiken mot säkerhetsappen Cosafe är hård efter skoldådet i Örebro. Fler dyrköpta lärdomar borde vi inte behöva. Det skriver Karin Nilsson i sin ledare.

Text : Karin Nilsson
Publicerad: 2025-06-23

De sprang ut för att komma undan skotten, men kanske hade det varit bättre att stanna kvar i klassrummet den där ödesdigra dagen. Den 4 februari dog tio personer på Risbergska i Örebro. De sköts ihjäl av en ung man. Motivet är ännu oklart. En lärare fick larm i en säkerhetsapp på sin dator och började inrymma, men ändrade agerande efter information i appen – där stod det utrym. Det framgår av vår reporter Kamilla Kvarntorps genomgång av anmälningar till Arbetsmiljöverket efter händelsen.
Men vad eller vem hade ansvar för att de inte stannade kvar i klassrummet utan sprang ut? Frågan behöver ställas, för där, på vägen ut, när de utrymde i stället för att ligga gömda i klassrummet, sköts två elever ihjäl … frågan behöver ställas så att risken försvinner för att något liknande händer igen.
Ny teknik ska hjälpa människor. Det måste vara utgångspunkten. Men vi måste veta hur vi ska använda den för att det ska bli bra. Och där haltar det betänkligt. Helt i onödan, enligt vissa forskare.
Vårt tema i det här numret, nummer tre 2025, handlar om ny teknik i form av algoritmiskt ledarskap, vad vi hittills vet om konsekvenserna för arbetsmiljön och om ansvarsfrågorna. Än så länge finns det med stor sannolikhet inte något ärende som testat om dagens regelverk räcker för att hantera ansvarsfrågan om en arbetstagare skadat sig efter att ha arbetsletts av en algoritm.
Är det den som programmerat, den som sålt, den som använt ai-verktyget, eller vem eller vad är det som har ansvar om något gått snett? Och var fanns det eventuellt något fel?
Frågorna är svåra eftersom ingen vet riktigt vad som sker i det algoritmiska virrvarret – som förstås följer en mycket logisk tråd – men som ändå för oss utomstående är ett mörker. I ai-kretsar kallas det för ”black box”. Frågan är också vilket ansvar vi själva tar när vi får information från eller via en app, dator eller en robot. Litar vi mer på ett algoritmstyrt budskap än på oss själva?
De här frågorna behöver vi ställa oss när allt fler arbetsleds av algoritmer. Och vi behöver ställa dem innan något händer så att lärdomarna inte kommer till ett alltför högt pris.
I och med det här numret av Allt om arbetsmiljö tar jag över efter min kära kollega Elsa Frizell. Elsa har börjat ett nytt arbete så tips, råd och synpunkter får ni hädanefter mycket gärna skicka till mig, Karin Nilsson.
Läs mer om ai, arbetsmiljön och ansvaret i det senaste numret av Allt om arbetsmiljö. Hela numret läser du som prenumerant här.
Så här jobbar vi på Allt om arbetsmiljö med journalistik. Redaktionen är oberoende från vår ägare och vi arbetar opartiskt. Vi stödjer inte något politiskt parti eller organisation och vi tar inte ställning. Det vi publicerar ska vara sant och ha hög kvalitet.