Algoritmerna utmanar dagens regelverk
DEL 4 ANSVAR De rättsliga frågorna om ai och arbetsmiljön är svåra och delvis olösta. Frågan om var ansvaret ligger när någon skadat sig efter att ha arbetsletts av en algoritm har ännu inte prövats, och ännu finns det ingen myndighet som ser till att ai-förordningen efterlevs.

Text : Karin Nilsson
Publicerad: 2025-08-26

I augusti 2024 trädde ai-förordningen i kraft inom EU. Vissa av reglerna för användning av ai-system gäller sedan den 2 februari men ännu är inte sanktionssystemet i gång och det finns inte någon myndighet i Sverige som har i uppdrag att se till att förordningen efterlevs, enligt Jeanna Thorslund, jurist på Myndigheten för digital förvaltning, Digg. Digg har dock i uppgift att informera om och främja digitalisering i offentlig förvaltning och där ingår det att sprida kunskap om lagstiftning som påverkar digitaliseringen.

– Man kan säga att förordningen gäller i hela samhället. Används en produkt med ai-system på en arbetsplats gäller förordningen där.
Om en medarbetare skadas efter att ha arbetsletts av ai eller körts på av en ai-styrd truck finns det regler i förordningen som borde kunna användas, menar Jeanna Thorslund.
– Det finns ju ett produktansvar och det som används måste vara säkert och kontrollerat. Det finns det krav på i ai-förordningen. Sen finns förstås de vanliga arbetsrättsliga reglerna men hur de förhåller sig till de här reglerna är en fråga för Arbetsmiljöverket.
Om reglerna i ai-förordningen krockar eller kompletterar de regler som finns inom arbetsmiljöområdet kan inte Jeanna Thorslund säga. Men en utredning är tillsatt för att se över vilka eventuella justeringar som behöver göras för att de svenska regelverken ska fungera med förordningen.
Och även om sanktionssystemet inte är på plats gäller förordningen och det finns krav som arbetsgivare måste följa redan nu. Viss användning av ai-system för rekrytering eller arbetsledning klassas som ett högriskområde och ai-system som används för att uttyda personers känslor på en arbetsplats är förbjudna.
– Vi vet att det finns sådana system som används inom hr där man till exempel vill kunna följa stressnivåer genom att logga röst- eller ansiktsuttryck. Och sådana används i dag i Sverige, säger Jeanna Thorslund.
Hur vet ni det?
– Jag har fått frågor om sådana system och jag vill verkligen påpeka att det här är förbjudet.
Enligt Jeanna Thorslund är böterna för brott mot förordningen höga. Maxbeloppet är 15 miljoner euro, men boten beror på aktörens omsättning.
Jag har fått frågor om sådana system och jag vill verkligen påpeka att det här är förbjudet.
- Jeanna Thorslund
Ai - förordningen
Är i grunden en produktsäkerhetslagstiftning. Gäller inom EU från och med den 2 augusti 2024. Bestämmelserna börjar gälla stegvis, de första från den 2 februari i år. Förbudet att använda ansiktsigenkänning gäller nu, medan kraven kring rekrytering börjar gälla nästa år.
Syftet är att säkerställa att användningen av ai-system inom unionen är säker, respekterar mänskliga rättigheter och samtidigt underlättar för innovation och investeringar inom ai.
Kraven i förordningen gäller både utveckling, tillhandahållande och användning av ai-system och gäller i första hand där riskerna anses höga som områden som kritisk infrastruktur, ai-tillämpning vid robotkirurgi men också vid anställning eller ledning av arbetstagare. Förordningen fokuserar på produkter där ai på något sätt används och gäller när och där de används.
Källa: Myndigheten för digital förvaltning, Digg och Regeringskansliet.
Arbetsmiljöverket har ännu inte haft något ärende där någon arbetsletts med hjälp av ai och skadats, enligt vad Julia Boija, jurist på enheten för inspektionsjuridik känner till. Hon har däremot haft flera ärenden som rör plattformsföretag som använder ai i sin verksamhet. Men i de fallen är det inte frågan om algoritmisk arbetsledning som varit i fokus.

– Vi har prövat frågan om delvis arbetsledning genom ai i andra ärenden än ärenden gällande arbetstagare som skadats. Frågan om arbetsmiljöansvarets placering bör i många fall vara densamma när en arbetstagare har skadats.
För Arbetsmiljöverket, som utövar tillsyn med hjälp av arbetsmiljölagen, är förutsättningen för att kunna ställa någon till svars att aktören kan ses som arbetsgivare eller annan aktör som har arbetsmiljöansvar enligt arbetsmiljölagen. Julia Boija kan inte i dagsläget säga om det är några speciella frågor som kan bli aktuella om ai är inblandat.
– Det tittar vi på just nu. Vi har ett projekt som ser över vilka arbetsmiljörisker som blir följden av den ökande digitaliseringen och hur riskerna ser ut kopplade till bland annat användningen av ai. Det är ju de risker som finns i en verksamhet som blir utgångspunkten för de krav som vi sedan kan ställa på den som har skyddsansvar för att förebygga ohälsa och olycksfall.
Julia Boija tillägger:
– Vi tittar också på var vi behöver rikta vår tillsyn och vilka frågor vi behöver ställa oss.
Frågan om ifall ai eller olika algoritmer kan ses som arbetsutrustning behöver än så länge bedömas i varje enskilt fall, påpekar Julia Boija, men tillägger att frågan ses över i myndighetens digitaliseringsprojekt. Hon utesluter inte att frågan kan regleras på annat sätt framöver.
– Om ai används i en verksamhet är det den som är ansvarig för verksamheten som också är ansvarig för hur man använder ai:n där.
Skulle ai inte kunna vara arbetsutrustning?
– Det beror nog lite på hur det används, i vilket sammanhang, och av vem.
En fråga som diskuteras är om den som exempelvis programmerat och skapat ett ai-system skulle kunna ställas till svars efter att någon skadats. Hur ser ni på det?
– Det är också en fråga som vi får titta på i vårt digitaliseringsprojekt.
Räcker de regelverk som ni har i dag för att kunna utkräva ansvar?
– Det är för tidigt att svara på. Vi tittar också nu på våra föreskrifter och om de är tillräckliga för att möta de här riskerna eller om vi behöver göra några ändringar i dem, eller om det behövs nya föreskrifter.
Hur ser du på läget just nu?
– Det här är stora frågor. Det händer mycket just nu och vi har mycket arbete att göra. Det kommer också mycket ny lagstiftning från EU och vi tittar över hur den förhåller sig till vårt regelverk.
Vem är det som ska hållas ansvarig? Är det den som har utvecklat ai eller den som använder ai? Vi vet inte riktigt än, för det finns inte något exempel.
- Ida Nordmark
Ida Nordmark är jurist och arbetar med arbetsrätt på advokatfirman Delphi. Hon skriver ibland på byråns blogg om digitalisering och ai. Hon menar att det finns både fördelar och nackdelar med ai och att det gäller att använda den på rätt sätt. Många arbetsmiljöhänsyn och krav är desamma som tidigare och även användningen av ai ska riskbedömas, påminner hon.

Även om Ida Nordmark tror att dagens regelverk står sig väl finns det juridiska utmaningar. När det gäller frågor om rätt till ersättning och rehabilitering om en arbetstagare har drabbats av exempelvis utbrändhet tror Ida Nordmark att dagens regelsystem klarar det.
Hon bedömer dock att algoritmisk arbetsledning skulle kunna leda till exempelvis högre arbetsbelastning. Det är främst frågorna om skuld och ansvar där Ida Nordmark ser problem med regelverket.
– Vem är det som ska hållas ansvarig? Är det den som har utvecklat ai eller den som använder ai? Vi vet inte riktigt än, för det finns inte något exempel.
Inte heller Ida Nordmark känner till något ärende där en arbetstagare har arbetsletts av ai, skadats och det har skett något ansvarsutkrävande.
– Det där är ju en fråga som vi alla undrar över. Hur skulle det fungera?
Ida Nordmark konstaterar också att det händer mycket på regelområdet och anser att ai-förordningen har ett bra fokus på att förebygga.
– Ai-förordningen syftar till att minska risken för att skador sker. Tanken är att man ska säkerställa att den ai som används är bra.
Hon tillägger att förordningen inom hr-området exempelvis ställer krav på mänsklig kontroll, utbildning av personal och ökad transparens vid rekryteringsprocesser om ett ai-system använts.
Ett välkänt exempel på hur fel det kan gå vid rekrytering med stöd från ai är det amerikanska företaget Amazon. Företaget införde 2018 ett ai-system för rekrytering som missgynnade kvinnor eftersom det tränats på informationen om de personer som redan anställts, vilket var fler män.
– Det gjorde att systemet började tänka att kandidatens kön var ett viktigt kriterium och att kvinnor därför sorterades bort, vilket förstås blev problematiskt ur diskrimineringssynpunkt, säger Ida Nordmark.
Hon tillägger:
– Kravet på transparens i förordningen kan kanske göra det lättare att få diskrimineringsersättning i en sådan situation.
De juridiska utmaningarna hänger också ihop med att det är svårt att veta vad som har orsakat skadan, eftersom systemen är så komplexa och man inte kan se eller förstå hur ai:n kommit fram till en lösning. Inom ai pratar man om det så kallade ”black box-problemet”. Det är också svårt att veta om ett fel beror på en människa eller inte.
– Ett problem med ai är just bristen på transparens. Det gör att det är svårt för den skadelidande att visa hur systemet fungerar och om det finns ett orsakssamband mellan funktionen och skadan.
Inom EU fanns därför en önskan att komplettera ai-förordningen med det så kallade ai-ansvarsdirektivet. Jämfört med förordningens förebyggande fokus skulle direktivet hantera läget om skadan ändå sker. Direktivet skulle skydda den som skadats genom att underlätta bevisföringen, enligt Ida Nordmark.
I februari meddelade EU-kommissionen att förslaget drogs tillbaka, eftersom en överenskommelse inte bedömdes som möjlig att nå. Samtidigt meddelades att kommissionen ska överväga om ett nytt förslag ska läggas fram eller om en annan inriktning bör väljas.
På Myndigheten för arbetsmiljökunskap, Mynak, konstaterar man också att frågorna kring ai och arbetsmiljön är många, obesvarade och outforskade. Myndigheten har därför givit ett uppdrag till en forskare i arbetsrätt vid universitetet i Valencia i Spanien att sammanställa vad forskningen hittills säger om de etiska och juridiska utmaningarna med användningen av ai i arbetsledande syfte.

– Här sker det snabba förändringar och det är vår uppgift att se var det finns utmaningar och kunskapsluckor. Regelverk och policyer går ofta inte lika snabbt att få fram som tekniken. Vi hoppas kunna bidra med en kunskapshöjande rapport, säger Robert Ljung, ansvarig på Mynak.
Rapporten ska lyfta både fördelar och nackdelar och vara klar nästa vår.
Enligt projektpresentationen ska det göras en analys av de europeiska lagstiftningarna och tillämpningen på ai inom arbetsmarknaden. Men om det kommer något svar på frågan vart ansvaret ligger efter en skada kopplad till ai-användning kan inte Robert Ljung säga än. Men frågan är viktig liksom även frågan om den enskilde människans känsla av ansvar i mötet med ai på arbetsplatsen, påpekar Robert Ljung.
– Det finns en risk att man själv inte känner samma ansvar på grund av att man anser att man inte har lika stor påverkan. Det är en arbetsmiljöaspekt som jag hoppas få veta mer om.
Så här jobbar vi på Allt om arbetsmiljö med journalistik. Redaktionen är oberoende från vår ägare och vi arbetar opartiskt. Vi stödjer inte något politiskt parti eller organisation och vi tar inte ställning. Det vi publicerar ska vara sant och ha hög kvalitet.