Månadens fråga

Vår partner Rosholm Dell Advokatbyrå har rollen som månadens besvarare av styrelserelaterade frågor med inriktning på affärsjuridik. Välkommen att mejla sydost@styrelseakademien.se om du har en fråga till Anders Rosholm och Per Gruwberger på advokatbyrån. Vi tackar också Nils-Erik Persson som varit vår styrelseexpert 2019-2023.
Du hittar längst ned samlingsdokument för alla tidigare frågor och svar!

Fråga: Jag har hört talas om AI Act (AI-förordningen) men vad innebär det egentligen för oss som företag? Vi är inte en bank eller försäkringsbolag, så vi är inte så vana vid komplicerad regelefterlevnad. Vi använder dock lite AI i vår verksamhet och planerar att göra det ännu mer.

Svar: Tack för din fråga om EU:s nya AI Act. Kortfattat syftar den till att reglera användningen av AI inom EU för att säkerställa säkerhet och respekt för grundläggande rättigheter. För företag innebär det nya skyldigheter, oavsett bransch.

En viktig del är klassificeringen av AI-system efter risknivå. Särskilt ”högrisk”-system omfattas av strikta krav. Exempel på högrisk-system kan vara AI som används vid rekrytering, bedömning av kreditvärdighet eller för att styra kritisk infrastruktur. Även om ni inte är ett finansbolag kan AI-system ni använder för exempelvis personalhantering eller automatiserade beslut klassas som högrisk.

Det är viktigt att förstå att kraven gäller både för utvecklare av AI-systemen och för företag som använder dem. För företag som använder högrisk-AI-system innebär det bland annat följande:

  • Tydlig dokumentation: Ni behöver kunna visa hur systemet används, dess syfte och hur det integreras i er verksamhet.

  • Mänsklig tillsyn: Det ska finnas möjlighet för människor att övervaka och ingripa i systemets funktion. Automatiska beslut ska inte vara helt utan mänsklig kontroll.

  • Spårbarhet: Det ska finnas loggar och spårbarhet för att kunna utreda eventuella fel eller problem.

  • Utbildning: Som tidigare nämnts behöver ni redan från 2025 kunna visa att era anställda har fått utbildning i hur de ska använda AI-systemen på ett korrekt och ansvarsfullt sätt. Detta inkluderar förståelse för systemets begränsningar och potentiella risker.

  • Informationsskyldighet: I vissa fall kan det finnas krav på att informera individer om att de interagerar med ett AI-system.

De flesta kraven börjar gälla 2026, men just kravet på utbildning börjar gälla redan 2025. Det är därför hög tid att börja se över er AI-användning och förbereda er för de nya reglerna. Genom att tidigt identifiera vilka AI-system ni använder och hur de klassificeras kan ni säkerställa regelefterlevnad och undvika eventuella sanktioner.

Notera att detta endast är generell information. Inget av det som skrivs ovan ska ses som juridisk rådgivning. 

Vill du veta mer rekommenderar vi att du går en grundläggande styrelseutbildning för att få grepp om hela ansvaret du har som styrelseledamot.