EU har under de senaste åren varit mycket aktivt i arbetet att reglera artificiell intelligens (AI). Arbetet mynnade våren 2021 ut i ett förslag till en förordning kallad AI-förordningen. I september 2022 föreslogs även ett nytt EU-direktiv som kommer innebära en anpassning av reglerna om utomobligatoriskt skadeståndsansvar vid skada orsakad av AI.
Syftet med AI-förordningen är i korthet att främja och harmonisera utvecklingen av AI-system, samtidigt som individers grundläggande rättigheter och integritet respekteras. Detta föreslås åstadkommas genom att dela upp AI-system i ett antal olika kategorier, förbjudna AI-system (som inte får släppas ut på marknaden), AI-system med hög risk (som får släppas ut på marknaden under förutsättning att en mängd regulatoriska krav efterlevs), och andra typer av AI-system som inte bedöms utgöra höga risker för individer (och som i princip inte är föremål för reglering). Den leverantör (t.ex. utvecklaren av AI-systemet) eller användare (t.ex. det företag som brukar AI-systemet i sin verksamhet) av ett AI-system som bryter mot reglerna i AI-förordningen föreslås kunna bli föremål för sanktioner.
AI-förordningen reglerar emellertid inte skada som en utomstående privatperson eller företag kan drabbas av vid användningen av AI-system. Istället är man som skadelidande hänvisad till de vanliga bestämmelserna om skadeståndsansvar utanför avtalsförhållanden. Gällande ansvarsregler kan dock innebära särskilda svårigheter för den som har lidit skada av AI att få denna ersatt.
Enligt huvudregeln i svensk rätt krävs för skadeståndsansvar utanför avtalsförhållanden att någon har lidit en person- eller sakskada, att skadevållaren har orsakat skadan genom uppsåt eller vårdslöshet, samt att det föreligger ett tillräckligt orsakssamband (adekvat kausalitet) mellan skadevållarens handling och den uppkomna skadan. Ren förmögenhetsskada, dvs. ekonomiska skada som uppkommit utan samband med att någon lidit en person- eller sakskada, som uppkommer utanför avtalsförhållanden ersätts i princip bara om den vållats genom brott och i vissa undantagsfall, t.ex. då någon lämnat vilseledande information och den skadelidande parten haft särskild anledning att förlita sig på denna.
När skador har orsakats av AI kan det för det första vara svårt att slå fast vilka av de fysiska och/eller juridiska personer som har varit involverade t.ex. i utvecklingen i ett AI-system som kan hållas ansvariga. Vidare är det osäkert hur bedömningen av om potentiellt ansvariga personer agerat vårdslöst ska göras, då det inte finns någon tydligt fastslagen aktsamhetsnorm att förhålla sig till. Slutligen kan det vara svårt att göra en tillräckligt tydlig koppling mellan personers handlande och den uppkomna skadan. Detta kompliceras inte minst av det faktum att ett av särdragen med AI är dess autonomi, som innebär att det i vissa fall kan agera självständigt och skulle kunna förändras från att det initialt utvecklades.
För att komma tillrätta med den ovan beskrivna osäkerheten föreslår EU-kommissionen nu genom ett förslag till direktiv från den 28 september 2022 en anpassning av reglerna om utomobligatoriskt skadeståndsansvar vad gäller AI. Direktivet syftar till att ytterligare främja utbyggnaden av pålitlig AI och att förbättra funktionen av den inre marknaden genom en harmonisering av medlemsstaternas lagstiftning om bl.a. edition och bevisbörda vid vissa skadeståndsanspråk som rör AI.
För det första innehåller förslaget regler om att leverantörer och användare av AI-system med hög risk, som anklagats för att ha orsakat skada, ska kunna bli föremål för beslut om edition och bevarande av bevis, i syfte att lättare kunna avgöra om leverantören eller användaren i fråga varit vårdslös. En skadelidande som har lagt fram tillräckliga fakta och bevis för sitt anspråk och vidtagit alla rimliga åtgärder för att få ut bevisen från den påstått skadevållande ska under vissa omständigheter kunna få relevanta bevis utlämnade via domstol. Dessutom ska vårdslöshet som huvudregel förutsätts vara för handen om den påstått skadevållande inte följer ett domstolsbeslut om att lämna ut eller bevara bevis.
Förslaget innehåller för det andra en bevislättnadsregel, vilken innebär att domstolen i vissa fall ska utgå ifrån att det föreligger ett orsakssamband mellan en påstått skadevållandes oaktsamhet och ett AI-systems utdata eller underlåtenhet att producera utdata. Detta gäller om den skadelidande dels kan styrka oaktsamhet (eller att oaktsamhet presumeras föreligga enligt de ovan nämnda reglerna om edition), dels att det kan anses sannolikt att oaktsamheten påverkade utdata eller underlåtenheten att producera utdata och att den skadelidande kan visa att detta orsakade skadan. Särskilda bevisbörderegler föreslås även gälla i relation till högrisk-AI-system.
Lagförslagen kommer innebära att såväl företag som utvecklar och släpper ut AI-system på marknaden, som företag som använder AI-system i sin verksamhet, måste ta ett större ansvar för att AI-systemen fungerar på ett korrekt sätt. AI-förordningen föreslås börja tillämpas 24 månader efter att den antagits, och direktivet ska införlivas i svensk lag senast 24 månader efter att det antagits.
Vill ni veta mer om förslagen och hur de kan påverka er verksamhet? Hör i sådant fall av er till oss så berättar vi mer.