Robotar: Vem tar ansvar?
- Kehinde Soetan
- Jul 28
- 3 min read
Updated: Aug 1

Utvecklingen av artificiell intelligens och det föränderliga teknologilandskapet har skapat ett behov för organisationer, regeringar, myndigheter och till och med individer att undersöka vem som bör hållas ansvarig när en robot misslyckas eller fungerar felaktigt. Enligt Cambridge Dictionary beskrivs anpassningsförmåga som "förmågan att förändras eller anpassa sig till förändrade omständigheter". De flesta robotar (om inte alla) kan sägas vara anpassningsbara. Det innebär att robotar kan fatta beslut utan direkt mänsklig inblandning eller påverkan – antingen baserat på återkoppling eller i realtid på grund av data. Till exempel kan en robot som används inom sjukvården förbättra sitt beteende baserat på förändringar i data i realtid eller till och med på återkoppling från den operation den utför.
Vem bär ansvaret eller skulden när en självkörande bil kör på en intet ont anande person som står vid en busshållplats, särskilt om olyckan inträffade som ett resultat av robotens anpassningsförmåga – att roboten justerade sitt beteende utifrån realtidsdata (det justerade beteendet kan till exempel innebära att försöka undvika en kollision med ett barn)? Den mänskliga oförmågan att relatera till en robot på samma sätt som till en annan människa gör det mycket svårt att hålla någon ansvarig i sådana situationer som exemplet med den självkörande bilen. De befintliga ansvarighetsmodellerna är inte till särskilt stor hjälp, eftersom det verkar som att dessa modeller inte är utformade med dagens teknologiska verklighet i åtanke. Enligt webbplatsen Number Analytics kan en person hållas ansvarig för produktskada, vårdslöshet, uppsåt, skadeståndsrätt med mera. Till exempel kan en användare välja att hålla tillverkaren ansvarig och väcka åtal om deras produkt orsakar skada.
I fallet med robotar är det dock mycket svårt att ansvaret enbart ligger på en individ som använder roboten, eller ens på roboten själv. Den komplexitet som omgärdar en robots "tillblivelse" gör det svårt att lägga skulden på bara en person eller på själva roboten när något går fel. Till exempel kan bristen på empati och en robots oförmåga att förstå en icke-verbal patients smärta under en operation göra det svårt för roboten att avbryta ingreppet när patienten har kraftig smärta, eller att anpassa sitt beteende därefter (om ingen mänsklig läkare finns närvarande). Dessutom kan det faktum att den sjukdom som roboten opererar på inte nödvändigtvis är den direkta orsaken till patientens död (men ändå ha orsakat den indirekt) göra det ännu svårare att fastställa ansvar i samband med kirurgiska ingrepp med robotar. Exempelvis kan blödning efter operationen, även om den inte orsakades direkt av roboten, ändå leda till patientens död.
Ovanstående exempel visar hur komplicerat det kan bli att avgöra vem som ska hållas ansvarig för en robots misstag eller felfunktion. När det gäller robotar och ansvar måste organisationer, tillsynsmyndigheter och regeringar göra en djupgående analys av hur ansvar ska fördelas. Till exempel: Är det utvecklarna som bär ansvar? Är det dataexperterna och maskininlärnings ingenjörerna? Produktägaren? Designern? Organisationen? Eller användaren? Det är viktigt att ansvar hanteras från fall till fall, eftersom det kanske inte finns någon universell lösning för hur detta ska hanteras. Eftersom varje intressent har bidragit på något sätt till robotens produktion och användning, bör varje part agera ansvarsfullt när en felfunktion uppstår, och ansträngningar bör göras för att spåra orsaken till varje enskilt fel.
Utöver att intressenter bör agera ansvarsfullt, och för att minska antalet felfunktioner hos robotar, bör organisationer designa robotar med säkerhet i åtanke.** Verifikations- och kvalitetsingenjörer bör säkerställa att robotar misslyckas på ett säkert sätt under tester. Reviderad och granskad data bör användas vid träning av robotar. Dataetik bör följas, och utvecklare bör skriva ren och hållbar kod. Slutligen bör ett juridiskt och robust ramverk införas av tillsynsmyndigheter som kan fungera som en vägledning och underlätta förståelsen för de olika intressenternas roller när en robot fungerar fel.