EU föreslår AI etiskt ramverk för att undvika integritetskränkningar och diskriminering. Det är efterlängtat. Sverige kan ta ledartröjan men då behövs en kraftigt förhöjd kunskapsnivån och ett uppvaknande hos politiker och i näringslivet.
Idag presenterar EU kommissionen lagförslag för att reglera artificiell intelligens (AI). Förslaget är en tydlig markering och indikation att AI utan ett etiskt filter kommer att begränsas, och i vissa fall förbjudas. Målet är att medborgare och konsumenter ska känna tillit och att EU’s värdegrund, inklusive mänskliga rättigheter, bibehålls.
Förslaget innebär att så kallade högrisksektorer, som bl.a. transport, offentlig sektor, sjukvård, m.fl., kommer behöva begränsa sin användning av AI om de inte uppfyller vissa krav som förklarbarhet och transparens. Viss typ av övervakning kommer att förbjudas liksom AI som manipulerar individer eller exploaterar data om individers beteende och preferenser i syfte att förändra beteende, åsikter eller beslut.
Allt fler upplever, direkt eller indirekt, de negativa effekterna (”digitala föroreningar”) av AI så som integritetsintrång, desinformation, användarberoende, diskriminering, tvivelaktigt samtycke, annonsbedrägeri, skadlig kod, popup-fönster, pop-ups och falska dialogrutor, missbruk av specialgrupper och robotrecensioner nämna några.
AI Sustainability Center har länge efterfrågat nya affärsmodeller för ökat förtroende och ett större socialt ansvar från organisationer i den datadrivna AI-eran, Etisk AI, och välkomnar förslaget på regleringar.
Vi står inför ett skifte. Från de positiva effekterna som digitaliseringen bidragit till, så som t ex transparens och ökat kundinflytande till negativa externa effekter så som diskriminering och integritetskränkningar. Organisationer behöver vakna upp snabbt och kraftfull till dessa negativa effekter och ansvara för dem. Detta leder i sin tur till möjligheter till innovation som vi kan lita på.
Potentialen av att fullständigt införa AI i svensk offentlig förvaltning beräknas uppgå till cirka 140 miljarder kronor årligen. I Sverige fattades, hos 13 myndigheter, totalt 148 miljoner beslut gentemot privatpersoner och företag under 2019. Av dessa ingick 137 miljoner i automatiserade beslutsprocesser, varav 121 miljoner beslut var helt automatiserade. AI Sustainability Center arbetar med flera av dessa myndigheter inom offentlig sektor för att säkerställa att deras användning av AI är etisk men efterlyser en större vakenhet generellt men hos privata aktörer speciellt.
Det är sedan tidigare känt att verksamheter som tar socialt ansvar ofta är mer framgångsrika. Så det är inte förvånande att 77 procent av mer än 300 tillfrågade stora europeiska institutionella investerare uppger att de helt kommer att sluta investera i “icke-ESG” -produkter och fonder (ESG – Environmental, Social and Governance). Dessvärre har nuvarande ESG-rapporteringen jämförts med läget för den årliga bokslutsrapporteringen före Wall Street-kraschen 1929. Den föreslagna regleringen ger förhoppningar om att verksamheter i framtiden även kommer att värderas utifrån de ”digitala föroreningarna” som de orsakar.
AI Sustainability Center menar att ett AI etiska ramar skapar förhöjt innovationsklimat inom alla sektorer. Sverige kan ta ledartröjan men då behövs kraftigt förhöjd kunskapsnivån hos politiker och i näringslivet.
Sverige har länge varit associerat med värden som tillit, innovation, samt öppenhet. Vi rankar ofta högt på globala listor över hållbara länder. För att Sverige fortsatt ska ta ledartröjan, behöver förslagen till regleringar förstås och anammas snabbt och inte med den yrvakenhet som kännetecknade GDPR. Förslaget har gett oss spelplanen och regelverket (om än dock inte i alla delar solklara), nu handlar det ”bara” om att förberedelser. Här måste tvärfunktionella grupperingar samverka för att få grundstenarna på plats för etisk AI – regelverk, processer, organisatoriskt ansvar, förklarbarhetsmodeller och möjlighet till transparens.
It was in 2016 that Anna realised artificial intelligence technology (AI) was becoming the new general-purpose technology: a technology that would drastically impact the economy, businesses, people and society at-large. At the same time, she noticed that AI was also causing a negative externality — a new type of digital pollution. Consumers have opted in to receive the benefit of digitalization, but are simultaneously facing a dark cloud of bias, discrimination and lost autonomy that businesses needed to be held accountable for. In the traditional environmental sustainability model, organisations are held accountable for physical negative externalities, such as air or water pollution, by outraged consumers and sanctions handed down by regulators. Yet no one was holding technology companies accountable for the negative externalities — the digital pollution — of their AI technology. Regulators have had difficulties interpreting AI in order to appropriately regulate it and customers didn’t understand how their data was being used in the black box of AI algorithms.
Anna’s multidisciplinary research group at the Royal Institute of Technology was the origin to anch.AI. Anna founded anch.AI in 2018 to investigate the ethical, legal and societal ramifications of AI. The anch.AI platform is an insight engine with a unique methodology for screening, assessing, mitigating, auditing and reporting exposure to ethical risk in AI solutions. anch.AI believes that all organisations must conform to their ethical values and comply with existing and upcoming regulation in their AI solutions, creating innovations that humans can trust. It is an ethical insurance for companies and organisations.