ChatGPT4 – enorma möjligheter men både ett GDPR och etiskt bekymmer

ChatGPT4 – enorma möjligheter men både ett GDPR och etiskt bekymmer

Den italienska regeringen har beslutat att tillfälligt förbjuda OpenAI’s ChatGPT för att utredan huruvida den bryter mot GDPR, som omhändertar EU medborgares integritet. Men det finns även risk för andra potentiella övertramp, som diskrimineraing, som EU-medborgare exponeras för. Innan EU’s AI lagstiftning träder i kraft nästa år behöver den svenska regeringen inleda en utredning för att undersöka hurudvida OpenAI bryter mot GDPR och hur våra mänskliga rättigheter omhändertas i generativa AI system som ChatGPT.

ChatGPT och andra generativa AI system[1] förverkligar den efterlängtadade  demokratisering av AI. Fler människor kan ta del av och skapa nytt innehåll framtaget av språkmodeller som tränats på historiska data. Tröskeln för organisationer att tillvarata värdet av teknologin sänks.

Samtidigt exponeras individer och samhället varje dag för oavsiktliga etiska och legala övertramp till följd av oreglerade AI-lösningar. Till exempel har ChatGPT4 producerat falsk data kring individer, genom att den har kompenserat för detaljer som träningsdatan har saknat. Detta är ett GDPR bekymmer eftersom EU medborgare har rätt till sin data och rätt till rättelser av fel och det är i nuläget oklart huruvida personer kan be OpenAI att rätta felaktigheter. Två dagar efter Elon Musk och Steve Wozniaks varningsbrev[2] för mer kraftfulla generativa AI system och uppmaningar till regelverk att komma ikapp den exploderande AI-utvecklingen, förbjöd den italienska regeringen tillfälligt OpenAI att bearbeta lokal data. Den hänvisade till att ChatGPT potentiellt bryter mot GDPR och har initierat en utredning. Sannolikt kommer andra regeringar att följa efter.

När det gäller kontroll av etiska och legala övertramp i generativa AI system som ChatGPT, utmanas vi på ett kraftigare och mer svårgenomskådliga sätt än andra AI-lösningar. Ett skäl till detta är att användningen av generativa AI-system ofta sker via API:er, vilket ger en låg grad av insyn över lösningen och avsaknad av kontroll över utvecklingen av den. Om modellen genererar innehåll som är olämpligt eller skadligt på något sätt, är det svårt att bedöma vem som är ansvarig för det eftersom man inte har kontroll över hur modellen fungerar. Samtidigt sker de etiska och legala övertrampen subtilt och plötsligt, för små för att upptäckas, men med risk för exponentiell skada. Ett exempel är deep fakes, som i praktiken ofta används för att manipulera ett ansikte och en röst i video eller ett foto. Att generativa AI-modeller ofta görs tillgängliga som API:er kan göra det lättare för användare att komma åt och använda tekniken, vilket i sig kan öka risken för missbruk. API-baserade generativa AI-modeller är inte i sig riskabla, men sättet på vilket de används och den data de utbildas på kan göra dem riskabla.

EU’s AI lagstiftning, AI Act, kommer sannolikt träda ikraft nästa år, men det brådskar redan nu att en utredning inleds, både för att undersöka hurudvida OpenAI bryter mot GDPR och hur våra mänskliga rättigheter omhändertas i generativa AI system som ChatGPT.

Anna Felländer, VD och grundare anch.AI,

[1] Generative AI refers to artificial intelligence that can generate content, rather than simply analyzing or acting on existing data. Generative AI models produce e.g. text and images: blog posts, program code, poetry, and artwork. The software uses complex machine learning models to predict the next word based on previous word sequences, or the next image based on words describing previous images. In the shorter term, we see generative AI used to create marketing content, generate code, and in conversational applications such as chatbots.

[2] https://www.di.se/digital/svenska-ai-experter-sagar-musks-varningsbrev/

Anna Felländer

Anna Felländer

It was in 2016 that Anna realised artificial intelligence technology (AI) was becoming the new general-purpose technology: a technology that would drastically impact the economy, businesses, people and society at-large. At the same time, she noticed that AI was also causing a negative externality — a new type of digital pollution. Consumers have opted in to receive the benefit of digitalization, but are simultaneously facing a dark cloud of bias, discrimination and lost autonomy that businesses needed to be held accountable for. In the traditional environmental sustainability model, organisations are held accountable for physical negative externalities, such as air or water pollution, by outraged consumers and sanctions handed down by regulators. Yet no one was holding technology companies accountable for the negative externalities — the digital pollution — of their AI technology. Regulators have had difficulties interpreting AI in order to appropriately regulate it and customers didn’t understand how their data was being used in the black box of AI algorithms.

Anna’s multidisciplinary research group at the Royal Institute of Technology was the origin to anch.AI. Anna founded anch.AI in 2018 to investigate the ethical, legal and societal ramifications of AI. The anch.AI platform is an insight engine with a unique methodology for screening, assessing, mitigating, auditing and reporting exposure to ethical risk in AI solutions. anch.AI believes that all organisations must conform to their ethical values and comply with existing and upcoming regulation in their AI solutions, creating innovations that humans can trust. It is an ethical insurance for companies and organisations.