Gästkrönika: ”Meta flyttar ansvaret till användarna”

Gästkrönika: ”Meta flyttar ansvaret till användarna”

Mark Zuckerberg vill öka yttrandefriheten men samtidigt ta upp kampen mot olagligt innehåll på bolagets plattformar. Det finns en del motsägelser i Facebook-grundarens budskap, skriver Anna Felländer, grundare och vd på Anch.AI.

Mark Zuckerberg vill öka yttrandefriheten på de sociala plattformarna Facebook, Instagram och Threads. Han vill även minska den politiska partiskheten, som av AI-filter genererat “felaktig övercensur” med 10 till 20 procent av innehållet. Samtidigt kommer Meta trappa upp kampen mot olagligt innehåll, vilket otvivelaktigt är bra och på tiden.

Yttrandefrihets- och faktagranskningen ska enligt Zuckerberg nu ske i ett ”offentligt torg” med "användarledda anteckningar" där det utifrån en mängd olika perspektiv bestäms när inlägg potentiellt är vilseledande och behöver mer sammanhang.


Det sker nu en förflyttning av ansvar att balansera den omöjliga uppgiften att bestämma bra och dåligt, från Meta till dess användare.

Det finns en del motsägelser i Metagrundarens videoinlägg på Instagram och Facebook sjunde januari i år. Tilliten ska öka, säger han, samtidigt som förmågan att fånga “bad stuff” kommer behöva göra avkall för att undvika att felaktigt censurera. Han säger också plattformarna ska bli mindre politiska och att Meta nu ska ”tillbaka till rötterna”. Samtidigt flyttas Metas team för tillit, säkerhet och innehållsmoderering från Kalifornien till Texas och han uppger att de ska arbeta närmare Trump-administrationen.

Hat och trakasserier på sociala plattformar ökar kraftigt. I en undersökning för 2023 rapporterade 52 procent att ha blivit trakasserade under sin livstid, det högsta antalet vi sett på fyra år, en ökning från 40 procent 2022. Ett antal personer får oproportionerligt utrymme samtidigt som den uppfattade verkligheten på sociala medier-plattformar skiljer sig alltmer från den verkliga verkligheten.

I bästa fall blir konsekvenserna att de som publicerar innehåll blir mer eftertänksamma för sitt anseendes skull. Men fler exempel från X, som har liknande upplägg, tillåter plattformens ägare att sprida icke-filtrerade personliga uppfattningar.

Men oavsett. Meta skjuter i från sig sitt ansvar. Riktlinjer om vad som kan och inte kan sägas på sociala plattformar borde i stället förklaras på ett öppet sätt. Det är ett rimligt krav att beslutsfattandet är transparent och observerbart. Det bästa vore att ge användarna verktyg för att bättre forma sin upplevelse på de sociala plattformarna. Nu har Metas användare varken insyn eller förmåga att skilja på sant eller falskt.

Anna Felländer

Anna Felländer

It was in 2016 that Anna realised artificial intelligence technology (AI) was becoming the new general-purpose technology: a technology that would drastically impact the economy, businesses, people and society at-large. At the same time, she noticed that AI was also causing a negative externality — a new type of digital pollution. Consumers have opted in to receive the benefit of digitalization, but are simultaneously facing a dark cloud of bias, discrimination and lost autonomy that businesses needed to be held accountable for. In the traditional environmental sustainability model, organisations are held accountable for physical negative externalities, such as air or water pollution, by outraged consumers and sanctions handed down by regulators. Yet no one was holding technology companies accountable for the negative externalities — the digital pollution — of their AI technology. Regulators have had difficulties interpreting AI in order to appropriately regulate it and customers didn’t understand how their data was being used in the black box of AI algorithms.

Anna’s multidisciplinary research group at the Royal Institute of Technology was the origin to anch.AI. Anna founded anch.AI in 2018 to investigate the ethical, legal and societal ramifications of AI. The anch.AI platform is an insight engine with a unique methodology for screening, assessing, mitigating, auditing and reporting exposure to ethical risk in AI solutions. anch.AI believes that all organisations must conform to their ethical values and comply with existing and upcoming regulation in their AI solutions, creating innovations that humans can trust. It is an ethical insurance for companies and organisations.