Definition regardiing superintelligence and how that might be misleading
Debatten kring AI som ett hot mot mänskligheten fortsätter. Kärnan i de olika uppfattningarna, mellan de som hävdar att AI är ett hot och de som hävdar att det inte är ett hot, är synen på hur snabbt artificiell generell intelligens, AGI, utvecklas till artificiell superintelligens, ASI. Med andra ord när AI överträffar mänskligheten och kan utgöra ett hot mot oss.
Även uppfattningen var vi befinner oss i dag är spridd. Men någon form av konsensus är att vi befinner oss mellan smal AI, ANI, det vill säga när AI löser specifika problem inom ett visst begränsat område, och på väg mot AGI, när AI blir lika bra som oss människor på att lösa uppgifter. Det som har överraskat och påskyndat utvecklingshastigheten är generativ AI. Inom vissa områden, till exempel förståelse för det engelska språket och bildklassificering överträffar AI människan. Däremot saknar AI bland annat människans förmåga till att resonera samt sunt förnuft, självreflektion, empati och moral.
Men mer intressant är definitionerna av de olika potentiella utvecklingsfaserna av AI – smal AI, artificiell generell intelligens och superintelligent AI. Liksom att vårt BNP får långsiktigt negativa effekter gällande miljö och social inkludering, är det värt att granska de mått vi sätter på de mänskliga i relation till AI.
För att förstå varför vi skulle kunna hamna snett i debatten och varför det i sådant fall är av värde, låt oss börja med definitionerna. Artificiell generell intelligens (även kallad stark AI) har gått från att i årtionden definieras som när teknologin motsvarar det mänskliga sinnet, till att i dag begränsas till de ekonomiska värdera som uppgifterna uppfyller. Jämför IBM definition sedan länge…
”AGI skulle kräva en intelligens likställd med människors; den skulle ha ett självmedvetande som har förmågan att lösa problem, lära sig och planera för framtiden. ... stark AI syftar till att skapa intelligenta maskiner som inte går att skilja från det mänskliga sinnet.”
…med Open AI:s definition i dag:
”Mycket autonoma system som överträffar människor på de flesta ekonomiskt värdefulla uppgifter.”
Artificiell superintelligens definieras ofta som när AI får övermänskliga förmågor och riskerar att då kunna övermanipulera oss människor mot oönskade utgångar. Generellt definieras denna sista utvecklingsfas som när AI ”överträffar människor i de allra flesta uppgifter.”
Men hotet eller faran med övermänsklig AI är kanske inte som det framstår. Bara för att AI är en oerhört snabb problemlösare betyder det inte att den överträffar oss människor. Vi består av betydligt mer värde än det ekonomiskt värdefulla uppgifter vi utför. Retoriken kring superintelligent AI förminskar det som är viktigast med att vara människa. För visst finns det en enorm skillnad mellan övermänsklig beräkningshastighet eller noggrannhet - och att vara övermänsklig, det vill säga mer än människa. När begreppen kring intelligens reduceras till de uppgifter marknaderna historiskt har betalat för, hamnar vi snett.
Jag tror att marknadskrafterna kommer att visa de omvända. En utbudschock av generell artificiell intelligens, som den definieras i ekonomiska värdesatta uppgifter, borde leda till ett fallande värde av tekniken och parallellt ett ökat värde av det som är unikt för det mänskliga sinnet och som inte AGI kan leverera.
Med detta resonemang ser superintelligent AI avlägset ut. Men AI utgör däremot redanett hot mot våra mänskliga rättigheter och vår säkerhet. Därför behöver vi fokusera på vad som är faran här och nu istället för att resonera kring AI:s inverkan på mänsklighetens överlevnad.
It was in 2016 that Anna realised artificial intelligence technology (AI) was becoming the new general-purpose technology: a technology that would drastically impact the economy, businesses, people and society at-large. At the same time, she noticed that AI was also causing a negative externality — a new type of digital pollution. Consumers have opted in to receive the benefit of digitalization, but are simultaneously facing a dark cloud of bias, discrimination and lost autonomy that businesses needed to be held accountable for. In the traditional environmental sustainability model, organisations are held accountable for physical negative externalities, such as air or water pollution, by outraged consumers and sanctions handed down by regulators. Yet no one was holding technology companies accountable for the negative externalities — the digital pollution — of their AI technology. Regulators have had difficulties interpreting AI in order to appropriately regulate it and customers didn’t understand how their data was being used in the black box of AI algorithms.
Anna’s multidisciplinary research group at the Royal Institute of Technology was the origin to anch.AI. Anna founded anch.AI in 2018 to investigate the ethical, legal and societal ramifications of AI. The anch.AI platform is an insight engine with a unique methodology for screening, assessing, mitigating, auditing and reporting exposure to ethical risk in AI solutions. anch.AI believes that all organisations must conform to their ethical values and comply with existing and upcoming regulation in their AI solutions, creating innovations that humans can trust. It is an ethical insurance for companies and organisations.