Artificiell Intelligens – naturvetenskap och science fiction i symbios?
Under första hälften av 1900-talet gjorde skönlitterära författare världen bekant med ett koncept som snabbt skulle komma att bli en naturvetenskaplig ikon: robotar med artificiell intelligens. Det började med Plåtmannen från Trollkarlen från Oz och fortsatte med den människoliknande roboten i filmen Metropolis. På 1950-talet steg en generation författare fram i rampljuset med Isaac Asimov i spetsen som beskrev ett framtida samhälle där robotar var ett naturligt inslag i människans värld.
Idén var inte ny, men först nu populariserades den och vetenskapsmän var snabba att definiera begreppet som artificiell intelligens. En sådan forskare var Alan Turing, en ung brittisk matematiker som utforskade möjligheten med artificiell intelligens. Turing föreslog att människor använder tillgänglig information och förnuft för att lösa problem och fatta beslut, så varför skulle inte maskiner kunna göra samma sak?
Komplikationer uppstod dock. För det första behövde datorer förändras i grunden. Före 1949 saknade datorer en nyckelförutsättning för intelligens: de kunde inte lagra kommandon, bara utföra dem. Charles Babbages och Ada Lovelaces differensmaskin från 1800-talet hade alltså inte gjort stora framsteg på 100 år. Med andra ord kunde datorer bli tillsagda vad de skulle göra men kunde inte komma ihåg vad – än mindre varför – de gjorde det.
Man lyckades dock hitta finansiärer som bidrog till utvecklingen. Redan 1957 konstruerades ett datorprogram utformat att efterlikna en människas problemlösningsförmåga. Programmet The Logic Theorist gjorde att artificiell intelligens för första gången kunde ge upphov till datorer som kunde lagra information. Datorer blev också snabbare, billigare och mer tillgängliga. Maskininlärningsalgoritmer förbättrades också och teknikerna blev bättre på att förutsäga vilken algoritm de skulle tillämpa. 1970 förutspådde rentav den amerikanske forskaren Marvin Minsky att vi ”om 3–8 år kommer att ha en maskin med generell intelligens som motsvarar en normalbegåvad människa.”[1]
Det dröjde betydligt längre tid än åtta år, men under de årtiondena som följde hade många mål uppnåtts. 1997 besegrades den regerande schackvärldsmästaren Gary Kasparov av IBM:s superdator Deep Blue, Denna mycket uppmärksammade drabbning var första gången en regerande världsmästare i schack förlorade mot en dator. Artificiell intelligens hade på allvar tagit klivet in i ett mer avancerat beslutsfattande.
Vi lever nu i en tidsålder av ”big data”, en tid där vi har kapacitet att samla in enorma mängder information som är för besvärligt för människor att bearbeta utan datorers hjälp. Tillämpningen av artificiell intelligens har i detta avseende redan varit ganska fruktbar i flera branscher som mobil teknik, bankverksamhet, marknadsföring och underhållning. Vi har sett att även om algoritmerna inte förbättras mycket, medger den massiva datamängden i sig att artificiell intelligens lär sig. Möjligen angav Moores lag[2] en alltför optimistisk formel, men den ökande mängden datorer medger ändå en stadig framstegskurva.
Vad väntar oss då i framtiden? Inom den närmaste framtiden ser AI-språket ut att bli nästa stora område. Maskiner ringer redan upp oss, och med tiden är det nog tänkbart att man skulle kunna interagera med en artificiell intelligens bortom Alexa. Vi kan också förvänta oss att se förarlösa bilar på vägarna under de kommande åren. På lång sikt är målet generell intelligens, det vill säga en maskin som överträffar människans kognitiva förmågor i allt den företar sig.
Vilka etiska implikationer medför denna utveckling? Asimov var tidigt ute med att stipulera robotikens lagar, som i korthet innebär att en robot aldrig får skada en människa om inte den människan i sig utgör fara för andra människor. Problemet med artificiell intelligens bottnar dock i ett annat, kanske än viktigare problem: vad är det som särskiljer oss från maskinen? Vi speglar oss i en intelligens som inte känner eller hyser empati på ett plan bortom vad den är programmerad till att göra.
I förlängningen handlar det alltså om vår syn på oss själva som art. Är vi ett resultat av evolutionära samband utan annat syfte än överlevnad – eller är vi något mer: en aristotelisk och teleologisk varelse eller kanske rent av en teologisk? Är den mänskliga hjärnan, som Minsky uttryckte det blott ”en köttmaskin”[3] eller finns det något som i grunden särskiljer den biologiska och tekniska skapelseakten åt? Kanske upptäcker vi att den mänskliga själen inte låter sig inte reduceras till programmerbara algoritmer. Roboten står dock där som en vetenskaplig ikon. En spegelbild av oss själva; en påminnelse om att intelligens utan känslor bara är en reduktion av mänsklig längtan att finna oss själva i andra.
[1] Minsky, Marvin; Science maj 1972 ”On the Impact of the Computer on Society”, s. 121. Översatt av förf.
[2] Moores lag säger att hastigheten en mikroprocessor har fördubblas var artonde månad. Liknande förutsägelser finns också för den mänskliga kunskapsmassan som helhet. En svindlande tanke!
[3] Minsky, Marvin; Science maj 1972 ”On the Impact of the Computer on Society”, s. 610. Översatt av förf.