Datorer kommer inte att göra sig själva smartare

13 min läsning

Vi fruktar och längtar efter »singulariteten«. Men den kommer förmodligen aldrig att komma.

TEXT TED CHIANG

PÅ 1000-TALET FRAMFÖRDE teologen Anselm av Canterbury ett argument för Guds existens som gick ungefär så här: Gud är per definition det största väsen vi kan föreställa oss; en Gud som inte existerar är uppenbarligen inte lika stor som en Gud som faktiskt finns; ergo, Gud måste existera. Detta kallas det ontologiska gudsbeviset, och det finns än i dag, nästan tusen år senare, en hel del människor som tycker att det är övertygande. Kritikerna av argumentet menar att det snarare frambesvärjer ett väsens existens och att det inte är så som logisk bevisföring ska ske.

Gud är inte den enda varelse som människor har försökt argumentera fram. »Låt en ultraintelligent maskin definieras som en maskin som överträffar alla människors intellektuella förmågor«, skrev matematikern Irving John Good år 1965:

Eftersom maskindesign är en av dessa intellektuella aktiviteter, kan en ultraintelligent maskin designa ännu bättre maskiner; det skulle då utan tvekan kunna uppstå en »intelligensexplosion« och människans intelligens skulle lämnas på efterkälken. Således är den första ultraintelligenta maskinen den sista uppfinningen som människan någonsin behöver göra, förutsatt att maskinen är tillräckligt lydig för att berätta för oss hur man håller den i schack.

Idén om en intelligensexplosion gavs nytt liv 1993 av författaren och datorforskaren Vernor Vinge, som kallade det »singulariteten«. Idén har därefter nått viss popularitet bland tekniker och filosofer. Böcker som Nick Bostroms Superintelligens: Vägar, faror, strategier, Max Tegmarks Liv 3.0: Att vara människa i den artificiella intelligensens tid och Stuart Russells Human compatible: Artificial intelligence and the problem of contol beskriver scenarier av »rekursiv självförbättring«, där ett AI-program designar en förbättrad version av sig själv upprepade gånger.

Jag menar att Goods och Anselms resonemang har något gemensamt, nämligen att mycket av argumenteringen finns i själva definitionerna. Som de är formulerade kan begreppen verka rimliga på ytan, varför de accepteras av många människor, men de förtjänar närmare granskning. Jag tror att ju mer vi prövar de outsagda antagandena i Goods argument, desto mindre trolig blir tanken på en intelligensexplosion.

Hur skulle rekursiv självförbättring kunna se ut för människor? För enkelhets skull beskriver jag här mänsklig intelligens i termer av IQ-siffror, inte som ett bejakande av IQ-testning som idé, utan för att IQ representerar en