Antropofagi

söndag 2 juli 2017

AI-moral och människoinkonsekvens

Med tanke på metaetik och huruvida utilitarism = moral, så är det intressant att betänka en fråga som diskuteras i Sam Harris AI-diskussion i senaste Waking Up. Intressanta poänger med bäring på Antropofagis tidigare resonemang:
 
A. Vi lär AI smärta eftersom det är ändamålsenligt.
 
Detta är en påminnelse om att smärta liksom andra känslor och beteenden vaskats fram av evoutionsalgoritmen. Det är gravt förenklat att betrakta smärta som något negativt som ska minimeras. Smärta har sas. en funktion. För utilitarismen blir med således viktigt att skilja på meningslös och meningsfull smärta/sorg/etcetera. Detta kan vara lite klurigt, gissar jag. (Meningslös = hjortsvinets betar; meningsfull = bidrar till att överleva och reproducera.)
 
B. Att lära AI moral innebär att vi själva måste bena ut hur vår moral egentligen ser ut; detta vet vi inte. Och, på vilka ställen moralen vi håller oss med är inkonsekvent.
 
Detta skulle kunna få implikationerna att vi förändrar vårt moraliska system. Liksom människorna i Three Worlds Collide egentligen borde kalibrera sin moral för att passa Super Happy People-utomjordingarna, som ju är bättre utilitarister givet omständigheterna.
 
Kanske kommer en mer konsekvent moral kännas helt bisarr och fel; kanske kommer först nästkommande generationer förstå och acceptera. Liksom typ 1800-talsfolket förmodligen skulle misstycka över vår moral - än idag motsätter sig konservativa moralister vissa logiska moraliska slutsatser.
 
När en inkonsekvens förekommer, måste något av de inkompatibla leden förändras om inkonsekvensen ska upphöra. Detta kan vara mer eller mindre smärtsamt beroende på hur heligt värde en måste ge avkall på.
 
C. Att lära AI moral innebär att vi måste komma överens om vilken moral som gäller - vad är mänsklighetens moraliska konsensus?
 
Här finns som nämnts vissa kulturella skillnader, men även vad jag nog skulle vilja kalla IQ-relaterade skillnader. Gemene man är förmodligen inte så skicklig på att rent filosofiskt bena ut alla moraliska frågeställningar och lösa de inkonsekvenser som uppkommer när en tillämpar en blandning av utilitaristisk princip och godtycklig sacred value-moralism. Samtidigt är det svåra frågor, eftersom moral i någon mening är lika relativt som allting annat.
 
Hur ska vi komma fram till vad vi ska lära AI:n? En demokratisk process? En kommittee av experter?
 
Liksom i punkt C i detta inlägg handlar det kanske om att tillsätta teknokrater som bygger själva systemet, men sen rösta om grundvärderingarna. Så får systemet spotta ut slutsatser som är logiskt härledda från våra gemensamma (godtyckliga, relativistiska) heliga värden. Då blir distinktionen mellan terminala värden och instrumentella värden givetvis oerhört central. 
 
***
 
Frågan som en moralisk allsmäktig AI ställer, och som även nämnda Three Worlds Collide ställer, är hur konsekventa vi pallar vara. Okej, vi har vissa värden, och kan i teorin tillämpa ett rationellt tänkande. Men, vi ogillar slutsatsen. Vi borde göra såhär, men vi gör givetvis såhär. Vi borde se Du sköna nya värld som en utopi, men vi ser den som en dystopi.
 
Det värsta är att mänsklig kultur, inte minst romantiken, tenderar att romantisera den här inkonsekvensen.

Inga kommentarer:

Skicka en kommentar