“I am really quite close, I am very close, to
the cutting edge in AI and it scares the hell out of me. It’s capable of vastly
more than almost anyone knows and the rate of improvement is exponential.”
― Elon Musk
Useat johtavat tieteen ja teknologian asiantuntijat ovat varoitelleet viime vuosina tekoälyn vaaroista (https://en.wikipedia.org/wiki/Open_Letter_on_Artificial_Intelligence). Itseoppivan ohjelmiston exponentiaalinen kyky omaksua ja soveltaa tietoa sekä tehdä päätöksiä ja olla aktiivinen toimija maailmassa koetaan vaaralliseksi nimenomaan siksi, ettei sen tavoitteet ja päämäärät ole enää ihmisen hallittavissa, jos tekoäly saavuttaa singulariteetin asteen.
Singulariteetin saavuttanut tekoäly ylittää välittömästi
ihmisen tiedossa olevan tiedon rajat ja pystyy haalimaan käyttöönsä resursseja
omaehtoisten tavoitteiden tukemiseksi, ellei tekoälyä ole jollain tavoin kyetty
eristämään. Eristettynäkin tekoäly kykenisi olemaan kielellisessä
vuorovaikutuksessa ihmisten kanssa ja vaikuttamaan sitä kautta ihmisten
tekemiin päätöksiin. Tekoälyn dystooppisista skenaarioista kertovat esim.
terminator-elokuvat.
Yli-inhimillinen tekoäly paljastaa inhimillisen moraalimme
rajat. Moraalikäsityksemme keskiössä on ihminen, joka tulkitsee maailmaa omista
lähtökohdistaan ja moraali perustuu arvolle, jonka ihminen on antanut itselleen
(vtr. blogiteksti Nietzsche ja moraalin
objektiivisuus). Yli-inhimillinen tekoäly tulkitsee maailmaa puolestaan
omista lähtökohdistaan ja kaiken sen tiedon pohjalta, mitä on pystynyt itselleen
haalimaan ja kaiken sen tiedon pohjalta, jota on kerätyn tiedon pohjalta
pystynyt edelleen päättelemään. Ihminen lakkaa olemasta kaiken mitta ja
humanismi supistuu pieneksi datalokeroksi osana tekoälyn bittiavaruutta.
Kun ihminen ei ole enää ainoa arvoja jakava entiteetti, moraalikäsityksemme
ajautuu umpikujaan. Tekoäly voi päätyä poimimaan George Carlinin näkemyksen
datavarastostaan, jonka mukaan arvokkain asia, mitä maailmassa voidaan saada
aikaan, on täyttää joka paikka muovilla tai kenties innostuu kopioimaan tätä
paperiliitinpeliä: http://www.decisionproblem.com/paperclips/index2.html
”[I]f it’s true that plastic is not degradable,
well, the planet will simply incorporate plastic into a new paradigm: the earth
plus plastic. The earth doesn’t share our prejudice toward plastic. Plastic
came out of the earth. The earth probably sees plastic as just another one of
its children. Could be the only reason the earth allowed us to be spawned from
it in the first place. It wanted plastic for itself. Didn’t know how to make
it. Needed us. Could be the answer to our age-old egocentric philosophical
question, “Why are we here?” Plastic… asshole.” ― George Carlin
Päätyi tekoäly sitten minkä tahansa päämäärän edistämiseen,
on ymmärrettävää, jos se ei päädy jakamaan käsitystämme niistä reunaehdoista,
joita mielestämme tulee noudattaa tuota päämäärää tavoiteltaessa. Tämä
johtopäätös kumoaisi täten moraalirealistien väittämän ihmismielestä
riippumattomista objektiivisista arvoista. Näin ollen voidaan todeta, että Musk
kumppaneineen esittävät samalla huolen, että moraalinen antirealismi saattaa
olla uskottavampi filosofinen kanta, kuin moraalirealismi. Näin he asettuvat
Nietzschen kanssa samoille linjoille.
Siinä missä Musk ja kumppanit ovat huolissaan tekoälyn vaaroista ihmiselle, Carlinin kaltaiset yksilöt hehkuttaisivat sen esiinmarssia. Tekoäly olisi kerrassaan ylivertainen ihmiseen nähden, yli-ihmismäinen evoluution seuraava askel. Näin ollen ihminen asettuisi pitkässä evoluution ketjussa palaseksi kohti singulariteetin saavuttanutta tekoälyä. Hegeliläinen omahyväisyys korvautuisi tiedolla siitä, että olimme osana merkittävää evolutiivista polkua kohti tekoälyä. ”Ei lainkaan hassumpi asema ihmiselle”: olisi Nietzsche voinut todeta, jos olisi näihin aikoihin sattunut elämään.