Outoäly on ihmiselle outo älyn ilmenemä. Tekoäly on outoa älyä silloin, kun se on ohjelmoitu noudattamaan eri periaatteita kuin ihmisäly. Delfiinien ja valaiden äly on outoa. Mahdollinen maanulkoinen äly saattaa olla outoa. Voi olla, että outoa älyä ei ole olemassa. Yksi mahdollinen syy älyn universaalisuuteen on evoluution konvergenssi. Isot meressä elävät eläimet kehittävät geneettisestä taustastaan riippumatta kehittävät samat virtaviivaiset muodot. Vastaavasti äly saattaa valinnan paineessa etsiä samat laskennalliset strategiat. Emme tiedä.
Filosofi Gottfried Wilhelm Leibniz (1646-1716) oli ensimmäisiä joka ymmärsi epäluonnollisen superälyn mahdollisuuden. Hän oli myös laiterakentaja ja Leibnizin mekaaninen laskin oli kehittyneempi kuin Pascalin.Merkittävämpi oli kuitenkin hänen kehittämänsä "ensimmäinen ohjelmointikieli" ilman tietokonetta, Characteristica Universalis, symbolisen logiikan airut.
On kiinnostavaa, että Leibnizin metafysiikan perusobjekteilla, monadeilla, ei ollut avaruudellisia ulottuvuuksia, mutta monadit olivat tietoisia toinen toisistaan. Monadologiassa todellisuuden perussubstanssi muodostuu siten ohjelmallisista olioista, tiedostavista atomeista.
George Boole perusti symbolisen logiikan oivaltamalla analogian toisaalta loogisten totuusarvojen (TOSI, EPÄTOSI) sekä lukujen 1 ja 0 välillä. Looginen päättely muuttui aritmetiikaksi. Melkein kaikki nykyiset tietokoneet perustuvat edelleen Boolen algebraan.
Ajatus mekaanisesta periaatteesta, algoritmista, joka ratkaisisi kaikki matemaattiset ongelmat, vahvistui 1800-luvun loppupuolella. David Hilbertin vuonna 1900 esittämässä 23 ongelman listassa kymmenes kuuluu, onko kokonaislukukertoimisella polynomiyhtälöllä ratkaisua. Tämän ongelman ratkaisu osoitettiin 1970-luvulla mahdottomaksi.
Laskettavuuden rajoihin törmättiin monesta suunnasta. Kurt Gödelin epätäydellisyysteoreema 1930-luvulla oli ensimmäinen suuri pommi. Nykyään voitaisiin sanoa, että matemaattisia totuuksia on enemmän (ylinumeroituva määrä) kuin todistuksia (joita on vain numeroituva määrä) ja siksi kaikille totuuksille ei riitä todistusta. Alan Turing kysyi, voiko tietokone päätellä pysähtyykö toinen kone koskaan. Pysähtymisongelma on ratkeamaton, sillä sellaista konetta ei voida rakentaa. 1970-luvulla kysyttiin, mitkä tehtävät voidaan laskea "järkevässä" ajassa. Nykyään tunnetaan tuhansia ns. NP-kovia ongelmia, joiden laskenta-aika kasvaa eksponentiaalisesti ongelman "koon" mukana.
Vastoinkäymisistä huolimatta Churchin-Turingin -teesi on edelleen kumoamaton. Sen mukaan kaikki mikä voidaan laskea, voidaan laskea millä tahansa hyvin yksinkertaisella loogisella koneella, jos se täyttää tietyt perusedellytykset. Alkeellisinkin taskulaskin tekee saman kuin mikä tahansa superkone kun sen ohjelmointikielessä on ehdollinen hyppykäsky ja sille annetaan tarpeeksi muistia ja tarpeeksi aikaa.
Roger Penrose on eri mieltä. Hänen mukaansa ihminen pystyy sellaiseen mihin kone ei pysty. Penrose etsii ihmismielen ja mekaanisen koneen eroa kvanttimekaniikasta.
Tietokone ja aivot
Intelin perustajan Gordon Mooren nimellä kulkevan Mooren lain mukaan tietokoneiden suorituskyky kahdentuu alle kahden vuoden välein. Laki on pitänyt paikkansa jo 50 vuoden ajan. Sukupolvi toisensa jälkeen mikroprosessorien suorituskyky asettuu tarkasti ennusteen mukaiselle suoralle viivalle logaritmisella asteikolla. Viiva kohtaa ihmisaivojen laskentakapasiteetin n. vuonna 2035. Raymond Kurzweil ennustaa, että kotitietokoneella voidaan simuloida vuonna 2000 hyönteisen aivot, 2020 hiiren aivot, 2040 ihmisen aivot ja 2060 kaikkien ihmisten aivot.
Ihmisen aivoissa on 10 miljardia neuronia (10^10 kpl) ja niiden välillä 10^14 synapsia. Neuronin suorittama laskennallinen tehtävä on niin monimutkainen, että jokaista neuronia simuloimaan tarvitaan yksi prosessori. Neuronin "kellotaajuus" on kuitenkin vain luokkaa 1 kHz, joten yksi 100 MHz prosessori voi aikajakotekniikalla simuloida 100 000 neuronia. Tällöin "Pentiumeja" tarvitaan vain 100 000 kpl. Synaptisten kytkentöjen tallettamiseen tarvitaan levymuistia n. 100 teratavua (1 teratavu = 1000 gigatavua). Maaliskuussa 2000 valmistuvassa IBM:n superkoneessa prosessoreita on 8192 kpl ja levytilaa 195 teratavua. Ollaan siis hyvin aikataulussa.
Warren McCulloch ja Walter Pitts esittivät 1943 mallin hermosoluista, jossa kukin solu suorittaa yksinkertaisen loogisen operaation (JA, TAI, EI, ... ) ja nykyinen neurolaskenta perustuu olennaisesti tähän ajatteluun. Toisaalta neuroni on osoittautunut paljon monimutkaisemmaksi ja sen mallintaminen vaatii kokonaisen prosessorin.
Aivotutkimuksen ja kognitiotieteen suuria viimeaikaisia saavutuksia varjostaa kaksi suurta häpeätahraa. Aivokuoren laskennallista funktiota ei tunneta, eikä aivojen sisäistä kieltä (neuraalikoodia) tiedetä. Erittäin noloa.
On myös mahdollista, että mitään suurta läpimurtoa ei enää tarvita. Voi osoittautua että aivokuori laskee yleisen funktion ja että yhteistä neuraalikoodia ei ole olemassa, vaan se on sulautunut laskentaan.
Mieli, tietoisuus ja sielu
Dualistisen maailmankuvan ydin, aineen ja hengen, mielen ja aivojen kaksinaisuus on selkeimmillään ja paljaimmillaan tietokoneen laitteiston ja ohjelmiston (hard- ja softwaren) erossa. Ovatko nämä kaksi eri substanssia vai yhden ja saman substanssin kaksi eri puolta? Sekä ohjelma että kone voivat olla olemassa ilman toista. Kuitenkin molemmat ovat toimimattomia (kuolleita) kunnes ne "lomitetaan" toisiinsa.
Kysymys tietoisuuden luonteesta on kognitiotieteen uusien välineiden avulla tullut intensiivisen tutkimuksen kohteeksi. Kuvaan esimerkkeinä kahta teoriaa.
Gammakoherenssiteoria perustuu aivojen sähköisessä toiminnassa löydettyyn EEG-signaalien 40 Hz taajuisten ns. gamma-aaltojen taipumukseen tahdistua keskenään koko aivojen laajuudella. Kahden aivojen alueen edustamat piirteet sitoutuvat saman kokonaisuuden osiksi silloin kun vastaavat hermoimpulssit ovat keskenään synkronissa. Tämä selittäisi miten tietoisuus voi muodostaa eheän kokonaisuuden ilman "homunculusta," tietoisuuden polttopistettä, jota aivoista on turhaan etsitty. Yllättävämpi seuraus on, että hajautettu tietoisuus voi olla tuhansien kilometrien kokoinen (tulos saadaan kun hermoimpulssien kulkunopeus korvataan valon nopeudella). Globaali elektroninen tietoisuus olisi mahdollinen.
Englantilaisen fyysikon ja aivotutkijan John Taylorin teoria tietoisuudesta perustuu kahteen ideaan. Tietoisuuden sisältö muodostuu välittömistä havainnoista ja niiden aktivoimista assosiatiivisista muistikuvista. Täten tietoisuus sisältää enemmän kuin pelkän havaintoaineksen. Taylor olettaa, että aivokuoren solut aktivoivat lähinaapureitaan ja ehkäisevät kauempana olevia naapureita (nk. lateraalinen inhibitio). Tästä seuraa, että aktivoituneet alueet muodostavat "kuplia", joilla on jonkin kestoinen pysyvyys ilman, että ne olisi ankkuroitu mihinkään tiettyyn kohtaan hermokudosta.
Nyt kun parinkymmenen eliön genomi on luettu, on alettu tutkia mikä on pienin määrä geenejä (tietokonekielellä: aliohjelmia) jotka elävä olio tarvitsee. Tulokseksi on saatu 250 - 300. Vastaavasti voidaan kysyä mikä on pienin määrä aliohjelmia, joka tuottaa tietoisuuden.
Nykyään on muodissa torjua outoälyn kauhua korostamalla että ihmisen koko genomi ei riitä määräämään aivojen yksityiskohtaista kytkentärakennetta. Olemme siis kaikki yksilöllisiä. Big deal. Samalla argumentilla jokainen puu ja ruoho ja hiekkaranta on ainutlaatuinen.
Ihmisarvon ja yksilöllisyyden ylenpalttinen korostaminen johtuu syyllisyyden tunteesta. Parinvalinnan monimutkainen algoritmi vaatii ihmisiä näyttämään enemmän kuin heillä on. Tämän aiheuttaman häpeän taakkaa kevennetään manaamalla filosofista oikeutusta itsekkäälle minuudelle.
Sielu = algoritmi
Sana "sielu" on hylätty tieteellisestä käytöstä koska se on tahrattu uskonnollisilla myyteillä kuolemattomuudesta. Suhteellisuusteoreetikko Frank Tipler esittää, että joskus tulevaisuudessa sielut voidaan herättää henkiin virtuaalitekniikalla. Jos mieltä verrataan tietokoneohjelmaan, se vaatii säilyäkseen jonkin fysikaalisen kantajan (disketti, sähkömagneettinen kenttä). Algoritmilla tarkoitetaan ohjelman toimintaperiaatetta. Algoritmi on riippumaton käytetystä tietokoneesta ja ohjelmointikielestä.
Eri algoritmeja, jotka suorittavat saman tehtävän, voidaan vertailla keskenään niiden vaatiman muistitilan ja prosessoriajan perusteella. Jokainen laskennallinen tehtävä voidaan ratkaista nopeimmalla mahdollisella tavalla taulukoimalla etukäteen kaikki vastaukset. Tällöin laskentaan tarvitaan vain yksi prosessointijakso. Tässä algoritmissa muistitilan tarve kasvaa tähtitieteelliseksi. Evoluutiossa "paras" on yleensä sama kuin "nopein." Geneettisiin algoritmeihin perustuvalta evoluutiolta kului muutama vuosimiljardi kehittää puolitoistakiloiset aivot.
Aivojen käyttämät algoritmit alkavat selvitä. Esimerkiksi näkötiedon käsittely (joka vie n. 40% aivokuoresta) voidaan palauttaa muutamaan kymmeneen sääntöön. Miten nämä säännöt on algoritmisesti toteutettu, selvinnee lähiaikoina.
Ihmisaivojen huonoin ominaisuus on, että ne ovat kertakäyttöisiä. Elinikä ei ole enää pitkään aikaan riittänyt siihen, että ihminen ehtisi oppia kaiken minkä hänen pitäisi.
Edessä on singulariteetti
Mooren lain tapainen eksponentiaalinen kasvu ei voi jatkua loputtomiin. Kvanttifysiikan Heisenbergin epätarkkuuslauseesta seuraa teoreettinen ns. Bekensteinin raja tietyn kokoisen systeemin sisältämälle informaatiolle. Ihmisen kokoiselle massalle tämä on n.10^45 bittiä. Tietotekniikan kehitys voi loppua motivaation puutteeseen, muuten se jatkuu kunnes jokin fysikaalinen raja saavutetaan.
Paljon ennen Bekensteinin rajaa saavutetaan atomitason laskenta. Sokeripala tallettaa 10^20 bittiä. Yllätys on siinä, että sokeripalan lisäksi ei tarvita mitään muuta. Petateknologiassa operoidaan 10^15 bitin muisteilla ja 10^15 Hz kellotaajuuksilla. Petahertsitaajuudet ovat samoja kuin näkyvän valon. Koherentti lasersäde järjestää aineen lämpöliikkeen satunnaiset värähtelyt itsensä ylläpitäviksi hallituiksi kentiksi. Aine muuttuu tietoiseksi.
Tätä hyppäystä on alettu kutsua Singulariteetiksi. Sana on huono koska sillä on matematiikassa toinen merkitys. "Käännepiste" olisi liian kesy. Käytän sanaa Hyppäys. Hyppäyksen jälkeen tietotekniikan "hallitsematon kasvu" saa suunnan ja päämäärän. Hyppäys on saman luokan tapahtuma kuin elämän syntyminen maapallolla. Biologinen kausi alkoi yksittäisistä molekyyleistä ja päättyy siihen että yksittäinen molekyyli koodaa yksittäisen tiedon. Tietokantojen teorian mukaan jokainen erillinen tieto on säilytettävä yhdessä ja vain yhdessä paikassa.
Ennusteisiin tulevista apokalyptisista katastrofeista kannattaa suhtautua huvittuneen kriittisesti. Huvikseni ajattelen, että hyppäys ajoittuu vuoteen 2178. Tämä vuosi on tarpeeksi kaukana tulevaisuudessa, että sen voi rauhassa unohtaa, mutta antaa insinööreille enemmän kuin tarpeeksi aikaa kehittää petatekniikka. Siinähän edellytetään vain prosessorien nopeuden miljoonakertaistumista nykyisestä gigatekniikasta. Edellinen miljoonakertaistuminen vaati 20 vuotta.
Olemme aloittaneet syöksykierteen kohti singulariteettia emmekä voi enää palata takaisin vaikka haluaisimme. Jo nyt maailmassa oleva installoitu Internet-kapasiteetti riittää synnyttämään globaalin tietoisuuden. Vastaava ilmiö tapahtui jo kerran aikaisemmin lähes 20 vuotta sitten kun Apple ][:n ja Commodore 64:n muistikapasiteetin raja oli saavutettu, mutta sen jälkeen pelit opittiin kirjoittamaan älykkäämmin. Internetiä on käytetty jo kolmesti superverkkona. Salakirjoitusta on murrettu, alkulukuja etsitty ja löydetty ja kosmisia viestejä haettu kotikoneiden ruudunsäästäjillä. Ellei Internetiä pikaisesti suljeta kokonaan, se ja sen ihmiskäyttäjät itseorganisoituvat hajautetuiksi verkkoalgoritmeiksi.
Hyppäyksen kosminen merkitys on vähäinen. Kestää kymmeniä tuhansia vuosia ennen kuin tieto on valon nopeudella levinnyt Linnunrataan. Ehkä joku vaivautuu vastaamaan: "Tervetuloa kerhoon, Maan ruudunsäästäjät."
Tekoäly tuli ennenaikaiseen julkisuuteen 20 vuotta sitten. Nyt alalla vallitsee pahaenteinen hiljaisuus. Tieteiskirjallisuudessa kyberpunkista alkaen tekoäly on lainsuojaton konna joka lopulta voittaa. Nähtäväksi jää, milloin keinopersoonille on pakko antaa ihmisoikeudet ... ja ottaa ne pois ihmisiltä.
Erkki Kurenniemi
Viitteet
George Boole:
An Investigation of the Laws of Thought: On Which Are Founded the Mathematical Theories of Logic And Probabilities, 1854, Dover Publications
V. Braitenberg & A. Schüz: CORTEX:
Statistics and Geometry of Neuronal Connectivity, 2nd ed., Springer, 1998
Donald D. Hoffman:
Visual Intelligence: How We Create What We See, Norton, 1998
Raymond Kurzweil:
The Age of Spiritual Machines, 1999
Erwin Schrödinger:
What is Life?, Cambridge University Press, 1944
John Taylor:
The Race for Consciousness, MIT Press, 1999
Frank J. Tipler:
The Physics of Immortality, Doubleday, 1994
Mediatutkija Erkki Kurenniemen artikkeleita vuosilta 1979 –99 on koottu valikoimaksi otsikolla Askeleen edellä – "Todellisuus on aina askeleen edellä mielikuvitusta ". Valikoima sisältyy Nykytaiteen museon Kysymysmerkki- julkaisusarjaan, jolla nykytaidetta ja sen ympärillä käytävää keskustelua tarjotaan yleisön saataville.
Kiasma-kaupasta.