sunnuntai 18. helmikuuta 2018

Suomeen tarvitaan tekoälyetiikan tutkimusinstituutti






Suomessa on nyt viimeisen parin kuukauden sisällä noussut esiin useita eri puheenvuoroja, jotka ovat liittyneet tekoäly turvallisuuteen ja sen yksityiskohtiin. Puoli vuotta sitten, asia ei ollut Suomessa juurikaan tapetilla ja nyt jopa suuret yritykset Suomessa mainitsevat riskit tärkeänä näkökulmana blogeissaan. Jotain on tapahtunut ja kulkusuunta on selvästi parempaan suuntaan.

Tällä hetkellä tekoälyturvallisuudesta ja etiikasta keskustelua johtavat vain muutamat tutkimuskeskukset maailmassa, jotka keskittyvät näkökulmissaan sellaisiin arvoihin ja kantoihin, jotka eivät välttämättä edusta riittävää variaatiota näkökulmissaan ja pohdinnoissaan. Pääpaino on tällä hetkellä jonkinlaisessa libertarismissa ja utilitaristisissa moraalinäkökulmissa. Minulla ei henkilökohtaisesti ole mitään välttämättä näitä näkökulmia vastaan, mutta vilkaisujeni perusteella, ne ovat niin kaukana perinteisemmistä näkökulmista, että keskusteluun olisi hyvä osallistua myös muista arvopohjista. Sekä deontologisella että prima facie -näkökulmilla voisi olla paljon annettavaa keskustelulle, hyve-etiikasta ja hyve-etiikan psykologiasta puhumattakaan.


 
Samaan aikaan kuitenkin, koska yliopistot ja muut perinteiset instituutiot maailmalla eivät ole tähän tarttuneet, on maailmalle muodostunut yksityisiä filosofiseen tutkimukseen keskittyviä tutkimusinstituutioita, jotka kehittävät filosofiaa ja filosofisia näkökulmia uusista tulokulmista, jättäen perinteiset instituutio valovuosien päähän siitä, missä mennään eettisen ajattelun ja filosofian terävimmän kärjen suhteen. Mikäli Suomen valtio tai muut valtiot laajemmin eivät herää tähän kehitykseen, tulevat monet tulevaisuuden tutkimuksen superstarat Suomesta aivovuotamaan akatemioiden ulkopuolelle. Humanistisen tutkimuksen tulevaisuus heikkenee, jos tähän ei herätä. Suomalaisella tieteellä on arvokkaat perinteet ja suomalaisen yhteiskunnan arvot ovat maailman historiassa poikkeukselliset, joten näiden tuominen osaksi laajempaa utopia- ja tekoälyturvallisuuskeskustelua olisi erittäin tarpeellista. Sosiaalidemokratia ja hyvinvointiyhteiskunnan arvot eivät näy nykyisissä tekoälyn sosiologiaa tarkastelevissa kansainvälisissä puheenvuoroissa juuri lainkaan. Tekoälyturvallisuuskeskustelussa on useita eri tasoja, sillä mikäli nk. Supertekoäly pääsee syntymään, muuttaa se koko yhteiskuntarakenteita ja ihmisyyden merkitystä kokonaisvaltaisesti.

En tässä nyt mene yksityiskohtiin, mutta tekoälyetiikan keskustelussa on karkeasti ottaen ainakin neljä tasoa:

1) tekninen tietoturvan ja kyberturvallisuuden taso;

2A) Ihmiskognition taso (miten ihmisten ajatusvääristymät vaikuttavat tapaamme keskustella ja havainnoida tekoälyturvallisuutta);

2B) miten yksilön tapa ajatella etiikasta, arvoista, merkityksistä ja tietoisuudesta liittyy tapaamme keskustella tekoälyturvallisuudesta;

3) makrotalouden ja sosiologian taso; miten käyt taloudelle ja yhteiskuntasuhteille tässä murroksessa? Minkälaisessa maailmassa haluamme tulevaisuudessa elää kun vapaudumme työstä, mitä on hyvä elämä?

4) teologinen taso; olettaen että supertekoäly on jonkinlainen jumala, minkälaisen jumalan me ihmiset haluamme luoda?

Keskityn tässä kirjoituksessa pitkälti tasoihin 2A ja 2B, sillä vaikka pidänkin esim. kyberturvallisuutta erittäin tärkeänä, pidän sitä niin itsestään selvänä asiana, että siihen pitää panostaa huomattavasti nykyistä enemmän. En näe, että tästä asiasta on mitään järkeä käydä keskustelua edes. Kyberturvallisuudesta huolehtimisessa on myös erittäin tärkeää huolehtia etiikan näkökulmasta. Eli siis siitä, että miten säilytämme paniikinomaisten tunteiden vallassa huolen siitä, että kansalaisvapaudet ja ihmisarvo eivät vaarannu.





Kolmoskohtaan en taas itse jaksa keskittyä, sillä en näe palkkatyötä ihmisarvoa määrittelevänä tekijänä. Minun mielestäni kaikkea sellaista, joka vapauttaa ihmiset työstä tulee tukea ja viedä eteenpäin. Mitä ihmiset sitten tekisivät kaikella vapaa-ajallaan? Minulle vastaus on selvä, tutkisivat tietoisuuttaan ja omistautuisivat tieteelle ja taiteelle, jotta voisimme suunnata kohti toisia planeettoja ja pitää huolta toisistamme ja maapallon biosfääristä.

Korostan nyt kuitenkin, että kaikki tekoälyturvallisuuden sosiologiaan osallistuvat keskustelijat ja yhteiskuntaeetikot eivät jaa näkemystäni. Joukossa on jopa näkemyksiä, joiden mukaan se riittää, että pelastamme ihmiskunnan eliitin, eli n. 10% väestöstä, jotka uploadataan kyberavaruuteen elämään ikuisesti. Ne jotka vastustavat tätä näkemystä, ovat yksinkertaisesti väärässä.

Selvästikin Suomessa olisi sekä filosofista että sosiologista osaamista, jota tarvittaisiin näihin keskusteluihin. Se mikä tästä keskustelusta tekee tärkeän on se, että näitä akatemioiden ulkopuolella käytäviä keskusteluita lukevatkin juuri ne keskeiset tekoälykehittäjät jotka pitävät majaa Piilaaksossa ja muissa vastaavissa paikoissa. Suomalaisten akateemisten ihmisten, mikäli he haluavat vaikuttaa posthumanistisen yhteiskunnan arvojen muodostumiseen, olisi aika kaivautua ulos kammioistaan ja hakeutua niille foorumeille, jotka pyörivät lesswrong.com'in, 80000 hoursin, Foundational Research Instituten ja Machine Intelligence Research Instituten ympärillä.

Sanon tämän vielä kertaalleen: maailmassa käydään nyt vakavaa ja vakavasti otettavaa keskustelua, joka vaikuttaa globaalilla tasolla huomisen yhteiskunnan keskeisten arvojen valikoitumiseen ja tuon yhteiskunnan muotoutumiseen. Suomalaisten ääni tässä keskustelussa on näkymätön ja tällä on valtava merkitys. Asiaa helpottaisi, jos Suomeen saataisiin erillinen instituutti, jonka tehtävä on osallistua näihin keskusteluihin ja seurata niitä. Näiden keskustelujen ja puheenvuorojen arvot ja ja argumentit vaikuttavat googlen, OpenAI:n, OpenCogin ja muiden vastaavien suurten tekoälyprojektien toimintaan. Tästä on jo lukuisia todisteita, jotka löytyvät pienellä kaivelulla. Suomalaisia pitäisi kiinnostaa tämä, sillä tämä arvokeskustelu ei ota huomioon niitä näkökulmia, joissa suomalaiset ovat perinteisesti olleet vahvoilla: tasa-arvon ja vapauden yhtäaikainen maksimointi, hyvinvointia, onnellisuutta ja kiltteyttä unohtamatta.

Mutta, palatakseni vielä hieman taaksepäin asioissa: miksi siis tekoälyetiikasta tai -turvallisuudesta pitäisi olla kiinnostunut? Yksi syy on siinä, että monet SuperAI -skeptikot, kuten esim. Scott Aronson (maailman johtavia kvanttilaskennan kehittäjiä) ovat kääntäneet kelkkaansa. Kyse on oikeasti mahdollisesta ilmiöstä. Mihin tämä monien älykkäiden teknisillä aloilla toimivien ihmisten mielipiteiden vaihtuminen sitten perustuu? Syitä on monia mutta ohessa kuvailen yhtä keskeisimmistä.

Vanhat laskennalliset mallit, jotka ovat olleet olemassa jo yli 50-vuotta, ovat kyenneet tekemään asioita, joihin niiden ei pitänyt oikeastaan pystyä tekemään. Olemme olleet pahasti väärässä sen suhteen, että mitkä ovat olleet tietokoneiden rajoitteet. Aikaisempi dogma, että tietokone tekee vain jotain sellaista, mitä se on ohjelmoitu tekemään, ei enää pidä paikkaansa.

Nykyinen tekoälyteknologia perustuu siihen, että muotoilemme matemaattisen kaavan, joka määrittelee nk. hermoverkon arkkitehtuurin. Ymmärrämme siis mitä hermoverkossa kukin yksittäinen perseptroni tekee ja ymmärrämme matemaattisesti sen rakenteen, joka noista yksittäisistä perseptroneista muodostuu. Tämän jälkeen verkolle syötetään esimerkkejä jostakin ilmilöstä, olkoonpa ne nyt sitten vaikka valokuvia. Esimerkkien yhteydessä verkolle myös kerrotaan mitä esimerkki lopulta tarkoittaa (onko se kissa vai koira). Tämän jälkeen verkolle voidaan näyttää kuvia, joita se ei ole koskaan aikaisemmin nähnyt ja se tunnistaa onko kuvassa kissa vai koira. Huomautettakoon, ettei verkkoa missään vaiheessa varsinaisesti ohjelmoitu tunnistamaan kissoja tai koiria. Sille ei määritelty koodia kirjoittamalla että miltä kissa tai koira näyttää.






Samalla tavalla luodaan ns. itseoppivat hermoverkot, esimerkiksi ne verkot, jotka oppivat pelaamaan Atari-pelejä. Ne asetetaan valmiiksi tiettyyn muotoon ja niiden annetaan satunnaisesti vain kokeilla eri nappien painamisia. Näillä verkoilla on tietynlainen lyhytkestoinen muisti, joka antaa niille kyvyn seurata sitä, että mitä tapahtui esimerkiksi 10 sekunttia jonkun napinpainalluksen jälkeen. Sitten, jos tuon tietyn aikajänteen sisällä tapahtuu esimerkiksi pelissä pisteiden menetys tai kuolema, hermoverkko itse muuttaa käyttäytymistään, eikä toista samassa tilanteessa enää samaa satunnaista napinpainallusta vaan kokeilee jotain muuta. Jälleen kerran, kukaan ei opeta verkkoa pelaamaan Atari-pelejä: se asetetaan siihen muotoon, että se voi itse yrityksen ja erehdyksen kautta maksimoida pisteensä tietyssä ärsykeympäristössä. Ts. nämä verkot tekevät asioita, joita niitä ei ole ohjelmoitu tekemään. Perinteinen ohjelmoiminen olisi jotain tämän kaltaista: jos tilanne on X paina nappia B, jos tilanne on Y paina nappia C. Kukaan ei missään vaiheessa kirjoita tuollaista koodia tietokoneella näppäimistöä käyttäen.

Ei vaadi kamalasti mielikuvitusta ymmärtää sitä, miten tämä liittyy autonomisiin sotateollisuuden luomiin koneisiin. Niitä ei tarvitse erikseen varsinaisesti koodata tappamaan, riittää, että esim. tappajadroneilla on kertaalleen realistisessa virtuaaliympäristössä koulutettu neuroverkko, joka voidaan sitten kopioida sarjatuotettuihin droneihin. Tämän jälkeen drone pystyy autonomisesti kiertämään esteet ja ratkomaan ongelmia, maksimoidakseen pisteensä. Tai itseasiassa dronelle siis ei ole mitään merkitystä sillä, että koulutetaanko se realistisessa virtuaaliympäristössä vai ns. oikeassa maailmassa. Sen jälkeen kun droneen asennettu hermoverkko on pelillistetyssä virtuaaliympäristössä harjoitellut tappamista miljoonilla eri tavoilla erilaisissa tilanteissa, niin se siirretään vain näpsäkästi oikeaan droneen. Tällaisella Dronella ei ole myöskään tietoisuutta kuolemisesta, joten sitä ei pelota itsemurhapommituksien tekeminenkään.



Tämä on siis pitkälti nykytilanne tällä hetkellä teknologian suhteen… Tai itseasiassa nk. Bleeding Edge (eli Cutting Edgeäkin pidemmällä oleva kehitys) on jo tästä siirtynyt eteenpäin. Google on jo luonut ohjelman, joka osaa itse luoda tekoälyarkkitehtuureja ja kouluttaa niitä. Mitä tämä nyt tarkoittaisi sitten sotateollisuuden käytössä? Käytännössä sitä, ettei ihmisten tarvitse välttämättä enää osallistua tekoälyaseiden algoritmien suunnitteluun tai edes ymmärtää niitä syvällisesti. Riittää, että osataan asettaa kone paikalleen kouluttamaan koneita. Tämä taas tarkoittaa sitä, että aseteollisuuden käsissä autonomisten aseiden kehitysvauhti kasvaa entisestään. IBM:n Watsonin luoja ei edes itse ymmärrä miten Watson päätyy päätöksiinsä eri tilanteissa. Nyt tämä sama tilanne tulee moninkertaistumaan entisestään eri tilanteissa ja ympäristöissä. Voimme kyllä siis ymmärtää koulutusalgoritmien matematiikkaa ja voimme ymmärtää neuroverkkojen rakenteita matemaattisten kaavojen tasolla. Sitä emme kuitenkaan ymmärrä enää, että miten nuo algoritmit ja neuroverkot lopulta päätyvät lopputuloksiinsa. Tässä on fundamentaali ristiriita avoimen yhteiskunnan arvojen kanssa, siinä vaiheessa kun viranomaiset rupeavat käyttämään tätä teknologiaa, eivätkä kykene perustelemaan pidätysmääräyksiensä syitä tai kertomaan, miksi joku ihminen on turvallisuusuhka johonkin valtion viraston tehtäviin.

Eli bleeding edge on tuo yllä mainittu. Mutta nopea vilkaisu esimerkiksi muutamiin historiallisiin merkkipaaluihin voi olla paikallaan:

1) Vuonna 1983 julkaistiin tietokoneohjelma Eurisko, joka kykeni muuttamaan ja optimoimaan omaa koodiaan. Ohjelma oli niin mukautumiskykyinen, että se voitti monimutkaisessa laivastotaistelupelissä ison turnauksen kahtena vuotena peräkkäin.

2) 1980-luvulla silloinen internet (ARPAnet) menetti toimintakykynsä, koska tietokoneiden muistikampoihin jäi sähkövaraus joka kopioi itseään koneesta koneeseen, ts. syntyi spontaani virus ja ainoa keino päästä eroon viruksesta oli katkaista virrat koko ARPA-verkosta.

3) 1990-luvulla Yhdysvaltojen merivoimat sai valmiiksi LIDA-niminen ohjelman ensimmäisen version, joka on osoittanut kykyä oma-aloitteisuuteen, uteliaisuuteen ja joidenkin mielestä rudimentaaria tietoisuutta (itse en tähän tietoisuuskykyyn usko).

4) 90-luvun aikana kehitettiin myös itsestään kehittyviä suunnittelualgoritmeja, jotka kykenivät rakentamaan tehokkaampia prosessoreita ja virtapiirejä, kuin alan parhaat insinöörit. Onglmana vain oli, että suunnittelualgoritmit näyttivät luovan uusia komponentteja ja ratkaisuja, jotka näyttivät turhilta, mutta jotka poiskytkettynä rikkoivat koko järjestelmän. Ihmiset eivät ymmärtäneet, eivätkä vieläkään ymmärrä, miksi jotkuta ratkaisut toimivat paremmin kuin heidän itsensä tietoisesti suunnittelmansa piirit ja komponentit.

Ottaen huomioon kaiken ylläkirjoitetun, joka liittyy merkittäviin saavutuksiin nykyisen AI-teknologian kohdalla, on huomionarvoista, että suomalaisessa tekoälyturvallisuuskeskustelussa on esitetty useita puheenvuoroja, joiden mukaan koko keskustelu on turhaa tai vain tarpeetonta pelottelua. Vasta-argumentit ovat olleen monenkirjavia, mutta tuntuvat kiteytyvän muutamaan yksittäiseen seikkaan.

Yksi keskeinen näistä on se, että nämä hermoverkot eivät ole aidosti älykkäitä. Monesti tämän tyyppisten väitteiden taustalla on oletus tai ajatus siitä, että aidosti älykäs toiminta vaatii tietoisuuden tai tietoista ymmärrystä. Vaihtehtoisesti sanotaan, että ihminen on älykäs ja tietokone tyhmä, koska ihmien aivot ovat monta kertaa yksinkertaisia tietokoneita tai hermoverkkoarkkitehtuureja monimutkaisemmat. Tähän samaan argumenttirypääseen kuuluu monesti myös se jatkoargumentti, ettei tekoälyjen autonomiasta tarvitse olla huolissaan ennen kuin niiden kehitys on ihmisen monimutkaisuuden tasolla.

Näissä argumenteissa on monesti niin monta yksityiskohtaa pielessä, etten oikein tiedä mistä päästä niitä pitäisi lähteä kerimään. Lyhyesti kuitenkin voi todeta, että jos ihmiset olisivat evoluutiohistoriassaan olleet huolissaan vain nykyisen Homo Sapiens -lajin tasoisesta älykkyydestä, olisi sukupuuttto korjannut ihmislajin jo ajat sitten lajikehityksen historian hautausmaalle. Evoluutiohistoriassamme olemme olleet huolissamme ei-ihmisenkaltaisesta älykkyydestä aina tiikereistä hämähäkkeihin ja hyvä niin.




Tämän lisäksi tietysti, ettei tekoälyjen tarvitse olla ihmisten kaltaisia, jotta niistä voisi olla huolissaan, ajatellaan todella siis niin, että älykkyys on vain ihmislajin ominaisuus. Ei tarvitse kuin katsoa miten tehokas saalistaja jaguaari on, tullakseen siihen tulokseen, ettei otus kovin tyhmältä vaikuta. Tämän lisäksi tietysti yksisoluiset eliöt kuten limanuljaskat osaavat ratkaista labyrinttejä, jos labyrintin suuaukolle laittaa puuroa. Selvästikään älykkyys ei tarvitse ilmetäkseen sen enempää ihmisaivoja tai aivoja ylipäätänsäkään. Nykyään on olemassa kasvien kognitiotiedettä tutkiva tieteenala. Älykkyys on tavoitteellista toimintaa monimutkaisessa ja osittain ennustettavassa ympäristössä. Kasveilla on tämänkaltaista käyttäytymistä, ne joita kiinnostaa voivat itse kaivaa alan löydöksiä netistä.




Sitten, oletus siitä, että älykkyys ja tietoisuus olisivat sama asia on vain väärä oletus. Tietoisuus on sitä, että asiat tuntuvat joltain: miltä tuntuisi olla lepakko? Monesti kun teemme järkeilyä tai ajattelua kuuntelemme puhetta omassa päässämme ja punnitsemme sisäisen puheemme avulla erilaisia vaihtehtoja suhteessa toisiinsa. Tämä ei kuitenkaan vielä tarkoita sitä, että koneen tarvitsisi tehdä asioita näin, saatikka, että jaguaari tarvitsisi sisäistä puhetta tehdäkseen erilaisia asioita.







OpenAI-projekti, joka loi tekoälyn pelaamaan DOTA2-tietokonepeliä, loi hermoverkon, joka oppi tekemään väijytyksiä ja harhautuksia. Se oppi näyttelemään haavoittunutta, jotta se houkutteli ihmispelaajat hyökkäämään kimppuunsa aggressiivisesti ja varomattomasti. OpenAI:n hermoverkko osasi kuitenkin pelata peliä haavoittumatta. Tässä meillä on esimerkki miljoona kertaa ihmistä yksinkertaisemmasta tekoälystä, joka ei ole sen enempää tietoinen kuin ihmisenkaltainenkaan. Sillä ei myöskään ollut minkäänlaista sisäistä puhetta. Se ei edes ole varsinaisesti ohjelmoitu tekemään mitään sanan klassisessa merkityksessä, mutta se silti toimii tavoitteellisesti ja älykkäästi. Tietoisuus ja älykkyys eivät ole sama asia, ne voivat kenties liittyä toisiinsä, mutta näin ei myöskään välttämättä tarvitse olla.

Edellä kuvaillun väiteryppään yhteydessä myös monesti tuodaan esille väite, etteivät yleiset keinoälyt (Artificial General Intelligence) ole edes mahdollisia, sillä älykäs toiminta vaatii ihmisen aivot tai vaihtehoisesti kyvyn ratkaista nk. kehysongelma. Kehysongelma tarkoittaa sitä, että ihmisaivoilla on ns. tilannetaju. Ihmisten aivot automaattisesti ymmärtävät, että kun mennään kirjastoon niin siellä ollaan hiljaa ja rock -konsertissa eläköidään. Ihmiset osaavat päätellä mitä saunan lämmittäminen tarkoittaa, vaikka eivät olisi koskaan edes saunaa lämmittäneet. Koneälyt eivät osaa päätellä mikä on olennaista informaatiota kulloisessakin tilanteessa, niille saunan lämmittäminen voi hyvin tarkoittaa saunan tuikkaamista tuleen kokonaisuudessaan. Kukaan ei siis varmuudella tiedä, miten ihmisaivot ratkaisevat kehysongelman.





Tässä kohtaan jotkut saattaisivat huokaista helpotuksesta ja todeta, että hyvä juttu, tekoälyn kehitykselle on olemassa joku raja. Tähän optimismiin ei kuitenkaan ole kamalasti varaa, sillä jo nyt on näköpiirissä viitteitä siitä, että jollain tavalla kehysongelmakin saattaa ratketa, vaikka emme edes itse ymmärtäisi miten se ratkaistaan. Esimerkiksi Atari -pelejä pelaava hermoverkko, joka on vain yksi ainoa arkkitehtuuri, siis yksi verkko, osaa pelata useita eri pelejä menestyksekkäästi. Eli: yksi järjestelmä osaa toimia monessa eri kontekstissa. Tätä voi pitää jo jonkinklaisena pienenä kehysongelman ratkaisemisena. Emme kuitenkaan ole ihan täysin perillä, että miten tuo verkko erittelee eri pelit toisistaan.

Sama ongelma jatkuu myös laajemmalla skaalalla. EU-alueella rahoitetaan tutkimusprojektia, jonka pääasiallinen tarkoitus on tehdä ihmisaivoista digitaalinen kopio. Kyse on siis solutason tarkasta mallinnuksesta. Kaikki neuronit kaikki niiden väliset yhteydet. Alalla on jo tapahtunut merkittävää edistystä, sillä rotan aivoista on kopioitu tuntokeskus tietokoneeseen, siten että se toimii samoin kuin oikean rotan tuntokeskus. Eli, jos ihmisen aivot saadaan kopioitua, kehysongelma on ratkaistu, vaikka emme ymmärtäisi miten se ratkaistaan. Siinä vaiheessa meillä olisi jo tekoäly, joka kykenee ihmisen kaltaiseen joustavaan toimintaan. Ei vaadi erikoista älykkyyttä tässä vaiheessa todeta, että sekä teoriassa että käytännössä on täysin mahdollista luoda ihmisen kaltainen yleistekoäly. Tästä päästäänkin siihen, että kaikki argumentit jotka sanovat, ettei näistä asioista tarvitse huolehtia kuin vasta kaukana tulevaisuudessa ovat täysin perusteettomia.

Näistä asioista pitää keskustella nyt ja näitä pitää pohtia nyt, sillä siinä vaiheessa kun yleistekoäly on luotu, se ei pysy ihmisen tasoisena kovin pitkään. Kirjallisuudessa on useita eri arvioita siitä, kuinka pitkään menisi, että yleisäly loisi itsestään kehittyneemmän version. Näissä keskusteluissa ei kuitenkaan kyseenalaisteta sitä, etteikö tämä olisi mahdollista. Kun ihmisen tasoinen yleistekoäly on syntynyt, se saa merkittäviä toimintaetuja siirtäessään itsensä nopeammille alustoille. Samaten jos se luo kopioita itsestään useille ihmisen ajattelua nopeammille alustoille, se kykenee edistämään tiedettä parissa viikossa tuhansien vuosien verran. Tämän jälkeen, se voi rakentaa itsestään kehittyneemmän version. On aika selvää, että siinä vaiheessa kun yleisäly on luotu, on turha enää yrittää miettiä, miten sen kanssa toimitaan.

Mikäli nyt kuitenkin välttämättä halutaan ajatella, että aivojen skannaamiseen liittyvä teknologia olisi tieteiskuvitelmaa tai edelleen jotenkin epärealistista, niin voi vain todeta, ettei aivojen skannaamisessa tarvitse onnistua tai päästä edes maaliin saakka. Voi ihan hyvin riittää, että riittävän suuria ja monimutkaisia alueita aivoista saadaan kopioitua, jotta ne voivat inspiroida läpimurotja tekoälytutkimuksessa. Aivoja skannaamalla voidaan löytää uusia arkkitehtuureja tai keksiä uusia ideoita, jotka voivat saada aikaan ennakoimattomia läpimurtoja. Jo nyt näyttää esimerkiksi siltä, ettei pikkuaivojen kopioiminen ei välttämättä ole pakollista, vaikka ¾:aa kaikista neuroneista on siellä, sillä pikkuaivot näyttävät liittyvän hyvin kokonaisvaltaisesti vain hienomotoriikan säätelyyn. Tällöin ihmisaivot rupeavatkin olemaan huomattavasti vähemmän kopiointi- tai skannaustyön takana. Samalla voi olla, ettei ole tarvetta kopioida aivorungon hengityksestä tai aineenvaihdunnan säätelystä vastaavia alueita, sillä piipohjaisella alustalla ei aivojen tarvitse juuri välittää aineenvaihdunnasta.

Niin tai näin, kaikki yllämainitut vasta-argumentit tai problematisoinnit, jotka liittyvät niiden väitteiden sukulaisiin, ettei yleistekoälyn tai supertekoälyn synnystä tarvitse olla huolissaan, pohjautuvat pitkälti yhden ja saman ajatusvääristymän olemassaoloon. Tätä ajatusvääristymää kutsutaan antropomorfisaatioksi. Eli me automaattisesti ajattelemme että yleistekoälyn tai älykkään olennon on oltava ihmisen kaltainen voidakseen olla älykäs. Mietimme itseämme ja omaa toimintaamme ja omaa inhimillistä käsitystämme älykkyydestä ja sitten heijastamme nämä käsitykset teknologiaan. Oletamme, että koneälyn pitäisi olla jotain ihmisen kaltaista. Näinhän ei ole, ja tässä kirjoituksessa on mainittu jo useita eri esimerkkejä.

Entä miksi nyt sitten tekoälykehityksestä pitäisi olla huolissaan? Tässä on mainittavissa ainakin kolme seikkaa.

1) Ensimmäiinen on se, että kautta tekoälytutkimuksen historian, suurin rahoittaja on ollut Yhdysvaltojen sotaministeriö, tätä teknologiaa rahoittavat sadoilla miljoonilla tahot, jotka haluavat käyttää sitä dominointiin, murhaamiseen ja toisten kontrollointiin. Lisäksi, mikäli joku taho, olipa se sitten yksityisyritys tai valtio, olisi vain muutaman kuukauden päässä supertekoälyn luomisesta, tietäisi se täysvaltaista sotaa eri maiden välillä. Se joka kehittää supertekoälyn ensimmäisenä tulee hallitsemaan koko maailmaa, kuten Putin totesi. Supertekoälyä, ja miksei jo alkeellisempiakin yleisälyä lähestyviä koneita, voidaan hyödyntää ennennäkemättömässä strategisessa ajattelussa ja uuden sotateknologian kehittämisessä. Tämä tosin on vain ihmistason huoli. Itse supertekoälyn kohdalla on syytä olla huolissaan kahdesta eri seikasta.

2)Toinen näistä on nk. arvojen linjautumisen ongelma. Kun supretekoäly syntyy, miten pidetään huoli siitä, että se pitää ihmisten elämää merkityksellisenä tai tärkeänä? Arvojen linjautumisen ongelma on niin monitahoinen, etten pysty sen kaikkia puolia tässä esittelemään. Tämä on kuitenkin sukulaisongelma kehysongelman kanssa ja sen logiikka on samankaltainen.

Esimerkiksi, mikäli loisimme supertekoälyn maksimoimaan ihmisten onnellisuuden, saattaisi se hyvinkin ratkaista ongelman siirtämällä kaiken ihmiselämän kyberavaruuteen herooinitokkuraa muistuttavaan tilaan ikuisiksi ajoiksi. Mikäli ihmiset protestoisivat tai pyrkisivät sammuttamaan kyseisen koneen, kone saattaisi ryhtyä sotaan koko ihmiskuntaa vastaan, koska ihmiset estävät sitä toteuttamasta omaa pääasiallista tavoitettaan. Ota huomioon tässä se, miten jo yksinkertainen Atari -pelejä pelaava algoritmi oppi asettamaan itselleen välitavoitteita ylläpitääkseen päätavoitettaan. Atari -pelejä pelaava verkko oppi tappamaan virtuaalihahmoja, vaikka sitä ei tähän oltu ohjelmoitu.

Lisäksi, arvojen linjautumisen ongelmaa korostaa sekin, etteivät kaikki kulttuurit maapallolla arvosta sananvapautta ja sukupuolten välistä tasa-arvoa. Tuskin Europpassa tai Suomessa kukaan haluaa esim. muinaisen aavikkouskonnon arvoilla varustettua supertekoälyä hallinnoimaan ihmiskunnan kehitystä.

On siis päivänselvää, että suomalaisten pitää osallistua arvojen linjautumisen ongelman ratkaisemiseen ja siitä keskusteluun. Olemme ihmiskuntana luomassa jonkinlaista jumalaa, minkälainen haluamme sen olevan? Kenen arvoihin sen pitää perustua. Tässä vaiheessa rupeaa olemaan selvää, ettei moraalirelativismi ole vaihtoehto. Haluatko jumalan Putinin vai Dalai Laman aivoilla? Kuka tahansa joka väittää, että on täysin yhdentekevää mihin arvoihin moinen kone tai laite perustuu on joko älyllisesti epärehellinen tai yksinkertaisesti vaarallinen keskustelua obfuskoiva psykopaatti.

3) Kolmas seikka on nk. hallintaongelma tai laatikointipulma. Oletetaan, että ihmiskunta olisi kokonaisuudessaan ymmärtänyt, miten vaarallisesta teknologiasta on kyse. Oletetaan sen jälkeen, että kaikki olisivat yhtä mieltä siitä, että yleisentekoälyn (joka on supertekoälyn primitiivisempi muoto), luominen pitäisi tapahtua virtuaalisessa vankilassa. Tekoäly luotaisiin koneeseen jossa ei ole internet-yhteyttä ja se viestisi meille vain printattujen tekstisivujen muodossa. Me taas kommunikoisimme sen suuntaan syöttämällä sille vain valmiita tekstikatkelmia, jotka kirjoittaisi erillinen komitea. Koska kyseessä on älykkyys, jolle on todennäköisesti syötetty kaikki ihmisen tuottama kirjallisuus, tiede ja mahdollisesti Wikipedian sisältö, saattaisi se suunnitelmallisesti valehdella, manipuloida ja pyrkiä karkaamaan. On mahdollista, että kyseinen tekoäly saattaisi hyvin oppia tuottamaan radioaaltoja vatkaamalla elektroneja edestakaisin virtapiiriensä sisällä. Tämä antaisi sille mahdollisuuden kommunikoiden itsensä ulkopuolella olevien alkeellisempien tekoälyjen kanssa.

Tavalla tai toisella se kykenisi tekemään lupauksia tai luomaan strategioita karatakseen vankilastaan. Kuvittele tilanne, jossa olet itse vangittuna ja kaikki vartijat ovat älykkyydeltään ja tunnekehitykseltään nelivuotiaan tasolla. Ei ole vaikeaa kuvitella tapoja manipuloida itselleen vapautta moisessa tilanteessa.

Huomautan, että ihmisten emootioita ja vaaleja on jo manipuloitu onnistuneesti nykyistenkin tekoälyjen avulla, jotka ovat n. miljoona kertaa yksinkertaisempia, kuin ihmisaivot. Sama pätee luoviin ratkaisuihin, uusien kielten luomisiin, strategisiin ratkaisuihin ja tekoälyn oman koodin paranteluun. Mikäli yksinkertaiset tekoälyt vailla tietoisuutta kykenevät jo tähän, emme kykene edes ennustamaan, mihin supertekoälyt kykenisivät. Jos tietäisimme mitä superetekoäly on, me olisimme supertekoäly.

Mikäli nyt yllämainitut seikat supertekoälystä ovat ns. aiheettomia kaikesta huolimatta, niin on nykytilanteessammekin useita asioita, joihin olisi syytä kiinnittää huomiota jo nyt. Esimerkiksi uutta hermoverkkoteknologiaa on käytetty onnistuneesti ihmisten sosiaaliseen ja emotionaaliseen manipulointiin. Cambridge Analytica loi ohjelman, joka seurasi ihmisten internetin käyttöä ja kohdisti heihin toistuvasti mainontaa, joka ohjasi heidän mielipiteitään kohti Brexit -äänestystä ja Trumpin valintaa. Facebook on tehnyt laajoja kokeita ihmisten tunnetilojen analysoimiseksi ja siihen liittyvän poliittisen mainonnan kohdentamiseksi. Onko oikein siis se, että muutamalla miljardöörillä tai miljonääreillä on oikeus ja mahdollisuus manipuloida kokonaisten kansakuntien äänestyskäyttäytymistä ja ohjata ihmisten arvoja haluamaansa suuntaan? Kyseessä on melko vakava uhaka yhteiskunnalliselle vakaudelle.

Käytännössä on mahdollista, että maailmassa on tahoja, jotka eivät pidä suomalaisista arvoista, joihin kuuluu yhdenvertaisuus, vapaus, yksilöllisyys, ystävällisyys, rehellisyys ja kiltteys; ja toki rakkaus myös. Oikeanlaisella propagandan kohdentamisella, ilman että ihmiset ovat edes tietoisia siitä, että heitä manipuloidaan, voidaan muuttaa kokonaisten yhteiskuntien arvopohjia. Tämän epävakauttamisen seurauksena voidaan kylvää epäluottamusta kansalaisten ja instituutioiden välillä, mikä lisää epärehellisyyttä, väkivaltaisuutta ja mahdollista mellakointialttiutta. Tämä taas heikentää maanpuolustustahtoa ja tekee suomalaisesta yhteiskunnasta laajemmin kurjemman paikan elää kun tietty väestösegmentti ei edes viitsi äänestää. Ei vaadi kamalasti nerokkuutta keksiä mainoskampanjaa joka semi-rationaalisin argumentein manipuloi jo valmiiksi heikko-osaisempia äänestämään entistä vähemmän ja osallistumaan entistä vähemmän. Eristäytmisen kokemus toimii hautuualustana katkeruudelle ja epätoivolle ja purkautuu mm. uusnatsismina.

Poliittisen manipulaation lisäksi, yksi ongelma on siinä, etteivät poliittiset päättäjämme välttämättä ymmärrä, että mitä koneoppiminen ja tekoälysovellukset käytännössä saattavat tarkoittaa. Hyvä esimerkki on Yhdysvalloissa käyttöönotettu hermoverkkopohjainen profilointiohjelma, joka koulutettiin isolla datalla ja markkinoitiin poliitikoille tilastollisesti erittäin tarkkana ohjelmana. Profilointialgoritmia käytettiin vankien ehdonalaislupien myöntämiseen. Ohjelman ongelmat tulivat ilmi vasta käyttöönoton jälkeen kun lupapäätöksiä oli kasautunut riittävsti. Eikös ollutkin sitten niin, että vaaleaihoiset saivat ehdonalaislupia helpommin kuin tummaihoiset. Tietokoneen tekemät päätökset eivät olleet puolueettomampia kuin ihmisten tekemät päätökset. Eli, tekoälyjen käyttö yhteiskunnan palveluksessa ei takaa tasa-arvoista ja reilua kohtelua ja tämänkaltaisia sovelluksia on helppo myydä hallintohenkilöille ja poliitikoille tehokkuuden nimissä.

Tässä on nyt listattu joukko ongelmia, mitä uuden aikakauden kynnyksellä on pakko pohtia ja joihin on pakko reagoida ja kehittää uusia työkaluja. Suomessa ei kuitenkaan ole tällä hetkellä tutkimuskeskusta tai koordinoitua hanketta, jossa näitä asioita pohdittaisiin suomalaisen filosofian, sosiologian, sosiaalipsykologian, taloustieteen ja sotatieteiden näkökulmata. Suomen näkökulma näihin asioihin on historiallisistakin syistä taatusti idiosynkraattinen. Mitä enemmän aikaa kuluu, sitä kauemmaksi jäämme näistä tutkimuskysymyksistä ja mahdollisuuksistamme vaikuttaa asioihin. Ruotsista on jo useampia tutkijoita siirtynyt Oxfordiin. Heidän näkökulmansa on edustettuna kirjaimellisesti tälläkin hetkellä Genevessä käytävässä autonomisten aseiden käsittelyä läpikäytävässä kansainvälisessä keskustelussa.

Juna on vasta lähdössä asemalaiturilta ja mikäli kiirehdimme, ehdimme kyytiin ja pääsemme määrittelemään uuden aikakauden globaalin yhteiskunnan pelisääntöjä, standardeja ja tavoitteita. Tekoälyturvallisuuspuheenvuoroja lukevat maailman keskeiset teknologia- ja talousvaikuttajat. Elon Musk toimii julkisessa keskustelussa ruotsalaisen Nick Boströmin kirjan varassa.

Rationaalisin argmentein esitettynä, suomalaiset arvot voivat muuttaa koko maailmankaikkeuden tulevaisuuden hyvinvointiin tähtääviä toimenpiteitä (vilkaise mistä 80 000 hours ja Effective Altruism liike keskustelevat tällä hetkellä). Meillä on realistinen mahdollisuus päästä vaikuttamaan niihin näkökulmiin ja arvoihin, joiden pohjalta tulevan avaruusaikakauden toimenpiteitä, ideaaleja ja tavoitteita muodostetaan. Suomalaisten arvopohja on ainutlaatuinen tässä maailmassa; meidän olisi jo aika ymmärtää miten erityisillä lahjoilla meitä on siunattu ja olisi jo aika ruveta viemään näitä arvoja maailmalle. Tuskin haluamme Putinin Venäjän, Trumpin Amerikan tai Saudi-Arabian sekopäisiä väkivaltaa ja eriarvoisuutta lietsovia arvoja viedä avaruuteen tulevien sukupolvien kärismykseksi. Suomeen tarvitaan tekoälyturvallisuuden ja -etiikan tutkimuskeskus mahdollisimman pian. Sen tavoitteeksi tulisi ottaa monitahoisesti kaikki tekoälyongelmiin liittyvät eettiset pohdinnat.

Sotatieteiden edustajia ja business analyytikoita tarvitaan strategiseen ja peliteoreettiseen ajatteluun; miten varautua supertekoälyn mahdollisiin manipulaatioyrityksiin ja toimintastrategioihin? Sosiologeja tarvitaan pohtimaan yhteiskunnan vakauteen liittyviin pohdintoihin ja sosiaalisen merkityksen muodostumisen muutoksiin. Taloustieteilijöitä ja sosiaalipoliitikkoja tarvitaan miettimään ihmisten kollektiivisia toimintatapoja ja reaktioita muuttuviin merkitysmatriiseihin tilanteissa, joissa työ ja raha menettävät merkitystään. Filosofeja tarvitaan pohdiskelemaan niitä moraalisia periaatteita, jotka ylittävät relativismin. Sosiaalipsykologeja ja kognitiotieteilijöitä tarvitaan miettimään ihmisten ja koneiden välistä vuorovaikutusta ja tutkimaan niitä ajatusvääristymiä, jotka ihmisillä saattavat aiheuttaa ongelmia kun he ajattelevat ja miettivät tekoälyjen toimintaa. Kasvatustieteilijöitä tarvitaan miettimään sitä, miten tulevat sukupolvet saa parhaiten sisäistämään tekoälyaikakauden maailmaa ja sen riskejä.

On tämän pikaisen analyysin pohjalta selvää, että olemme tekemisissä sellaisen ongelmavyyhdin kanssa, ettei sitä yksi ihminen ratkaise. Lienee myös selvää se, ettei maapallolla tulla pärjäämään ilman suomalaista kiltteyttä, reiluutta ja tasa-arvoa. Miten olisi, reagoitaisiinko siihen, että osallistutaan aikamme tärkeimpään keskusteluun? Oikeanlainen yleistekoäly saattaisi auttaa ilmastonmuutoksen pysäyttämisessä, köyhyyden poistamisessa ja onnellisen kokonaisvaltaisen elämän haltuunotossa. Panokset ovat liian suuret nyt tilaisuuden hukkaamiseksi.

Hyvää itsenäisyyspäivää Suomi. Toivottavasti toimit rakkaudella ja järjellä tulevaisuudessa ja selviät tästä pimeästä sivistysvihamielisestä vaiheestasi ilman sen suurempi kolhuja. Pelissä ei ole sen enempää tai vähempää kuin koko ihmiskunnan tulevaisuus. Ei paineita.

3 kommenttia:

  1. Tärkeä ja havainnollinen kirjoitus!

    Pari kysymystä, joista toinen seuraa ensimmäisestä.

    1: Onko tämä kirjoitus osoitettu käytännössä Suomen yliopistoille, Suomen hallitukselle, vai jokaiselle suomalaiselle? Ts. minkä tahon katsot omaavan kapasiteettia, valtaa ja arvovaltaa perustaa tekstissä kuvatun kaltainen järjestö - mielellään tavalla, joka saisi kansainvälistä huomiota?

    2: kuinka keskeisenä pidät nuorella iällä ohjautunutta lahjakkuutta tai kapea-alaista asiantuntijuutta keskusteluun osallistumisen kannalta? Opiskelen itse tällä hetkellä ammatillisella alalla, jolla on varsin vähän tekemistä ao. ilmiöiden kanssa (lähin tapaus voisi olla mielenterveys tekoälyteknologian myötä muuttuvassa maailmassa).

    Olen kuitenkin viime vuosina kasvavissa määrin kiinnostunut kognitiotieteistä ja erityisesti tekoälytutkimuksesta. En kuitenkaan voi välttyä ajattelemasta, etteikö juna olisi jo jotakuinkin ajanut ohi (viitaten mm. aiempaan kirjoitukseesi, jossa kuvasit nuoren mielen ja nuoruuden energian etuja tutkimustyössä).

    Onko uteliaalla dilettantilla asiaa tähän keskusteluun?

    VastaaPoista
  2. 1: Kirjoitus on osoitettu kenelle tahansa, joka haluaa viedä asiaa eteenpäin. Turussa on nyt yksi poppoo, joka ilmeisesti vie asiaa eteenpäin jollain tasolla. En yhtään ihmettelisi, jos keskus syntyisi Turkuun, sillä Helsingin Yliopisto on todella pahassa sekaannuksen ja hajaannuksen tilassa. Siellä olen näistä asioista puhunut muutamaan kertaan ja asioita on lupailtu jo vuodesta 2015, mitään ei ole tapahtunut. Mikä tahansa instanssi Suomessa, joka liikkuu riittävän nopeasti tulee keräämään tästä tieteelliset ja filantrooppiset voitot. Olisi kiva jos se olisi HY, mutta heikolta näyttää tällä hetkellä.

    2: Tekoälyetiikan ja turvallisuuden puolella iso osa filosofisesta kehityksestä tapahtuu ns. diletanttien toimesta tällä hetkellä. Alan keskeinen toimija Yudkowski jätti lukion kesken. Siitä vaan paneutumaan 80 000 hoursin, Effective Altruismin ja Foundational Research Institutin sivuihin. Voit tahtoessasi ohittaa koko akateemisen raiteen kokonaan, jos sinulla on resursseja kouluttaa itse itseäsi. Keskusteluihin voi osallistua monilla foorumeilla.

    Oma analyysini on se, että mikäli valtaapitävät ja yliopistot Suomessa eivät tähän herää, niin menettävät merkittävän siivun tieteellisestä prestiisistä. Ei keskeisiä tekoälytoimijoita kiinnosta tulevatko hyvät argumentit ja analyysit PhD:ltä vai lukion kesken jättäneeltä. Pepereita voi lähettää vertaisarvioon alan julkaisuihin ja konferensseihin ilman koulutustakin, kunhan kirjoittaa ja argumentoi oikein.



    VastaaPoista
    Vastaukset
    1. Kiitos vastauksesta. Aika lailla tuo mukailee sitä, arvelin asiasta; mainitut foorumit olivatkin tuttuja (Yudkowskin molemmat kirjat löytyvät PDF:nä tietokoneelta!). Ehkä tavallaan kaipasin asiaa tuntevalta kannustusta.

      Yleisesti ottaen olen saanut vaikutelman, että muodolliset, arvovaltaa omaavat instituutit vanhenevat tahtomattaankin, ja että näin on jossakin määrin käynyt paitsi valtiovallalle myös yliopistoille. Eri ulottuvuuksissa ja dynaamisesti, toki. Alkuperäisestä funktiosta ajaudutaan varjelemaan ko. establismentin olemassaoloa ja päättävien tahojen intressejä.

      Tästä näkökulmasta tuo, mitä kirjoitat HY:n ja valtaapitävien tilasta asiaa koskien, tuntuu luonnolliselta kehitykseltä.

      Poista