Tekoäly ja koneoppimisalgoritmit seuraavat ihmisten käyttäytymistä ja voivat manipuloida oppimista, asiantuntijat sanovat.
Tutkijat ovat äskettäin kehittäneet tavan löytää ja hyödyntää haavoittuvuuksia tavoissa, joilla ihmiset tekevät valintoja tekoälyn avulla.
Tällä hetkellä edistynein sosiaalisen median algoritmi on TikTok, yksi tarkkailija sanoo.
Tekoäly (AI) ja koneoppimisalgoritmit oppivat yhä enemmän vaikuttamaan käyttäjien käyttäytymiseen, asiantuntijat sanovat. Australian National Science Officen tutkijat kehittivät äskettäin tavan löytää ja hyödyntää haavoittuvuuksia tavoissa, joilla ihmiset tekevät valintoja tekoälyn avulla. Uusin tutkimus on vain yksi AI-käyttöisten järjestelmien aallosta, jotka on suunniteltu manipuloimaan ihmisen päätöksentekoa. «Ei ole loppua monille tavoille, joilla tekoäly vaikuttaa jo käyttäytymiseen», sanoi Kentaro Toyama, professori Michiganin yliopiston tietokoulusta ja kirjoittaja. Geek Heresy: Sosiaalisen muutoksen pelastaminen tekniikan kultilta, sanoi sähköpostihaastattelussa. «Jos olet joskus tehnyt Google-haun ja seurannut linkkiä, olet saanut vaikutuksen tekoälyjärjestelmästä, joka arvasi kiinnostuksen kohteesi ja palautti sinulle osuvimpia tuloksia.»
AI vs ihminen
Australialaisessa tutkimuksessa, joka julkaistiin äskettäin julkaisussa, ihmiset pelasivat pelejä tietokonetta vastaan useissa kokeissa. Ensimmäisessä kokeilussa osallistujat napsahtivat punaisia tai sinisiä ruutuja voittaakseen rahaa. Tekoäly onnistui noin 70 % ajasta, oppien osallistujan valintamallit ja ohjaten heidät tiettyyn valintaan. Toisessa kokeessa osallistujat katsoivat näyttöä ja painoivat painiketta, kun heillä oli tietty symboli, tai eivät painaneet sitä, kun heille esitettiin toinen symboli. Tekoäly oppi järjestämään symbolit uudelleen, jolloin osallistujat tekivät enemmän virheitä.
Tutkijat päättelivät kokeiden tuloksena, että tekoäly oppi osallistujien vastauksista. Tämän jälkeen kone tunnisti ja asetti haavoittuvuuksia ihmisten päätöksentekoon. Itse asiassa tekoäly voi manipuloida osallistujia ryhtymään tiettyihin toimiin. Sen tosiasian, että tekoäly tai koneoppiminen voi manipuloida ihmisiä, ei pitäisi tulla yllätyksenä, tarkkailijat sanovat. «Tekoäly vaikuttaa käyttäytymiseemme joka päivä», Tamara Schwartz, kyberturvallisuuden ja yrityshallinnon apulaisprofessori York College of Pennsylvaniassa, sanoi sähköpostihaastattelussa. «Kuulemme algoritmeista koko ajan sosiaalisen median sovelluksissa, kuten Facebookissa tai Twitterissä. Nämä algoritmit keskittävät huomiomme niihin liittyvään sisältöön ja luovat «kaikukammio» -efektin, joka puolestaan vaikuttaa käyttäytymiseemme.»
TikTok katselee
Tällä hetkellä edistynein sosiaalisen median algoritmi on TikTok, Schwartz sanoi. Sovellus analysoi, mistä olet kiinnostunut, kuinka kauan katsot jotain ja kuinka nopeasti ohitat jotain, ja tarkentaa sitten tarjontaa, jotta voit jatkaa katsomista. «TikTok on paljon riippuvuutta aiheuttavampi kuin muut alustat tämän AI-algoritmin ansiosta, joka ymmärtää mistä pidät, kuinka opit ja kuinka valitset tietoa», hän lisäsi. «Tiedämme tämän, koska käyttäjien keskimääräinen aika TikTokissa on 52 minuuttia.» Ihmisen käyttäytymisen manipuloinnilla tekoälyllä voi olla positiivisia sovelluksia, Chris Nicholson, tekoälyyrityksen Pathmindin toimitusjohtaja, väitti sähköpostihaastattelussa. Esimerkiksi kansanterveysviranomaiset voisivat käyttää tekoälyä rohkaistakseen ihmisiä tekemään parempia päätöksiä.
«Sosiaalinen media, videopelien valmistajat, mainostajat ja autoritaariset järjestelmät etsivät kuitenkin tapoja saada ihmiset tekemään päätöksiä, jotka eivät ole heidän etujensa mukaisia, ja tämä antaa heille uusia työkaluja siihen», hän lisäsi. Tekoälykäyttäytymiseen vaikuttavat eettiset ongelmat ovat usein asteittaisia, Toyama sanoi. Tekoäly mahdollistaa kohdistetun mainonnan, jossa yksilöllisiä mieltymyksiä ja heikkouksia voidaan hyödyntää. «Esimerkiksi tekoälyjärjestelmä voi tunnistaa ihmiset, jotka yrittävät lopettaa tupakoinnin, ja seuloa heidät houkuttelevien tupakkamainosten kautta», hän lisäsi. Kaikki eivät ole samaa mieltä siitä, että tekoälyn manipulointi ihmisten käyttäytymisessä on ongelmallista. Sekä klassinen psykologia että tekoäly tarkkailevat dataa, Stevens Institute for Artificial Intelligence -instituutin johtaja Jason J. Corso sanoi sähköpostihaastattelussa. «Ihmistieteilijät ovat luultavasti parempia yleistämään havaintoja ja tislaamaan teorioita ihmisten käyttäytymisestä, joilla voi olla laajempaa sovellettavuutta, kun taas tekoälymallit olisivat helpompia tunnistaa ongelmakohtaisia vivahteita», Corso sanoi. «En näe mitään eroa eettisestä näkökulmasta.»