GettyImages 1249101964 22f30f347af046bbb47f8155bda4a4e4

Tärkeimmät oppimispisteet

  • Algoritminen harha on haitallista teini-ikäisille, jotka viettävät paljon aikaa Internetissä, asiantuntijat sanovat.
  • Twitterin käyttäjät kohtasivat äskettäin ongelman, jossa mustat kasvot erotettiin valkoisten kasvojen sijasta.
  • Teini-ikäisten kehittyvät aivot voivat olla erityisen herkkiä algoritmisen harhan vahingollisille vaikutuksille, tutkijat sanovat.
Joihinkin tekniikoihin juurtunut harha, joka tunnetaan nimellä algoritminen harha, voi olla haitallista monille ryhmille, mutta asiantuntijoiden mukaan se on erityisen haitallista teini-ikäisille. Algoritminen harha, kun tietokonejärjestelmät näyttävät puolueellisia tuloksia, on kasvava ongelma. Twitterin käyttäjät löysivät äskettäin esimerkin alustan vinoittamisesta, kun kuvia rajaava kuvantunnistusalgoritmi rajaa mustat kasvot valkoisten kasvojen sijaan. Yhtiö pahoitteli ongelmaa, mutta ei ole vielä julkaissut ratkaisua. Asiantuntijat sanovat, että se on esimerkki teinien ennakkoluulosta, kun he käyvät verkossa, mitä he tekevät enemmän kuin mikään muu ikäryhmä. «Useimmat teini-ikäiset eivät ole tietoisia siitä, että sosiaalisen median yritykset haluavat mainostaa tiettyä sisältöä, josta he uskovat käyttäjien pitävän [in order] pitää heidät alustalla mahdollisimman pitkään», sanoi Dr. Mai-Ly Nguyen Steers, Duquesnen yliopiston hoitotyön korkeakoulun apulaisprofessori, joka tutkii sosiaalisen median käyttöä nuorten/opiskelijoiden keskuudessa, sähköpostihaastattelussa. «Vaikka algoritmista olisikin tiedossa, riittämättömän tykkäyksen ja kommenttien vaikutus on silti voimakas ja voi vaikuttaa teini-ikäisten itsetuntoon», Steers lisäsi.

Aivojen kehitys

Algoritminen harha voi vaikuttaa teini-ikäisiin odottamattomilla tavoilla, koska heidän esiotsakuorinsa on vielä kehittymässä, selittää Mikaela Pisani, Rootstrapin päätietotutkija sähköpostihaastattelussa. «Liittämättömän tykkäyksen ja kommenttien vaikutus on edelleen voimakas ja voi vaikuttaa teini-ikäisten itsetuntoon.» «Teini-ikäiset ovat erityisen haavoittuvia «Social Factoryn» ilmiölle, jossa algoritmit luovat sosiaalisia klustereita verkkoalustoille, mikä johtaa ahdistukseen ja masennukseen, jos teinin sosiaalisen hyväksynnän tarpeet eivät täyty», Pisani sanoi. «Aiempaan epätäydelliseen dataan perustuvien algoritmien yksinkertaistaminen – mikä johtaa stereotypioiden yliedustamiseen identiteetin muodostumisen vivahteikkaampien lähestymistapojen kustannuksella.» Laajemmasta näkökulmasta katsottuna meidän on yhteiskunnana myös kysyttävä, haluammeko algoritmien muokkaavan meidän teini-iässä matkustaa aikuisuuteen, ja tukeeko tämä järjestelmä edes yksilöllistä henkilökohtaista kasvua sen tukahduttamisen sijaan?» Asiantuntijat sanovat, että näiden ongelmien vuoksi on kasvava tarve pitää teini-ikäiset mielessä algoritmeja suunniteltaessa. «Kehityksestä saatujen tietojen perusteella asiantuntijat, datatieteilijät ja nuorten puolestapuhujat, 2000-luvun tietosuojaa ja algoritmista suunnittelua koskevat käytännöt voitaisiin myös laatia nuorten erityistarpeet huomioon ottaen», Harvardin tohtoriopiskelija Avriel Epps-Darling kirjoitti äskettäin. Vähentää tai jättää huomiotta tapoja. jossa Jos teini-ikäiset ovat alttiina algoritmiselle rasismille, vahingot heijastuvat todennäköisesti tuleville sukupolville.»

Taistelee ennakkoluuloja vastaan

Kunnes ratkaisua löytyy, jotkut tutkijat yrittävät löytää tapoja vähentää nuorille aiheutuvia haittoja puolueellisten algoritmien avulla. «Investoinneilla pyritään auttamaan teini-ikäisiä tunnistamaan, että heidän sosiaalisen median toimintamallinsa vaikuttavat negatiivisesti heidän mielenterveyteensä, ja yrittää suunnitella strategioita sen vähentämiseksi (esim. sosiaalisen median käytön vähentäminen), Steers sanoi. «Jotkut haastatelluista opiskelijoista ilmoittivat, että heidän on pakko luoda sisältöä pysyäkseen «olennaisena», vaikka he eivät haluaisi mennä ulos tai julkaista mitään», hän jatkoi. «He kuitenkin kokevat, että heidän täytyy luoda sisältöä ylläpitääkseen yhteyksiään seuraajiinsa tai ystäviinsä.» Lopullinen vastaus voisi olla ihmisten ennakkoluulojen poistaminen tietokoneista. Mutta koska myös ohjelmoijat ovat ihmisiä, se on kova haaste, asiantuntijat sanovat. Yksi mahdollinen ratkaisu on kehittää tietokoneita, jotka on hajautettu ja ohjelmoitu unohtamaan opitut asiat, sanoi John Suit, robotiikkayhtiö KODA:n teknologiajohtaja. «Hajautetun verkon kautta dataa ja niiden analysointia kerätään ja analysoidaan useissa kohdissa», Suit sanoi sähköpostihaastattelussa. «Data ei kerätä ja käsitellään yhdestä tekoälyn mielenkäsittelystä sen algoritmin rajoissa, vaan satoja tai jopa tuhansia.» Kun näitä tietoja kerätään ja analysoidaan, vanhat «päätelmät» tai tarpeeton data unohdetaan. Tämän järjestelmän avulla algoritmi, joka on saattanut käynnistyä harhalla, korjaa lopulta ja korvaa sen, jos se osoittautuu virheelliseksi. tietokoneet päästä eroon ennakkoluuloistamme on ensimmäinen askel.

Por Markus