Tärkeimmät oppimispisteet
- YouTuben automaattinen ikärajoitusohjelmisto on huolenaihe LGBTQ+-sisällöstä alustalla.
- Yritystä on vaivannut kiista LGBTQ+-sisällöntuottajista, jotka herättävät epäilyksiä.
- Koneoppimisen ennakkoluulot antavat uskoa ajatukselle, että suodattimien epätäydellinen toteutus rajoittaa todennäköisesti kohtuuttomasti pääsyä.
YouTuben uutta tekoälyyn perustuvaa teknologiaa pidetään tekniikan jättiläisen huolestuttavana seuraavana askeleena. Viime viikolla virallisessa YouTube-blogissa videonjakoalusta paljasti suunnitelmat julkaista uusia automaattisia ohjelmistoja, jotka «soveltavat johdonmukaisemmin ikärajoituksia» videoihin, joita pidettiin sopimattomina nuoremmille katsojille. Uusi järjestelmä perustuu viimeaikaisiin sovelluksessa oleviin lapsiin liittyviin huolenaiheisiin, ja se perustuu koneoppivaan tekoälyohjelmistoon, joka pystyy jättämään ihmisvalvojat automaattisempaan prosessiin. Ongelma? YouTuben automatisoituja järjestelmiä on syytetty LGBTQ+-sisällön ja sisällöntuottajien poimimisesta yksinkertaisesti siksi, että niitä on olemassa. «Vaikka se ei ole ilkeä, mitä en usko sen olevan, se on eri äänien puuttumista – tai ainakin kunnioituksen puutetta.» «Ihmiset ovat tietoisia ja luomia koneoppimiseen, ja on mahdollista, että siihen liittyvät ennakkoluulot tai kone itse oppii», sanoi YouTuber Rowan Ellis puhelinhaastattelussa. elinehto† «Hänen ennakkoluulonsa» [LGBTQ+] sisältö näkyy aiemman kokemuksen perusteella [LGBTQ+] YouTube-käyttäjät, enkä ole nähnyt todisteita siitä, että mitään olisi tehty tämän estämiseksi.»
Kulta, nyt meillä on huonoa verta
Ellis on YouTube-käyttäjä, joka luo feminististä ja omituista opetussisältöä, ja vuonna 2017 hän julkaisi videon yrityksen rajoitetusta tilasta. Ensimmäisenä yrityksenä automaattiseen sisällönvalvontaan tämä tila antoi käyttäjille mahdollisuuden esiseuloa «mahdollisesti aikuisille tarkoitettua sisältöä» hakuehdotuksia ja -suosituksia varten. Hänellä on yli 100 000 katselukertaa, ja hän uskoo, että hänen kanavaansa yritettiin tietoisesti estää rajoituksista, koska hän vastusti suoraan YouTuben uuteen maltilliseen siirtoon kohdistuvia ylilyöntejä. Muut alustan käyttäjät eivät olleet niin onnekkaita ja kertoivat YouTubelle. Elokuussa 2019 kahdeksan LGBTQ+ -sisällöntuottajan ryhmä nosti YouTubea vastaan ryhmäkanteen, joka syytti Piilaakson yritystä queer- ja trans-sisällöntuottajien ja -sisällön rajoittamisesta. Oikeusjuttu väittää, että sivusto käyttää «laitonta sisällön sääntelyä, jakelua ja kaupallistamista, joka leimaa, rajoittaa, estää, demonisoi ja vahingoittaa taloudellisesti LGBT-kantajien ja laajempaa LGBT-yhteisöä». Se etenee edelleen Kalifornian tuomioistuimissa tänään. «Ihminen on tietoinen ja luonut koneoppimisen, ja on mahdollista, että nämä ennakkoluulot ovat luonnostaan tai koneen itsensä oppimia.» Saman vuoden kesäkuussa alusta sai runsaasti mediahuomiota, kun se kieltäytyi nopeasti nuhtelemasta suosittua konservatiivista kommentaattoria Steven Crowderia kuukausia kestäneestä homofobisesta kampanjasta. Vox toimittaja ja juontaja Carlos Maza. Tämä vahvisti sen, mitä Ellis sanoi, että verkkoalustalla on tapana jättää huomioimatta queer-tekijöiden kohtaamat ainutlaatuiset haasteet. LGBTQ+:n sisällöntuottajien epäluottamus YouTuben kykyyn puolustaa heitä ei ole turhaa. «En usko, että he ovat ymmärtäneet avoimuuden tarvetta sosiaalisissa asioissa ja tasa-arvon varmistamisessa», hän sanoi. «Ympäri maailmaa on edelleen lapsia, jotka ovat kasvaneet ajattelemaan, että homous on väärin. Se on väärin, sopimatonta, kypsää, kieroutunutta ja likaista.»
Ei automaattista oppimista
LGBTQ+-sisällöntuottajien surkea historia alustallaan aiheuttaa edelleen huolta koneoppimisohjelmiston kyvystä havaita korkeammat standardit. Markkulan soveltavan etiikan keskuksen toiminnanjohtaja Don Heider ehdottaa, että mahdollisuus typeryyteen on liian suuri riski pelaamiseen. «On vaikea uskoa, että tekoäly voi tehokkaasti hallita sisältöä useista maista, joilla on erilaiset kulttuuriset normit ja standardit», hän kirjoitti sähköpostihaastattelussa. «Tekoäly nähdään liian usein vastauksena monimutkaisiin kysymyksiin. Tällä hetkellä tekoäly ja sen luontitapa on vaikeuttanut yksinkertaistenkin tehtävien suorittamista, puhumattakaan kaiken monimutkaisen sisällön hallinnasta.» YouTube päätti käyttää tekoälytekniikkaa, koska ihmisten moderaattorit eivät olleet johdonmukaisia valvojia bloginsa mukaan. Automaattisten suodattimien lisääntyvä käyttö sopimattomiksi katsottujen videoiden poistamiseen on tullut normiksi, ja samojen ikärajoituskäytäntöjen käyttöönottoa pidetään loogisena seuraavana askeleena. Koska yritys haluaa asteittain parantaa prosessejaan sen jälkeen, kun sen suhdetta alaikäisiin kuluttajiin on kritisoitu pitkään, tämä päätös ei ole yllätys. «En usko, että he ovat ymmärtäneet avoimuuden tarvetta sosiaalisissa asioissa ja tasa-arvon varmistamisessa.» Lapsista on tullut videonjakosivuston suuri kohdeyleisö. Digitaalinen videoanalytiikkayritys Tubular havaitsi elokuussa, että musiikkivideoiden lisäksi lapsille suunnattu sisältö on YouTuben katsotuimpien videoiden kuukausilistan kärjessä. Yrityksen intressi suojella tätä tuottoisaa, nousevaa voimanrakennusta alustalla on järkevää. Tämän suojan toteuttamiseen käytetyt työkalut ovat kuitenkin hankalia niille, jotka ovat jo yrityksen maltillisen menettelyn jälkeen. «Huoleni on, että se tekee paljon haittaa eikä suojaa [LGBTQ+] nuoria, jotka tarvitsevat informatiivista, rehellistä ja rehellistä sisältöä [LGBTQ+] YouTube-käyttäjät voivat tehdä tarjouksen, mutta heidät merkitään järjestelmässä sopimattomiksi», Ellis sanoi. «Vaikka se ei olisikaan haitallista, mitä en usko sen olevan, se johtuu eri äänien puuttumisesta – tai ainakin kunnioituksen puutteesta. «Näemme sen koko ajan tekniikassa. Jos tarkastellaan kasvojentunnistusta, joka ei tee eroa eri mustien kasvojen välillä, tai jos katsomme lääketiedettä ja huomaamme, että lääketiede on testattu vain tietyllä sukupuolella. Nämä ovat suurempia keskusteluja, eikä YouTube ole poikkeus.»