1524657615449 e146ef6422be4ebaba817784b0947783

Tärkeimmät oppimispisteet

  • Twitter toivoo voivansa tehdä jotain sille, mitä käyttäjät kutsuvat rasistiseksi ennakkoluuloksi kuvien esikatseluohjelmistossaan.
  • Teknologian jättiläisen vetovoima voi olla kulttuurinen laskelma, jota ala tarvitsee käsitelläkseen monimuotoisuuskysymyksiä.
  • Tekniikan monimuotoisuuden puute heikentää sen teknologisen edistyksen tehokkuutta.
Twitter käynnistää tutkimuksen kuvien rajausalgoritmistaan ​​sen jälkeen, kun siitä tuli trendikäs aihe, joka herätti laajempaa keskustelua teknologia-alan monimuotoisuuskysymyksistä. Sosiaalisen median juggernaut nousi otsikoihin sen jälkeen, kun käyttäjät havaitsivat ilmeisen rodullisen vinoutumisen kuvien katselualgoritmissa. Löytö tehtiin sen jälkeen, kun Twitter-käyttäjä Colin Madland käytti alustaa osoittaakseen, että Zoom ei tunnistanut mustaa kollegansa, jotka käyttivät vihreää näyttötekniikkaa, mutta suuressa ironiassa hän havaitsi, että Twitterin kuvien rajausalgoritmi on käynnissä. käyttäytyi samalla tavalla ja antoi mustille kasvoille vähemmän etusijaa. Toki, se on valtava ongelma mille tahansa vähemmistölle, mutta mielestäni on myös paljon laajempi ongelma. Muut käyttäjät hyppäsivät trendiin ja herättivät sarjan virustviittejä, jotka osoittavat, että algoritmi suosi jatkuvasti valkoisia ja vaaleampia kasvoja ihmisistä sarjakuvahahmoihin ja jopa koiriin. Tämä epäonnistuminen on osoitus laajemmasta kulttuuriliikkeestä teknologiateollisuudessa, joka on jatkuvasti jättänyt huomioimatta vähemmistöryhmiä, mikä on levinnyt tekniikan puolelle. «Se saa vähemmistöt tuntemaan olonsa kamalalta, aivan kuin niillä ei olisi väliä, ja sitä voidaan käyttää muihin asioihin, jotka voivat aiheuttaa vakavampia vahinkoja ajan myötä», sanoi Massachusettsin yliopiston tietojenkäsittelytieteen professori Erik Learned-Miller. puhelinhaastattelu. «Kun olet päättänyt, mihin ohjelmistoa voidaan käyttää ja mitä vahinkoa voi tapahtua, alamme puhua tavoista minimoida tämän tapahtumisen mahdollisuudet.»

Kanaria aikajanalla

Twitter käyttää hermoverkkoja rajatakseen automaattisesti twiitteihin upotettuja kuvia. Algoritmin pitäisi havaita kasvot esikatsella, mutta siinä näyttää olevan havaittavissa oleva valkoinen poikkeama. Yrityksen tiedottaja Liz Kelley twiittasi vastauksen kaikkiin huolenaiheisiin. Kelley twiittasi: «Kiitos kaikille, jotka ilmoittivat tästä. Testasimme puolueellisuuden ennen mallin lähettämistä, emmekä löytäneet testissämme näyttöä rotuun tai sukupuoleen kohdistuvasta puolueellisuudesta, mutta meillä on selvästi enemmän analysoitavaa. Avoimen lähdekoodin avulla työskentelemme muiden arvioitavaksi ja kopioida.» Valkoisen kirjan «Facial Recognition Technologies in The Wild: A Call for a Federal Office» toinen kirjoittaja Learned-Miller on johtava kasvojentunnistuspohjaisen tekoälyoppimisohjelmiston ylilyöntien tutkija. Hän on puhunut kuvanoppimisohjelmiston mahdollisista kielteisistä vaikutuksista jo vuosia ja puhunut siitä, kuinka tärkeää on luoda todellisuus, joka pehmentää näitä harhoja mahdollisimman hyvin. Monet kasvojentunnistusteknologian algoritmit käyttävät tietoviittausjoukkoja, jotka tunnetaan myös harjoitussarjoina, jotka ovat kokoelma kuvia, joita käytetään kuvanoppimisohjelmiston toiminnan hienosäätämiseen. Sen avulla tekoäly pystyy lopulta tunnistamaan helposti monenlaisia ​​kasvoja. Näistä viitesarjoista voi kuitenkin puuttua monipuolinen joukko, mikä johtaa Twitter-tiimin kaltaisiin ongelmiin. «Varmasti se on valtava ongelma mille tahansa vähemmistölle, mutta mielestäni on myös paljon laajempi ongelma», Learned-Miller sanoo. «Se liittyy teknologia-alan monimuotoisuuden puutteeseen ja keskitetyn sääntelyvallan tarpeeseen osoittaakseen tämänkaltaisten, väärinkäytöksille alttiiden ohjelmistojen oikean käytön.»

Tekniikka ilman monimuotoisuutta

Twitter saattaa olla uusin teknologiayritys, mutta tämä ei ole kaukana uudesta ongelmasta. Tekniikkaala on edelleen enimmäkseen valkoinen, jatkuvasti miesten hallitsema ala, ja tutkijat ovat havainneet, että monimuotoisuuden puute aiheuttaa systeemisten, historiallisten epätasapainojen replikoinnin kehitetyssä ohjelmistossa. New Yorkin yliopiston AI Now Instituten vuoden 2019 raportissa tutkijat havaitsivat, että mustien osuus maan huipputeknologiayritysten työvoimasta on alle kuusi prosenttia. Samoin naisia ​​on vain 26 prosenttia alan työntekijöistä – tilasto, joka on pienempi kuin heidän osuutensa vuonna 1960. Se saa vähemmistöt tuntemaan olonsa kamalilta, ikään kuin he eivät ole tärkeitä, ja sitä voidaan käyttää muihin asioihin, jotka voivat aiheuttaa enemmän. vakavaa haittaa. Ensi silmäyksellä nämä esitysongelmat voivat tuntua arkipäiväisiltä, ​​mutta käytännössä aiheutetut vahingot voivat olla laajoja. AI Now Instituten raportin tutkijat ehdottavat, että tämä liittyy kausaalisesti ohjelmistoongelmiin, jotka eivät usein ota huomioon ei-valkoisia ja ei-miespopulaatioita. Olipa kyseessä infrapunasaippua-annostelijat, jotka eivät pysty havaitsemaan tummaa ihoa, tai Amazonin tekoälyohjelmisto, joka ei tee eroa naisten ja miesten kasvojen välillä, teknologia-alan monimuotoisuuden huomioimatta jättäminen johtaa teknologian epäonnistumiseen monimuotoiseen maailmaan. to. «On monia ihmisiä, jotka eivät ole ajatelleet asioita eivätkä todellakaan ymmärrä, kuinka nämä asiat voivat aiheuttaa vahinkoa ja kuinka suuria tämä vahinko on», Learned-Miller ehdotti tekoälykuvan oppimisesta. «Toivottavasti tämä määrä pienenee!»

Por Markus