Jopa Wikipedia-yhteisö, ilmainen tietosanakirja, joka on rakennettu julkisesti muokattavan sisällön mallista, on tunnetusti myrkyllinen. Asia oli niin huono, että aktiivisten toimittajien tai kirjoittajien lukumäärä - jotka tekivät sinut muokkaamaan joka kuukausi, oli pudonnut 40 prosentista kahdeksan vuoden jaksoon. Huolimatta siitä, että tämän asian torjumiseksi ei ole yhtä ratkaisua, Wikipediaa tukeva voittoa tavoittelematon järjestö Wikimedia Foundation päätti käyttää tekoälyä saadakseen lisätietoja ongelmasta ja pohtiakseen tapoja torjua sitä.
Yhteistyö Wikimedia Foundationin ja Jigsawin kanssa lopettaaksesi väärinkäytökset
Yhdellä yrityksellä pysäyttää peikot Wikimedia Foundation teki yhteistyötä Jigsawin (tekniikkainkubaattori, joka aiemmin tunnettiin nimellä Google Ideas) kanssa Detox-nimisessä tutkimushankkeessa, jossa koneoppiminen merkitsee kommentteja, jotka voivat olla henkilökohtaisia hyökkäyksiä. Tämä projekti on osa Jigsawin aloitetta rakentaa avoimen lähdekoodin tekoälyohjelmia häirinnän torjumiseksi sosiaalisen median alustoilla ja foorumeilla.
Projektin ensimmäinen vaihe oli kouluttaa koneoppimisalgoritmeja käyttämällä 100 000 haitallista mielipidettä Wikipedia Talk -sivuilta, jotka 4000 hengen ihmisryhmä tunnisti ja joissa jokaisessa kommentissa oli kymmenen erillistä ihmistä. Tämä merkinnällä varustettu tietojoukko oli kaikkien aikojen suurimpia, jotka tarkastelivat väärinkäyttöä verkossa. Ei vain suoria henkilökohtaisia hyökkäyksiä, vaan myös kolmansien osapuolten ja epäsuoria henkilökohtaisia hyökkäyksiä ( "Sinä olet kamala." "Bob on kauhea." "Sally sanoi, että Bob on kauhea .") Koulutuksen jälkeen koneet voivat luoda kommentin, joka oli vain henkilökohtainen hyökkäys ja kolme yksittäistä moderaattoria.
Sitten projektiryhmä tarvitsi algoritmitarkastuksen. 63 miljoonaa englanninkielistä Wikipedia-kommenttia lähetettiin 14 vuoden ajanjaksolla vuosina 2001--2015 väkivaltaisten huomautusten mallien löytämiseksi. Mitä he löysivät, hahmoteltiin Ex Machinasta: Henkilökohtaiset hyökkäykset löytyi Scale-paperista:
- Yli 80% kaikista väärinkäytökseksi luonnehdituista kommenteista on luonut yli 9000 ihmistä, jotka tekivät alle viisi väkivaltaista huomautusta kalenterivuoden aikana verrattuna eristettyyn trolliryhmään.
- Lähes 10 prosenttia kaikista hyökkäyksistä teki vain 34 käyttäjää.
- Nimettömät käyttäjät muodostivat 34% kommenteista lähti Wikipediasta.
- Yli puolet henkilökohtaisista hyökkäyksistä tapahtuu dokumentoitujen käyttäjien toimesta, vaikka nimettömät käyttäjät ovat kuusi kertaa todennäköisemmin käynnistäneet henkilökohtaisia hyökkäyksiä. (Rekisteröityjä käyttäjiä on 20 kertaa enemmän kuin nimettömiä.)
Nyt algoritmit ovat luoneet enemmän selkeyttä siitä, kuka myötävaikuttaa yhteisön myrkyllisyyteen, Wikipedia saattaa löytää parhaan tavan torjua negatiivisuutta. Vaikka ihmisen maltillisuutta todennäköisesti tarvitaankin, algoritmit voivat auttaa lajittelemaan mielipiteet ja merkitsemään ne, jotka edellyttävät ihmisen osallistumista.
Objektiivinen versionarviointipalvelu (ORES-järjestelmä)
Toinen syy Wikipedian toimittajien huomattavaan vähenemiseen on yrityksen monimutkainen byrokratia tiukkojen muokkausmenetelmien lisäksi. Oli tavallista, että ensimmäistä kertaa kirjoittajat / toimittajat tekivät koko harjoituksen ilman tekosyitä. Yksi tapa, jolla he toivovat torjuvan tämän tilanteen, on käyttää ORES-järjestelmää, konetta, joka toimii muokkausjärjestelmänä, jota käyttää algoritmi, joka on koulutettu pisteyttämään muokkausten ja muutosten kaliiperi. Wikipedia-toimittajat käyttivät verkkotyökalua merkitsemään esimerkkejä aikaisemmista muokkauksista, ja näin algoritmille on opetettu virheiden vakavuus. ORES-järjestelmä voi ohjata ihmisiä tutkimaan vahingollisimman muokkauksen ja selvittämään virheiden asteen - rookie-virheet käsitellään sopivammin viattomina.
Tekoäly kirjoittaa Wikipedia-artikkeleita
No, tekoäly voi tehdä "OK" säveltäessä Wikipedia-artikkeleita, mutta sinun on aloitettava jostain, oikein? Google Brainin henkilökunta opetti sovelluksia tiivistämään verkkosivujen tietoja ja kirjoittamaan Wikipedia-tyylisen viestin. On käynyt ilmi, että tekstin yhteenveto on haastavampaa kuin useimmat meistä ajattelivat. Google Brainin yritykset hankkia kone sisällön hahmottamiseksi ovat hiukan parempia kuin aiemmat ponnistelut, mutta vielä on tehtävä töitä, ennen kuin kone voi säveltää kaikilla ihmisillä olevalla poljinnopeudella. On käynyt ilmi, että emme ole aivan valmiita saamaan kone tuottamaan Wikipedia-merkintöjä, mutta meitä pyritään saamaan meidät sinne.
Objektiivinen versionarviointipalvelu (ORES-järjestelmä)
Toinen syy Wikipedian toimittajien huomattavaan vähenemiseen on yrityksen monimutkainen byrokratia tiukkojen muokkausmenetelmien lisäksi. Oli tavallista, että ensimmäistä kertaa kirjoittajat / toimittajat tekivät koko harjoituksen ilman tekosyitä. Yksi tapa, jolla he toivovat torjuvan tämän tilanteen, on käyttää ORES-järjestelmää, konetta, joka toimii muokkausjärjestelmänä, jota käyttää algoritmi, joka on koulutettu pisteyttämään muokkausten ja muutosten kaliiperi. Wikipedia-toimittajat käyttivät verkkotyökalua merkitsemään esimerkkejä aikaisemmista muokkauksista, ja näin algoritmille on opetettu virheiden vakavuus. ORES-järjestelmä voi ohjata ihmisiä tutkimaan vahingollisimman muokkauksen ja selvittämään virheiden asteen - rookie-virheet käsitellään sopivammin viattomina.
Johtopäätös
Vaikka tekoälyn käyttötapauksia Wikipedian leikkauksissa optimoidaan edelleen, koneet voivat ehdottomasti auttaa organisaatiota analysoimaan päivittäin tuottamansa valtavan määrän tietoa. Lisätiedot ja analyysit auttavat Wikipediaa luomaan tehokkaita strategioita vikaantumaan yhteisön negatiivisuuteen ja rekrytoimaan tilaajilleen liittyviä kysymyksiä.