Elektroninė erdvė tampa nesaugi, žmonėms ji suteikia sąlygas kalbėti taip, kaip gyvai prabilti greičiausiai nesugalvotų

Internete plintant neapykantos kalbai, mokslininkai ir žmogaus teisių ekspertai ieško būdų, kaip stabdyti neapykantą ir jos daromą žalą visuomenei. Vytauto Didžiojo universiteto Informatikos fakulteto dekanas, profesorius Tomas Krilavičius sako, kad pasitelkus automatizuotas sistemas, įmanoma peržiūrėti milžinišką informacijos kiekį ir aptikti neapykantos kurstymo atvejus. Tokias sistemas galima pritaikyti ir lietuvių kalbai: kartu su partneriu – Lietuvos žmogaus teisių centru – universitetas vykdo bendrą projektą ir kuria automatizuotą neapykantos kalbos internete aptikimo įrankį.

Tomas Krilavičius | asmeninio archyvo nuotr.


manoteises.lt

info@manoteises.lt

Papasakokite apie šiuo metu vykdomą neapykantos kalbos atpažinimo įrankio kūrimo projektą ir kokiems tekstams jis bus skirtas.

Prie šio projekto aš ir mano komanda prisijungėme kaip partneriai, kurie padeda pritaikyti dirbtinio intelekto metodus neapykantos kalbai atpažinti įvairiuose tekstuose. Kitaip tariant, kuriame įrankį, kuriuo būtų galima vykdyti automatizuotą neapykantos kalbos paiešką. Labiausiai orientuojamės į trumpus tekstus: žinutes, komentarus ir kitas internete populiarias rašytinės komunikacijos formas. Šiuo metu koncentruojamės į lietuvišką turinį, bet tokia sistema būtų aktuali visoms kalboms. Aš apie šį projektą galiu kalbėti tik iš technologinės pusės, bet jis įtraukia žmonių iš įvairių sričių, tokių kaip teisė ar kalbotyra. Vis dėlto įrankis yra tik vienas iš projekto rezultatų, šalia bus parengtos ir rekomendacijos, kaip jį naudoti, taip pat vykdomi mokymai, diskusijos, padėsiančios atpažinti neapykantos kalbą, suprasti jos priežastis ir kilmę.

Koks pagrindinis šio įrankio veikimo principas?

Šiuo metu efektyviausių informacijos rinkimo mechanizmų dar ieškome – tai yra viena pamatinių įrankio veikimo dalių. Žinoma, galima informacijos ieškoti įvairiuose žiniasklaidos kanaluose, bet dalies jos pasiekti mes neturime galimybės, pavyzdžiui, „Facebook“ nesuteikia priėjimo prie tokių duomenų. Kitas svarbus dalykas – identifikuoti tekstus, kuriuose matyti neapykantos kalbos požymių. Šis etapas sudarytas iš kelių žingsnių. Visų pirma, įrankyje mes planuojame naudoti dirbtinį intelektą, todėl reikia sukurti duomenų rinkinį iš tekstų, kuriuose yra pavartota neapykantos kalba, ir tekstų, kuriuose jos nėra. Naudojant tokį tekstyną galima dirbtinį intelektą išmokyti klasifikuoti tekstus ir pranešti, jei juos mato kaip rizikingus. Neapykantos kalba yra itin kompleksiška, ją lengva sumaišyti su įžeidimu ar kritika. Taip pat labai svarbu įvertinti, į ką ta kalba nukreipta, – į pažeidžiamą visuomenės grupę ar viešą asmenį. Taigi visiškai automatizuoto įrankio sukurti nepavyks – reikalingas ir žmogaus įsikišimas į neapykantos kalbos atpažinimo procesą. Vis dėlto tai gana įprasta praktika – paprastai dirbtinio intelekto taikymas yra labiau pagalbinis veiksmas, reikalaujantis žmogiško konteksto įvertinimo ir sprendimo priėmimo, todėl visiškai automatizuota tokio tipo priemonė bent artimoje ateityje nėra įmanoma.

Kodėl šis įrankis reikšmingas?

Su neapykantos apraiškomis būtina kovoti: šiandien kone kiekvienam žmogui prieinama platforma, kurioje galima laisvai reikšti savo mintis, tačiau, jei tos mintys koduoja neapykantą, atsiranda galimybė ir daryti žalą kitiems. Elektroninė erdvė tampa nesaugi, nemaloni: žmonėms ji suteikia sąlygas kalbėti taip, kaip jie gyvai prabilti greičiausiai nesugalvotų. Visų tų komentarų ir įrašų vien žmogiškaisiais resursais suvaldyti neįmanoma – mastai per dideli, kad į tai būtų galima reaguoti gana greitai. O štai pasitelkus automatizuotas sistemas įmanoma peržiūrėti milžinišką informacijos kiekį, išskirti duomenis, kurie yra aktualūs, ir taip paruošti juos peržiūrėti žmogui.

Ar analogiški įrankiai / tyrimai jau buvo vykdomi Lietuvoje ir pasaulyje? Kodėl jų aktualumas pastaraisiais dešimtmečiais išaugo?

Lietuvoje juos vykdė „Codami Technologies“, VDU ir kitos institucijos, pasaulyje su tuo irgi gana daug dirbama – atrandami įvairūs daliniai sprendimai, bet, kaip dažnai pasitaiko, tie sprendimai tinka tik specifinei kalbai. Tokios sistemos nėra tobulos, visada egzistuoja aspektų, kuriuos būtų galima pagerinti: nuo informacijos surinkimo iki tikslesnio neapykantos kalbos identifikavimo. Mes savo ruožtu stojame ant milžinų pečių ir ieškome būdų, kaip sukurti tobulesnę versiją. Naujienų portalai irgi turi savo neapykantos kalbos atpažinimo įrankius, bet žiniasklaida ne visada skuba neapykantos kalbos apraiškų atvejus pašalinti, o jei juos ir pašalina, daugiau nieko dėl to nedaro. Mūsų įrankio panaudojimas būtų keleriopas: jį panaudojus būtų galima ne tik pašalinti, bet ir to pagrindu informuoti policiją ar kitas atitinkamas institucijas, kad jos imtųsi priemonių.

Neapykantos kalba egzistavo visada, bet įrankiai jai aptikti tapo aktualūs tuomet, kai atsirado galimybė bet kam kurti internetinį turinį ir komentuoti straipsnius – dar iki atsirandant socialiniams tinklams. Žinoma, mūsų tyrimas apima tik neapykantos kalbos raišką raštu – vaizdo ir garso mes neanalizuojame.

Kur šis įrankis būtų naudojamas?

To konkrečiai apibrėžti kol kas negaliu – kaip ir minėjau, kol kas dar aiškinamės, iš kur bus imami šaltiniai. Pats įrankis gebės atskirti neapykantos kalbos tekstus nuo įprastų, bet kur ši sistema bus taikoma, priklauso nuo susitarimo. Vis dėlto, jis, kaip vidinė kontrolės priemonė, gali būti naudojamas žiniasklaidos kanaluose, diskusijų forumuose, socialiniuose tinkluose, o kaip išorinė – įvairių institucijų, įstaigų ar organizacijų reikmėms. Išorinės neapykantos kalbos atvejų priežiūros pavyzdžiai galėtų būti Lietuvos žmogaus teisių centras, kariuomenė, Valstybės saugumo departamentas, policija – priklauso nuo to, kokiu tikslu sistema būtų naudojama. Ar įrankis bus prieinamas visiems, kol kas nėra aišku.

Su kokiais didžiausiais sunkumais susiduriate vykdydami tyrimą ir kurdami šį įrankį?

Itin problemiškas yra neapykantos kalbos apibrėžimo subtilumas, kartais ją atpažinti itin sudėtinga – būna, kad net mūsų komandos nariai nesutaria dėl kai kurių atvejų. Lieka remtis tik teisiniais neapykantos kalbos apibrėžimais ir kalbos, kuri buvo pripažinta neapykantos kalba, pavyzdžiais. Kita problema, kurios mes išspręsti negalime, yra socialinių tinklų duomenys, kurie mums teisiškai neprieinami. Pavyzdžiui, Lietuva beveik negali ne tik daryti įtakos tam, kas vyksta „Facebook’e“, bet ir reikalauti tam tikrų duomenų. Šis ir kiti tokio tipo socialiniai tinklai yra supranacionaliniai, taigi kontroliuojami tik iš vidaus, priešingai nei žiniasklaidos kanalai, kurie gali gauti ir valstybines baudas už turinio nepriežiūrą. Vidinė socialinių tinklų kontrolė šiuo atveju yra problemiška, nes ji labiausiai orientuota į anglų kalbą ir lietuviškos neapykantos kalbos dažnai nesuvaldo.

Daugiau apie neapykantos kalbą internete, jos žalą ir automatizuotus neapykantos aptikimo būdus bus kalbama žmogaus teisių dokumentinių filmų festivalio „Nepatogus kinas“ metu Vilniuje ir Kaune. Spalio 15 d., kino centre „Skalvija“ vyks audiodokumentikos „Geimeris: žmogžudystės planas” perklausa ir diskusija „Neapykantos kalba: žmogus ir bendruomenė“. Spalio 22 d. audiodokumentikos perklausa ir diskusija „Neapykantos kalba virtualumo eroje“ vyks Kauno kultūros centre. Įėjimas – laisvos kainos bilietas. Į renginį bus įleidžiami žiūrovai, turinys galiojantį galimybių pasą

Audiodokumentikos perklausas ir diskusijas bendrai finansuoja Europos Sąjungos Teisių, lygybės ir pilietiškumo programa, Švedijos užsienio reikalų ministerija ir Švedijos ambasada Vilniuje.

ES, Švedijos ir Švedijos ambasados logotipai.



Naujesnė Senesni