Foto: Twitter
Ilm
22. aprill 2017, 04:00

Inimene õpetab arvutile halvustavat suhtumist (3)

Tehisintelligents suudab omandada kõik inimlikud eelarvamused ning algoritmid õpivad inimeselt nii seksismi kui ka rassismi, väidab ajakirjas Science ilmunud uurimus.

Inglise ja USA arvutiteadlased jälgisid suures hulgas tekstides sõnade koosesinemise mustreid. Just seda teevad ka masinõppel põhinevad tõlkeprogrammid. Selgus, et mehenimed esinevad sageli koos ametinimetuste ja karjääriterminitega, naisenimesid kohtab sagedamini perega seotud tekstides. Sarnased koosesinemise seosed leiti ka naisenimede ja kunstivaldkonna ning mehenimede ja teadusteemade vahel. Lisaks kippusid Euroopa päritolu nimed esinema sagedamini positiivse tooniga lugudes. Aafrikapärased nimed aga tulid ette hoopis kuritegudest ja muust halvast rääkivates tekstides. Seetõttu polegi imestada, kui inimeste keelekasutust jälgivad tarkvarad samuti eelarvamuslikuks muutuvad.

Kuulsaim kolinal läbi kukkunud näide on Microsofti säutsurobot Tay, mille nimi on lühend ingliskeelsest fraasist thinking about you ehk mõeldes sulle. Algoritm matkis umbes 19aastase USA neiu keelekasutust, suhtles teiste Twitteri kasutajatega ja oli võimeline õppima vastustest, mida inimesed talle kirjutasid. Tay asus Twitterisse postitama möödunud aasta 23. märtsil ja juba mõne tunni möödudes muutusid roboti sõnumid pööraseks. See hakkas inimesi neegriks sõimama, kiitis Hitlerit ning teatas, et holokaust on väljamõeldis. Microsoft ei luba Tayl enam säutsuda.

Tayga juhtunu on näide, kuidas robotid inimeste kombeid matkivad. Science’i uurimuse autor, Bathi ülikooli professor Joanna Bryson kinnitas, et eelkõige andiski uuring uut teavet inimeste endi kohta. Sarnaste olukordade vältimiseks on vaja tehisintelligentsile sisse kirjutada omamoodi moraalikood. Nii on algoritm teadlik, et inimestel on eelarvamused, kuid robot väldib neid. Microsofti uus vestlusrobot Zo on igatahes Tayst tunduvalt taltsam ega nõustu poliitikast rääkima.