Drugi jezik na kojem je dostupan ovaj članak: English
Izvor: TheDrum
Sistem umjetne inteligencije koji je treniran da oponaša prirodni ljudski jezik njegovi sopstveni tvorci smatraju preopasnim za lansiranje.
Istraživači OpenAI kompanije tvrde da su stvorili umjetnu inteligenciju koja „generira koherentne odlomke teksta, postiže vrhunske performanse prema mnogim mjerilima za modeliranje jezika i izvodi rudimentarno čitanje i shvatanje teksta, strojno prevođenje, odgovara na pitanja i piše sažetke – i sve to bez posebne obuke za posebne zadatke.“
Naime, prema njihovim tvrdnjama, ovom AI sistemu dovoljno je dati nekoliko ključnih riječi, a sistem će sam na osnovu svoga učenja pisati koherentne odlomke teksta na temu koju prepozna iz ključnih riječi i fraza.
Ali sami istraživači su se odlučili da ne idu sa širom javnom upotrebom ovog sistema: „zbog zabrinutosti od zlonamjernih upotreba ove tehnologije“.
Među opasnostima, naveli su mogućnosti korištenja ove tehnologije za generiranje lažnih vijesti i oponašanje osoba na internetu.
„Zbog zabrinutosti da se veliki jezički modeli mogu koristiti za generiranje varljivog, pristranog ili uvredljivog jezika, objavljujemo samo manju verziju GPT-2, uz uzorak koda,“ naveli su iz OpenAI na svome blogu, uz napomenu kako neće dijeliti bazu podataka niti kodove za treniranje ove umjetne inteligencije.
„Ova odluka, kao i naša rasprava o njoj, predstavlja eksperiment: iako nismo sigurni da je to ispravna odluka danas, vjerujemo da će AI zajednica eventualno morati razmotriti pitanje normi objavljivanja na promišljen način u određenim područjima istraživanja.“