Transparentnost rješava ovaj problem korištenjem modela koji se lako tumače, od kojih ćemo se neke dotaknuti u sljedećem odjeljku. Objašnjivost rješava ovaj problem “raspakujući crnu kutiju” ili pokušavajući steći uvid iz modela mašinskog učenja, često koristeći statističke metode.
Šta je objašnjivost modela?
Objašnjivost modela je širok koncept analize i razumijevanja rezultata koje pružaju ML modeli. Najčešće se koristi u kontekstu “crnih kutija” modela, za koje je teško pokazati kako je model došao do određene odluke.
Šta je objašnjivost u dubokom učenju?
Objašnjivost (također se naziva "interpretabilnost") je koncept da model mašinskog učenja i njegov rezultat mogu biti objašnjeni na način koji "ima smisla" za ljudsko biće na prihvatljivom nivou … Druge, kao što su sistemi dubokog učenja, iako su učinkovitiji, i dalje ih je mnogo teže objasniti.
Šta znači objašnjivost u kontekstu AI sistema?
Andrew Maturo, analitičar podataka, SPR. “Objašnjiva AI u jednostavnim terminima znači AI koja je transparentna u svojim operacijama tako da će ljudski korisnici moći razumjeti i vjerovati odlukama Organizacije moraju postaviti pitanje – možete li objasniti kako je vaša AI to stvorila konkretan uvid ili odluka? –
Šta je problem objašnjivosti?
Ljudi imaju očiglednu odbojnost prema odlukama crne kutije koje na njih utiču finansijski, zdravstveni i na desetine drugih načina, dok su u isto vrijeme nesvjesni određenih različitih vrsta odluka. … Kada AI donese ove odluke, može se čuti zahtjev za objašnjenjem.