Sve je više i više razvoja veštačka inteligencija, složenost ovog AI se povećava svaki put, kao i područje primjene. Već se koristi u zdravstvenom sektoru, javnoj upravi, istraživanju, uslugama itd. Ali ti algoritmi nisu sigurni kada je u pitanju sigurnost, postoje i potencijalne prijetnje po njih. Zapravo, kako AI napreduje, otkriva se sve više i više prijetnji. Zbog toga je značaj alata poput kontrafa.
Budući da se radi o prilično kritičnim sistemima, potrebni su sigurni sistemi umjetne inteligencije. A za to moramo razviti niz standarda za revizije i alate za biti u mogućnosti da ih lakše revidirate. Primjer je ovaj Microsoftov alat koji sam spomenuo u prethodnom paragrafu.
Microsoft je razvio ovaj alat koji će vam znatno olakšati rad i to pod licencom otvorenog koda (MIT licenca) i putem svoje GitHub platforme, tako da je dostupan svima koji ga žele koristiti, kao i biti u mogućnosti da učestvuje u njegovom razvoju. kontrafit Omogućit će programerima da testiraju sigurnost sustava umjetne inteligencije u ranoj fazi razvoja, osiguravajući tako da nema kritičnih rupa.
Ako ste zainteresirani znam za nju, možete pristupiti svom spremište na GitHubu sa ovog linka. Tamo ćete pronaći izvorni kod, informacije ili ga možete preuzeti i testirati na više platformi. Uz to, s obzirom da je napisan na Pythonu, možete ga bez problema koristiti i u Linuxu.
Alat je rođen u Microsoftu, zbog vlastite potrebe za procjenom njihovih sistema umjetna inteligencija i mašinsko učenje u potrazi za ranjivostima. Prvobitno je bio namijenjen sistemima za testiranje, ali sada se može koristiti i u fazi razvoja AI.
Kao što možete vidjeti na web lokaciji, morat ćete instalirati Anaconda Python u lokalnom jeziku kako bi mogao koristiti Python skriptu. Druga opcija je da ga koristite putem Azure Shell-a iz web pregledača.