Появляется все больше и больше разработок искусственный интеллект, сложность этого ИИ с каждым разом увеличивается, как и область применения. Он уже используется в секторе здравоохранения, государственном управлении, исследованиях, услугах и т. Д. Но эти алгоритмы не являются надежными, когда речь идет о безопасности, для них также есть потенциальные угрозы. Фактически, по мере развития ИИ обнаруживается все больше и больше угроз. Вот почему так важны такие инструменты, как подгонка.
Поскольку это очень важные системы, необходимы безопасные системы искусственного интеллекта. А для этого мы должны разработать серию стандартов аудита и инструментов для иметь возможность легче их одитировать. Примером может служить инструмент Microsoft, о котором я упоминал в предыдущем абзаце.
Microsoft разработала этот инструмент, который значительно упростит вашу работу, и сделал это по лицензии с открытым исходным кодом (лицензия MIT) и через свою платформу GitHub, так что он доступен для всех, кто хочет его использовать, а также для иметь возможность участвовать в его развитии. counterfit Это позволит разработчикам тестировать безопасность систем искусственного интеллекта на ранней стадии разработки, тем самым гарантируя отсутствие критических дыр.
Если вы заинтересованы знаю о ней, вы можете получить доступ к своему репозиторий на GitHub по этой ссылке. Там вы найдете исходный код, информацию или можете загрузить и протестировать его на нескольких платформах. Кроме того, поскольку он написан на Python, вы также можете без проблем использовать его в Linux.
Инструмент родился в Microsoft из-за их собственной потребности оценить свои системы искусственный интеллект и машинное обучение ищу уязвимости. Изначально он предназначался для тестирования систем, но теперь его можно использовать и на этапе разработки ИИ.
Как вы можете видеть на сайте, вам нужно будет установить Анаконда Python на локальном уровне, чтобы иметь возможность использовать скрипт Python. Другой вариант - использовать его через Azure Shell из веб-браузера.