Microsoft представила инструменты для этичного использования машинного обучения Статьи редакции
Они позволят разработчикам лучше понимать поведение моделей машинного обучения и контролировать их.
Microsoft представила инструменты ответственного использования машинного обучения, которые позволят корректировать проблемы с нейросетями. Система поможет исправить нерепрезентативность выборки, незазищённость данных и не только. Об этом TJ сообщили в компании.
Как отметил вице-президент Microsoft Azure AI Эрик Бойд, от разработчиков всё чаще требуют создание ИИ-систем, работу которых легко объяснить и которые соответствуют нормативным требованиям. Но эксперты в области машинного обучения не всегда способны сами оценить корректность работы систем.
Чтобы решить проблему, Microsoft запустила инструменты, которые позволят лучше понимать поведение моделей машинного обучения, обеспечивать конфиденциальность данных и избежать некорректной выборки. Новые функции будут доступны в сервисе Azure Machine Learning, а также в виде открытого кода на GitHub.
За понимание модели отвечает инструмент InterpretML. Оценку и повышение объективности ИИ-систем обеспечивает Fairlearn — он позволяет разработчикам проверить эффективность модели на группах людей разного пола, цвета кожи, возраста и по другим характеристикам. Инструмент WhiteNoise обеспечивает дифференциальную приватность. Все инструменты могут экспериментировать с открытым кодом на GitHub и использовать его в Azure Machine Learning.
Microsoft привела примеры необходимости новых инструмнетов. В 2016 году старший исследователь лаборатории компании в Рэдмонде Марко Тулио Рибейро представил научный доклад, в котором объяснил принцип работы классификаторов моделей компьютерного зрения.
Чтобы показать работу технологии он обучил систему предсказывать, что на фото со снежным фоном будет изображён «волк», а на фото без снег — «хаски». После этого он применил модель на изображениях волков в заснеженных пейзажах, а хаски без снега и показал результаты экспертам, которые не знали, на чём была обучена система.
Разработчик спросил у специалистов, доверяют ли они модели и как она строит прогнозы. Меньше половины из экспертов упомянули фон в качестве возможного фактора, и никто не указал снег. Остальные были уверены в системе и считали, что она обращала внимание на заострённые зубы.
Затем я показал им объяснения, и увидев их, разумеется, практически все поняли, что модель ориентируется только по фону. Это доказывает, что плохая модель способна ввести в заблуждение даже экспертов.
та тащемта берем тенсорфлоу точеный
хуе-мое дата инпут трейнинг сет
таааак... я ебать учитель сетей этих ебаных
да хуй знает как она этих псин определяет)) по зубьям небось, я ебу
так где мой пиэчди нахуй
– 90% современных датасатанистов
чем они тебя обидели?
Да норм ребята на самом деле, это хуевая ирония. Сам с удовольствием на досуге пилю эксперименты.
а ну ладно. то что они нихуя не понимают, как это работает, так это никто не понимает, как и даже почему
Ну есть же инструменты которые в обратную сторону работают. Можно генерить условных волков, а не распознавать их, там какие-то зависимости станут понятны.
я хотел сказать, что сейчас даже неизвестно, почему обучение нейронных сетей сходится. а по поводу зубок, в принципе можно подсветить регионы, на которые сеть обращает больше всего внимание и сделать вывод, что, наверное, это были зубы. но это косвенные досказательства, они не позволяют сделать какиех-то серьезных выводов о том, как сеть кодирует что-то внутри себя. короче пока что это на уровне - работает и ладно.
Когда заметил нерепрезентативность выборки
А в чём этичность?
ну типа она должна как-то позволять лучше распозновать черных на фото, несмотря на то, что фоток черных у тебя намного меньше, чем фоток белых
Всё равно сети нужны такие фотографии - животные её не научат.
сложно возразить что-то на это
то есть все? проблема классификации черныйх и женщин на фото решена? расходимся?
Я так и не понял в чём прикол этики тут. Где инструменты для этичного обучения? Хаски и Волк? Это что прикол такой?
Я как-то видел как сетка распознала чёрного как гориллу
Комментарий недоступен
она сама была черной, ей можно
Ей запретили распознавать горилл.
справедливо
от инструментов в статье только название. они, похоже, помогут отдельно проверить как распознается хаски и отдельно проверить, как распознается волк
Комментарий недоступен
Комментарий недоступен
Комментарий недоступен
ну они необязательно все фотки показали, это иллюстрация
Комментарий недоступен
все это говно единственная уель которого подсадить на сраный азур
Вся суть нейросетей