перейти к основной теме

Хороший алгоритм, плохой алгоритм

Алгоритмы все больше влияют на нашу жизнь. Они помогают в жизни или представляют угрозу? Объясняет самый главный специалист по информатике в Германии.

25.11.2019
Поможет ли искусственный интеллект решить наши проблемы?
Поможет ли искусственный интеллект решить наши проблемы? © phonlamaiphoto - stock.adobe.com

Госпожа профессор Цвайг, Вы работаете в области социоинформатики и занимаетесь алгоритмами. Не могли бы Вы вкратце объяснить, что такое алгоритмы?

Алгоритмы – это общие инструкции для решения проблем. Хороший пример – решение задачи на умножение в тетради: ваш учитель объяснил вам принцип, как это работает, независимо от того, какие числа и какого размера нужно умножить. То есть чем больше степень общности, тем лучше написан алгоритм.

Катарина Цвайг, профессор информатики у ТУ Кайзерслаутерна
Катарина Цвайг, профессор информатики у ТУ Кайзерслаутерна © TU Kaiserslautern

Где использование алгоритмов полезно и осмысленно?

То, что сегодня понимается под «алгоритмом», как правило, им вообще не является. Сами по себе алгоритмы очень полезны и осмысленны, потому что они всегда позволяют находить решение. Это доказано. Иначе мы не определяли бы алгоритм как то, что позволяет находить решение. Однако сегодня, когда говорят об «алгоритме», обычно имеют в виду методы машинного обучения. Эти методы путем статистической обработки большого количества данных ищут шаблоны и на их основе вырабатывают правила принятия решений. Примерно так: если многие успешные соискатели имеют возраст от 25 до 30 лет, то в следующий раз эта информация становится одним из критериев для принятия решения о найме на работу.

Это не проблема самой системы принятия решений, а того способа, каким она используется.
Катарина Цвайг, профессор информатики в Университете Кайзерслаутерна

А когда использование алгоритмов становится проблематичным?

На примере мира труда уже хорошо видно, что упомянутое правило несет в себе риск дискриминации. В тех случаях, когда это представляет опасность – особенно в случае доступа к государственным услугам или на рабочем месте – такие системы принятия решений, которые извлекают правила из данных, следует пристально проверять на предмет возможной дискриминации. Кстати, вам не обязательно знать код. Достаточно взглянуть на результаты по людям с различными характеристиками, такими как возраст или религиозная принадлежность. Между прочим, это не обязательно проблема системы принятия решений, но проблема того, каким образом она используется. С равным успехом можно использовать найденные шаблоны, чтобы устранить несправедливость.

В вашей последней книге «Алгоритм не имеет чувства такта» Вы настаиваете на том, что нужно дать возможность непрофессионалам «контролировать ситуацию». Это вообще реально?

Да, я считаю, это может сделать каждый, потому что техническая реализация – это наше дело, дело специалистов по информатике и программистов. Но вопрос о том, какие шаблоны должен искать алгоритм, в каких данных, что следует оптимизировать – на все эти вопросы нам не ответить в одиночку. Таким образом, если разрабатывается система, позволяющая предсказывать степень вероятности рецидива преступления, то общество должно решать, действительно ли ему это нужно. И если да, то хочет ли оно, чтобы система была сконструирована таким образом, чтобы она обнаруживала почти всех рецидивистов или же, наоборот, безосновательно подозревала как можно меньшее число повторно социализированных лиц. Для этого обществу необходимо иметь общее представление о том, как работают такие методы машинного обучения, ну и, конечно, много здравого смысла. А здравый смысл есть у всех людей, которые умеют трезво рассуждать и идут по миру с открытыми глазами.

Профессор доктор Катарина Цвайг – заведующая кафедрой «Теория графов и анализ сложных сетей» в Техническом университете Кайзерслаутерна и заведующая учебной программой «Социоинформатика», которая посвящена влиянию компьютерных наук на общество.

Интервью: Мартин Орт

© www.deutschland.de

You would like to receive regular information about Germany? Subscribe here: