
В эпоху социальных сетей алгоритмы искусственного интеллекта способны решать все — от наших плейлистов до видео, которые мы смотрим, новостей, которые мы потребляем, и того, какие специальные торговые предложения нам предлагают, а от каких отказываются. При всей пользе технологий и алгоритмов машинного обучения для улучшения и персонализации онлайн-опыта для всех нас, они также представляют одну из самых больших угроз для онлайн-безопасности, с реальными негативными последствиями для здоровья и благополучия всех пользователей интернета.
Используемые без достаточной осторожности и в отсутствие защитных ограждений и программ, алгоритмы часто наносят вред тем самым пользователям, которым они должны служить. Алгоритмы прогнозирования могут подстегнуть платформы постоянно предлагать контент, связанный с худобой и расстройствами пищевого поведения, предлагать смотреть больше экстремистского контента или усиливать поляризующие убеждения. Они также могут радикализировать людей через узкие фильтрующие пузыри, которые выборочно угадывают, какую информацию человек хотел бы увидеть, основываясь на данных пользователя, и эхо-камеры, которые усиливают убеждения через общение и повторение.
Последствия предвзятости ОД столь же пугающи. Предвзятость негативно влияет на левых и правых, либералов и консерваторов — ни одна группа не остается в стороне — и влияние экстремистского, поляризующего и нездорового контента в Интернете на поведение людей в реальном мире хорошо задокументировано.
Как же нам поощрять то хорошее, что могут дать ОД и ИИ, сдерживая при этом потенциально вредные эффекты?
Запретить алгоритмические рекомендации для детей и сделать их выбором «по желанию» для взрослых. Мы все еще слишком мало понимаем о том, как алгоритмы продвигают вредный контент и какой ущерб это наносит. Более осторожный подход, особенно для уязвимых групп, должен стать приоритетом безопасности.
Включить рутинное и системное тестирование системы в процесс разработки. Независимая сертификация новых алгоритмических рекомендательных систем перед запуском для подтверждения соответствия намерений и положительного воздействия. Научное доказательство того, что техническая система делает то, для чего она предназначена, без негативных побочных эффектов для пользователей, является стандартным средством защиты прав потребителей почти в каждой отрасли.
Будьте прозрачны в отношении состояния систем и рисков для пользователей. Рекомендательные системы оказывают огромное влияние на очень большое количество пользователей. Поэтому крайне важно, чтобы широкая общественность понимала, как ведут себя эти системы. Измерения, тестирование, компромиссы, исходные данные и наблюдаемое воздействие должны быть доступны для анализа пользователям, регулирующим органам и ученым.
Принять конструктивное регулирование. Воздействие слишком велико, а риск причинения вреда слишком велик, чтобы оставаться нерегулируемым пространством. Точно так же, как мы тестируем новые лекарства, автомобили или атомные электростанции, нам необходимо разумное регулирование, которое защитит широкую общественность от вреда.
ML/AI — это самая важная технология нашего поколения. Ответственность за ответственное развитие и обеспечение мониторинга и измерения не лежит на какой-либо одной организации или структуре. Для этого потребуется совместное сотрудничество частных компаний, государственных организаций, адвокатов и политиков.
Если все будут работать вместе и начнут предпринимать упреждающие шаги, то мы все сможем воспользоваться положительными результатами, которые дают ИИ и ОД, и одновременно снизить потенциальный вред.