ru24.pro
Новости по-русски
Июнь
2021

Британские эксперты призвали раскрыть секреты рекомендательных алгоритмов в Сети

Широкое применение крупнейшими онлайн-платформами рекомендательных алгоритмов вызывает все большую обеспокоенность исследователей ведущих стран мира. Как отмечают представители Королевского колледжа Лондона (KCL), влияние подобных сервисов на пользователей недостаточно изучено, а отсутствие информации о том, кто и как управляет алгоритмами, только усиливает напряженность. Чем грозит безответственное использование рекомендательных сервисов в Сети, разбиралась "Газета.Ru".

Профессор Королевского колледжа Лондона (KCL) Фредерик Мостерт уверен, что благодаря использованию алгоритмов цифровые платформы обладают огромной властью над миллиардами людей по всему миру.

По мнению ученого, рекомендательные системы нарочно ограничивают информационное поле пользователя, погружая его в информационный пузырь, максимально схожий с его убеждениями.

Мостерт считает, что это ведет к поляризации общественного мнения, сокращению информированности общества и повышению риска социальных конфликтов.

Как сообщает Financial Times, контент, подобранный алгоритмами, неоднократно способствовал вмешательству в выборы различных стран и распространению в Сети экстремистских публикаций.

Эксперты уверены, что ни одно государство не может поощрять непрозрачную работу рекомендательных сервисов.

А поскольку онлайн-платформы сегодня неразрывно связаны с мировыми политическими и демократическими процессами, они обязаны раскрыть принципы работы своих алгоритмов.

При этом, как заявил технический директор правозащитной группы Human Rights First Велтон Чанг, алгоритмические системы не подлежат проверке модераторами цифровых площадок, что вызывает бурную критику бигтеха в мире.

"В лабиринте структур социальных сетей вряд ли есть отдел, который видит скрытый процесс работы их алгоритмов", – подчеркнул он.

В свою очередь, существующий во многих странах закон о коммерческой тайне защищает эти системы от рассекречивания.

Однако, как считают британские ученые, публикация исходных кодов рекомендательных сервисов должна стать отправной точкой на пути к повышению прозрачности их использования.

Это позволит специалистам кибербезопасности определять, подвергались ли личная информация пользователей риску утечки во время алгоритмической обработки.

В свою очередь, правозащитные организации смогут дать рекомендации по защите цифровых прав граждан, а ученые смогут исследовать эти рекомендательные сервисы на предмет предвзятости.

По словам представителя международной правозащитной организации Human Rights First Алекса Урбелиса, без базового понимания работы алгоритмов усилия по их регулированию окажутся неэффективными.

Отсутствие прозрачности в работе рекомендательных сервисов беспокоит общественность не только на Западе.

В марте этого года московское отделение Ассоциации юристов России предложило подвергать подобные сервисы, используемые в соцсетях, новостных агрегаторах, онлайн-кинотеатрах и маркетплейсах, независимому аудиту.

По мнению российских экспертов, пользователи должны иметь возможность отключать рекомендательные алгоритмы по собственному желанию.