Эксперты компании Mozilla обнаружили, что действия пользователей с видео на YouTube не сильно влияют на поведение рекомендательных алгоритмов. Об этом пишет The Verge.
Исследователи проанализировали аккаунты более 20 000 пользователей сервиса, которые установили расширение RegretsReporter. С его помощью пользователи могут фильтровать контент и скрывать ненужные ролики.
По словам представителей Mozilla, кнопки «Не нравится», «Не интересует» и «Не рекомендовать видео с этого канала» практически не влияют на систему рекомендаций. Пользователи по-прежнему сталкивались с похожим контентом.
Авторы исследования утверждают, что в лучшем случае алгоритмы не справляются с задачей и предлагают в ленте более половины ненужных роликов. В худшем случае эффект от кнопок мизерный.
В среднем опция «Не нравится» влияла на рекомендации в 12% случаев, «Не интересует» — в 11%. Кнопки «Не рекомендовать видео с этого канала» и «Удалить из истории просмотров» оказались эффективнее — 43% и 29% соответственно.
Исследователи считают, что видеосервису следует обратить внимание на проблему и рекомендовать в ленте меньше нежелательных роликов.
«YouTube должен уважать отзывы пользователей о своем опыте, рассматривая их как значимые сигналы о том, как люди хотят проводить свое время на платформе», — заявили они.
В YouTube раскритиковали результаты исследования и заявили, что Mozilla не учла многие факторы, влияющих на работу алгоритмов.
По словам представителя компании Елены Эрнандес, система намеренно продвигает часть нежелательных видео, чтобы пользователи не оказались в информационном пузыре.
«Важно, что наши элементы управления не отфильтровывают целые темы или точки зрения, так как это может иметь негативные последствия для зрителей», — заявила она.
Эрнандес отметила, что кнопки взаимодействия с видео и каналами влияют на конкретные ролики и авторов, а не темы в целом. Видеосервис не станет останавливать рекомендации всего контента, связанного с темой, мнением или спикером, добавила она.
Напомним, в сентябре 2022 года ученые заявили о росте доверия пользователей к ИИ-модераторам.
В октябре 2021 года бывшая сотрудница Meta обвинила Facebook в намеренном использовании алгоритмов для разжигания ненависти ради прибыли.
Подписывайтесь на новости ForkLog в Telegram: ForkLog AI — все новости из мира ИИ!