Алгоритм искусственного интеллекта, используемый Facebook (запрещена в РФ) для обнаружения опасного контента, удаляет менее 5% подобных постов.
По оценкам одного из сотрудников компании, которые приводятся во внутренних документах Facebook, удаляются только 2% высказываний, разжигающих ненависть, пишет газета Wall Street Journal. Еще одна группа специалистов пришла к выводу, искусственный интеллект распознает и удаляет от 3 до 5% публикаций, разжигающих ненависть, и 0,6% контента, который нарушает правила Faceebook о насилии.
Основной проблемой является то, что алгоритм не всегда различает, насколько контент является опасным, и в таком случае не удаляет его, а просто ранжирует ниже в новостной ленте.
При этом официально руководство Facebook утверждает, что алгоритм соцсети научился обнаруживать 98% вредного контента еще до того, как на него пожаловались другие пользователи.