Facebook конфликт политика

В соцсети Facebook тестируют программу для предотвращения конфликтов в комментариях

Искусственный интеллект начнет помечать оскорбительные комментарии, размещаемые в сообществах в социальной сети Facebook. Предполагается, что благодаря программе получится упростить работу администраторов групп, сообщает CNN.В результате пользователи, отвечающие за модерацию страниц, будут получать уведомления о возможном конфликте среди подписчиков.Записи с неприемлемой лексикой в группах получат плашки «moderation alert» («оповещение модератора»).С новым способом маркировки и оповещения станет возможным своевременно принимать необходимые действия для локализации конфликта в сети.

Однако новые ограничения нельзя будет применить к таким темам, как вакцинация, политика, а также культурные различия.Программный инструмент, как считают в

DMCA