Facebook будет определять оскорбительность трансляций с помощью искусственного интеллекта

 | 14.00

Хоакин Кандела, директор прикладного машинного обучения Facebook, рассказал о том, что компания работает над инструментом для автоматического обнаружения в прямых трансляциях наготы, насилия и любого другого контента, нарушающего условия использования социальной сети. В данный момент функция тестируется в Facebook Live.

facebook_live

Компания решила не полагаться исключительно на жалобы пользователей и ввела систему, которая самостоятельно находит оскорбительные материалы. Согласно июньскому сообщению Reuters, компания уже работает над технологией поиска экстремистского контента — например, жестоких фотографий и видеороликов. Тем не менее, для того, чтобы начать автоматически находить такой контент в прямых трансляциях, понадобится гораздо больше усилий.

Споры касательно трансляций в Facebook начались после того, как в прямом эфире чикагский полицейский застрелил ни в чём не повинного Антонио Перкинса (Antonio Perkins). Запись трансляции не удалили из социальной сети, а всего лишь пометили предупреждающим сообщением, поскольку видео было признано примером реальных последствий насилия. В то же время компания заявила, что будет удалять с сайта ролики, делающие из насильственных действий сенсацию.

facebooklive

Как объяснил Кандела, на данный момент существует две значительные проблемы с поиском оскорбительного контента в прямых трансляциях. «Ваш алгоритм компьютерного зрения должен быть быстрым, и с этим, я думаю, мы можем разобраться, — заявил Кандела. — Но ещё нужно расставлять приоритеты таким образом, чтобы человек, понимающий наши правила, смотрел на вещи и избавлялся от них».

Источник

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *