Бывшая сотрудница компании Collabera, занимавшаяся модерацией контента для видеохостинга YouTube, обвинила принадлежащую Google компанию в нарушениях, которые привели к возникновению у нее и ее коллег психических расстройств.
Иск к видеохостингу, к которому могут присоединиться и другие потерпевшие, подала юридическая фирма Joseph Saveri Law Firm, которая ранее помогла бывшим модераторам Facebook добиться компенсации в 52 млн долларов в рамках похожего дела, пишет The Verge.
В иске говорится, что Collabera была подрядчиком Facebook и нанимала модераторов видеоконтента. Сотрудница, подавшая иск (ее имя не раскрывается), работала модератором с января 2018 года по август 2019 года. Она утверждает, что видеохостинг регулярно допускал нарушения собственных стандартов работы и не оказывал должной поддержки модераторам. В результате у нее случилось расстройство психики и развились симптомы депрессии и посттравматического стрессового расстройства (ПТСР).
Согласно исковому заявлению, в рамках своих обязанностей модератора сотрудница вынуждена была просматривать видеоролики со сценами каннибализма, насилия над детьми и членовредительства, а также записи самоубийств, казней и жестоких издевательств над животными. Одним из последствий этой работы стали проблемы со сном, ночные кошмары и панические атаки.
В иске перечисляется целый ряд нарушений, допущенных YouTube и Collabera. Среди прочего компании плохо тренировали новых сотрудников и давали им мало времени для отдыха. Также из-за нехватки кадров модераторы вынуждены были просматривать видео больше четырех часов в день, хотя в компании был установлен именно такой лимит. Кроме того, инструкторы, к которым модераторы могли обратиться со своими проблемами, не имели профильного образования, чтобы диагностировать у подопечных расстройства психики, а некоторые из них давали сомнительные рекомендации (один инструктор посоветовал коллеге автора иска "верить в Бога"). Наконец, модераторы просто боялись жаловаться, считая, что инструкторы сообщат об их жалобах руководству.
В YouTube неоднократно утверждали, что компания стремиться заменить модераторов алгоритмами с элементами искусственного интеллекта, но пока что точность работы таких фильтров запрещенного на платформе контента оставляет желать лучшего.