С тех пор, как мир узнал о спонсируемых государством кампаниях по распространению дезинформации в социальных сетях и влиянию 2016 года На выборах Twitter попытался обуздать ботов и троллей, загрязняющих его платформу. Но когда речь заходит о более широкой проблеме автоматических учетных записей в Twitter, предназначенной для распространения спама и мошенничества, завышения числа подписчиков и тем, связанных с играми, новое исследование обнаруживает, что компания по-прежнему не справляется с потоком мусора и злоупотреблений.
Фактически, два исследователя газеты пишут, что с помощью разработанного ими подхода к машинному обучению они могут выявлять оскорбительные аккаунты в гораздо больших объемах и быстрее, чем это делает Твиттер, часто отмечая аккаунты за месяцы до того, как Twitter обнаружил и забанил
Содержание статьи
Затопление зоны
В 16-месячном исследовании 1,5 миллиардов твитов Зубаир Шафик, профессор компьютерных наук в Университете Айовы, и его аспирант Шехроз Фаруки определили более 167 000 приложений, использующих API Twitter для автоматизации учетных записей ботов, распространяющих десятки миллионов твитов, рассылающих спам, ссылки на вредоносные программы и кампании по астротурфингу. Они пишут, что более 60 процентов времени Твиттер ждал, пока эти приложения отправят более 100 твитов, прежде чем идентифицировать их как оскорбительные; собственный метод обнаружения исследователей пометил подавляющее большинство вредоносных приложений после нескольких твитов. Около 40 процентов приложений, которые проверяла пара, показало, что Twitter занимал больше месяца, чем метод исследования, чтобы обнаружить оскорбительный твит в приложении. Это время задержки, по их оценкам, позволяет вредоносным приложениям накапливать десятки миллионов твитов в месяц перед тем, как их забанят.
«Мы показываем, что многие из этих вредоносных приложений, используемых для всех видов гнусной активности, остаются «Не обнаруживаются алгоритмы обнаружения мошенничества в Twitter, иногда в течение нескольких месяцев, и они наносят большой ущерб, прежде чем Twitter в конечном итоге их обнаружит и удалит», — говорит Шафик. Исследование будет представлено на веб-конференции в Сан-Франциско в мае этого года. «Они сказали, что теперь они серьезно относятся к этой проблеме и реализуют множество контрмер. Вывод заключается в том, что эти контрмеры не оказали существенного влияния на эти приложения, которые несут ответственность за миллионы и миллионы оскорбительных твитов».
«Мы нашли способ обнаружить их даже лучше, чем Twitter».
Зубаир Шафик, Университет Айовы
Исследователи скажем, что они делятся своими результатами с Twitter уже более года, но компания не запрашивала более подробную информацию об их методе или данных. Когда WIRED обратился к Twitter, компания выразила признательность за цели исследования, но возразила против его результатов, утверждая, что исследователям Айовы не хватало полной картины того, как оно борется с оскорбительными аккаунтами. «Исследования, основанные исключительно на общедоступной информации об учетных записях и твитах в Твиттере, часто не могут дать точную или полную картину шагов, которые мы предпринимаем для обеспечения соблюдения наших политик для разработчиков», — написал представитель.
Твиттер, к его чести По крайней мере, предпринял агрессивный подход, чтобы остановить некоторых из наиболее организованных дезинформационных троллей, эксплуатирующих его мегафон. В отчете, опубликованном на прошлой неделе, социальная медиа-компания заявила, что она запретила более 4000 политически мотивированных учетных записей дезинформации из России, еще 3300 из Ирана и более 750 из Венесуэлы. В заявлении для WIRED Twitter отметил, что он также работает над сдерживанием оскорбительных приложений, вводя новые ограничения на то, как им предоставляется доступ к API Twitter. Компания заявляет, что только за последние шесть месяцев 2018 года она запретила 162 000 оскорбительных приложений.
Но исследователи из Айовы говорят, что их результаты показывают, что оскорбительные приложения Twitter по-прежнему широко распространены. Набор данных, использованный в исследовании, работает только до конца 2017 года, но по запросу WIRED Шафик и Фаруки запустили свою модель машинного обучения на твитах за последние две недели января 2019 года и сразу нашли 325 приложений, которые они посчитали оскорбительными, что Twitter пока запретить некоторые с явными спамерскими именами, такими как EarnCash_ и La App de Escorts.
В своем исследовании исследователи сосредоточились исключительно на поиске ядовитых твитов, создаваемых сторонними приложениями, учитывая огромные эффекты автоматизированных инструментов. Иногда вредоносные приложения контролируют учетные записи, которые сами спамеры или мошенники создают. В других случаях они угоняли учетные записи пользователей, которые были обмануты в установке приложений или сделали это в обмен на стимулы, такие как повышение числа фальшивых подписчиков.
Tweet Dreck
На фоне 1,5 миллиарда Твиты, с которых начинали исследователи — Twitter предоставляет только 1 процент всех твитов, доступных через API, ориентированный на исследования — было представлено 457 000 сторонних приложений. Затем пара использовала эти данные для обучения своей собственной модели машинного обучения для отслеживания вредоносных приложений. Они отметили, какие учетные записи были опубликованы в каждом приложении, а также факторы, включая возраст учетных записей, время создания твитов, количество имен пользователей, хэштеги, ссылки на включенные твиты и соотношение ретвитов к оригинальным твитам. Наиболее важно то, что они наблюдали, какие учетные записи были в конечном итоге заблокированы Твиттером в течение 16-месячного периода, который они наблюдали, по существу, используя эти запреты для обозначения оскорбительных учетных записей.
С помощью полученной в результате модели, обучаемой машинному обучению, они обнаружили, что могут определить 93 процента приложений, которые Twitter в конечном итоге запретит, не просматривая больше, чем их первые семь твитов. «В некотором смысле мы полагаемся на то, что Твиттер в конечном итоге помечается как вредоносное приложение. Но мы нашли способ обнаруживать их даже лучше, чем Твиттер», — говорит Шафик.
Твиттер возразил в своем заявлении, что исследователи из Айовы «Модель машинного обучения была ошибочной, потому что они не могли с уверенностью сказать, какие приложения Twitter запрещены за оскорбительное поведение. Поскольку Twitter не делает эти данные общедоступными, исследователи могут только догадываться, посмотрев, в каких приложениях удалены твиты. Это могло быть из-за запрета, но это также могло быть результатом того, что пользователи или приложения удалили свои собственные твиты.
«Мы считаем, что методы, использованные в этом исследовании, не позволяют точно измерить или отразить работоспособность нашей платформы для разработчиков. «В основном потому, что факторы, использованные для обучения модели в этом исследовании, не сильно коррелируют с тем, действительно ли приложение нарушает нашу политику», — написал представитель WIRED.
Но исследователи из Айовы отмечают в своей статье что они пометили приложение как заблокированное Twitter только в том случае, если 90 или более процентов его твитов были удалены. Они отметили, что для популярных, доброкачественных приложений, таких как Twitter для iPhone или Android, удаляется менее 30 процентов твитов. Если пользователи какого-либо законного приложения действительно удаляют свои твиты чаще, «это будет небольшое меньшинство, эти приложения не будут использоваться многими людьми, и я не думаю, что это повлияет на их результаты», — говорит Джанлука Стрингини, исследователь из Бостонского университета, который работал над предыдущими исследованиями оскорбительных приложений для социальных сетей. «Таким образом, я ожидаю, что их основополагающая истина достаточно сильна».
Помимо тех образованных предположений, по которым приложения были запрещены, исследователи также оттачивали свое определение вредоносных приложений, сканируя сайты, которые рекламировали фальшивых подписчиков и загружали 14 000 приложения они предложили. Из них около 6300 произвели твиты в своей выборке на 1,5 млрд твитов, поэтому они также послужили примерами оскорбительных приложений для данных обучения модели машинного обучения.
Одним из недостатков метода исследователей из Айовы был его процент ложных срабатываний: они признают, что около 6 процентов приложений, которые их метод обнаружения помечает как вредоносные, на самом деле доброкачественные. Но они утверждают, что уровень ложных срабатываний достаточно низок, чтобы Twitter мог назначить штатных сотрудников для проверки результатов их алгоритма и выявления ошибок. «Я не думаю, что для такого рода обзора потребуется более одного человека», — говорит Шафик. «Если вы не будете активно атаковать эти приложения, они скомпрометируют гораздо больше аккаунтов и твитов и будут стоить гораздо больше человеко-часов».
Исследователи согласны с Twitter, что компания движется в Правильное направление, затягивание винтов на мусорных счетах и, что более важно, по его мнению, злоупотребление приложениями. Они заметили, что примерно в июне 2017 года компания, похоже, стала более агрессивно запрещать плохие приложения. Но они говорят, что их результаты показывают, что Twitter все еще не использует потенциал машинного обучения, чтобы поймать злоупотребление приложениями так быстро, как мог. «Они, вероятно, делают часть этого прямо сейчас», — говорит Шафик. «Но явно недостаточно».