Твиты о страхе используются для распространения вредоносных вирусов в Интернете.

Фото: Unsplash/CC0 Public Domain

Интернет, IT
Инструменты
Шрифты

Новое исследование показало, что киберпреступники охотятся с помощью эмоций страха, чтобы распространять по Twitter опасные вирусы и шпионские программы.

Ученые из Кардиффского университета впервые показали, что что твиты, содержащие вредоносные ссылки, с большей вероятностью будут содержать негативные эмоции, и что именно содержание твита увеличивает вероятность того, что он понравится и поделятся им, в отличие от количества подписчиков постера.

Киберпреступники все чаще используют этот метод, известный как «атака с помощью скрытой загрузки», чтобы скрыть вредоносный URL-адрес в соблазнительном твите и использовать его в качестве приманки (кликбейт), чтобы заманить пользователей на вредоносную веб-страницу.

Скрытая загрузка — привычный метод распространения вредоносного ПО. Злоумышленники ищут незащищенные сайты и внедряют вредоносные скрипты в их HTTP- или PHP-код. Этот скрипт может установить вредоносное ПО напрямую на компьютер пользователя, посетившего сайт или создать IFRAME-форму, которая перенаправит жертву на сайт, контролируемый злоумышленниками. Для успеха атаки жертве не нужно выполнять никаких действий: достаточно посетить зараженный ресурс.

После заражения системы пользователя конфиденциальная информация становится доступной неавторизованным пользователям, и их машины могут использоваться для проведения дальнейших атак.

Команда утверждает, что результаты показывают, что даже с учетом мер безопасности Twitter вредоносные URL-адреса все еще могут быть пропущены, и что этот пробел достаточно велик, чтобы подвергнуть миллионы пользователей вредоносному ПО за короткий период времени.

Они считают, что новые результаты могут быть использованы для создания типа фильтра, который поможет уменьшить количество твитов, загружаемых в программу обнаружения, что повысит вероятность обнаружения опасных твитов.

Новое исследование было опубликовано в журнале ACM Transactions on the Web.

В рамках исследования команда проанализировала случайную выборку из около 275 тысяч твитов из более чем 3,5 миллиона твитов, которые были отправлены во время семи крупных спортивных мероприятий - чемпионата мира по футболу 2014 года, Суперкубка 2015 и 2016 годов, чемпионата мира по крикету 2015 года, чемпионата мира по регби 2015 года, ЕВРО-2016 и Олимпийских игр 2016 года.

«Известно, что крупные спортивные мероприятия привлекают огромное количество пользователей социальных сетей, что дает киберпреступникам прекрасную возможность заманить большое количество людей на свои вредоносные веб-сайты», - сказал ведущий автор исследования, доктор Амир Джавед из Центра исследований кибербезопасности Кардиффского университета.

Команда определила 105 642 твита, содержащих вредоносные URL-адреса, и 169 178 твитов, содержащих безопасные URL-адреса из этого набора данных, а затем использовала сложные компьютерные модели, чтобы оценить, как эти твиты сохранились на платформе через 24 часа после спортивного события.

Твиты, которые были классифицированы как безобидные, с большей вероятностью распространялись, если у пользователя было большое количество подписчиков, и твит содержал положительные эмоции, такие как «команда», «любовь», «счастье», «удовольствие» и «веселье».

Однако результаты показали, что злонамеренные твиты не были сильно связаны с количеством подписчиков постера и с большей вероятностью распространялись, когда содержание твита содержало отрицательные эмоции.

Твиты, отражающие страх, на 114% чаще ретвитировались, причем такие слова, как «убить», «драться», «стрелять» и «полемика», регулярно включались в твиты, содержащие вредоносные URL-адреса.

«Эти результаты свидетельствуют о том, что киберпреступники тщательно выбирают слова для включения в свои твиты, где ключевое слово может вызвать эмоциональное возбуждение с использованием отрицательных эмоций, таких как страх, гнев или печаль, которые побудят людей поделиться твитом и перейти по ссылке»,продолжил доктор Джавед.

«Подобная связь была обнаружена между содержанием фейковых новостей и эмоциями, когда негативные эмоции с большей вероятностью способствовали распространению фейковых новостей».

Профессор Пит Бурнап, директор Центра исследований кибербезопасности и член Совета по искусственному интеллекту Великобритании, прокомментировал: «Это еще один фантастический пример работы нашей команды по прогнозированию и контролю кибератак с помощью инноваций в области искусственного интеллекта. Мы ставим пользование в реальном мире в основу нашей исследовательской деятельности, и мы надеемся, что наши выводы дают пищу для размышлений, когда люди занимаются своими повседневными делами в социальных сетях».

Источник: Tech Xplore