...

суббота, 31 мая 2014 г.

[recovery mode] Подмена (встраивание) спам-ссылок на страницы сайта плагинами браузеров, cpatext, Content-Security-Policy

В конце января в логах нашей внутренней системы анализа пользовательских кликов на сайте kidsreview.ru появились сотни переходов по странным линкам вида:

http://ift.tt/1jI2Lwf



Недолгое расследование показало, что сайт compareiseries.in является прослойкой, скрипт выдает js-редирект на ссылку, которая была передана в адресе. В данном случае base64 скрывала реальный адрес:

http://ift.tt/RQj7fy


Как не трудно догадаться, сайт оказался биржей трафика с оплатой за клики (с параметрами чьей-то конкретной учетки в урле). То есть кто-то накручивал клики, зарабатывал денег, и все на нашем сайте и, самое обидное, без нашего разрешения.


Проблема




Проблема: при просмотре сайта в браузерах большого количества посетителей имеют место спам-линки на множетсво разнородных рекламных ресурсов.

Вопрос: на каком именно уровне они появляются?

Варианты, приходящие в голову (в субъективно оцененном порядке убывания вероятности):

1. В браузер пользователя, в результате вируса на компьютере / завирусованного плагина к браузеру / других вирусов во всем их многообразии, инъектируются вредоносные джаваскрипты в посещаемые сайты;


2. Наши сервера в результате взлома и последующего затроянивания кода сайта или веб-сервера или драйвера сетевой карты сами выдают спам-скрипты / ссылки посетителям;


3. Какой-то из js, которые мы подгружаем с внешних ресурсов, в результате взлома, начал попутно заниматься распространением рекламного спам-контента

(rambler top100, vk/fb, twitter, google, yandex metrika,… их около десятка);


Тщательный поиск каких-либо следов на наших серверах ничего не дал, пункт 3 же отмели как самый маловероятный. Параллельно с этим мы внесли правки в нашу систему анализа переходов — чтобы контент страниц, на которых осуществлялись клики на «левые» урлы, логировался.


Первые же часы работы нашей импровизированной «ловушки» поймали несколько десятков страниц, а вместе с ними и иньектированные js вида:

http://ift.tt/RQjab6

http://ift.tt/1pvs3Wq

http://ift.tt/RQj7fA

http://ift.tt/1pvs3Ws


Или, например, вот так:

«data:text/javascript;base64,KGZ1bmN0aW9uKHdpbmRvdykgew0KICAgIHZhciBkb21haW5fbGlzdCA9ICcsMS5hemFydG55ZS1pZ3J5LXBva2VyLnJ1LDEwMGNhc2luby5uZXQsMTAxb25saW5l…”


и.т.д.


Got it! — решили мы и открыли cpatext.ru, и собственно, что мы увидели — »Мы автоматически подменяем ссылки, а Вы зарабатываете больше!".


image


Ребята предлагают подменять линки, различными способами, в частности через плагины для браузеров. Построили для этого целую систему и, естественно, они далеко не единственные.


Что делать?




Один из самых полезных вариантов борьбы с последствиями — заголовок Content-Security-Policy (http://ift.tt/17dP7gy), который позволяет сайту декларировать ограничения на работу страниц сайта с внешним контентом. В частности, это позволяет передать современным браузерам инструкции по тому, с каких внешних доменов сайт разрешает подгружать внешние JS.

Этот способ особенно хорош, если все js размещаются в рамках одного домена (например, CDN), но в общем случае, когда на сайте может быть куча сторонних js (например виджетов, как у нас) возникает несколько проблем:


1. Необходимо составить полный whitelist, проанализировав все подгружаемые внешние js


2. Необходимо по ходу разработки поддерживать whitelist в актуальном состоянии


3. Изменения в тонкостях хостинга легитимных внешних скриптов: например, смена домена CDN фейсбука или появление нового стороннего легитимного домена — приводит к ошибке.


4. Помимо прочего блокируется уйма скриптов от рекламных тулбаров и потенциально легитимных браузерных расширений.


Мы внутри команды пришли к соглашению, что расширения, которые лезут в контент страницы и позволяют себе изменять контент «идут лесом», но верно ли это в 100% случаев?


После включения блокировки с помощью Content-Security-Policy «левых» кликов становится на порядки меньше (остаются только клики с древних версий браузеров, не поддерживающих CSP), но несколько вопросов осталось:


1. Есть ли какие-то подвижки со стороны разработчиков браузеров в плане ограничения

расширений на инъекции js в страницы сайтов?


2. Какие best practices при решения подобных вопросов с зараженными пользователями на крупных сайтах?

Никаких достойных сведений гуглением найти не удалось.


3. И самое главное, почему спокойно себе живут сайты в духе: metabar.ru/, cpatext.ru/?


This entry passed through the Full-Text RSS service — if this is your content and you're reading it on someone else's site, please read the FAQ at http://ift.tt/jcXqJW.


Комментариев нет:

Отправить комментарий