Новое SEO, СЕО

Не так давно ведущие поисковые системы Гугл и Яндекс представили новые поисковые алгоритмы: Гугл Панда и Гугл Пингвин (Google), Снежинск и Рейкьявик (Яндекс). В частности, были запущены не только новые, но также внесены изменения в уже существующие поисковые алгоритмы. Если раньше веб-мастера и оптимизаторы довольно вяло реагировали на изменения в текущих алгоритмах, то последние новшества фактически поменяли всё представление о современном SEO.

Раньше даже новички, имея определённый бюджет, могли закупить большое количество ссылок по нужным запросам, сделать самую «нехитрую» оптимизацию, и сайты уверенно шли в ТОП. Конечно, после каждого апдейта позиции «штормило», но это обычно больше касалось Яндекса, Гугл же был более стабилен. Большую популярность имели темы на подобии: «Как вывести сайт из под фильтра АГС Яндекса?» и т.п.

SEO оптимизация

Яндекс и Гугл постоянно твердили, что делайте сайты для людей, развивайте, наполняйте качественным контентом и т.п. Но всё это было написано в рекомендациях поисковых систем и 10 лет назад, никто особо не обращал внимания на требования, которые предъявлялись к сайтам. Тем более старые поисковые алгоритмы «не умели» наказывать за невыполнение существующих «правил». Поэтому большинство начинающих сайтостроителей думали только о том, как бы наделать побольше сайтов (сателлитов) для заработка и не попасть под фильтр, (АГС и т.д.,) это волновало многих.

Как изменилось продвижение сайтов (SEO) после введения новых поисковых алгоритмов (Гугл Панда, Гугл Пингвин и др.)?

Методом проб и ошибок, поисковые алгоритмы научились отсеивать и выбрасывать из поиска откровенно плохие сайты (ГС). Право на жизнь получили только действительно качественные и с умом сделанные «сателлиты», ну или просто везунчики.

Гугл Пингвин

Всё логично, раз плохим сайтам жизни нет, для них уже есть свои «фильтры», то пришло время взяться за более хорошие сайты. Количество мест в ТОПе строго ограничено, а сайтов много. Огромное количество страниц оптимизированы (в большинстве своём некачественно, но всё же), даже новички научились принудительно пихать в тексты нужные ключи, выделять их жирным, дублировать в заголовках, всё как «учили» на SEO форумах. Все хотят в ТОП, от мала до велика!

Но вот беда, пока веб-мастера и оптимизаторы «дерутся» за «место под солнцем» в поисковой выдаче, страдают рядовые пользователи. Простыми словами, люди, для которых и делаются сайты, которые ищут нужную информацию (совершают покупки и т.д.), о них некоторые владельцы сайтов совсем забыли.

И поисковые системы решили создать алгоритмы (фильтры), которые смогли бы отделять качественные, полезные и интересные страницы (сайты), от некачественных. Я уже говорил о важности пользовательских факторов (поведенческие данные) в построении поисковой выдачи. Теперь пользователи получили возможность влиять на позиции тех или иных страниц в поиске, даже не зная об этом.

Фильтр Яндекса

Плюс добавились специальные фильтры, которые накладываются на страницы и сайты, продвигаемые «неправильным» путём (ссылочный спам, неестественные и нерелевантные ссылки, переоптимизация страниц и т.д.). И теперь у многих владельцев сайтов начала болеть голова о том, как вывести сайт из под фильтра Гугла или Яндекса. Если раньше «чудил» в основном только Яндекс, а Гугл многое прощал, то теперь ситуация изменилась. Многие отечественные оптимизаторы уже даже счастливы, что в Рунете нет монополии Google и при «немилости» последнего, можно поискать «счастья» в Яндексе.

Представители поисковых систем выделили два вида продвижения сайтов: черное SEO и белое SEO. Естественно, первый вид «раскрутки» сайтов запрещается и наказывается фильтрами, а второй даже приветствуется (к примеру, Гугл прямо заявил о пользе белой оптимизации).

Каким образом работают современные поисковые алгоритмы, в частности последние новинки от Google Penguin и Google Panda, я уже писал ранее. Кому интересно, перейдёт по ссылкам и прочитает: какие сайты и за что будут наказаны соответствующими фильтрами.

Итог получается простой. Владелец сайта вкладывает деньги в продвижение своего сайта, но если он делает это «по старинке» и «не правильно», эффект может быть даже обратным. Сайт будет не повышаться в поиске, а даже понижаться. От последних изменений поисковых систем особенно сильно пострадали сайты, которые продвигались исключительно за счёт ссылочных бирж.

ТОП поисковой выдачи

Причём если ссылки закупались единовременно и в большом количестве (с точными вхождениями ключей), то фактически, люди, которые это делали, за свои же деньги понизили собственные сайты в поисковой выдаче. Печально, но, правда. А ведь так хорошо звучало: «положи деньги на счёт, и наш сервис продвинет Ваш сайт в ТОП на автомате». Это работало, но теперь такой «автоматизм» должен быть очень «умным» или он обречён на быструю «смерть». Уверен, что без подбора и контроля закупаемых ссылок вручную, эффект от продвижения будет минимальным. Но о том, какие ссылки «рулят» я уже говорил в других статьях и скажу ещё не раз.

Как вывести сайт из под фильтра Гугла или Яндекса?

Самое интересное, что у меня после введения одного из новых алгоритмов произошла, казалось бы, беда: трафик упал почти на 70%. А сайт очень хороший, как говорится, для людей. Постоянно обновляемые материалы и т.д. Я сразу написал в тех. поддержку и, о чудо, после следующего апдейта трафик не то что вернулся, а даже вырос.

Техподдержка поисковых систем

Вывод тут только один: не нужно кричать, что алгоритм «глупый» или не правильный. Ведь он тестировался на миллионах страниц сайтов. Эти самообучающиеся «машины» знают о наших сайтах даже больше чем мы сами. Поэтому, если Вы считаете, что «наказание» (наложение фильтра) для Вашего сайта случайное, и уверены в своём сайте, напишите в тех. поддержку. Может, повезёт, и Вам даже что-то полезное подскажут, а, может, даже внесут Ваш сайт в «белый» список и вручную присвоят ему первое место. Я, конечно же, шучу про белый список и про первое место в выдаче.

Но знаю одно, просто жаловаться на «неправильность» действий алгоритмов – путь в никуда. Если боитесь писать представителям поисковых систем или разбираться в причинах наложения «фильтров» самостоятельно, значит, знаете, что у Вашего сайта действительно есть «проблемы». Тогда не нужно искать заветный ответ на вопрос: «Как вывести сайт из под фильтра»?

Заявка в техподдержку

Я пробовал «чит-коды» и сочетание клавиш Ctrl+Alt+F, самое удивительное, что не помогает. Хотя если Вас очень интересует вопрос: «Как вывести сайт из под того или иного современного фильтра», рекомендую вам пошаговый практический видеокурс на эту тему http://ruslansavchenko.com/seo/kak-vyvesti-sajt-iz-pod-filtrov.html.

Главное не обманывать самих себя. Все мы понимаем, что поисковые системы выпускают новые алгоритмы не для того, чтобы наказывать сайты, а для того, чтобы улучшить качество поиска. Хорошим сайтам даются «бонусы», а плохим «минусы». И кто-то всегда будет в выигрыше, а кто-то в проигрыше, ведь ТОП поисковой выдачи не «резиновый». Но если какая-то страница опустилась в поиске, значит, на её место пришла другая страница, и это произошло не случайно.

Как же всё-таки снять фильтр с сайта, если он был наложен?

Не стоит забывать, что современные алгоритмы накладывают фильтры не только на сайты в целом, но и на отдельные страницы в частности. Поэтому не стоит думать, что если у Вас сильно упала посещаемость, то Ваш сайт попал в «чёрный» список. Вполне возможно, что какая-то часть страниц Вашего сайта была переоптимизирована. Возможно, на них закупались «спамные» ссылки.

Эффективная SEO оптимизация

По крайней мере, первый пункт Вы точно можете исправить. Сделать «белую оптимизацию», которую приветствуют разработчики Гугла, не очень сложно. Кстати, в ближайшее время я представлю небольшой видеокурс по эффективной «белой» оптимизации, которую «любят» все поисковые системы. Но и сейчас в сети достаточно информации на эту тему, главное отличить практический опыт от переписывания старых и уже неработающих советов с SEO форумов.

Но мы немного отвлеклись. Если Вы сделаете страницы для пользователей, уберёте ненужную переоптимизацию, то фильтр будет снят уже после следующего апдейта. Об этом говорил ведущий разработчик качества поиска Google Мэтт Каттс. Даю ссылку на его видеоинтервью (с русскими титрами) под названием: «За что на сайт накладываются фильтры Гугла и как можно снять фильтр с сайта?».

Кстати представители Яндекса также не раз сообщали, что их новые алгоритмы также накладывают фильтры на сайты не навсегда. Тоесть, Вам требуется просто исправить «грехи» Вашего сайта (или конкретных страниц) и получить «амнистию». Кстати вывод сайта или конкретных страниц из под фильтра — это очень полезный опыт. Когда уже примерно знаешь за какие «грехи» пострадал сайт и смог их исправить, тем самым «реабилитировать» сайт в глазах поисковых алгоритмов, это даёт огромную «пищу для размышлений».

фильтр Яндекса АГС-17

В 2010 году я получил опыт вывода сайтов из под фильтра АГС — (какой-то то там номер, их было несколько). Это были сайты моего друга, и он просто попросил меня поэкспериментировать, так как знал, что мне интересна эта тема. Тогда у меня получилось вывести старый сайт (из Яндекс Каталога кстати) и ещё один сайт-сателлит. Но это отдельная история, о ней как-нибудь в другой раз.

Доведу до конца главную мысль. Если сайт Вам дорог, Вы вкладываете в него свою душу и труд, то «боритесь» за него в случае «неудач», развивайте его дальше, и ему не будут страшны никакие фильтры. Не забывайте, что с увеличением возраста поисковые системы начинают всё больше доверять Вашему сайту. Особенно если у домена не меняются владельцы.

Самая большая ошибка многих веб-мастеров в том, что они изначально уверены: их сайт качественный, он настоящий СДЛ (сайт для людей), ведь они его сами сделали! Но на поверку оказывается, что их сайты не очень удобны и полезны для людей. И будем смотреть правде в глаза, очень многие сайты созданы только для заработка на рекламе и на ссылках, а о пользователях никто и не думал.

Белый оптимизатор

Причём это касается не только новичков. Меня часто просили «оценить» сайты других людей, я давал советы по улучшению, критиковал, но к своим интернет-ресурсам относился всегда лояльно.

Но как же я был удивлен, когда поставил на многие свои сайты Яндекс Метрику и Гугл Аналитикс. После того как я начал уделять время и детально анализировать показания вебвизоров (видео анализ поведения пользователей на сайте), я понял, что не всё так хорошо, как на сайтах в целом, так и на отдельных страницах в частности. Нет лучших критиков, чем реальные посетители Ваших страниц. Ведь сайты делают именно для них, и нам важно мнение людей, которые приходят на наш сайт.

Анализ статистики сайтов

Очень часто хочется продвинуть какую-то страницу сразу по нескольким запросам. Но в итоге, дать полноценный ответ на каждый из запросов в рамках одной страницы (статьи), не получается. Как следствие, пользователи приходят из поиска, видят что их «обманули», и уходят обратно в поиск. Такие действия называются «отказами» и за большое количество подобных отказов, а также, если люди проводят очень мало времени на странице и на сайте в целом, поисковые алгоритмы понижают страницы в поиске.

Я очень не люблю слово «трафик», оно какое-то очень «неживое». Мне больше по душе слова: люди, посетители. Но многие веб-мастера забывают, что их сайты читают реальные люди, а не роботы. Когда Ваш сайт посещает большое количество людей, Вы должны относится к ним, как к Вашей аудитории, Вы должны пытаться их заинтересовать, дать им нужный ответ, предоставить то, зачем пользователи пришли на Ваш сайт. Тогда люди будут Вам благодарны и, скорее всего, сохранят Ваш сайт в закладки и вернутся к Вам снова. Кстати, отмечу, что приход из закладок и по другим внешним ссылкам (к примеру, из социальных сетей) также положительно влияют на позиции в поиске.

Анализ удобства и эффективности сайта

Более подробно о правильной «работе» с посетителями Ваших сайтов я поговорю в другой раз. Сейчас я хотел донести до Вас самое важное, смотрите на Ваш сайт глазами пользователей, разберитесь, почему они уходят с сайта и что им не нравится. Поверьте, поисковые алгоритмы всё лучше начинают понимать качество и структуру страниц web-сайтов. И посетители Вашего сайта им в этом помогают.

У Вас может быть потрясающий дизайн, но без хорошего контента вряд ли пользователи долго задержатся на сайте. Также у Вас может быть супер уникальный и интересный авторский контент, но оформление сайта настолько ужасное, меню такое непонятное, что люди просто не могут «добраться» до нужного им содержания.

Задумайтесь об этом, начните анализировать Ваш сайт «глазами» Ваших посетителей (клиентов). Если у Вас коммерческий сайт и Вам не хватает знаний, обратитесь к специалистам, либо изучите соответствующие курсы. Поверьте, все Ваши старания в итоге многократно окупятся.

P.S. Конент – король Интернета. Так было и так будет всегда. Только раньше поисковые системы плохо отличали качественный и некачественный контент, а теперь их практически бесполезно «обманывать». За «нечестную» оптимизацию на страницы будут наложены фильтры, а в худшем случае, сайт может быть вообще исключен из поиска.

Желаю, чтобы Ваши сайты никогда не попадали под фильтры поисковых систем и всегда были на первых позициях в поиске. Буду рад Вашим мнениям в комментариях.