В начале апреля и мае этого года весь SEO мир Рунета был очень взволнован. Веб-мастера и оптимизаторы начали анализировать последствия введения поисковой системой Гугл новых (обновленных) алгоритмов: Google Panda и Google Penguin.
О том как работает обновлённый алгоритм Гугла (Google Panda) я уже рассказывал в другой статье. Главной задачей алгоритма Гугл Панда было очищение выдачи от сайтов низкого качества. Серьёзно пострадали сайты, которые имели много некачественного и неуникального контента, размещали много назойливой рекламы и были не любимы пользователями (имели плохие поведенческие факторы). Проще говоря, в большинстве своём пострадали сайты, которые, по мнению Гугла, представляют малую пользу для посетителей. Более подробно о Гугл Panda я уже рассказывал здесь.
Ведущие оптимизаторы и СЕО специалисты ещё не успели разобраться с последствиями для сайтов от Google Panda, как на свет появилась новая «птица», в виде алгоритма Google Penguin. После введения Гугл Пингвин выдача заметно преобразилась. Были существенно понижены в результатах поиска или вообще исключены из него сайты, которые злоупотребляли поисковым спамом (webspam) и использовали методы чёрного SEO. Очень заметны последствия от работы нового алгоритма Гугла для сайтов, которые продвигались только за счёт «некачественных» покупных ссылок (к примеру, ссылки, купленные через биржи автоматического размещения).
Итоговый вывод о новом алгоритме Гугла (Google Penguin) я напишу в конце статьи, а сейчас предлагаю ознакомиться с мнениями ведущих СЕО специалистов и оптимизаторов Рунета.
Мнение ведущих экспертов и SEO специалистов о новом алгоритме Гугла (Google Penguin):
За что наказывает сайты алгоритм Google Penguin (мнение ведущих специалистов в области SEO):
Как защитить свой сайт от фильтра Google Penguin (советы от ведущих зарубежных оптимизаторов и экспертов):
Что говорят о Гугл Пингвине на ведущем SEO форуме Рунета (forum.searchengines.ru):
Мнение известных seo специалистов в русскоязычном Интернете:
Что говорят разработчики Google Penguin (Мэтт Каттс) и ведущие зарубежные SEO эксперты:
Также рекомендую посмотреть видео, в котором Мэтт Каттс (Matt Cutts – ведущий специалист по развитию качества поиска Google) рассказывает о том, за что поисковые алгоритмы Гугла (Google Penguin, Google Panda и др.) накладывают фильтры на сайты и как их можно снять. Чем отличаются автоматические и ручные алгоритмы наложения фильтров.
За что на сайт накладываются фильтры Гугла и как можно снять фильтр с сайта?
Чтобы увидеть русский перевод, необходимо запустить видео, и после начала просмотра внизу экрана появится кнопка «CC» (субтитры), после нажатия на эту кнопку появится вариант выбора русского языка. Русский перевод от Mike Shakin.
И в завершение темы, выскажу своё личное мнение (Руслан Савченко, ruslansavchenko.com):
«Стоит отметить два утверждения разработчиков алгоритма Google Penguin, которые противоречат друг другу: Google не учитывает влияние плохих ссылок и игнорирует их, но в тоже время, если на Ваш сайт будут вести спамные ссылки, он потеряет свои позиции в поиске и трафик с Гугла уменьшится.
Из этих противоречий можно предположить следующее: алгоритмы Гугла не станут обращать внимание на ссылки с некачественных сайтов, если их число не превышает количество «хороших ссылок». Но если сайт продвигается исключительно за счёт «спамных» ссылок (webspam), используются так называемые «ссылочные сети», биржи, где размещаются неестественные покупные ссылки, то позиции таких сайтов будут понижаться.
Google Penguin и Google Panda, работая в связке, научились хорошо отличать естественные и качественные методы SEO от «неестественных» и некачественных.»
Также рекомендую Вам посмотреть довольно интересный и понятный видео доклад об алгоритме Гугл Пингвин.
Видео доклад Андрея Буца о новом алгоритме Google Penguin:
Главные тезисы доклада:
- Какие сайты были наказаны новым алгоритмом Google Пингвин?
- Какие методы «продвижения» сайтов больше не будут работать?
- Пример «чёрного» SEO или за какую переоптимизацию наказывает алгоритм Гугла (Google Penguin)?
- Какие ссылки (по мнению алгоритмов Google) считаются естественными, а какие нет?
- Как правильно «разбавлять» анкоры (продвигаемые ключевые слова), чтобы не попасть под пессимизацию и сэкономить бюджет на продвижение?
- В каком соотношении использовать ссылки с повременной оплатой (SAPE и пр.) и вечные ссылки (с разовой оплатой навсегда), к примеру, Gogetlinks?
- Какие ссылки алгоритмы Гугла считают релевантными, а какие нет?
- Чем полезны безанкорные ссылки?
- Как учитываются безанкорные ссылки (без ключевых слов, только урл ссылки)?
Мои выводы (Савченко Руслан) относительно нового алгоритма Google (Гугл Пингвин). Как изменилось продвижение сайтов (SEO) после запуска Google Penguin?
- Продвижение «на автомате» только при помощи ссылочных бирж с автоматическим размещением стало малоэффективным. Такие ссылки можно использовать с пользой для продвижения, они до сих пор работают, но только при их размещении на релевантных страницах (текст на странице должен соответствовать тематике ссылки).
- Безанкорные (естественные) ссылки стали хорошо учитываться в продвижении по запросам, но необходимо правильно их использовать. Важен околоссылочный текст, который учитывается алгоритмами Google. О том, как можно получать бесплатные вечные ссылки и как проводить бесплатный обмен ссылками я уже писал раньше здесь.
- Продвижение сайтов (SEO) стало дольше, дороже, сложнее.
- Продвижение сайта исключительно за счёт приобретения ссылок стало малоэффективным. Очень важна правильная «белая» оптимизация (которую приветствуют разработчики Гугла). О правильной оптимизации отдельных страниц и всего сайта в целом я подробно говорил в своём видеокурсе по SEO оптимизации сайта, и буду ещё рассказывать в следующих статьях и видеоуроках.
Для тех, кто знает английский язык (субтитры идут на английском), предлагаю посмотреть видео-прикол про алгоритм Гугл Пингвин. Задумка автора очень проста: «Гитлер» многие годы создавал сайты, зарабатывал на них, и в один момент всё рухнуло под «натиском» Google Penguin.
На этом мы завершаем обзор нового поискового алгоритма Google Penguin. Буду рад «услышать» Ваши мнения в комментариях. Какое влияние оказал Гугл Пингвин на Ваши сайты?
Если Вас интересует вопрос: как на практике вывести ваш сайт из под современной версии фильтра Google Penguin, рекомендую вам новый уникальный видеокурс «Как вывести сайт из-под «фильтров» (санкций) поисковых систем Яндекс или Google?».
Мой сайт в период запуска фильтра Penguin поднялся в ТОП по некоторым запросам, видимость в Гугле возросла до 57%.
Но после того как фильтр «сняли», чтобы доработать, сайт снова улетел вниз, даже ниже чем был. Поэтому, думаю, что фильтр Гугл Пингвин всё-таки нужен, чтобы на первые места не вылазили сайты, которые явно хуже по всем показателям, чем мой ресурс.
Я с Вами согласен. Google Penguin наказывает в основном сайты, которые явно нарушают требования Гугла. Ресурсы, которые содержат действительно качественный и интересный для пользователей контент, только выигрывают. В последние годы наблюдалась картина, когда хорошие авторские сайты не могут пробиться в основную выдачу из-за большого количества «заспамленных» и переоптимизированных страниц.
Сейчас уже пользователи «решают», каким сайтам (страницам) быть в ТОПе, а каким … чуть ниже. И новые алгоритмы Гугла в этом им только помогают. У меня у самого на некоторых сайтах немного упала посещаемость с Гугла. Но на других существенно возросла. И я смотрю на этот процесс абсолютно нормально. Это хорошая «обратная связь».
Проанализировав около десятка сайтов, я понял, что подросли в поисковой выдаче как раз те сайты, которые были ориентированы именно на пользователей, продвигались качественными методами: хорошие естественно размещённые ссылки (в том числе безанкорные с нужным околоссылочным текстом), социальные сети и т.д. А «упали» сайты, у которых есть определённые «грехи».
Кстати я написал новую статью, где порассуждал на тему: «Как изменилось SEO после введения новых поисковых алгоритмов, и как вывести сайт из под фильтра?».
Здравствуйте. Что считается насыщением ключами внутренних ссылок. Я активно использую внутреннюю перелинковку. Ставлю больше 10 внутренних ссылок из текстов статей (статьи не менее 10к знаков). Считается ли это спамом?
P.S. сайт попал под под пингвин. Покупными ссылками не продвигался.
10 ссылок с каждой статьи, думаю, многовато. Поисковые алгоритмы не задают жестких критериев по количеству внутренних ссылок, но необходимо посмотреть насколько естественно Вы их оформляете, и действительно ли они уместны в контексте статьи. Может ссылки не совсем тематические? Тогда наказание фильтром от Гугла не случайно. Не забывайте, что вес страницы также передаётся и по внутренним ссылкам. К примеру, рассмотрим условный пример: предположим, что у Вашей страницы был вес 10, Вы поставили 10 ссылок на другие страницы. Итого по каждой ссылке передалось всего по 1-му пункту веса. Если бы ссылок в статье было всего 2, то передалось бы по 5 пунктов. Какое распределение для Вас более полезно?
А поводу фильтра только из-за внутренней перелинковки, ответить сейчас не могу. Пришлите мне через личные сообщения адрес Вашего сайта, тогда может и смогу дать какой-то совет. Сейчас же гадать смысла нет.
Мой сайт попал под фильтр пингвин и вместа 200 просмотров в день теперь 65. что делать? можно ответ в почту плиз, большое спасибо