Робин Лагода
www.facebook.com/www.hype.ru

Штраф за внутренние ссылки и другая информация от аналитика Google Гари Иллиса

Иллис более восьми лет работает в Google и посвятил себя вопросам поисковой системы. Ему есть, что сказать.

Штраф за внутренние ссылки и другая информация от аналитика Google Гари Иллиса
Гари Иллис © Search Engine Land

Недавно специалист принял участие в AMA (ask me anything) на Reddit. Он рассказал, как Google бросает все возможные ресурсы на совершенствование поиска медиафайлов. Остановился он также и на возможностях Indexing API, штрафах за излишнюю перелинковку и других явлениях.

Что же важного из этой беседы могут почерпнуть веб-мастера?

Ключевые моменты

Поисковый робот Google "уважает" robots.txt. Это такой файл ограничения доступа для роботов, который есть практически на каждом сайте. При этом поисковая система подчиняется тем директивам, которые заданы в файле. Именно поэтому важно прописать все корректно, не используя противоречивую информацию.

Специалист также отметил, что национальное доменное расширение и общий домен верхнего уровня (ccTLD и gTLD) влияют на то, как будет ранжироваться ваш сайт. Он уточнил, что эти главные характеристики отражаются на рейтинге сайта.

Речь идет о всевозможных локальных запросах. При этом в случае, если поисковая система посчитает, что определенный контент по национальной принадлежности релевантнее для пользователя, он будет ранжировать его соответствующим образом. Данные о ccTLD и gTLD дают Google информацию, помогающую определить, что этот домен полезен для людей в конкретной стране. Но это влияет на результаты выдачи лишь косвенно.

Объяснение работы RankBrain. RankBrain — это система интерпретации запросов, основанная на искусственном интеллекте Google, которая помогает поисковой системе лучше понимать запрос и, таким образом, ранжировать больше релевантных страниц для этого запроса. Вот как Гари Иллис объяснил это:

RankBrain — это своего рода PR-компонент для машинного обучения, который использует исторические поисковые данные, чтобы предсказать, что пользователь, скорее всего, нажмет на запрос. Это действительно крутая разработка, как правило, она просто полагается на месячные данные о том, что произошло на самой странице результатов, а не на целевой странице.
© Imos
© Imos

Похоже, что RankBrain как полезен, так и бесполезен для Google из-за того, что анализируемые данные уже успевают устаревать.

UX и поведенческие сигналы. Одна из наиболее спорных тем, касающихся факторов ранжирования Google, заключается в том, использует ли поисковая система UX (опыт взаимодействия) и поведенческие сигналы для ранжирования. Google всегда отрицал, что использует их при прямом ранжировании. Гари также подтвердил это. Он рассуждал об одном человеке в отрасли, который много раз заявлял об обратном:

Время ожидания, CTR (показатель кликабельности), какая бы ни была новая теория Фишкина (Рэнд Фишкин — автор книги "SEO – искусство раскрутки сайтов" и других работ), все это, как правило, чушь. Поиск гораздо проще, чем думают люди.

Оценщики и тесты. После рассуждений о поведенческих факторах, Гари углубился в вопросы о том, как Google использует данные о кликах и другие пользовательские данные. Он уточнил, что поисковая система использует эту информацию не для сигналов прямого ранжирования, а для оценки результатов поиска.

Также он затронул тему экспериментов в режиме реального времени: в ходе их проведения Google проверяет, как различные сценарии влияют на поведение поисковика. Но на рейтинги этот фактор напрямую не влияет. Он сказал:

Когда мы хотим запустить новый алгоритм или обновление "основного", мы должны его протестировать. То же самое касается UX-функций. У нас есть два способа тестирования: первый – с оценщиками (это подробно описано в рекомендациях для оценщиков); второй – живыми экспериментами.

Во втором случае компанией отбирается множество пользователей, которым навязывается эксперимент. Допустим, 1% всех пользователей были названы кандидатами для теста, им дается доступ. Остальные же пользуются базовой версией функции. Эксперимент проводится в течение некоторого времени, иногда недель, а затем сравнивают показатели между экспериментальной и базовой версией.

Написание контента с использованием машинного обучения. Обычно Google не одобряет контент, написанный компьютером. Фактически, правила говорят о блокировании поисковой системой автоматически сгенерированного контента. Он попросту не индексируется.

Но с машинным обучением и искусственным интеллектом, возможно, технология может сделать контент даже лучше, чем тексты, написанные человеком. Если так, Google смирится с этим? Гари подразумевал положительный ответ, говоря:

Если вы можете создавать контент, который неотличим от "человеческого" контента, сделайте это. На самом деле я планирую написать кое-что о том, как использовать машинное обучение и нейролингвистическое программирование в SEO (когда у меня будет время).
© Content Insights
© Content Insights

Поиск изображений и видео. В последнее время Google сосредотачивает больше ресурсов на поиске изображений и видео. Гари сказал, что он думает, что у SEO и маркетологов есть много возможностей в этой плоскости. Он ничего не объявил заранее, но сказал, что в компании знают, что поиск медийной информации игнорируется, и поэтому привлекают к решению этой проблемы больше инженеров.

Он добавил, что пока не может рассказать больше, но уверил в том, что компания сейчас направляет на поиск изображений и видео гораздо больше технических ресурсов. Этот контент недооценивается, хотя у него значительный потенциал.

Метаэлемент Hreflang как рейтинговое преимущество. Google снова и снова акцентирует, что использование разметки hreflang на своих сайтах не приводит к прямому ранжированию. Она просто сообщает Google подробную информацию о происхождении и языке страницы. Гари привел пример того, почему это происходит, сказав:

Это интересный вопрос, и я думаю, что путаница связана скорее с внутренним восприятием того, что является "преимуществом рейтинга". Вы НЕ будете получать рейтинговое преимущество как таковое. То, что вы получите — более целевой трафик. Позвольте мне привести пример.
Запрос: "AmPath". Страна и местонахождение пользователя: es-ES (Испания). На вашем сайте есть английская страница A для этого термина и испанская страница B, со ссылкой hreflang между ними. В этом случае, если мы введем запрос, мы получим страницу A, потому что она, скажем, имеет сильные сигналы, но мы видим, что у нее есть родственная страница B, которая была бы релевантнее для этого пользователя. Поэтому мы выдаем пользовательскую страницу B вместо A в рейтинге.

Повторяющиеся кластеры контента. Участник AMA задал Гари интересный вопрос о консолидации сигналов страниц, когда Google группирует массу разных сайтов из-за дублирования или их синдикации. Передаст ли Google сигналы с других страниц в кластере? Гари сказал, что не может рассказать слишком много подробностей, потому что спамеры могут попытаться злоупотребить этими данными. Он также добавил:

Обычно страница в дублирующем кластере, которая отображается в результатах, будет иметь больше преимуществ.

Уровни сигналов. Иллис объяснил, что уровень сигнала, вероятно, полезнее, когда дело доходит до сканирования контента на сайте:

В большинстве случаев они больше похожи на шаблоны сканирования. Например, если у вас есть хостинговая платформа с URL-структурой: example.com/username/blog, то мы в конечном итоге разделим этот сайт на множество мини-сайтов, которые живут уровнем ниже, чем example.com.

Точка, откуда нет возврата. Гари спросили, может ли доменное имя быть настолько испорченным, что оно не поддается "ремонту" с точки зрения возможности его повторного ранжирования. Гари сказал, что такого нет. Но, тем не менее, в прошлом в Google говорили, что некоторые домены "повреждены" настолько сильно, что может быть легче начать создавать сайт заново, с новым адресом.

Штраф за внутренние ссылки. Гари также сказал, что не существует штрафа за чрезмерную оптимизацию внутренних ссылок. Он добавил:

Вы можете злоупотреблять своими внутренними ссылками столько, сколько хотите, насколько я знаю.

Сосредоточьтесь на основах. Гари подчеркнул, что SEO-специалисты и веб-мастера должны прекратить зацикливаться на мелких деталях. Лучше сосредоточиться на основах. Такие вещи, как проверки рейтинга и "глупые обновления" он назвал пустой тратой времени.

Факторы рейтинга. Иллиса попросили перечислить дополнительные факторы ранжирования, кроме актуальности, свежести и популярности. Гари добавил в список еще несколько аспектов. В частности, страну домена, язык, показатели PageRank и RankBrain.

Indexing API. Этот инструмент от Google в последнее время привлекает все больше внимания, поскольку Bing объявила о своей новой API-функции для анализа контента, а Yoast, компания по оптимизации, заявила, что они будут работать не только с API Bing, но и с API Google некоторых типов. Гари признал, что они проводят некоторые тесты, но сказал, что считает, что Yoast опережает события. Он объяснил, что только у Wix есть доступ к новому API.

Насколько я знаю, да, они ранние тестеры. Хотя они также делают глупые заявления об этом…

В контексте Wix он сказал:

В настоящее время мы тестируем наши собственные ограничения с помощью API индексации, а также полезность передаваемого контента по сравнению с извлеченным. Нам пока нечего объявить... Что касается Yoast, я не хочу наступать на чьи-то пальцы, но может случиться так, что они переоценивают некоторые вещи.
© Yoast
© Yoast

Связь подобных страниц. Если у вас есть несколько страниц или постов в блоге на одну и ту же тему, поможет ли связь этих страницы вместе? Гари сказал:

Это хорошая практика, но я не думаю, что вы увидите больше преимуществ, чем от PageRank.

Иными словами, Google советует издателям сделать одну хорошую страницу, вместо нескольких "полу-нормальных".


Эта информация от аналитика Google поможет мастерам правильно разработать стратегию развития своего сайта. Возможно, некоторые специалисты учтут тенденции в мире поисковой системы и с их помощью сделают свой сайт лучше.

По материалам Search Engine Land