Даруємо!!!

Як роботи дивляться на пошукову видачу, що для них найбільш важливо


ЩО ТАКЕ ПОШУКОВІ алгоритм ранжирування ?

Часто власники сайтів помилково думають, що наприклад для Яндекса посилання не має значення, а Google все одно на крадений контент.

Нерозуміння алгоритмів ранжирування часто призводить такі сайти на задвірки видачі.

Алгоритми ранжирування – це особливі методи фільтрації результатів запиту користувача пошуковою системою, що визначають порядок і вид показу інформації згідно сформованого запиту користувачем.

Простою мовою, це звід правил, які працюють частіше автоматично і виводять результат пошукового запиту максимально відповідним для користувача.

Багато SEOшнікі думають, що знають їх багато.

Наприклад, Сем Кусиніч (HubSpot) і Брайан Дін (Backlinko) вважають, що в Google чинників ранжирування більше 200, тоді як Жанлука Фіореллі(Moz.com)цю інформацію спростовує: 10 мая 2006 року проходила конференція Press Day Google Inc, де на сімнадцятому слайді журналісти звернули увагу на рядок:

Утверждение про 200 факторов ранжирования Google

Потім коли новина стала трендом, топові блогери потягли її в ЗМІ.

Ми знаємо, що таке фейки тільки зараз, і як невірне трактування факту може розплодити тисячі міфів.

А коли в 2010 році Метт Катс заявив, що так, факторів більше 200, але кожен з них має до 50 варіантів, народився жарт вже про “10 000 відтінків Google” (правда, фільм “50 відтінків сірого” вийшов значно пізніше).

10 000 оттенков Google

Тому я почну трохи з азів, про які, ймовірно, мало хто знає.

Пошукова система умовно працює за двома стратегіями:

  • Індексування.
  • Ранжування.

ЩО ТАКЕ індексування?

Індексування – це періодичний процес “читання” пошуковою системою контенту Вашого сайту.

В результаті індексування пошукова система зберігає в своїй базі даних тільки необхідну для її роботи інформацію про склад Вашої сторінки.

Індексування проходить не единоноразово, а періодично, для того, щоб оновлювати актуальну інформацію про сторінках Вашого сайту в базі даних пошукової системи.

Умовно процес індексування можна розбити на фази:

  1. Зробити запит пошуковим роботом.
  2. Читання сайту.
  3. Фільтрація отриманих даних і кластеризація.
  4. Запис результатів сканування в базі даних пошукової системи.

ЩО ТАКЕ ранжування?

Ранжування – це сортування пошуковою машиною списку результатів користувачеві згідно з внутрішніми алгоритмам, метою яких є релевантність пошуковому запиту.

Як працює ранжування “на пальцях”?

  1. Відправлення запиту користувача в пошуку.
  2. “Розуміння” запиту.
  3. Висновок максимально відповідних результатів за запитом.
  4. Фільтрація результатів від дублів і непотрібних результатів.
  5. Сортування згідно з алгоритмом.
  6. Висновок результату на сторінці пошуковика.

Якщо уявити собі, що все, що відбувається невідоме для SEO фахівця, в чорному ящику, наша схема буде виглядати так:

Как работает ранжирование “на пальцах”

Що ми точно знаємо, як працює, знаходиться в білій зоні, а що не знаємо – в сірій.

Деякі дані ми можемо припускати.

Деякі механізми SEO фахівці дізналися дослідним шляхом.

Як висновок, в пошуковій системі є три складові:

  1. Пошуковий робот.
  2. База даних.
  3. Користувальницький інтерфейс.

І ми почнемо, звичайно, з історії.

Як розвивати алгоритми ранжирування

В цьому розділі я розповім про еволюцію пошукових алгоритмів.

Навіщо потрібна пошукова система і як пошуковики стали такими, якими є.

Як тільки з’явився інтернет, виникла необхідність спілкуватися з організаціями (тоді з цим завданням справлялася електронна пошта).

А ще потрібно було зробити інформацію публічною, надати основною цільовою аудиторії доступ до неї.

З початкового періоду, коли інтернет був закритий, до сучасного, коли пошук став знаменитий, був обраний вектор стратегії спрощення: коли пошукова машина зі складного інструменту перетворилася в такий:

Упрощенный поиск Google

Саме спрощення пошуку і доступність його для кожного користувача інтернет – це були стратегії розвитку тоді великої компанії AOL, Yahoo і молодої компанії Google.

Коли інтернет “дійшов” до російськомовних користувачів, за “призначену для користувача любов до пошукача” тоді включилися в конкурентну боротьбу Rambler, Liveinternet і молода Яндекс.

КОЛИ КОНТЕНТУ В МЕРЕЖІ БУЛО НЕДОСТАТНЬО

Первинною метою було, щоб Вас знайшли.

Тоді пошукова видача не могла похвалитися тим, що Ви знаходили те, що шукали на першій сторінці, і Вам доводилося йти все глибше і глибше у вкладки.

На це були три причини:

  1. Контенту було мало.
  2. Контент був неоптимізований.
  3. Пошукові системи були “дурні”.

Алгоритми ранжирування в той час були простими, і для того, щоб сайт виходив в пошуку, використовувалися мета-теги.

Мета-теги – це не відображаються інформація, яка прописувалась в коді сторінки і відповідала заголовку сторінки, опису і необхідним ключовим словом, щоб сайт можна було знайти в пошуку.

Першими мета-тегами були:

  • Ключові слова.Дуже важливий фактор “відсіву” сторінок, згідно із запитом. Тоді важливо було прописати ключі, щоб пошукова система знайшла Ваш документ-сторінку.
  • Заголовок сторінки.Іноді допомагали і заголовки: можна було знайти документ безпосередньо за фрагментом заголовка, вбитого в список ключових слів.
  • Опис. Коли ключові слова і заголовок не спрацьовували, пошукова система намагалася знайти сторінку за фрагментом опису (тег Description).

Основний алгоритм пошуку виглядав так:

Основной алгоритм поиска

Тоді стояла мета – вивести що-небудь, щоб користувач знайшов, що шукав.

І пошукові системи тоді боролися за користувача: адже та, яка вміла краще шукати і краще показувати, претендувала зайняти тоді вакантне місце монополіста.

  • 1993-1995 Перші пошукові системи: Aliweb, WebCrawler, Lycos, AltaVista, Excite, Inktomi.
  • 1996 Поява російськомовної пошукової машини Rambler.Запуск і тестування BackRub (майбутній Google).
  • 1 996 Поява Aport (згодом закритої).
  • Тисяча дев’ятсот дев’яносто сім Вихід на ринок Яндекс.
  • 1998 Створюється пошукова машина Google.
  • 2004 Поява пошукової системи Yahoo!
  • 2004-2005 Запуск пошукової системи MSN Search (згодом Bing).

У списку перераховані тільки пошукові системи так званого “глобального пошуку”: в світі існують також спеціалізовані пошукові системи:

  • DuckDuckGo – призначений для краулінга в даркнета.
  • filesearch.ru – до сих пір зайнятий тим, що шукає не веб-сторінки, а файли.
  • einfo.ru і efind.ru – призначені для пошуку комплектуючих, електронних компонентів і радіодеталей.

Потім настав наступний період.

КОЛИ КОНТЕНТУ СТАЛО БІЛЬШЕ, АЛЕ пошуковик БУВ ДО ЦЬОГО НЕ ГОТОВИЙ

Потім сталося те, чого всі очікували.

Крім пошукових систем.

У пошуковій видачі стало мало місця, і перша сторінка пошукача почала привертати все галузі бізнесу.

Це сталося в той момент, коли пошукові системи ще билися один з одним за місце під сонцем, і вже вибивалися в лідери Яндекс і Google.

Все мало-мальськи освоїли прості алгоритми ранжирування, і саме тоді з’явилася професія “SEO-спеціаліст”.

ЩО ТОДІ РОБИВ SEO-СПЕЦІАЛІСТ?

Завданнями такого “спеціаліста” в той час були:

  • створити сайт, заточений по максимуму на трафіковий запит;
  • закидати в контент сайту велике ключових слів;
  • “Правильно” прописати метадані …

Але це були тільки квіточки.

Другим фактором ранжирування були посилання.

Вони давали трафік і передавали вага – перший критерій корисності сайту.

Саме тоді почалися масові маніпуляції з надування пузомерок (слово придумали сеошникі).

Пузомеркі – це жаргонне позначення SEO-метрик сайтів – трасту, відвідуваності, PageRank від Google і тИЦ від Яндекс, а також будь-яких метрик зі сторонніх популярних SEО-сервісів.

Перші пузомерки залежали винятково від зовнішніх посилань, які вели на основний сайт: 10 маленьких сайтів “надували” потрібний сайт за рахунок посилального спаму.

Тоді створювалися тисячі безглуздих сторінок, заточених під ключі, сайти, які переводили з одного URL перенаправленням на інший і це зараз згадується, як страшний сон.

У той час зародився ринок чорного SEO – і він до цих пір живий, зокрема, деякі технології діють до цього дня.

Це призвело до того, що пошукова видача пристойно “зіпсувалася”.

ВСТУП апдейт алгоритм ранжирування

Тоді можна було легко зловити вірус з пошуку або потрапити на нечесну сторінку.

Це був час піку антівірусніков, вірусів, спаму, безглуздих сторінок, дорвеев і фішинг-сайтів.

Весь період розтягнувся з 2005 року по сьогоднішній день.

Його можна умовно розбити на два етапи:

  • Першим етапом можна назвати первинне становлення алгоритмів ранжирування (з 2005 по 2011 роки). В цей час, скоріше, створювалися алгоритми для відбору видачі, і саме тут встигли “вирости” чорні SEOшнікі.
  • Другим етапом слід виділити період знакових апдейтів пошукових систем (з 2012 по 2017), коли пошуковики почали активно боротися проти нечесних методів SEO-просування.

Другий етап розвитку пошукових систем – природний процес еволюції: в живому світі багатоклітинні організми є продуктом вічної війни двох світів – вірусу і клітини: перший (клітка) все життя розвивав методи захисту, другий (вірус) – шукав прості методи по розмноженню і атаці клітин.

Саме тоді пошукові гіганти починали активно боротися за свого користувача і з’явилися перші алгоритми ранжирування від великих пошукових систем, таких, як Яндекс і Google.

SEOшнікам же був запропонований вибір – міняти професію або шукати інші методи просування сайтів.

Як пошукові ранжир САЙТИ?

Ми розберемо механізми, яким чином пошуковик розуміє Ваш контент, структурує дані і як обробляє пошукові запити і вміє розрізняти сенс пошукового запиту.

Пошукова система працює просто.

Її завдання – обробляти запити користувача (у вигляді ключових слів) і пропонувати правильні відповіді (у вигляді видачі).

Тому ми розпишемо короткий чек-лист, як потрібно створити та оптимізувати свій сайт для пошуку.

Якщо коротко, стратегія у великих пошукових систем особливо не відрізняється від трьох базових постулатів:

  • Актуальністьінформації. Намагайтеся підтримувати інформацію в тонусі: будь то вартість товару, його опис і наявність, стаття-інструкція з актуальними скриншотами або стаття в блозі з активними коментарями.
  • Повнотаінформації. Намагайтеся розділяти інформацію по темам і давайте кожній сторінці свою назву – заголовок Title. Чим краще Ви структуруєте інформацію, уникаючи її дублювання, тим краще для Вашого сайту.
  • Популярність інформації. Контент – ніщо без просування. Посилайтеся на свій сайт з інших джерел: місцевих ЗМІ, тематичних ресурсів, трафікових майданчиках. Важливо, щоб посилання також мали свій трафік.

Пам’ятайте, не треба гальмувати просування за всіма чинниками, якщо не реалізований один!

Якщо у Вас молодий сайт, робіт по контенту буде завжди багато.

Якщо Ви зробили тільки головну сторінку і пару товарів і послуг, починайте просування сьогодні.

Чому не варто гальмувати просування:

  1. Посилання з зовнішніх джерел можуть індексуватися не відразу.
  2. Алгоритми ранжирування працюють поступово, і навіть невеликі кроки щодо поліпшення індексації будуть надавати позитивний вплив.

А тепер переходимо до найсмачнішого.

Які саме чинники є важливими і на що вони впливають.

Фактор ранжування В GOOGLE

Щодо відсотків за впливом на видачу різними факторами ранжування думки експертів розходяться.

У своїй статті Брайан Дін розглянув до 200 факторів ранжирування Google і їх відсоток впливу на видачу.

Він вважає пріоритетність чинників ранжирування наступною:

Брайан Дин из Backlinko

  • посилаються домени.
  • Органічний CTR.
  • Авторитетність домену.
  • Мобільність сайту.
  • Тривалість візиту.
  • Загальна кількість посилань.
  • Якість контенту.
  • SEO-дані сторінки (мікророзмітки, H1 і інше).

Цікаво, що швидкість завантаження Брайан Дін хоч і виділяє в своєму дослідженні, але не виносить її як шалено важливий фактор ранжування!

Логічно: якщо Ваш сайт не завантажується, час візиту на сайті буде шалено коротким, і це позначиться на ранжируванні.

Але якщо Ваш сайт вантажиться в жовтій зоні по Pagespeed, це не так критично, як якщо на Вас не буде жодної нормальної посилання.

Як ми бачимо, згідно з його погляду на SEO-фактори ранжирування в Гугл, Ви можете почати первинне нарощування посилань і зайнятися тайтла (вони впливають на CTR найбільше) і потім вже запроваджувати онпейдж SEO і займатися контентом.

Аналогічне дослідження Ranking Factors 2.0 проводили і Semrush в кінці 2017 року.

Дослідження торкнулося 600 000 ключових слів і торкнулося понад мільйон сайтів у видачі.

Також через деякий час були проведені коригування в аналізі, в зв’язку з новими оновленнями в Google.

Коротко можна виділити пріоритети в факторах ранжирування, відповідно до сервісу Семраш.

приоритеты в факторах ранжирования, согласно сервиса Семраш

За пріоритетності, фактори ранжирування можна розташувати в наступному порядку:

  • Трафік на сайті з прямихпереходів.Тобто, брендовий трафік є основним фактором. 20% посилань у сайтів в ТОПі так чи інакше пов’язані з брендовими запитами.
  • Час на сайті, кількість сторінок, показник відмов – можна сказати, результуючий показник, який зав’язаний сам на себе в кільце: (1) чим вище позиція, (2) тим більше трафік, (3) тим вище позиція (по колу). До слова, сайти, що знаходяться в ТОП, мають показник перегляду 3-3,5 сторінок за сесію.
  • Посилаютьсядомени.Є важливим фактором ранжирування. Сайти в ТОП-1 мають тисячі посилаються доменів, в той час як в ТОП 10-15 – одиниці.
  • Загальна кількістьпосилань.Сайти в ТОП-1 мають в 2,2 рази більше посилань, ніж сайти на 2-му місці. Враховувалися як Follow-посилання, так і всі посилання, в загальній сумі.
  • Довжинаконтенту.Сайти в першій трійці мають на 45% довше контент, ніж сайти на 20-й позиції з того ж ключовим словом.
  • HTTPS.65% сайтів в ТОП по високотрафіковим ключовими словами мають сертифікат безпеки HTTPS.
  • Анкорний посилання, ключові анкор мають менший вплив на момент дослідження. Всього 3% анкоров у сайтів в ТОПі мали ключові слова в анкорах. Але недавня заява Джона Мюллера може поміняти тенденції.

Щодо анкоров Джон Мюллер в серпні 2018 року висловився так:

“Якщо Ви оновлюєте анкор для того, щоб вони були зрозумілі користувачеві, Ви також допомагаєте зрозуміти контекст посилань”.

Высказывание Джона Мюллера об анкорах

Тому переглянете стратегію по анкорами:

  • Вивчіть анкор в Ваших посиланнях в контенті, в меню і в розділах сайту.
  • Перепишіть анкор так, щоб вони були більш зрозумілі для Вашого відвідувача, щоб забезпечувати посилання.

Це дивно: виявилося, що низький ефект впливу мають такі фактори ранжирування, як ключові слова в заголовку, в тілі запиту і в метаданих, а також їх щільність в контенті.

Само собою, на видачу впливає, чи є Ви в індексі, і чи є Ви в Гугл-сервісах.

Ми рекомендуємо почати реєстрацію з Google карт (в сервісі Google Мій Бізнес), так як його верифікації потрібно довго чекати (близько місяця).

Які висновки можна зробити?

  1. Спочатку займіться зовнішніми посиланнями і HTTPS для Вашого сайту. Їх ефект працює не відразу, тому краще роботи по лінкбілдінгу починати з першого місяця просування.
  2. Перепишіть тайтли і дескріпшн на просуваються сторінках згідно зібраним ключовими словами. Гугл приділяє пильну увагу CTR як поведінкового фактору, а цього не досягти за допомогою поганих заголовків!
  3. Вивчіть в перший місяць юзабіліті і передайте правки по сторінках в роботу. Це дасть ефект в наступні місяці.
  4. Слідкуйте, щоб на Вас посилалися авторитетні домени – тематичні сайти, блоги, форуми, каталоги і сайти місцевих новин вітаються.
  5. Не забудьте розповісти про себе Гуглу самостійно: Ви повинні бути в індексі потрібні сторінки, Ваш контент в пошуку повинен оновлюватися.
  6. Особливістю Гугла є висока швидкість роботи пошукових роботів і аглорітма ранжирування: зміни у видачі будуть видні відразу, протягом 24 годин.

ЩО ТАКЕ PAGERANK

Варто згадати про Pagerank.

Це система, яка до сих пір працює в Google і дозволяє оцінювати “Важливість” сторінки сайту.

Так, ключовим показником є саме сторінка, а не цілий сайт.

У 1996 Сергій Брін і Ларрі Пейдж, коли розробляли пошукову систему BackRub (яка згодом в 1998 перетвориться в Google Inc.), запропонували алгоритм, що оцінює якість сторінки за кількістю посилань, які вказують на неї.

Багато хто помилково думають, що PageRank перекладається як “Ранг Сторінки”, але це не так: за фактом, Page – це прізвище винахідника, Ларрі Пейджа.

Якщо пояснювати на пальцях, зовнішні посилання оцінюються як потенційний варіант користувача “перейти” з однієї сторінки на іншу, з урахуванням трафіку на даному сайті.

Для зручності на цій діаграмі, розмір кулі – це PageRank, а відсоток – ймовірність переходу зі сторінки сайту (уявімо собі, що користувач з ймовірністю 85% вибирає будь-яке посилання і з ймовірністю 15% переходить по ній):

PageRank

Умовно кажучи, сторінка З має теж високий рейтинг, як і сторінка B (на неї хоч і доводиться всього одне посилання, але з більш популярного ресурсу), тоді як на сайт E доводиться тільки ряд посилань з дрібних ресурсів.

Сайти, на які немає посилань, будуть володіти меншим рейтингом, і будуть мати більш низьке місце у видачі, їхня доля – низькочастотний трафік в зонах більш слабку конкуренцію.

Для розрахунку використовувалася логарифмічна шкала, тобто сайт з PageRank 1 був в 10 разів гірше сайту з PageRank 2 і в 100 разів гірше сайту з PageRank 3.

Це призвело до того, що всі сайти почали масово закривати зовнішні посилання за допомогою тега Nofollow (включаючі навіть потрібні посилання ), тим самим штучно “надуваючи” пейджранк сайту (за рахунок “куплених” або зроблених зовнішніх посилань Dofollow). Тобто, Nofollow теґи призводив до того, що пейджранк не передається на сайт, на який Ви посилалися, що не популяризуючи інші. З 2009 року Метт Катц відзначив в своєму блозі (PageRankSculpting),що ця методика більше не працює: тепер посилання рівнозначно передають вагу (як Dofollow, так і Nofollow). Як же дізнатися свій PageRank? Раніше його можна було проаналізувати за допомогою спеціальної утиліти Google Toolbar. Примітно, що дані в тулбаре оновлювалися раз в рік, тоді як внутрішній PageRank (згідно із заявами Google) оновлюється постійно. З 2016 року Google вирішив “приховати” дані PageRank для сторонніх користувачів, що поставило багатьох сео-фахівців в глухий кут. З тих пір сеошникі використовують такі інструменти, як AHREFS і SERPSTAT для того, щоб аналізувати позиції і посилальні профілі сайтів, упевнитися в їх тематичність, трафіку і благонадійності. Окей, Гугл любить посилання, трафік з самого себе і довгий час візиту. А що ж Яндекс?

Фактор ранжування в Яндексі

Ви можете подумати, що в Яндексі все виявиться простіше, адже це наш пошуковик, орієнтований на рунет (і колишні країни СНД). Але, на жаль, є певні речі, на які потрібно буде звернути увагу. Найголовніше, всі зміни у видачі будуть проходити не кожні 24 години, як в Гугл. Іноді доведеться чекати тижнями, поки видача буде відкоригована після зміни контенту. Другою особливістю є повільне індексування контенту – будьте готові до того, що в Яндексі сайт буде рости повільно, тоді як в Гуглі він вже займе ТОПи за основними ключам. Пріоритетність чинників ранжирування Яндекса можна розташувати в наступному порядку:

регіональні.

Жорстка сегментація запитів на регіональні і нерегіональні. Росія – країна велика, і акцент просування припав на регіональність у видачі: користувач з Москви і Владивостока буде бачити різну видачу для різного типу запитів. Є плюси і мінуси такої регіональності:

  • З одного боку це класно і спрощує просування дрібних регіональних сайтів.
  • З іншого боку це сильно ускладнює просування великих компаній, які працюють на кілька регіонів.

Тому для початкового просування потрібно зробити перші три кроки:

  1. Вкажіть на сайті назву підприємства (організації), поштовий індекс, номери телефонів, пошту і код міста. Бажано вставте це в підвалі на всіх сторінках сайту. Якщо у Вас є філії в регіонах, пропишіть їх обов’язково.
  2. Вкажіть регіон в Яндекс.Вебмастере, потім в Яндекс.Довіднику пропишіть всі Ваші філії.
  3. Бажано додайте регіон в Н1, Description, на основному тексті сторінки і, по можливості, в URL (ЧПУ) сторінок.

ПОВЕДІНКОВИЙ ФАКТОР

Важливий фактор ранжування як для Google, так і для Яндекс. При цьому, якщо в Google це вторинний фактор, то у Яндекса я б сказав, що це основний. Так, зовнішні посилання у Яндекса мають більш низькі пріоритети .. І це дає привід для маніпуляції видачею за допомогою накрутки ПФ. І нечисті на руку сеошникі досі пропонують просування в Яндексі за допомогою накрутки поведінкових факторів. У самого Яндекса не завжди є інструменти для “вилову” неякісних сайтів.

ВІК ВАШОГО ДОМЕНУ

Це вирішальний фактор для просування в Яндексі. В Google Ви можете домен створити хоч сьогодні і пристойно його просунути. В Яндексі вік домену має важливу роль.

Текстового вмісту СТОРІНКИ

Ми говорили, що для Google це важливий фактор. Але за пріоритетами він значно поступається посилальному. В Яндексі ж це – основний фактор для просування сьогодні. І покарання у Яндекса дуже жорсткі, тоді як Google на багато речей дивиться крізь пальці. Що не любить Яндекс:

  • Дублі контенту всередині сайту. Якщо у Вас величезний інтернет-магазин і Ви полінувалися написати різні описи для товарів, отримаєте випадання з індексу пристойною частини сторінок. Особливо це стосується розмірів, кольору, різних технічних характеристик. Доводиться закривати все тегом Canonical.
  • Намагайтеся не захопитися переспамом ключовими словами: якщо Google просто не зверне на це увагу в 95% випадків, то Яндекс відразу в вебмайстрів розповість, що Ви отримали фільтр переоптімізацію.
  • Унікальні URL для сторінок є обов’язковим критерієм для обох пошукових систем.

ТЕХНІЧНІ фактор ранжування

Коротко перерахуємо список технічних багів, на які слід звернути увагу власнику сайту:

  • Технічно Яндекс не любить надлишок редиректів (301,302). Намагайтеся зробити сайт так, щоб всі посилання відкривалися без редиректів. Перевірте за допомогою таких сервісів, як Screaming Frog, всі відповіді сервера для внутрішніх посилань на своєму сайті.
  • Як ми і говорили, софт сторінка 404 повинна спочатку віддавати відповідь сервера 404, потім вести на цю сторінку (часта помилка Soft 404 – 200-й відповідь для сервера).
  • На відміну від Google, Яндекс не розуміє Javascript і Flash навігацію. І не зможе пройтися по посиланнях, зробленим в скриптах (наприклад в випадаючому меню). Робот сканує тільки HTML-посилання.
  • Замість AMP, Яндекс пропонує Турбо-Сторінки – аналогічний вид швидких сторінок для мобільних пристроїв в новинних розділах і в блогах.
  • Яндекс не сильно приділяє увагу таким факторам ранжування, як сигнали з соцмереж, швидкість завантаження сайту, мобільна верстка. Але все ж адаптивну верстку рекомендуємо зробити, адже тоді є ризик втратити в поведінковому факторі.
  • З недавніх пір Яндекс почав приділяти увагу мікророзмітки і недавно ввів чати у видачі, а також багато інших елементів. Тому мікророзмітки ми рекомендуємо все ж впровадити – це значно впливає на кликабельность у видачі.
  • Недавнє зміна комерційного фактора ранжування призвело до переформовування видачі для запитів з “продають” ухилом (для товарних запитів купівлі-продажу). Приділіть увагу описам товарів і тієї ж мікророзмітки.

ON-PAGE SEO-фактор ранжування Яндекс

Просто постарайтеся запам’ятати, що Яндекс, на відміну від Google, зовсім інакше відноситься до онпейдж-SEO. І ми рекомендуємо не забувати про короткому списку того, що є для Яндекса критичним:

  • Title (Мета-Заголовок).
  • H1 (заголовок в тілі сторінки).
  • ЧПУ (ключевик в URL).
  • ІКС сайту.
  • Регіональність домену.
  • Довжина контенту.
  • Внутрішні посилання.
  • Зовнішні посилання (їх різноманітність).
  • Ніша сайту (в залежності від ніші – різні вимоги).

На що ж потрібно звертати увагу? Отже, всі фактори ранжирування в Яндекс по спадаючій:

  • Регіональність.
  • Поведінковий фактор (Юзабіліті і зовнішній трафік).
  • Вік домену.
  • Текстовий вміст сторінок.
  • Он-пейдж SEO.
  • Технічні фактори ранжирування.
  • Ранжирування посилань.

А де швидкість завантаження сайту? Ви не повірите, і тут вона є не критичною! Як і в Google, які прагнуть зробити інтернет швидше, Яндекс виділяє лише поведінковий фактор. Якщо Ваш повільний сайт єдиний, де можна отримати потрібний товар або послугу, або потрібний контент, Ви все одно будете ранжуватися вище швидкого, але непотрібного сайту.

ЩО ТАКЕ ІКС І ТИЦ?

Яндекс не стоїть на місці, і у нього теж є свої метрики для підрахунку показника якості сайту. Спочатку Яндекс створив “Каталог сайтів” – Яндекс.Каталог, куди вручну заносилися сайти і визначалася їх тематичність. Довгий час це було масової істерією – додатися в каталог хотіли все, черговість була до 6 місяців, а за терміновість можна було заплатити 14000 рублів. Забавно, що зараз цей сервіс не приймає заявки на нові сайти і скоро буде закритий. Потім Яндекс ввів тИЦ – тематичний індекс цитування – як метрику для обліку якості сайтів. Працював він просто:

  • Яндекс вважав всі вхідні посилання на сайт (нема на сторінку, а на сайт в цілому).
  • Визначав тематичність посилань. Всі сайти, які посилаються, мають бути в індексі Яндекса.
  • Тематичність визначалася за допомогою Яндекс.Каталогу.
  • Виключалися посилання з немодерованих форумів і сайтів, де будь-хто міг залишити посилання без відома самого власника сайту.
  • Чи не впливають внутрішні посилання всередині сайту. Перелінковка тИЦ ніяк б не поліпшила.
  • Посилання з сайтів на безкоштовних хостингах (наприклад, блоги на blogger.com, wordpress.com, livejournal.com на безкоштовних доменах).Хоча є і винятки для окремих сайтів (якщо самі блоги є в Яндекс Каталозі).
  • Розраховував тИЦ і виводив в округленому значенні (10,20,340, 1200), оновлюючи значення раз в 2-3 місяці.
  • Кожен піддомен мав різні значення тИЦ.

Раніше тИЦ був просто манною небесною для лінкбілдера: для просування в Яндексі потрібно було знати всього три показника:

  1. тИЦ сайту.
  2. Регіональність сайту.
  3. Тематичність.

І більше не було потрібно нічого. Отфильтровал обидва значення і прийняв рішення – купувати посилання на біржі або не купувати, писати власнику сайту з проханням розмістити свій матеріал у себе або йти своєю дорогою. Але 22 серпня 2018 року тИЦ припинив своє існування, його замінив ІКС. ІКС (Індекс якості сайту) – показник, який за словами Яндекса, відображає затребуваність сайту і є переробленим алгоритмом тИЦ. Основною особливістю ІКС є наступне:

  1. ІКС для піддоменів однаковий і дорівнює значенню основного домену.
  2. Для сайтів-дзеркал з однаковим доменним ім’ям ІКС буде однаковим (наприклад site.ru і www.site.ru), тоді як для сайтів з різними доменними іменами (site.ru і site.com) значення будуть різні.
  3. ІКС враховує аудиторію сайту, поведінковий фактор, рівень довіри як користувачів, так і самого Яндекса до сайту. Тобто, має місце відомий ПФ, а також трафік з Яндекса.

Чи впливають посилання на ІКС так само, як на ТИЦ? Достовірно відомо, що дані по сайту Яндекс отримує з:

  1. Пошуку.Працівниками Державтоінспекції зафіксовано, що сайти, які отримували трафік саме з пошуку в Яндексі, отримують більш високий ІКС.
  2. Відомо, що якщо сайт отримує посилання зсайтів, які мають високий ІКС і трафік в Яндексі, піднімають ІКС у існуючого сайту. Тобто, гонка за новою метрикою почнеться знову.
  3. Яндекс враховує для розрахунку ІКС дані з Метрики,а також Яндекс.Карт і свої нові сервіси: Дзен.
  4. Достовірно відомо, що наявність і відсутність Яндекс.Директу ніяк не впливає наІКС. Тільки якщо Ви формуєте брендовий трафік в Яндексі, це може спричинити зростання ІКС Вашого сайту.

З недавнім апдейтом Андромеда від Яндекса з’явилися також і інші методи розрахунку показників сайту. Крім самого ІКС, є і так звані значки: вибір користувача, знак популярності і відомий по соцмережах знак верифікації офіційних сайтів (навіть дизайн схожий).