SEO-помилки, які заважають вашому сайту потрапити в ТОП пошуковиків

SEO – інструмент досягнення високих позицій у пошукових системах. За грамотної реалізації він дозволить отримувати трафік та продажі, і це обходиться дешевше порівняно з іншими каналами залучення.

Років 7 тому для того, щоб опинитись на вершині пошукових результатів, було досить просто купити посилання на сайт сумнівної якості та мінімально опрацювати тексти. Проте з того часу алгоритми пошукових систем значно ускладнилися, і для досягнення успіху необхідно детально проаналізувати та доопрацювати сайт з технічного, комерційного та контентного боку. 

Вирішення цих завдянь потребує професійного підходу, тобто необхідно залучати досвідчених SEO-фахівців, зокрема агентства Майнд веб, причому вже на стадії розробки. Це дозволить випустити молодий сайт в індексацію одразу максимально привабливим для пошукових систем.

Однак якщо з якоїсь причини можливість залучити SEO-агентство від початку розробки відсутня, потрібно постаратися хоча б уникнути найпоширеніших помилок. У цій статті ми наводимо найважливіші з них.

Відсутність адаптивної версії сайту

Така реалізація мобільної версії як адаптивний дизайн офіційно рекомендований компанією Google як найбільш дружній для SEO. Адаптивну верстку необхідно передбачати вже на стадії ТЗ на розробку. В даний час 52% світового веб-трафіку генерується мобільними пристроями, і тому відповідна для них версія сайту - обов'язкова умова успіху бізнесу.

Динамічні адреси сторінок

Для SEO оптимальні статичні людино-зрозумілі адреси. Це дозволяє передати пошуковій системі структуру каталогу та ключове слово, основне для категорії або картки товару.

Динамічні адреси передати цю інформацію не можуть, а до того ж часто є причиною появи в індексі сторінок-дублів або сміттєвих станиць. Рекомендується використовувати їх виключно для технічних або службових елементів сайту (наприклад, для різних типів сортувань), які потрібно закрити від індексації.

Домен не на захищеному протоколі

Ось уже три роки як протокол https є одним з факторів ранжування в Google. Більше того, Google Chrome відзначає сайти, які його не використовують як небезпечні для користувача.

Переїзд на новий протокол вже після початку індексації сайту можливий, але вимагатиме склеювання старого та нового «дзеркала» сайту та викличе коливання позицій сайту. Щоб уникнути цього, рекомендується купити SSL сертифікат вже на стадії розробки.

Використання скриптів для відображення ключових елементів сайту

На жаль, багато пошукових систем все ще не дуже добре вміють читати скрипти, навіть Google визнає, що не завжди робить це коректно. Через це дуже важливо дотриматися балансу між красою і стилем сайту і його придатністю для просування.

Вкрай не рекомендується використовувати JavaScript для відображення внутрішніх посилань або тексту на сторінці. Усі ключові елементи сайту повинні бути видимими та нормально працювати навіть при відключеному відображенні JavaScript у браузері. При цьому цілком можна використовувати динамічні елементи для поліпшення дизайну.

Robots.txt допускає індексацію сміттєвих сторінок та сторінок-дублів

Велика кількість непотрібних сторінок в індексі – найпоширеніша причина поганого ранжування сайту. Прибрати зайві сторінки можна і після релізу за допомогою доопрацювання файлу robots.txt, проте видалятися з видачі вони можуть досить довго.

Простіше спочатку не допускати їх попадання, заборонивши індексацію сортувань, фільтрів та інших явно непотрібних у видачі сторінок. Особливо важливо проконтролювати недоступність для пошукових роботів особистого кабінету користувачів - ви ж не хочете, щоб дані ваших клієнтів потрапили до мережі?

Дублі або низька якість метатегів на сторінках

Часто свіжий сайт, що жодного разу не побував у руках SEO-фахівця, додається в індексацію з тимчасовими або взагалі тестовими Title, Description та Keywords, і в результаті він не займає взагалі жодних позицій. Слід пам'ятати, що теги мають значний вплив на позиції, особливо Title та h1. Вони можуть бути сформовані за шаблоном, але все одно повинні бути суворо унікальними в рамках сайту та релевантними до контенту сторінки, на якій вони розміщені.

Також слід пам'ятати, що тег Description відповідає за формування сніппета в Google, і, зробивши його чіпляючим, ви зможете підвищити ймовірність того, що серед сусідів по видачі користувач вибере та клікне саме на ваш сайт.

Відсутність карти сайту

Карта сайту у форматі xml дозволить роботам швидше обійти сайт та включити його сторінки до бази пошукових систем. Вона, як правило, генерується засобами CMS та її створення не займає багато ресурсів.

Не забудьте увімкнути посилання на неї в robots.txt, інакше її не зможуть знайти пошукові роботи. Особливо важлива наявність карти сайту для великих сайтів, зі складною структурою та великою кількістю сторінок.