Newly_made10 | Дата: Понедельник, 2017-02-13, 1:11:13 | Сообщение # 1 |
Группа: Администраторы
Сообщений: 970
Награды: 9
Статус: Offline
|
5 SEO-ошибок, которых нужно избегать
#1 Закрытый от индексации сайт в .htaccess
Если занимаетесь SEO, тогда, вероятнее всего, вы слышали о .htaccess. Одним словом, это файл конфигурации, который используется для хранения определенных директив, которые блокируют или предоставляют доступ к корневым каталогам.
Не могу в очередной раз не акцентировать внимание на важности файлов .htaccess. Если вы знаете, как ими управлять, то вы можете:
● Создать более детальную карту сайта ● Сгенерировать более понятные и читабельный УРЛы ● Усовершенствовать кеширование, чтобы улучшить время загрузки
Если короче, то .htaccess – это очень важный инструмент для отладки процесса индексирования и, соответственно, улучшения поисковой выдачи. Однако, нужно быть настоящим профессионалом, чтобы правильно установить файл .htaccess. Даже маленькая ошибка может привести к печальным последствиям. Например, можно полностью закрыть свой сайт от индексации вот таким образом:
Код RewriteCond %{HTTP_USER_AGENT} ^Google.* [OR] RewriteCond %{HTTP_USER_AGENT} ^.*Bing.* RewriteRule ^/dir/.*$ – [F]
Если вы видите эти строки кода в своем файле .htaccess, поисковые боты не смогут просмотреть и проиндексировать ваш сайт. Попросите разработчиков удалить код или сделайте это сами.
Проверяйте ваш файл .htaccess каждый раз перед запуском очередного проекта. Некоторые сеошники продвигают и оптимизируют сайты месяцами, даже не подозревая, что все их попытки напрасны. А вы ведь не хотите оказаться в их числе.
#2 Запрет на индексацию в CMS
SEO-плагины CMS платформ, таких как WordPress, Joomla и Drupal, могут поставить под угрозу всю вашу оптимизацию. У них есть встроенные функции, которые дают пользователям возможность задавать поисковым системам инструкции о том, что сайт индексировать не надо. Все, что нужно сделать, это зайти в раздел Настройки – Чтение – Запретить поисковым системам индексировать сайт. Ставите галочку напротив пункта и запрещаете поисковым ботам индексировать сайт.
Проверяйте этот пункт по крайней мере раз в неделю. В конце концов, каждый, у кого есть доступ к CMS, может по ошибке поставить галочку, а это несомненно окажет негативный эффект на вашу кампанию.
На заметку: Иногда поисковые системы могут продолжать индексировать ваш сайт даже если вы поставили галочку. Поэтому, если вы действительно хотите закрыть сайт от индексации, то лучше это сделать через файлы .htaccess и robots.txt. #3 Открытый для индексации файл robots.txt
Хуже этого не придумать. Запомните: никогда не оставляйте свой файл robots.txt полностью открытым для индексации, поскольку это чревато серьезными проблемами по части конфиденциальности. Можно потерять свой сайт полностью из-за утечки информации.
Если вы новичок, то потратьте какое-то время на изучение информации о настройке и управлении файлом robots.txt. И действуйте незамедлительно, если увидите что-то похожее:
Это значит, что поисковые боты могут пройти на каждую страницу сайта и проиндексировать ее. Например, проиндексировать админку, страницу авторизации, корзину, а также динамические страницы (поиск и фильтры). Закрывайте и защищайте персональные страницы ваших пользователей. Просесть в выдаче за десятки спамных динамических страниц вам явно не хочется, так?
Как бы там ни было, убедитесь в том, что вы закрыли страницы, которые должны быть заблокированы, и открыли те, которые должны подлежать индексации. Звучит просто, но требуется время, чтобы научиться этому.
#4 Исходящие ссылки без атрибута “nofollow”
Сеошники знают, что ссылки до сих пор являются важным фактором ранжирования. К сожалению, они сосредотачиваются на внешних ссылках и иногда забывают, что их сайты могут отдавать практически весь ссылочный вес другим сайтам. Что вам нужно, так это и привлекать высококачественные внешние ссылки, и удерживать весь вес у себя на сайте.
Итак, ваша стратегия выглядит просто:
● Пропустите свой сайт через сканнер (Я использую Xenu) ● Отсортируйте ссылки по адресам, чтобы определить исходящие ● Создайте файл Excel со всеми исходящими ссылками (или скачайте стандартный HTML отчет) ● Перепроверьте каждую ссылку из списка на наличие атрибута “nofollow”, если в нем есть необходимость
Однако не переусердствуйте с атрибутом “nofollow”. В попытках приберечь весь «сок» ссылок для себя, вы провоцируете других добавить “nofollow” к ссылкам на ваш сайт. Словом, не злоупотребляйте.
#5 Непроверенный в валидаторе код
Ваш сайт состоит из кода, и чем лучше его качество, тем лучше будут результаты выдачи вашего сайта. Все это потому, что стройный и понятный код позволяет поисковым ботам индексировать ваш сайт более эффективно, не оставляя незамеченной ни одну страницу.
Поэтому каждый раз, когда вы получаете новый проект под продвижение и оптимизацию, убедитесь в том, что вы проверили код. Для этого совсем не нужно быть разработчиком. Вы просто копируете URL сайта и вставляете его в адресную строку The W3C Markup Validation Service. А после – попросите разработчиков исправить ошибки. На картинке ниже изображен типичный отчет из валидатора:
Хотя Google и не наказывает сайты за невалидный HTML и CSS, вам все равно лучше воспользоваться валидатором. В конце концов, это не занимает много времени, но улучшает производительность сайта в глазах пользователей и ботов.
Выводы
Поисковая оптимизация эволюционирует, и SEO-специалистам нужно постоянно трудиться, чтобы успевать за последними обновлениями тактик и алгоритмов. Хорошо, если вы постоянно держите руку на пульсе SEO (это обязательно, вообще-то), только не забывайте об элементарных вещах. От глупых ошибок всегда больше вреда.
Новинки музыки. Лето 2024
Фильмы | Сериалы
|
|
| |
Yurbol | Дата: Четверг, 2018-11-15, 1:07:19 | Сообщение # 2 |
Группа: Пользователи
Сообщений: 30
Награды: 3
Статус: Offline
|
Цитата Newly_made10 ( ) Хуже этого не придумать. Запомните: никогда не оставляйте свой файл robots.txt полностью открытым для индексации, поскольку это чревато серьезными проблемами по части конфиденциальности. Можно потерять свой сайт полностью из-за утечки информации. Не совсем понимаю, а как можно через robots.txt потерять информацию о сайте? Этот файл используют только для того, чтобы показать поисковым роботом, что не нужно индексировать и выкидывать в выдачу, чтобы по сайту не было куча не нужных страниц, которые не несут никакой полезной информации для пользователя.
|
|
| |
Newly_made10 | Дата: Пятница, 2018-11-16, 10:08:56 | Сообщение # 3 |
Группа: Администраторы
Сообщений: 970
Награды: 9
Статус: Offline
|
Цитата r_rssrrrr ( ) Не совсем понимаю, а как можно через robots.txt потерять информацию о сайте?
А если вы откроете для индексации страницы с вводом пароля и доступом к панели администратора? Либо другим служебным страницам?
Новинки музыки. Лето 2024
Фильмы | Сериалы
|
|
| |
Yurbol | Дата: Суббота, 2018-12-22, 11:48:55 | Сообщение # 4 |
Группа: Пользователи
Сообщений: 30
Награды: 3
Статус: Offline
|
Страницы с вводом пароля и так открыты, их любой желающий может увидеть и найти. Достаточно в поиск обратится, или даже проверить robots.txt любого сайта, и сразу же увидишь какие страницы закрыты от индексации, и следовательно перейти на их. Тут никакой формации секретной по сути нету, которую нельзя было бы найти при желании.
|
|
| |
eastwoodclub | Дата: Воскресенье, 2019-02-03, 5:28:15 | Сообщение # 5 |
Группа: Пользователи
Сообщений: 2
Награды: 0
Статус: Offline
|
Очень разумно !
|
|
| |