• Самые новые анекдоты на картинках. Ежедневно
  • Только смешные фото из жизни людей и других животных
  • Избранное работает в режиме просмотра.
  • Пульс от Мейл.ру. Проект ВК. Главный конкурент Яндекс.Дзена
  • Новости начинающему · Новые сообщения · Участники · Правила форума · Поиск · RSS

    rutop.net

     

    • Страница 1 из 2
    • 1
    • 2
    • »
    Модератор форума: Newly_made10  
    Форум » Людям с гордым именем - WEB мастера. » SEO оптимизация. » 5 глупых SEO-ошибок, которые допускают даже профессионалы (SEO все еще играет очень важную роль)
    5 глупых SEO-ошибок, которые допускают даже профессионалы
    Newly_made10Дата: Понедельник, 2017-02-13, 1:11:13 | Сообщение # 1
    аватар Newly_made10
    Группа: Администраторы
    Сообщений: 969
    Награды: 9
    Статус: Offline




    5 SEO-ошибок, которых нужно избегать

    #1 Закрытый от индексации сайт в .htaccess

    Если занимаетесь SEO, тогда, вероятнее всего, вы слышали о .htaccess. Одним словом, это файл конфигурации, который используется для хранения определенных директив, которые блокируют или предоставляют доступ к корневым каталогам.

    Не могу в очередной раз не акцентировать внимание на важности файлов .htaccess. Если вы знаете, как ими управлять, то вы можете:

    ● Создать более детальную карту сайта
    ● Сгенерировать более понятные и читабельный УРЛы
    ● Усовершенствовать кеширование, чтобы улучшить время загрузки

    Если короче, то .htaccess – это очень важный инструмент для отладки процесса индексирования и, соответственно, улучшения поисковой выдачи.
    Однако, нужно быть настоящим профессионалом, чтобы правильно установить файл .htaccess. Даже маленькая ошибка может привести к печальным последствиям. Например, можно полностью закрыть свой сайт от индексации вот таким образом:

    Код
    RewriteCond %{HTTP_USER_AGENT} ^Google.* [OR]
    RewriteCond %{HTTP_USER_AGENT} ^.*Bing.*
    RewriteRule ^/dir/.*$ – [F]


    Если вы видите эти строки кода в своем файле .htaccess, поисковые боты не смогут просмотреть и проиндексировать ваш сайт. Попросите разработчиков удалить код или сделайте это сами.

    Проверяйте ваш файл .htaccess каждый раз перед запуском очередного проекта. Некоторые сеошники продвигают и оптимизируют сайты месяцами, даже не подозревая, что все их попытки напрасны. А вы ведь не хотите оказаться в их числе.

    #2 Запрет на индексацию в CMS

    SEO-плагины CMS платформ, таких как WordPress, Joomla и Drupal, могут поставить под угрозу всю вашу оптимизацию. У них есть встроенные функции, которые дают пользователям возможность задавать поисковым системам инструкции о том, что сайт индексировать не надо. Все, что нужно сделать, это зайти в раздел Настройки – Чтение – Запретить поисковым системам индексировать сайт. Ставите галочку напротив пункта и запрещаете поисковым ботам индексировать сайт.

    Проверяйте этот пункт по крайней мере раз в неделю. В конце концов, каждый, у кого есть доступ к CMS, может по ошибке поставить галочку, а это несомненно окажет негативный эффект на вашу кампанию.

    На заметку: Иногда поисковые системы могут продолжать индексировать ваш сайт даже если вы поставили галочку. Поэтому, если вы действительно хотите закрыть сайт от индексации, то лучше это сделать через файлы .htaccess и robots.txt.
    #3 Открытый для индексации файл robots.txt

    Хуже этого не придумать. Запомните: никогда не оставляйте свой файл robots.txt полностью открытым для индексации, поскольку это чревато серьезными проблемами по части конфиденциальности. Можно потерять свой сайт полностью из-за утечки информации.

    Если вы новичок, то потратьте какое-то время на изучение информации о настройке и управлении файлом robots.txt. И действуйте незамедлительно, если увидите что-то похожее:

    Код
    User-Agent: *
    Allow: /


    Это значит, что поисковые боты могут пройти на каждую страницу сайта и проиндексировать ее. Например, проиндексировать админку, страницу авторизации, корзину, а также динамические страницы (поиск и фильтры). Закрывайте и защищайте персональные страницы ваших пользователей. Просесть в выдаче за десятки спамных динамических страниц вам явно не хочется, так?

    Как бы там ни было, убедитесь в том, что вы закрыли страницы, которые должны быть заблокированы, и открыли те, которые должны подлежать индексации. Звучит просто, но требуется время, чтобы научиться этому.

    #4 Исходящие ссылки без атрибута “nofollow”

    Сеошники знают, что ссылки до сих пор являются важным фактором ранжирования. К сожалению, они сосредотачиваются на внешних ссылках и иногда забывают, что их сайты могут отдавать практически весь ссылочный вес другим сайтам. Что вам нужно, так это и привлекать высококачественные внешние ссылки, и удерживать весь вес у себя на сайте.

    Итак, ваша стратегия выглядит просто:

    ● Пропустите свой сайт через сканнер (Я использую Xenu)
    ● Отсортируйте ссылки по адресам, чтобы определить исходящие
    ● Создайте файл Excel со всеми исходящими ссылками (или скачайте стандартный HTML отчет)
    ● Перепроверьте каждую ссылку из списка на наличие атрибута “nofollow”, если в нем есть необходимость

    Однако не переусердствуйте с атрибутом “nofollow”. В попытках приберечь весь «сок» ссылок для себя, вы провоцируете других добавить “nofollow” к ссылкам на ваш сайт. Словом, не злоупотребляйте.

    #5 Непроверенный в валидаторе код


    Ваш сайт состоит из кода, и чем лучше его качество, тем лучше будут результаты выдачи вашего сайта. Все это потому, что стройный и понятный код позволяет поисковым ботам индексировать ваш сайт более эффективно, не оставляя незамеченной ни одну страницу.

    Поэтому каждый раз, когда вы получаете новый проект под продвижение и оптимизацию, убедитесь в том, что вы проверили код. Для этого совсем не нужно быть разработчиком. Вы просто копируете URL сайта и вставляете его в адресную строку The W3C Markup Validation Service. А после – попросите разработчиков исправить ошибки. На картинке ниже изображен типичный отчет из валидатора:

    Хотя Google и не наказывает сайты за невалидный HTML и CSS, вам все равно лучше воспользоваться валидатором. В конце концов, это не занимает много времени, но улучшает производительность сайта в глазах пользователей и ботов.

    Выводы

    Поисковая оптимизация эволюционирует, и SEO-специалистам нужно постоянно трудиться, чтобы успевать за последними обновлениями тактик и алгоритмов. Хорошо, если вы постоянно держите руку на пульсе SEO (это обязательно, вообще-то), только не забывайте об элементарных вещах. От глупых ошибок всегда больше вреда.






    Новинки музыки. Осень 2023

    Фильмы | Сериалы
     
    YurbolДата: Четверг, 2018-11-15, 1:07:19 | Сообщение # 2
    аватар Yurbol
    Группа: Пользователи
    Сообщений: 30
    Награды: 3
    Статус: Offline




    Цитата Newly_made10 ()
    Хуже этого не придумать. Запомните: никогда не оставляйте свой файл robots.txt полностью открытым для индексации, поскольку это чревато серьезными проблемами по части конфиденциальности. Можно потерять свой сайт полностью из-за утечки информации.

    Не совсем понимаю, а как можно через robots.txt потерять информацию о сайте? Этот файл используют только для того, чтобы показать поисковым роботом, что не нужно индексировать и выкидывать в выдачу, чтобы по сайту не было куча не нужных страниц, которые не несут никакой полезной информации для пользователя.




     
    Newly_made10Дата: Пятница, 2018-11-16, 10:08:56 | Сообщение # 3
    аватар Newly_made10
    Группа: Администраторы
    Сообщений: 969
    Награды: 9
    Статус: Offline




    Цитата r_rssrrrr ()
    Не совсем понимаю, а как можно через robots.txt потерять информацию о сайте?


    А если вы откроете для индексации страницы с вводом пароля и доступом к панели администратора? Либо другим служебным страницам?






    Новинки музыки. Осень 2023

    Фильмы | Сериалы
     
    YurbolДата: Суббота, 2018-12-22, 11:48:55 | Сообщение # 4
    аватар Yurbol
    Группа: Пользователи
    Сообщений: 30
    Награды: 3
    Статус: Offline




    Страницы с вводом пароля и так открыты, их любой желающий может увидеть и найти. Достаточно в поиск обратится, или даже проверить robots.txt любого сайта, и сразу же увидишь какие страницы закрыты от индексации, и следовательно перейти на их. Тут никакой формации секретной по сути нету, которую нельзя было бы найти при желании.



     
    eastwoodclubДата: Воскресенье, 2019-02-03, 5:28:15 | Сообщение # 5
    аватар eastwoodclub
    Группа: Пользователи
    Сообщений: 2
    Награды: 0
    Статус: Offline




    Очень разумно !



     
    Форум » Людям с гордым именем - WEB мастера. » SEO оптимизация. » 5 глупых SEO-ошибок, которые допускают даже профессионалы (SEO все еще играет очень важную роль)
    • Страница 1 из 2
    • 1
    • 2
    • »
    Поиск: