Jump to content

Не работает ответ 404 ошибки


Recommended Posts

Здравствуйте, на сайте не работает ответ 404 ошибки. При вводе любого несуществующего адреса открывается просто чистая страница. Файл index.php дефолтный. Вариант с заменой ошибки 404 на 301 меня совершенно не устраивает. Так как это неправильно с точки зрения SEO. Прошу помочь...

Link to post
Share on other sites
  • 6 months later...

 

Ссылка site.ru/qwer23 нормально выдает страницу 404

а ссылка вида site.ru/?qwer23 почему-то отдает 200. 

 

а почему вторая должна выдавать 404? 

все что указано после ? считается get параметром (параметрами, если указано несколько через &), это не новая страница, а параметр для этой же.

 

страница site.ru и site.ru?qwer23 это одна и та же страница, но с параметром

Edited by mishanya
Link to post
Share on other sites

а почему вторая должна выдавать 404? 

все что указано после ? считается get параметром (параметрами, если указано несколько через &), это не новая страница, а параметр для этой же.

 

страница site.ru и site.ru?qwer23 это одна и та же страница, но с параметром

 

Я неудачно выразился. Да, страница та же, но ссылка некорректна. Сеошник говорит, что нужно отдавать 404 или 301. Собственно, в этом вопрос. 

Link to post
Share on other sites

Я неудачно выразился. Да, страница та же, но ссылка некорректна. Сеошник говорит, что нужно отдавать 404 или 301. Собственно, в этом вопрос. 

 

помоему ваш сеошник что-то не понимает. страницы с get-запросом нельзя отдавать с 404 ошибкой. 301 это редирект (Moved Permanently) - можно только какой смысл.

 

например страницы с фильтрами или сортировкой

http://demo.simplacms.ru/catalog/bytovaya-tehnika?sort=name

что тоже отдавать 404? 

зайдите на сайт яндекс или гугл, и посмотрите какой ответ выдает сервер для их страниц:

https://yadi.sk/i/xXx4-LBIk4L7f

https://yadi.sk/i/FPHUfWvHk4LCm

 

конечно можно фильтровать какие get-запросы считать правильными для сайта, остальные отсекать, но не легче закрыть эти страницы в robots.txt чтобы поисковики не индексировали страницы с get-параметрами, т.к. это та же страница, только с перестроением информации (хотя далеко не всегда так).

Edited by mishanya
Link to post
Share on other sites

конечно можно фильтровать какие get-запросы считать правильными для сайта, остальные отсекать, но не легче закрыть эти страницы в robots.txt чтобы поисковики не индексировали страницы с get-параметрами, т.к. это та же страница, только с перестроением информации (хотя далеко не всегда так).

 

На сайте всего несколько товаров, так что поиска, фильтра и сортировки нет. Значит, закрываем. Спасибо. 

Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

Loading...
×
×
  • Create New...