Jump to content

Recommended Posts

Всем привет. 

Реализую региональность на поддоменах. 

Сделал переменные городов и прочего по видео Виталия Виноградова 

 

Сначала планировал в каждую папку поддомена заливать копию сайта. 

Возник вопрос как реализовать вызов всех файлов simpla оставив их только на главном сайте.

 

Хотелось бы в поддоменах видеть 3 файла index.php, sitemap.php и robots.txt

 

Link to post
Share on other sites

Да элементарно. Пусть все поддомены ссылаются на основной сайт, а далее в htaccess прописываете 

 

RewriteCond %{HTTP_HOST} ^sochi\.site\.ru$
RewriteRule ^$ /index.php?module=MainView&page_url=sochi [L]
 

Остальное в шаблоне. Я так не только поддомены делал, но и несколько сайтов с разным дизайном и контентом.



Не забудьте создать страницу с url = sochi (главная для поддомена).

Остальное индивидуально, зависит от задач.

Link to post
Share on other sites

Да элементарно. Пусть все поддомены ссылаются на основной сайт, а далее в htaccess прописываете 

 

RewriteCond %{HTTP_HOST} ^sochi\.site\.ru$
RewriteRule ^$ /index.php?module=MainView&page_url=sochi [L]
 

Остальное в шаблоне. Я так не только поддомены делал, но и несколько сайтов с разным дизайном и контентом.

 

Не забудьте создать страницу с url = sochi (главная для поддомена).

Остальное индивидуально, зависит от задач.

 

Большое спасибо!

Link to post
Share on other sites

robots лучше генерировать через php

В htacess 

RewriteRule ^robots.txt$ robots.php

 

В корень сайта файл robots.php

<?php
//код на php
$domain = $_SERVER['HTTP_HOST'];


if ($_SERVER['HTTP_HOST'] !== 'www.site.ru')
{
$google = "User-agent: Googlebot \nDisallow: /";
}
?>

User-agent: Mail.Ru
Crawl-delay: 1

User-agent: *
Disallow: /sections/404
Disallow: /simpla/
Disallow: /order/
Disallow: /user/
Disallow: /captcha/
Disallow: /Smarty/
Disallow: /api/
Disallow: /compiled/
Disallow: /cart
Disallow: /in/
Disallow: /resize/
<?=$page?>

Sitemap: https://<?=$domain?>/sitemap.xml

<?=$google?>

 

Этот robots запрещает индексацию поддонов гуглу и добавляет каждому свой sitemap.

Link to post
Share on other sites

robots лучше генерировать через php

В htacess 

RewriteRule ^robots.txt$ robots.php

 

В корень сайта файл robots.php

<?php
//код на php
$domain = $_SERVER['HTTP_HOST'];


if ($_SERVER['HTTP_HOST'] !== 'www.site.ru')
{
$google = "User-agent: Googlebot \nDisallow: /";
}
?>

User-agent: Mail.Ru
Crawl-delay: 1

User-agent: *
Disallow: /sections/404
Disallow: /simpla/
Disallow: /order/
Disallow: /user/
Disallow: /captcha/
Disallow: /Smarty/
Disallow: /api/
Disallow: /compiled/
Disallow: /cart
Disallow: /in/
Disallow: /resize/
<?=$page?>

Sitemap: https://<?=$domain?>/sitemap.xml

<?=$google?>

 

Этот robots запрещает индексацию поддонов гуглу и добавляет каждому свой sitemap.

Спасибо, а с какой целью закрывать индексацию поддоменов для гугл?

Link to post
Share on other sites

Гугл ну будет ранжировать ваши поддомены как Яндекс в разных регионах, в гугл нормально относятся к региональным категориям вроде site.ru/ufa, а поддомен будет считаться зеркалом.

 

Disallow и прочее содержимое по своим потребностям заполните в файле.

Edited by esistema1
Link to post
Share on other sites

Я делал проще.

RewriteCond %{HTTP_HOST} ^адресвашегосайта\.ru$
RewriteRule ^robots\.txt$ /robots/1.txt [L]

И размещаете в 1.txt, 2.txt... и т.д. нужные вам указания для поисковиков. Я, например, делал только главную страницу для поддомена (всего одну), её же разрешал индексировать. Ссылки с поддомена вели на основной домен 

Будут ещё какие вопросы по поддоменам, пишите.

У вас поддомен будет отдельным сайтом с кучей страниц? Если да, когда сделаете, напишите, как поисковики отнеслись к дублированию контента.

Link to post
Share on other sites

Я делал проще.

RewriteCond %{HTTP_HOST} ^адресвашегосайта\.ru$
RewriteRule ^robots\.txt$ /robots/1.txt [L]

И размещаете в 1.txt, 2.txt... и т.д. нужные вам указания для поисковиков. Я, например, делал только главную страницу для поддомена (всего одну), её же разрешал индексировать. Ссылки с поддомена вели на основной домен 

Будут ещё какие вопросы по поддоменам, пишите.

У вас поддомен будет отдельным сайтом с кучей страниц? Если да, когда сделаете, напишите, как поисковики отнеслись к дублированию контента.

 

Вы создаете кучу файлов 1.txt, 2... А я всего один robots.php который сам генерирует robots.txt для каждого поддомена.

Link to post
Share on other sites
  • 2 weeks later...

Да элементарно. Пусть все поддомены ссылаются на основной сайт, а далее в htaccess прописываете 

 

RewriteCond %{HTTP_HOST} ^sochi\.site\.ru$
RewriteRule ^$ /index.php?module=MainView&page_url=sochi [L]
 

Остальное в шаблоне. Я так не только поддомены делал, но и несколько сайтов с разным дизайном и контентом.

 

Не забудьте создать страницу с url = sochi (главная для поддомена).

Остальное индивидуально, зависит от задач.

 

можете описать что мы делаем этим кодом в двух словах? Я просто добавил все поддомены как псевдонимы к основному сайту на хостинге и все работает поддомены встают во все пути, к всем файлам, https тоже работает.

 

Боюсь что-то упустить

Link to post
Share on other sites

RewriteCond - условие, распространяемое на следующую строку

^ - начало

$ - конец

точка пишется как обратный слэш точка, то есть \.

%{HTTP_HOST} - хост, короче, ваш сайт

RewriteRule - правило

[L] - говорит о том, что правило последнее.

Итого имеем:

Если хост sochi.site.ru, то

выполнить правило:

переадресовывать главную страницу сайта(ведь ^$ - это начало+конец) на /index.php?module=MainView&page_url=sochi

и больше ничего не делать.

Так я понимаю все эти инструкции. Возможно, где-то допустил незначительные ошибки, но общую картину обрисовал.

Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

Loading...
×
×
  • Create New...