Перейти к содержанию
Официальный форум поддержки Simpla

Рекомендуемые сообщения

Всем привет. 

Реализую региональность на поддоменах. 

Сделал переменные городов и прочего по видео Виталия Виноградова 

 

Сначала планировал в каждую папку поддомена заливать копию сайта. 

Возник вопрос как реализовать вызов всех файлов simpla оставив их только на главном сайте.

 

Хотелось бы в поддоменах видеть 3 файла index.php, sitemap.php и robots.txt

 

Ссылка на сообщение
Поделиться на другие сайты

Можно вообще без файлов))

Направить все поддомены в одну папку и в зависимости от поддомена - отдавать разный контент

Ссылка на сообщение
Поделиться на другие сайты

Да элементарно. Пусть все поддомены ссылаются на основной сайт, а далее в htaccess прописываете 

 

RewriteCond %{HTTP_HOST} ^sochi\.site\.ru$
RewriteRule ^$ /index.php?module=MainView&page_url=sochi [L]
 

Остальное в шаблоне. Я так не только поддомены делал, но и несколько сайтов с разным дизайном и контентом.



Не забудьте создать страницу с url = sochi (главная для поддомена).

Остальное индивидуально, зависит от задач.

Ссылка на сообщение
Поделиться на другие сайты

Да элементарно. Пусть все поддомены ссылаются на основной сайт, а далее в htaccess прописываете 

 

RewriteCond %{HTTP_HOST} ^sochi\.site\.ru$
RewriteRule ^$ /index.php?module=MainView&page_url=sochi [L]
 

Остальное в шаблоне. Я так не только поддомены делал, но и несколько сайтов с разным дизайном и контентом.

 

Не забудьте создать страницу с url = sochi (главная для поддомена).

Остальное индивидуально, зависит от задач.

 

Большое спасибо!

Ссылка на сообщение
Поделиться на другие сайты

robots лучше генерировать через php

В htacess 

RewriteRule ^robots.txt$ robots.php

 

В корень сайта файл robots.php

<?php
//код на php
$domain = $_SERVER['HTTP_HOST'];


if ($_SERVER['HTTP_HOST'] !== 'www.site.ru')
{
$google = "User-agent: Googlebot \nDisallow: /";
}
?>

User-agent: Mail.Ru
Crawl-delay: 1

User-agent: *
Disallow: /sections/404
Disallow: /simpla/
Disallow: /order/
Disallow: /user/
Disallow: /captcha/
Disallow: /Smarty/
Disallow: /api/
Disallow: /compiled/
Disallow: /cart
Disallow: /in/
Disallow: /resize/
<?=$page?>

Sitemap: https://<?=$domain?>/sitemap.xml

<?=$google?>

 

Этот robots запрещает индексацию поддонов гуглу и добавляет каждому свой sitemap.

Ссылка на сообщение
Поделиться на другие сайты

robots лучше генерировать через php

В htacess 

RewriteRule ^robots.txt$ robots.php

 

В корень сайта файл robots.php

<?php
//код на php
$domain = $_SERVER['HTTP_HOST'];


if ($_SERVER['HTTP_HOST'] !== 'www.site.ru')
{
$google = "User-agent: Googlebot \nDisallow: /";
}
?>

User-agent: Mail.Ru
Crawl-delay: 1

User-agent: *
Disallow: /sections/404
Disallow: /simpla/
Disallow: /order/
Disallow: /user/
Disallow: /captcha/
Disallow: /Smarty/
Disallow: /api/
Disallow: /compiled/
Disallow: /cart
Disallow: /in/
Disallow: /resize/
<?=$page?>

Sitemap: https://<?=$domain?>/sitemap.xml

<?=$google?>

 

Этот robots запрещает индексацию поддонов гуглу и добавляет каждому свой sitemap.

Спасибо, а с какой целью закрывать индексацию поддоменов для гугл?

Ссылка на сообщение
Поделиться на другие сайты

Гугл ну будет ранжировать ваши поддомены как Яндекс в разных регионах, в гугл нормально относятся к региональным категориям вроде site.ru/ufa, а поддомен будет считаться зеркалом.

 

Disallow и прочее содержимое по своим потребностям заполните в файле.

Изменено пользователем esistema1
Ссылка на сообщение
Поделиться на другие сайты

Я делал проще.

RewriteCond %{HTTP_HOST} ^адресвашегосайта\.ru$
RewriteRule ^robots\.txt$ /robots/1.txt [L]

И размещаете в 1.txt, 2.txt... и т.д. нужные вам указания для поисковиков. Я, например, делал только главную страницу для поддомена (всего одну), её же разрешал индексировать. Ссылки с поддомена вели на основной домен 

Будут ещё какие вопросы по поддоменам, пишите.

У вас поддомен будет отдельным сайтом с кучей страниц? Если да, когда сделаете, напишите, как поисковики отнеслись к дублированию контента.

Ссылка на сообщение
Поделиться на другие сайты

Я делал проще.

RewriteCond %{HTTP_HOST} ^адресвашегосайта\.ru$
RewriteRule ^robots\.txt$ /robots/1.txt [L]

И размещаете в 1.txt, 2.txt... и т.д. нужные вам указания для поисковиков. Я, например, делал только главную страницу для поддомена (всего одну), её же разрешал индексировать. Ссылки с поддомена вели на основной домен 

Будут ещё какие вопросы по поддоменам, пишите.

У вас поддомен будет отдельным сайтом с кучей страниц? Если да, когда сделаете, напишите, как поисковики отнеслись к дублированию контента.

 

Вы создаете кучу файлов 1.txt, 2... А я всего один robots.php который сам генерирует robots.txt для каждого поддомена.

Ссылка на сообщение
Поделиться на другие сайты
  • 2 недели спустя...

Да элементарно. Пусть все поддомены ссылаются на основной сайт, а далее в htaccess прописываете 

 

RewriteCond %{HTTP_HOST} ^sochi\.site\.ru$
RewriteRule ^$ /index.php?module=MainView&page_url=sochi [L]
 

Остальное в шаблоне. Я так не только поддомены делал, но и несколько сайтов с разным дизайном и контентом.

 

Не забудьте создать страницу с url = sochi (главная для поддомена).

Остальное индивидуально, зависит от задач.

 

можете описать что мы делаем этим кодом в двух словах? Я просто добавил все поддомены как псевдонимы к основному сайту на хостинге и все работает поддомены встают во все пути, к всем файлам, https тоже работает.

 

Боюсь что-то упустить

Ссылка на сообщение
Поделиться на другие сайты

Этот код нужен для того, чтобы на поддомене sochi.site.ru вместо обычной главной страницы показывалась страница с адресом sochi

Ссылка на сообщение
Поделиться на другие сайты

RewriteCond - условие, распространяемое на следующую строку

^ - начало

$ - конец

точка пишется как обратный слэш точка, то есть \.

%{HTTP_HOST} - хост, короче, ваш сайт

RewriteRule - правило

[L] - говорит о том, что правило последнее.

Итого имеем:

Если хост sochi.site.ru, то

выполнить правило:

переадресовывать главную страницу сайта(ведь ^$ - это начало+конец) на /index.php?module=MainView&page_url=sochi

и больше ничего не делать.

Так я понимаю все эти инструкции. Возможно, где-то допустил незначительные ошибки, но общую картину обрисовал.

Ссылка на сообщение
Поделиться на другие сайты
  • 4 года спустя...

Уважаемые спецы, подскажите пожалуйста. Сделал запись А - через *, чтобы можно было создавать автоматически поддомены.

Как теперь правильно закрыть в htaccess стандартные папки чтобы не было simpla.site.com а тех которые не существуют ведут на 404 страницу?

Ссылка на сообщение
Поделиться на другие сайты

Присоединяйтесь к обсуждению

Вы можете написать сейчас и зарегистрироваться позже. Если у вас есть аккаунт, авторизуйтесь, чтобы опубликовать от имени своего аккаунта.

Гость
Ответить в этой теме...

×   Вставлено с форматированием.   Вставить как обычный текст

  Разрешено использовать не более 75 эмодзи.

×   Ваша ссылка была автоматически встроена.   Отображать как обычную ссылку

×   Ваш предыдущий контент был восстановлен.   Очистить редактор

×   Вы не можете вставлять изображения напрямую. Загружайте или вставляйте изображения по ссылке.

Загрузка...
×
×
  • Создать...