Перейти к содержанию
Официальный форум поддержки Simpla

san4es

Пользователь
  • Публикаций

    23
  • Зарегистрирован

  • Посещение

Информация о вас

  • Версия CMS
    2.x
  1. Всем доброго времени суток. Ищу разработчика, который сможет доработать мне Simpla. Что требуется: 1. Необходимо убрать дубли страниц при помощи тега rel=“canonical”. 2. В статьи раздела блог вывести рекомендуемые товары 3. Каталог на главной странице сделать открытым. 4.Фильтр по размерам товаров. Сайт занимается продажей детской одежды, необходимо выводить в фильтр товаров только те размеры, которые имеются в наличии. 5. Верстка каталога. Дизайнер отрисовал новый вариант каталога, нужно будет его прикрутить. 6.Выбор станции метро в заказе. По умолчанию в Simpla нет возможности выбора ближайш
  2. Тема перенесена сюда - http://forum.simplacms.ru/topic/7468-%D0%B4%D0%BE%D1%80%D0%B0%D0%B1%D0%BE%D1%82%D0%BA%D0%B0-%D1%81%D0%B0%D0%B9%D1%82%D0%B0/
  3. Всем доброго времени суток. Вопрос к знающим. Помогите до конца понять принцип работы Sitemap. Если я в robots.txt добавлю sitemap то робот будет индексировать ТОЛЬКО те страницы, которые указаны в sitemap? Или он в любом случае будет индексировать весь сайт+проиндексирует страницы, указанные в sitemap (если сам их не нашел)? Например, у Симплы есть разные фильтры товаров и я не хочу, что бы они индексировались. В sitemap фильтры товаров не попадают. Таким образом, если я укажу роботу sitemap, то он будет индексировать только то, что в sitemap? Или он будет индексировать sitemap + фильтры? Над
  4. Совершенно верно, т.к. программирование и оптимизация это разные вещи, которые пересекаются только косвенно. Как продвигать сайт, я примерно разобрался. Как править программный код я понятия не имею. Про то что наличие палки в конце -это катастрофа я не читал. Я об этом узнал от знакомого, точно так же, как и то, что отсутствие директивы host в роботсе тоже не катастрофа, но без нее продвижение сложнее. А оптимизация и продвижение по сути состоит из таки мелочей, на которые если не обрщать внимания в ТОП 5 можно и не попасть. Возвращаясь к теме, хочется услышать конкретные предложения, а не то
  5. А что гуглить тем, кто с программированием не знаком и этот .htaccessa в глаза не видел и впервые о нем слышит?
  6. Значит так. )) Вопрос с роботсом отпадает. Нашел такую статью - http://forum.searchengines.ru/showthread.php?t=781401 Остается вариант с 301 редиректом, как я и писал выше. Кто знает, можно настроить 301 редирект так, что бы он все страницы со "/" перенаправлял точно на такие же но без "/"?
  7. К сожалению, не нашел подобной темы на форуме. Я вот о чем подумал. Эту проблему можно решить 301 редиректом. Но возникает 2-й вопрос. Можно ли прописать алгорит, который будет всем таким страницам автоматом делать редиректы? Ну допустим, мы сейчас ручками сделаем редиректы на все страницы, но сат-то постоянно обновляется. Не делать же каждый раз редирект на новую страницу? Можно сделать так, что бы редирект делался сам автоматом? Я не знаю как сформулировать правилно. Сделать что-то вроде маски или еще чего-то?
  8. Всем доброго времени суток. Если Вы обращали внимание, Simpla делает 2 одинаковые страницы. Например: www.my-site.ru/catalog/kupi-slona www.my-site.ru/catalog/kupi-slona/ С точки зрения SEO это не есть хорошо, т.к. Яндекс воспринимает эти страницы как дубли и соответственно динамический вес ссылок делится между ними. Отсюда у меня вопрос. Как можно скрыть от Яндекса страницы с символом "/"? Я подозреваю,проще всего запретить Яндексу через robots.txt индексировать страницы со знаком "/". К сожалению, я не знаю, кую команду нужно прописать в роботсе. Если кто знает, что нужно писать в роботсе,
  9. Почему собственно они должн выпасть, если карточка товара не закрыта от индексации? Закрыты только фильтры.
  10. Тогда для чего многие делают " * ". Например: http://detstvo-shop.ru/robots.txt http://zapokerom.ru/robots.txt
  11. Странно, вот пример - http://detstvo-shop.ru/robots.txt, у них host и sitemap не в конце robots.txt.
  12. Вопрос к специалистам SEO. Стандартный robots.txt Симплы выглядит так: User-agent: *Disallow: /sections/404Disallow: /simpla/Disallow: /order/Disallow: /user/Disallow: /js/Disallow: /captcha/Disallow: /Smarty/Disallow: /design/Disallow: /api/Disallow: /compiled/Disallow: /cart/Disallow: /resize/Disallow: /password.phpЕсли переделать его в такой вид: User-Agent: Yandex Disallow: /sections/404 Disallow: /simpla/ Disallow: /order/ Disallow: /user/ Disallow: /js/ Disallow: /captcha/ Disallow: /Smarty/ Disallow: /design/ Disallow: /api/ Disallow: /compiled/ Disallow: /cart/ Disallow: /resize/ Dis
×
×
  • Создать...