Обсуждение Модули и компоненты от breakdesigns. [Cat Filters, VMF и т.д.]

Ребят, кто сталкивался с таким?
На странице Результатов фильтрации фильтра отображается тупо 10 товаров. Проверил все что мог. Везде стоят настройки - 12. И в самом Марте, и в меню страницы результатов. Но все равно - 10. И количество товаров в строке менял и чего только не делал.
Ни фига, ничего не влияет. 10 товаров на странице после применения фильтра. Причем на главной странице каталога все как нужно - 12 и нормальная разбивка по страницам.
Кто нибудь с таким сталкивался??
Просто дичь какая-то (((
Идешь в меню фильтра: МЕНЮ -> "ТВОЙ ПУНКТ МЕНЮ ФИЛЬТРА", дальше в параметры и там настройка в параметрах "Значения списка разбивки страниц". Если это не помогает или в WM в шаблоны или в каждую категорию проверят настройку кодой категории.
 

Вложения

  • 23456789.png
    23456789.png
    20,4 KB · Просмотры: 10
Всем привет. Ребят, а как-нибудь можно в Custom Filters отключить при аяксе дурацкое подпрыгивание к самому верху страницы после фильтрации?
Может есть у кого решение?
 
Custom Filters Pro 2.16 share please!
 
Версии 2.18.0 еще нет ни у кого?

Очень нужна
 
Всем привет! Нужен компетентный совет. Сайт написан еще на 3-й джумле и на 3-ем же Virtumart-е. Вполне себе рабочий еще сайт. В качестве фильтра использую CustomFiltersPro 2.5. Во всем модулях отключена индексация опций поисковыми системами. Тем не менее, поисковики продолжают индексировать страницы с параметрами фильтра (вида "?custom_f_10..." и аналогичными). В файле sitemap.xml таких страниц, естественно, нет.
Запрещать индексацию сайта вообще - по понятным причинам не вариант. Запретил обращение к таким страницам через robots.txt. Но хочется, чтобы поисковики вообще не обращались к ним. Иначе в моменты индексации поисковиками резко растет нагрузка на сервер, и хостер грозится отключить сайт. Найти вариант запрета индексации по маске с помощью файла htaccess я так и не смог. Кто-нибудь сталкивался с такой ситуацией? Есть идеи?
 

Вложения

  • Screenshot 2025-06-16 103449.png
    Screenshot 2025-06-16 103449.png
    28,3 KB · Просмотры: 3
Последнее редактирование:
Всем привет! Нужен компетентный совет. Сайт написан еще на 3-й джумле и на 3-ем же Virtumart-е. Вполне себе рабочий еще сайт. В качестве фильтра использую CustomFiltersPro 2.5. Во всем модулях отключена индексация опций поисковыми системами. Тем не менее, поисковики продолжают индексировать страницы с параметрами фильтра (вида "?custom_f_10..." и аналогичными). В файле sitemap.xml таких страниц, естественно, нет.
Запрещать индексацию сайта вообще - по понятным причинам не вариант. Запретил обращение к таким страницам через robots.txt. Но хочется, чтобы поисковики вообще не обращались к ним. Иначе в моменты индексации поисковиками резко растет нагрузка на сервер, и хостер грозится отключить сайт. Найти вариант запрета индексации по маске с помощью файла htaccess я так и не смог. Кто-нибудь сталкивался с такой ситуацией? Есть идеи?
Запретим плохишей:
В .htaccess

SetEnvIfNoCase User-Agent "Abonti|Amazonbot|AspiegelBot|aggregator|AhrefsBot|Aport|asterias|Barkrowler|Baiduspider|BDCbot|bidswitchbot|Birubot|BLEXBot|BUbiNG|BuiltBotTough|Bullseye|BunnySlippers|Butterfly|ca\-crawler|CamontSpider|CCBot|Cegbfeieh|CheeseBot|CherryPicker|coccoc|CopyRightCheck|cosmos|crawler|CriteoBot|ClaudeBot|Crescent|CyotekWebCopy/1\.7|CyotekHTTP/2\.0|DataForSeoBot|DeuSu|discobot|DittoSpyder|DnyzBot|DomainCrawler|DotBot|Download Ninja|EasouSpider|EmailCollector|EmailSiphon|EmailWolf|EroCrawler|Exabot|ExtractorPro|Ezooms|FairShare|Fasterfox|FeedBooster|Foobot|Genieo|GetIntent\ Crawler|Gigabot|Go-http-client|GPTBot|gold\ crawler|GrapeshotCrawler|grub\-client|Harvest|hloader|httplib|HTTrack|humanlinks|HybridBot|ia_archiver|ieautodiscovery|Incutio|InfoNaviRobot|InternetSeer|IstellaBot|Java|Java/1\.|JamesBOT|JennyBot|JS-Kit|k2spider|Kenjin Spider|Keyword Density/0\.9|kmSearchBot|larbin|LexiBot|libWeb|Linguee|LinkExchanger|LinkextractorPro|linko|LinkScan/8\.1a Unix|LinkWalker|LinkpadBot|lmspider|LNSpiderguy|ltx71|lwp-trivial|lwp\-trivial|magpie|Mata Hari|MaxPointCrawler|MegaIndex|memoryBot|Microsoft URL Control|MIIxpc|Mippin|Missigua Locator|Mister PiX|MJ12bot|MLBot|moget|MSIECrawler|msnbot|msnbot-media|NetAnts|NICErsPRO|Niki\-Bot|NjuiceBot|NPBot|Nutch|Offline Explorer|OLEcrawler|Openfind|panscient\.com|PostRank|ProPowerBot/2\.14|PetalBot|ProWebWalker|ptd-crawler|Purebot|PycURL|python-requests|Python\-urllib|QueryN Metasearch|RepoMonkey|Riddler|Scrapy|SemrushBot|serf|SeznamBot|SISTRIX|SiteBot|sitecheck\.Internetseer\.com|SiteSnagger|Serpstat|Slurp|SnapPreviewBot|Sogou|Soup|SpankBot|spanner|spbot|Spinn3r|SpyFu|suggybot|SurveyBot|suzuran|sqlmap|SWeb|Szukacz/1\.4|Teleport|Telesoft|The Intraformant|TheNomad|TightTwatBot|Titan|toCrawl/UrlDispatcher|True_Robot|ttCrawler|turingos|TurnitinBot|UbiCrawler|UnisterBot|Unknown|uptime files|URLy Warning|User-Agent|VCI|Vedma|Voyager|WBSearchBot|Web Downloader/6\.9|Web Image Collector|WebAuto|WebBandit|WebCopier|WebEnhancer|WebmasterWorldForumBot|WebReaper|WebSauger|Website Quester|Webster Pro|WebStripper|WebZip|Wotbox|wsr\-agent|WWW\-Collector\-E|Yeti|YottosBot|Zao|Zeus|ZoominfoBot|ZyBORG" bad_bot
Deny from env=bad_bot

Яндекс и Google сервак не положат.
В robots:
User-agent: *Crawl-delay: 60

Иначе меняй хостера.
 
Назад
Сверху