Ваша конфиденциальность
We use cookies to give you a better experience in Netpeak Software
Больше о том, какие файлы cookie мы используем, по какой причине и каким образом мы это делаем, в нашей Политике конфиденциальности. Поскольку мы уважаем ваше право на неприкосновенность частной жизни, вы можете запретить использование некоторых типов файлов cookie. Нажмите на заголовки различных категорий в баннере cookie, чтобы изменить настройки по умолчанию. Однако блокировка некоторых типов файлов cookie может повлиять на вашу работу с сайтом и предлагаемыми услугами. Для получения более подробной информации ознакомьтесь с нашей Политикой конфиденциальности по ссылке ниже.
Строго необходимые файлы cookie
Эти файлы cookie необходимы для работы веб-сайта и не могут быть отключены в наших системах, однако они не хранят информацию о пользователях. Обычно они устанавливаются в ответ на ваши действия, которые вызывают запрос на услуги, такие как настройка параметров конфиденциальности, вход в систему или заполнение форм. Вы можете изменить настройки браузера, чтобы получать предупреждения о таких файлах cookie, но некоторые части сайта при этом могут перестать работать.
Просмотр файлов cookie
To save time and streamline the setup process, it would be valuable if the software could automatically detect sitemaps in the robots.txt file or allow users to manually add a sitemap URL. This would reduce the time spent manually configuring crawls and ensure faster setup.
Requested features:
1. Auto-detect and add sitemaps listed in robots.txt.
2. Option for manual sitemap URL submission.
Implementing these features would optimize page discovery and significantly reduce setup time.
Thank you for considering this!
1 Голоса
0 Комментарии
Вход или Регистрация чтобы опубликовать комментарий