ВходящиеВходящие
Категории
ОбновленияОбновления
Проблемы аудита сайтаПроблемы аудита сайта
МануалыМануалы
КейсыКейсы
ПодборкиПодборки
От экспертовОт экспертов
НовостиНовости
ТестыТесты
Входящие
Alex Wise

Alex Wise

  • Комментарии (56)
  • Посты (6)
Сортировка:
Сортировка:
Андрей Крючков
8 ноября 2016
Где то слышал, что поисковые машины стараются не учитывать при расчёте внутреннего ПР по сайту сквозные ссылки, например в меню. Возможно ли в вашей программе отключить учёт сквозных ссылок?
Андрей, спасибо, что написали!) 

В Netpeak Spider нет возможности отключить учёт сквозных ссылок, так как эта информация является крайне неподтверждённой. В новой версии мы стараемся внедрять только то, в чём уверены и не вводить в заблуждение наших пользователей.

Текущая версия расчёта внутреннего PageRank учитывает беcчисленное количество нюансов и, даже без учёта сквозных ссылок, может очень круто помочь с оптимизацией ваших проектов.

P.s. если вы убеждены, что влияние сквозных ссылок необходимо учитывать и сможете привести информацию, которая сможет развеять все сомнения, то мы всегда будем рады помочь вам и поработать в этом направлении!
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
Очень-очень круто!
Спасибо за отзыв!) Пользуйтесь и пишите, как вам!
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
Ololo Lololo
8 ноября 2016
Спасибо! Вы крутые))
Спасибо за приятные слова!)
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
Api Phito
8 ноября 2016
Может вы еще напишете рекомендации о том, что делать для достижения идеального варианта благодаря полученной информации из Netpeak Spider? :)
Как можно манипулировать передачей весов внутри сайта?
Скоро будет отдельный пост, посвящённый тому, как именно использовать фишки Netpeak Spider на практике :) 

А пока лишь могу кратко сказать: избавьтесь от всех «висячих узлов» и перераспределите вес с неважных страниц на важные путём самой обычной простановки атрибута rel nofollow на ссылки. Ссылки с таким атрибутом не передают PageRank и позволяют аккумулировать ссылочный вес на нужных страницах, если вы правильно организуете внутреннюю перелинковку.
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
Vladimir Maltsev
8 ноября 2016
Скажите, а вы смотрите за функционалом своего прямого конкурента - screaming frog'ом? Мои коллеги из-за рубежа пользуются только им и почему-то отказываются переходить на ваш софт.
А что это за программа?

Если серьёзно, то, разумеется, смотрим: как же мы можем не смотреть? Просто между нами есть небольшая разница → нам 4 месяца, а им 7 лет. Потому мы не всё сразу можем внедрить и сразу их обогнать. Хотя такие планы, определённо имеются, ибо наша цель → сделать самый крутой в мире десктопный SEO-краулер. И мы понемногу к этой цели идём... бежим, я бы даже сказал!
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
Api Phito
8 ноября 2016
Спасибо за ответ. Буду с нетерпением ждать пост.
Я многократно встречал информацию о том, что rel=nofollow передает вес, но он не доходит до страницы-донора. Якобы лучше вообще скрывать не нужные ссылки скриптами. Очень потому хочется узнать мнение экспертов в этом вопросе.
Вот главное мнение экспертов, на которое можно положиться → https://support.google.com/webmasters/answer/96569?hl=ru

Специально для вас:
http://img.netpeaksoftware.com/wise/UBKSDI.png
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
Vladimir Maltsev
8 ноября 2016
Позволю заметить, что либо я не понял Вашу мысль, либо Вы не совсем верно понимаете работу nofollow ссылок. Давно еще Гугл изменил поведение 
https://devaka.ru/articles/nofollow-and-noindex-now 
http://searchengineland.com/google-loses-backwards-compatibility-on-paid-link-blocking-pagerank-sculpting-20408
и поэтому совет про простановке nofollow к ссылкам - несколько сомнительная затея)
Владимир, несколько заметок:
1. Я привёл ссылку на рекомендации Google и склонен больше верить именно их интерпретации своих же алгоритмов.

2. Атрибут rel nofollow используется именно для того, чтобы не позволять перейти по ссылке → только столкнувшись с теми же проблемами, с которыми сталкивался в своё время Google, мы поняли, как именно происходит расчёт. Грубо говоря, только когда начинаешь думать, как Google (или другая поисковая система) и при определённой технической подкованности можно понять некоторые инсайты, о которых другие могут только выдвигать гипотезы, ну, или же, как вы приводите ссылку, делать эксперименты, которые со временем, разумеется, теряют свою актуальность.

В итоге, мы влезли в шкуру поисковых систем и на основании множества лет опыта и смекалки сделали данный алгоритм, с которым можно и нужно спорить, но только аргументированно: желательно с заявлениями разработчиков поисковых систем.
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
Anton Reva
9 ноября 2016
1. Так у вас же было в предыдущей версии отключение сквозных ссылок

2. это конечно нужно сделать, так как важно рассчитывать вес которые передается по уникальным ссылкам из контента и из различных динамических блоков.
а так получается, что сквозные ссылки будут давать перегибы.

П.С. Разберитесь с авторизацией:
я написал коммент, но хорошо что додумался сохранить его в буфер перед нажатием на Reply, 
так как когда я нажал на реплай, меня перекинуло на форму авторизации, потом обратно, НО ... мой коммент пропал ((.
второй раз было бы лень уже писать.
1. Да, в предыдущей версии было отключение, но вы уверены, что хотите верить в какое-то "эфимерное отключение сквозных ссылок" по алгоритму, который нельзя назвать самым изящным? Мы считали сквозными ссылками те ссылки, которые встречаются на более чем 50% всех страниц. Вы считаете, что поисковые системы так же "чётко" делают? :)

2. Насчёт авторизации и копирования коммента → скоро будем использовать другую систему и вообще запустим свой блог, где таких проблем уже быть не должно. Пока что сами мучаемся, так как система "Community", в которой мы переписываемся, не является нашей разработкой. Спасибо, что сообщили!
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
Степан Ермаков
8 ноября 2016
распределение веса еще влияет для информационных сайтов? Есть ли кейсы/исследования?
1. Распределение ссылочного веса влияет для всех сайтов без исключения. Это вроде как логично!) 
2. Кейсов и исследований по результатам работы нашей программы пока что нет. Мы только запустили данную функцию, которая уже поможет работать со ссылочным весов внутри сайта, потому такие кейсы должны будут появляться со временем.
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
Vladimir Maltsev
8 ноября 2016
Позволю заметить, что либо я не понял Вашу мысль, либо Вы не совсем верно понимаете работу nofollow ссылок. Давно еще Гугл изменил поведение 
https://devaka.ru/articles/nofollow-and-noindex-now 
http://searchengineland.com/google-loses-backwards-compatibility-on-paid-link-blocking-pagerank-sculpting-20408
и поэтому совет про простановке nofollow к ссылкам - несколько сомнительная затея)
Владимир, в итоге вынужден признать, что вы были полностью правы. Всё-таки рекомендации Google (как обычно) можно и нужно воспринимать не как полный ответ на вопрос (так как они действительно не передают PageRank). Однако подробно было описано, что с донора он «уходит», а акцептор не получает только после того, как оптимизаторы начали «управлять» весом с помощью атрибута rel nofollow.

Так что остаётся только один вариант «управлять» ссылочным весом → не ставить ссылки вовсе. Ну и тут нужно не перемудрить, потому что, если убрать со всех страниц ссылку на "Контакты" → это может неплохо ударить по бизнес-показателям :(

В итоге, в следующем релизе мы сделаем несколько доработок алгоритма, чтобы более чётко учитывать атрибут rel nofollow → сейчас же ссылки с таким атрибутом просто игнорируются.

Спасибо!)
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
Anton Reva
9 ноября 2016
1. да, точно уверен, 
мне нужно понимать, что я правильно переливаю вес с контентной части сайта тоже.

2. ок.
1. Хорошо. Подумаем, как это можно сделать более логично, чем присутствие на 50% страниц всего сайта.
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
Vasya Vasin
9 ноября 2016
Как исправить "Висячий узел" с jpg, pdf ?
Спасибо за вопрос! 
1. С изображениями типа jpg, png всё просто → рекомендуется их встраивать в страницы, а не давать на них прямые ссылки. А встроенное изображение уже показывать разными удобными для пользователей способами. Просто стараться избегать конструкции a href="IMAGE URL". 
При этом должна быть карта сайта изображений (Image Sitemap), где будут перечислены все страницы и картинки, которые на них есть. 
2. С другими форматами файлов типа pdf, doc, xls всё несколько сложнее → по сути, их также можно встраивать (не забывайте про возможности Google Docs) и размещать в карте сайта, чтобы поисковые системы их смогли проиндексировать. Однако сами поисковые системы умеют индексировать эти файлы как обычные HTML-файлы, а это значит, что, если внутри PDF-файла есть ссылка, например, на главную страницу вашего сайта, значит это уже не висячий узел, а обычная страница. К сожалению, Netpeak Spider пока что не индексирует полноценно файлы с форматом не-HTML. 
Возможно, чтобы не путать вас, мы уберём из алгоритма расчёта внутреннего PageRank другие форматы файлов, ссылки в которых мы ещё не умеем парсить. Спасибо, что навели на правильные мысли!)
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
Vasya Vasin
10 ноября 2016
Извиняюсь, только сейчас озадачился, а что означает встраивать в страницы? Если использовать src или href это уже как я понял будет висячий узел? Разжуйте пожалуйста недалекому.
Всё очень просто: под встраиванием в страницы я имею в виду использование img src="IMAGE URL". В этом случае при любом режиме сканирования в Netpeak Spider мы не будем считать изображение «висячим узлом».

Если же вы используете конструкцию a href="IMAGE URL", вот тогда это становится настоящим «висячим узлом», так как это прямая ссылка на какой-то узел, на котором нет исходящих ссылок, т.е. вес дальше не передаётся.

Я ответил на ваш вопрос? Не стесняйтесь спрашивать ещё → если я смогу помочь, обязательно это сделаю! :)
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
Vasya Vasin
11 ноября 2016
А если я делаю превью 100х100 вместо оригинала 2500х1300 (грубо говоря) который идет по href для оптимизации веса страницы и скорости загрузки? Тут как выкрутится?)
Разве что с помощью JS выводить просмотр увеличенного файла на текущей странице, который уже будет обращаться к «большой версии» файла, однако в исходном коде её не будет.
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
Alex Krivoshein
14 ноября 2016
А будет ли внедрена выгрузка карты сайта в xml и html форматах? если да то в каком временном интервале это планируется?
Да, 100% будет. Мы планировали выпустить релиз с генерацией XML и HTML-карт сайта уже на этой неделе, но вынуждены его задержать примерно на 2 недели. Так что уже совсем скоро ждите новую фичу!
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
ДОБРЫЙ ВЕЧЕР! МОЖЕТ ЗНАЕТЕ КАК В NextGEN УБРАТЬ ПРЯМУЮ ССЫЛКУ НА ФОТО? ВСЕ ФОТО С ПРЯМОЙ ССЫЛКОЙ. ПРОГРАММА ВЫДАЕТ КУЧУ ОШИБОК "ВИСЯЧИЙ УЗЕЛ". NextGEN ЭТО ПЛАГИН ДЛЯ ВОРДПРЕСС.
Дмитрий, здравствуйте!

Само понятие "Висячего узла" – это критическая ошибка, но если висячим узлом является картинка, то советую вам уделить время другим критическим и важным ошибкам. А когда они все будут исправлены, вот тогда уже можно будет задуматься о том, как убрать прямые ссылки на картинки. 

Главное – понимать, что исправление одной этой проблемы не принесёт моментально огромнейший результат в плане увеличения трафика / продаж и т.д. Однако, если все остальные моменты во внутренней оптимизации исправлены и отлажены, тогда можно задуматься об исправлении данной проблемы.

Насчёт плагина Photo Gallery не могу точно ответить, но уверен, что в исходном коде не должно остаться самой конструкции:
<a href="IMAGE URL"></a>
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
Я проверил. Включаешь атрибут HREF (как я написал выше), программа Netpeak Spider выдает "висячий узел", отключаешь - все чисто. Такая настройка есть только Photo Gallery, в NextGEN я такого не нашел.
Отлично: спасибо, что написали!) Будем рекомендовать использовать этот плагин в случае подобных ситуаций :)
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
Vitaliy Korshunov
8 декабря 2016
Добрый день подскажите вы не думали сделать возможность выгрузки сразу в гуглдокс? Часто приходится работать там, а перегонять файлы не очень удобно!
Виталий, даже это в планах у нас есть, но не в самых приоритетных. Перегонять хоть и не слишком удобно, но всё же возможно, потому мы и не пытаемся сломя голову делать эту фичу.

А в принципе насчёт Google Docs с вами полностью согласен – я сам уже давно не пользуюсь ничем другим.
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
Alex Krivoshein
14 ноября 2016
А будет ли внедрена выгрузка карты сайта в xml и html форматах? если да то в каком временном интервале это планируется?
Alex Krivoshein, кстати, только вчера выкатили новый релиз, где внедрена выгрузка XML и HTML карт сайта. Смотрите подробнее здесь — https://netpeaksoftware.com/ru/blog/netpeak-spider-2-1-1-3-generatsiya-sitemap
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
Спасибо
за пробный период. Netpeak - хорошая
программа!
Дмитрий, спасибо за то, что описали плагин и за приятные слова в наш адрес!) 

Пользуйтесь и советуйте нам, что можно ещё улучшить – вместе сделаем программу лидером рынка!)
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
Максим Соболев
21 декабря 2016
Ребята, это невероятно круто! Вы молодцы)
Максим, спасибо за отзыв! Мы очень старались :)

А теперь пришло время немного принести счастья этому миру... с помощью улучшенного Netpeak Checker, разумеется.)
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
Слава Иванов
27 декабря 2016
Очень нужная фича! Спасибо огромное, ждём новый Checker)
Спасибо за приятные слова! Новый Netpeak Checker будет уже очень скоро :)
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
Денис Ахсаров
7 сентября 2017
Мне программа выдала большое наличие Висячих узлов. Все они - картинки. Проблема ли это? И как устранить?Интернет-магазин на Опенкарт.
Денис, привет!) 

Я уже выше немного писал по этому поводу → сама ошибка "Висячий узел" крайне опасна. Но если там только изображения, то это не очень опасно, так что смело можете пропускать и заниматься более важными ошибками по внутреннему SEO-аудиту :)
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
Bogdan Topal
13 ноября 2017
Ура! Молодцы!
Не без твоей помощи, Богдан ;)
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
dewf fsdfds
7 декабря 2017
Добрый день! Скрыл вспомогательное меню скриптами(оставил его только на главной), программа считает что все хорошо, вес данных страниц снизился, нужных страниц увеличился. Но если посмотреть данные страницы как гуглбот через вебмастер, то Гугл видит данное меню, получается вес для поисковой системы все-таки не изменился? Спасибо.
Привет!)



Что означает для вас "скрыл меню скриптами"? SEO-hide? Google понемногу учится работать с JS и заверяет о том, что понимает ссылки, которые организованы через него, потому лучше в принципе избавляться от ссылок, не забывая о юзерах и юзабилити.
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
dewf fsdfds
7 декабря 2017
Скрыл с помощью JS. На данный момент ситуация такая, есть меню услуг - вынесено самое важное и основное и есть общее меню сайта - отзывы, о компании и.т.д. При расчете статического веса данные страницы имеют одинаковый показатель. При скрытии меню через JS Netpeak Spider показывает результат, которого мы бы хотели добиться, т.е. вес ненужных пунктов меню понизился. Если посмотреть страницы через Search Console сканирование-посмотреть как гуглбот, то меню видно на скриншоте "Так увидел эту страницу робот Googlebot".

Netpeak Spider как-то учитывает, что Гугл вначале рендерит страницу и исполняет JS при расчете статического веса и доступен ли данный JS пауку Googlebot?
Я понял вас!) Googlebot может рендерить JavaScript, Netpeak Spider пока что не умеет этого делать. Мы только в процессе разработки этой фичи.

Я вам как раз пытался объяснить в прошлом сообщении, что Google понимает ссылки, реализованные через JS, потому лучше пытаться не закрывать их скриптами, а реально убирать. Но если ссылки нужны бизнесу сайта и полезны для юзабилити, тогда нужно искать компромиссы.
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
dewf fsdfds
7 декабря 2017
Спасибо, а если закрыть JS от индексации в robots, это не решит проблему? Для юзабилити меню останется, статический вес станет меньше, чем на необходимых страницах.
Google очень не рекомендует этого делать – это же и есть SEO-hide. Очень советую всё-таки постараться как-то иначе, более просто (с технической точки зрения) и более сложно (с моральной) решить проблему.
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
dewf fsdfds
7 декабря 2017
Я должен был еще раз это спросить=) Спасибо, буду думать.
Netpeak Spider оказался самым удобным инструментом, функции такие же как у конкурентов, а юзабилити и простота в настройках на высоте.
Спасибо за приятные слова – мы стараемся! =)

И прошу извинения, что подводим с рендерингом JavaScript → это временно. Уже есть задумки, как сделать это оптимально!
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
1. Мы серьёзно. 
2. Если у вас есть копия нашего продукта, написанная на Python – вы большой молодец. Но я сомневаюсь, что у вас именно копия, так как мы работаем над текущим продуктом уже около 2-х лет, потратив огромное количество времени разработчиков, тестировщиков, project-менеджеров и менеджеров по работе с клиентами на улучшение продуктов. Это очень кропотливый труд и его очень сложно скопировать, даже если сильно захотеть :) 
3. По поводу работы с большими проектами: 

– На Windows – у нас дела получше: и в текущей версии всё кастомизируемо (можно работать с сайтами по 5 млн страниц без проблем); и в новой версии Netpeak Spider 3.0, которую мы сейчас разрабатываем – будет всё ещё лучше: там не нужно будет париться с отключением каких-то параметров, всё по умолчанию будет оптимизировано и это будет первый прецедент на рынке.
– На Mac OS – здесь немного сложнее с большими сайтами, и эта версия немного отстаёт от версии на Windows. Потому после запуска Netpeak Spider 3.0 на Windows мы уже будем думать о переделывании текущей версии Спайдера на Mac OS под новую архитектуру. Пока что на Mac OS могу посоветовать пробивать сайт частями, либо с использованием правил сканирования, обязательно с отключением параметра "Входящие ссылки" (пока что он жрёт больше всего оперативной памяти).
Дмитрий, могу ли я чем-нибудь ещё вам помочь? ;)
Нельзя лайкать самого себя
1Нравится
Ответить
Поделиться
Скопировано
Bogdan Topal
28 марта 2018
Молодцы!! Впечатляет. Ждем версию mac OS.
А как я жду, Богдан! ;) Спасибо за поддержку.
Нельзя лайкать самого себя
3Нравится
Ответить
Поделиться
Скопировано
Спасибо за статью, Николай! Всё по делу ;)

Единственный вопрос интересует → как вы замеряли, что поднялся трафик именно от сокращения URL: точно ли никаких других движений с сайтом не делали (я про чистоту эксперимента)?
Нельзя лайкать самого себя
3Нравится
Ответить
Поделиться
Скопировано
Алекс, спасибо за отзыв и отличный вопрос ... 

Вообще, первое, что я делал на своем блоге, чтобы привлекать трафик это писал множество контента. И контент был не самого высокого качества. Поэтому сильного роста я не наблюдал, а иногда он и вовсе застывал на одном месте на несколько месяцев, (как в описании первой тактики).

В то же время я постоянно читал популярные западные блоги и сайты и находил все больше информации о том, как сделать сайт более посещаемым и как увеличивать трафик. Далее, я применял это на практике. 

И как только я что-то новое делал, я замечал вот такие скачки трафика. Например, в прошлом году, когда трафик моего блога вырос почти в 2 раза, я не написал вообще ни одной статьи. 

А в этом году я начал наращивать ссылочную массу легальными методами и заметил, что трафик тоже идет в верх и причем сильно. 

Николай.
Понял, спасибо за подробный ответ ;) Удачи вам в раскрутке вашего блога!
Нельзя лайкать самого себя
1Нравится
Ответить
Поделиться
Скопировано
Отличный пост !
и самое главное, не забываем выбрать *заранее* качественный шаблон для Wordpress, ведь от оптимизации темы зависит и его быстрая реакция и скорость работы ( меньше мусора в коде, лучше и интереснее процесс раскрутки).
Чем меньше ошибок в коде, тем легче роботу индексировать ваш сайт :)
Айк, просто райский бальзам для глаз ;)

Александра ещё кучу постов про оптимизацию сайта на WordPress написала, зацените → https://netpeaksoftware.com/ru/blog/user/7bf5f9d3#posts
Нельзя лайкать самого себя
1Нравится
Ответить
Поделиться
Скопировано
Aleh Barysevich
3 августа 2018
Добрый день от команды SEO PowerSuite и лично меня, Олега Борисевича :) Круто, что вы продолжаете развивать Netpeak Spider, всегда приятно видеть улучшения, молодцы! А можете подробнее немного рассказать о проведенном эксперименте со сравнением краулеров? Интересно, какие использовались вводные данные, домены, какое железо, насколько репрезентативна выборка, ну и вообще методологию эксперимента. Думаю, всем пользователям было бы это тоже очень интересно. Спасибо!
Олег, привет: лично от меня и команды Netpeak Software! ;) Извиняюсь за такой долгий ответ — попросил своих ребят дать мне ответить, а тут ещё и выходные, потому немного затянулось.

Как я писал в статье, для сравнения краулеров мы приводили настройки программ к максимально похожим (насколько это позволяют сделать сами программы) и сканировали одинаковые сайты. Чуть подробнее опишу ниже:

1. Одинаковые настройки → область обхода сайта, количество потоков, типы сканируемого контента, учёт правил индексации, User Agent, IP-адрес.

2. Одинаковое железо → Windows Server 64-bit, процессор i7 2.67 GHz, оперативная память 24 GB, обычный жёсткий диск (не SSD).

3. Одинаковый домен → замеры проводились на сайте opera.com, который имеет достаточно много страниц и очень хорошую скорость ответа сервера, позволяющую «разогнать» сканирование до 70 URL/сек.

4. Одинаковый полный доступ к программам → купленные лицензии Screaming Frog SEO Spider, WebSite Auditor (тариф «Enterprise») и Sitebulb.

5. Перед каждым запуском проверялись 1000 страниц с помощью Netpeak Spider на соответствие эталонным показателям типа скорости сканирования и качества получения результатов (у нас они почти не меняются при сканировании сайта вглубь). Если всё стандартно, то сканирование начиналось следующим продуктом. Это необходимо, чтобы убрать фактор в стиле «Конечно же, вы просканировали своим продуктом 100K и после него Opera блокирует наш продукт и потому мы такие медленные!».

6. Каждый тест проведён несколько раз (некоторые продукты — очень много раз, так как не все смогли даже нагрузку в 100K выдержать). Результаты получились примерно одинаковые, то есть достаточно репрезентативные.

Отдельно хочу поблагодарить за приятные слова насчёт развития Netpeak Spider. Мы стараемся! Вы тоже большие молодцы, у вас хороший продукт :)

Олег, я могу ещё чем-то помочь?
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
Подскажите пожалуйста, а как можно URL картинки спарсить?
Олег, хоть Вика и ответила выше, но по таким точечным вопросам очень советую обращаться к нашим ребятам в техподдержку — они любят такие задачки ;)
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
Было бы неплохо при загрузке Netpeak Spider / Checker просить подсоединить датчик и загружать прямо в голову эту информацию каждому нашему пользователю — уж очень часто меня спрашивают, почему страницы не индексируются или вообще не сканируются ;)
Нельзя лайкать самого себя
1Нравится
Ответить
Поделиться
Скопировано
Andrii Gora
24 сентября 2018
Получается появился достойный конкурент SEO PowerSuit? Только в разы дороже, с платной рекаптчей и без визуализации. На кой?
Привет!)

1. Да, появился. Хотя нет, всегда был, если брать связку Netpeak Checker с Netpeak Spider — некоторые функции серьёзно пересекаются, но далеко не все.

2. Не в разы дороже.

3. Да, с платной антикапчей. В будущем, возможно, решим эту проблему, добавив решение капчи в отдельный тариф.

4. Насчёт визуализации — это вы про какой именно инструмент? Если про новый Netpeak Checker, то там никакой визуализации и не было предусмотрено, так как это всё-таки не трекер позиций. Если вы про Netpeak Spider, то это совсем другая история и у нас есть много функций, с помощью которых мы можем хорошо "поконкурировать" ;)

5. Если вы не видите смысла заранее в инструменте, то наша команда может вам помочь разобраться и увидеть этот смысл. Если и после этого не подойдёт, то вы хотя бы точно это будете знать!)
Нельзя лайкать самого себя
2Нравится
Ответить
Поделиться
Скопировано
Кайф в том, что я собираюсь тут канальчик сделать публичный и сам заюзаю этот мануал! Вика, премного благодарен! ;)
Нельзя лайкать самого себя
3Нравится
Ответить
Поделиться
Скопировано
Дима, спасибо за статью! Уже давненько не читал ничего так же легко и чётко написанного → я доволен! ;)
Нельзя лайкать самого себя
2Нравится
Ответить
Поделиться
Скопировано
Andrey Yaromenko
20 февраля 2019
К 11 вопросу можно подтверждающие источники? (x-robots-tag раньше применяется чем robots.txt?)
Мне самому интересно! ;) Попросил ребят — скоро ответят)))
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
Andrey Yaromenko
21 февраля 2019
Другое дело ;)
Уже исправили в ответах — Андрей, спасибо за наводку! ;)
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
Первый пост о major-релизе, который писали всей командой (а не я бессонными ночами) → я доволен, теперь можно на покой! ;)
Нельзя лайкать самого себя
10Нравится
Ответить
Поделиться
Скопировано
Illia Cherepynets
10 апреля 2019
Эх, на пол года бы раньше. А то в свое время пришлось поиграться с поиском багов
Ну нам пришлось повозиться, чтобы сделать максимально качественно: это занимает много времени :)
Нельзя лайкать самого себя
2Нравится
Ответить
Поделиться
Скопировано
Андрей Голуб
11 апреля 2019
Alex, о каком покое вы говорите? Даже и не думайте. Всё самое интересное только начинается. Отличный софт. Реально не представляю, как раньше обходится без него. Сейчас юзаю триал, но буду однозначно брать. Просто колоссальная экономия времени. Чумавое ПО. Если честно, то достойных аналогов на российском рынке я не встречал. Так что ребята, ни о каком покое не может быть и речи. Сделан колоссальный рывок, и теперь сбавлять обороты — просто преступление. Ещё раз хочу сказать большое спасибо за работу. А для тех кто ещё думает, хочу сказать следующее. Ребята, за вас уже всё придумали. Вам остаётся только брать это чудо в работу и навсегда забыть о нехватки времени, а так же кучи доп плагинов и ПО.
Андрей, спасибо за приятные слова! ;) 

P.s. честно говоря, я думал уйти «на покой», но никак не всю компанию туда отправить))))))
Нельзя лайкать самого себя
2Нравится
Ответить
Поделиться
Скопировано
Виктор Симонов
11 сентября 2019
Сегментации данных - вещь, которая и выручит и успеет надоесть) но без нее никак
А почему «надоесть»? :(
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
Виталий Охрименко
5 сентября 2019
Про внутреннюю БД особенно интересно. Не знал об этой фиче
Где можно подробней почить?
Виталий, думаю, ты очень много пользовался этой функцией, просто не знал, что она так называется))))
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
Aleksandr Gramm
12 сентября 2019
Добрый день. Очень круто. Соглашусь, по базе очень полезная фича.
Вообще пробовал спайдер во время бесплатного периода и просто наслаждался (это с учетом, что я могу сравнивать с другими инструментами).
К сожалению, да, к моему личному сожалению, направление маркетинга в нашей деятельности ограничено (пока что). Поэтому мне остается только ждать и люто рекомендовать инструмент знакомым.
Спасибо, Александр — нам мега-приятно ;) А вам желаю скорейшего развития и чтобы маркетинг был без ограничений!))
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
Pavel G
18 октября 2019
что по поводу приватности данных? я могу быть уверен что вы не пушете статистику себе? какие либо пруфы предоставить можете?
Павел, данные из Google Analytics или Search Console, которые вы анализируете в Netpeak Spider, полностью приватны: на этом мы специально сделали акцент в описании в настройках программы → https://img.netpeaksoftware.com/wise/15PY29M.png

Если бы вы попросили предоставить пруфы того, что мы что-то дополнительно собираем, мы бы смогли вам отправить кусочки кода, который это делает — но мы не можем вам отправлять пустоту, так как мы ничего не собираем ;)

Кстати, когда мы проходили валидацию приложения у самого Google, то, разумеется, они так же спрашивали про хранение данных и в иной ситуации, возможно, даже не предоставили бы нам возможность сделать такую интеграцию.

Потому предлагаю вам «поверить на слово», ибо репутация компании для меня не самый последний приоритет)))
Нельзя лайкать самого себя
2Нравится
Ответить
Поделиться
Скопировано
Сергей Федяшкин
25 октября 2019
А что по поводу интеграции с Яндекс.Метрикой?
Ждём, когда пользователи попросят ;) Пока что, честно говоря, немногие просят. Видимо, всё же GA стоит у большего количества проектов.

P.s. если вы не против, добавлю вас в список наших пользователей, которые ожидают эту фичу.
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
Сам спросил, сам и отвечу.
Нашёл. В списке с редиректами давим на F1 и получаем входящие ссылки. Там всё, что нужно.
Есть ещё один отчёт, который поможет вам, Дмитрий — вы найдёте его здесь: Экспорт → Специальные отчёты по ошибкам → Редиректы: входящие ссылки и конечные URL https://img.netpeaksoftware.com/wise/1E5IHCS.png

Этот отчёт был специально создан нами для того, чтобы смотреть, откуда стоят ссылки на страницы с редиректами, чтобы изменить эти ссылки на конечные и избавиться тем самым от цепочек.
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
Evgeniy А
19 июня 2020
Благодарю! Думаю, чтобы не заморачиваться с опросниками - проще в настройках кабинета (и при клике на кнопку "Отписаться" кстати, тоже) - разбить по уровню в виде чекбоксов. По умолчанию - все чекбоксы уровней "Новички", "Средний уровень", "Продвинутый" - включены, но можно просто снять галочку и не получать письма :)

Ну а дальше все просто - рассылаете всем пресс-релиз на почту "Теперь можно выбрать свой уровень подписки" и все)

+ посмотрите письмо последнее про хлебные крошки с мобильника) Надпись "Новичкам" заметна только если точно знать, что где-то там она должна быть)
Евгений, благодарю за дельные советы и позитивную критику — сейчас редко увидишь такое! ;)
Нельзя лайкать самого себя
1Нравится
Ответить
Поделиться
Скопировано
Самый лучший бесплатный конструктор сайтов и лендингов - это мой сын сеньор C# :))))
Но это личный как Вы понимаете :)))
А так Битрикс 24 раньше пользовался. Но капец, его писали пьяные программисты, ночью в подвале без света, ногами на калькуляторе без батареек
В Битрикс 24 смысл в огромном наборе инструментов и взаимодополняемости этих инструментов. Вы использовали просто отдельно конструктор лендингов или вместе с CRM и таск-менеджером?
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
Demi Murych
15 октября 2020
Селекторы
Непонятна целевая группа статьи. 
Если она для тех кто ориентируется в том, что такое селекторы, то объяснять им что такое совершенно не нужно. Тем более когда сам в этом вопросе плаваешь.
Если это статья для людей которые НЕ понимают и НЕ знают что такое DOM дерево, то научить их языку в рамках такой статьи невозможно, можно только напугать. Что Автору прекрасно удалось сделать. 

А нужно было всего лишь подсказать СПОСОБ как любой человек без каких бы то ни было специальных знаний может получить нужный адрес, не вспоминая детали языка который им не нужен.
 
СПОСОБ ПОЛУЧЕНИЯ НУЖНОГО СЕЛЕКТОРА:
Найдя нужный вам элемент в dev tools нажмите на нем правую кнопку мыши, в открывшемся подменю выберете опцию Copy ➊ в подменю меню выберете тот формат селектора который вам удобнее: ➋ для CSS селектора и ➌ для XPath. 
В буфер обмена будет скопирован готовый селектор для доступа к этому узлу.
 
Скрин: https://drive.google.com/file/d/1wY2qEScQSmCXyVxqMrCcrW-RfStkNLqX/view

Разница между CSS и XPath в рамках работы спайдера мне не известна. Если они используют webkit для парсинга страницы, то лучше выбирать CSS - будет работать быстрее. 

Ну и по сути предмета:
>В таком случае нужно использовать XPath. Он позволяет задать порядковый номер элемента.

XPath тут не нужен. Тут нужно знать предмет - а именно CSS чтобы не городить огороды.

Селекторы позволяют нумеровать конкретные ноды ровно так же как и XPath. 
Xpath:
//table[@class="chars-t"]/tbody/tr[2]/td[2]
CSS:
table.chars-t tbody tr:nth-child(1) td:nth-child(3)

XPath нужен только в случае, когда вам нужно адресовать узел, который идентифицировать можно исключительно при реверсивном обходе дерева. То есть то чего CSS делать не умеет.
1. Целевая аудитория этой статьи — наши пользователи. И им сочувствующие)))

2. Спасибо за комментарий и советы.)

3. Никто из нас не идеален и не знает всех нюансов в любом деле в мире — и вы тоже. Но мы стараемся каждый день становиться лучше: думаю, что подобные комментарии помогут нам в этом!)
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
Антон Величко
27 октября 2020
Призовой подарочек получен! 
Немного долго получилось, извиняюсь, перед ребятами! 
Фото для отчета отослал!

Теперь деятельность по SEOшке пошла с новой силой в паре с совой-помощницей!))
С полным комплектом "помощница+колонка+очки" можно вообще со стула не вставать без крайней необходимости! Котейка, гроза ITшников, уже пробовал покушаться на конкурентку, но она высоко сидит и далеко глядит!))

Еще раз благодарю за возможность рассказать мою историю. Надеюсь, что кому-нибудь она была интересна и придала уверенности в том, что можно в любом возрасте начать с чистого листа.

Живите и процветайте, коллеги!)
Фотосессию с совой-помощницей видел — команда в восторге! Спасибо за историю и кучу приятных эмоций ;)
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
Алекс Алекс
26 ноября 2020
Сейчас будет смешно. Когда захотел купить упомянутый в статье Netpeak Spider, но AdBlock блокирует содержимое раздела "Подписки" в личном кабинете Netpeak Software =) И не картинки, а целые блоки основного контента этого раздела.
Это не очень смешно, даже грустно стало ;( 

Мы разберёмся, спасибо!)
Нельзя лайкать самого себя
1Нравится
Ответить
Поделиться
Скопировано
Алекс Алекс
26 ноября 2020
???? Скрин примера я утром высылал в тикете по поводу возврата за продление подписки. Оказалась проблема в Адблоке, что не видно никаких включенных подписок и возможностей их выключить - адблок режет половину страницы.
Да, мы так и поняли — из-за этой функции AdBlock блокирует наши плашки https://img.netpeaksoftware.com/yuki/SJN0OI.png
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано