
Alex Wise
- Комментарии (56)
- Посты (6)
Сортировка:
сначала старые
- сначала старые
- сначала новые
Сортировка:
сначала непрочитанные
- сначала непрочитанные
- сначала новые
Alex WiseCEO & Founder в Netpeak Software
8 ноября 2016
Андрей Крючков
8 ноября 2016
Где то слышал, что поисковые машины стараются не учитывать при расчёте внутреннего ПР по сайту сквозные ссылки, например в меню. Возможно ли в вашей программе отключить учёт сквозных ссылок?
Андрей, спасибо, что написали!) В Netpeak Spider нет возможности отключить учёт сквозных ссылок, так как эта информация является крайне неподтверждённой. В новой версии мы стараемся внедрять только то, в чём уверены и не вводить в заблуждение наших пользователей. Текущая версия расчёта внутреннего PageRank учитывает беcчисленное количество нюансов и, даже без учёта сквозных ссылок, может очень круто помочь с оптимизацией ваших проектов. P.s. если вы убеждены, что влияние сквозных ссылок необходимо учитывать и сможете привести информацию, которая сможет развеять все сомнения, то мы всегда будем рады помочь вам и поработать в этом направлении!
Alex WiseCEO & Founder в Netpeak Software
8 ноября 2016
Ирина Томчакова
8 ноября 2016
Очень-очень круто!
Спасибо за отзыв!) Пользуйтесь и пишите, как вам!
Alex WiseCEO & Founder в Netpeak Software
8 ноября 2016
Ololo Lololo
8 ноября 2016
Спасибо! Вы крутые))
Спасибо за приятные слова!)
Alex WiseCEO & Founder в Netpeak Software
8 ноября 2016
Api Phito
8 ноября 2016
Может вы еще напишете рекомендации о том, что делать для достижения идеального варианта благодаря полученной информации из Netpeak Spider? :) Как можно манипулировать передачей весов внутри сайта?
Скоро будет отдельный пост, посвящённый тому, как именно использовать фишки Netpeak Spider на практике :) А пока лишь могу кратко сказать: избавьтесь от всех «висячих узлов» и перераспределите вес с неважных страниц на важные путём самой обычной простановки атрибута rel nofollow на ссылки. Ссылки с таким атрибутом не передают PageRank и позволяют аккумулировать ссылочный вес на нужных страницах, если вы правильно организуете внутреннюю перелинковку.
Alex WiseCEO & Founder в Netpeak Software
8 ноября 2016
Vladimir Maltsev
8 ноября 2016
Скажите, а вы смотрите за функционалом своего прямого конкурента - screaming frog'ом? Мои коллеги из-за рубежа пользуются только им и почему-то отказываются переходить на ваш софт.
А что это за программа? Если серьёзно, то, разумеется, смотрим: как же мы можем не смотреть? Просто между нами есть небольшая разница → нам 4 месяца, а им 7 лет. Потому мы не всё сразу можем внедрить и сразу их обогнать. Хотя такие планы, определённо имеются, ибо наша цель → сделать самый крутой в мире десктопный SEO-краулер. И мы понемногу к этой цели идём... бежим, я бы даже сказал!
Alex WiseCEO & Founder в Netpeak Software
8 ноября 2016
Api Phito
8 ноября 2016
Спасибо за ответ. Буду с нетерпением ждать пост. Я многократно встречал информацию о том, что rel=nofollow передает вес, но он не доходит до страницы-донора. Якобы лучше вообще скрывать не нужные ссылки скриптами. Очень потому хочется узнать мнение экспертов в этом вопросе.
Вот главное мнение экспертов, на которое можно положиться → https://support.google.com/webmasters/answer/96569?hl=ru Специально для вас: http://img.netpeaksoftware.com/wise/UBKSDI.png
Alex WiseCEO & Founder в Netpeak Software
8 ноября 2016
Vladimir Maltsev
8 ноября 2016
Позволю заметить, что либо я не понял Вашу мысль, либо Вы не совсем верно понимаете работу nofollow ссылок. Давно еще Гугл изменил поведение https://devaka.ru/articles/nofollow-and-noindex-now http://searchengineland.com/google-loses-backwards-compatibility-on-paid-link-blocking-pagerank-sculpting-20408 и поэтому совет про простановке nofollow к ссылкам - несколько сомнительная затея)
Владимир, несколько заметок: 1. Я привёл ссылку на рекомендации Google и склонен больше верить именно их интерпретации своих же алгоритмов. 2. Атрибут rel nofollow используется именно для того, чтобы не позволять перейти по ссылке → только столкнувшись с теми же проблемами, с которыми сталкивался в своё время Google, мы поняли, как именно происходит расчёт. Грубо говоря, только когда начинаешь думать, как Google (или другая поисковая система) и при определённой технической подкованности можно понять некоторые инсайты, о которых другие могут только выдвигать гипотезы, ну, или же, как вы приводите ссылку, делать эксперименты, которые со временем, разумеется, теряют свою актуальность. В итоге, мы влезли в шкуру поисковых систем и на основании множества лет опыта и смекалки сделали данный алгоритм, с которым можно и нужно спорить, но только аргументированно: желательно с заявлениями разработчиков поисковых систем.
Alex WiseCEO & Founder в Netpeak Software
9 ноября 2016
Anton Reva
9 ноября 2016
1. Так у вас же было в предыдущей версии отключение сквозных ссылок 2. это конечно нужно сделать, так как важно рассчитывать вес которые передается по уникальным ссылкам из контента и из различных динамических блоков. а так получается, что сквозные ссылки будут давать перегибы. П.С. Разберитесь с авторизацией: я написал коммент, но хорошо что додумался сохранить его в буфер перед нажатием на Reply, так как когда я нажал на реплай, меня перекинуло на форму авторизации, потом обратно, НО ... мой коммент пропал ((. второй раз было бы лень уже писать.
1. Да, в предыдущей версии было отключение, но вы уверены, что хотите верить в какое-то "эфимерное отключение сквозных ссылок" по алгоритму, который нельзя назвать самым изящным? Мы считали сквозными ссылками те ссылки, которые встречаются на более чем 50% всех страниц. Вы считаете, что поисковые системы так же "чётко" делают? :) 2. Насчёт авторизации и копирования коммента → скоро будем использовать другую систему и вообще запустим свой блог, где таких проблем уже быть не должно. Пока что сами мучаемся, так как система "Community", в которой мы переписываемся, не является нашей разработкой. Спасибо, что сообщили!
Alex WiseCEO & Founder в Netpeak Software
9 ноября 2016
Степан Ермаков
8 ноября 2016
распределение веса еще влияет для информационных сайтов? Есть ли кейсы/исследования?
1. Распределение ссылочного веса влияет для всех сайтов без исключения. Это вроде как логично!) 2. Кейсов и исследований по результатам работы нашей программы пока что нет. Мы только запустили данную функцию, которая уже поможет работать со ссылочным весов внутри сайта, потому такие кейсы должны будут появляться со временем.
Alex WiseCEO & Founder в Netpeak Software
9 ноября 2016
Vladimir Maltsev
8 ноября 2016
Позволю заметить, что либо я не понял Вашу мысль, либо Вы не совсем верно понимаете работу nofollow ссылок. Давно еще Гугл изменил поведение https://devaka.ru/articles/nofollow-and-noindex-now http://searchengineland.com/google-loses-backwards-compatibility-on-paid-link-blocking-pagerank-sculpting-20408 и поэтому совет про простановке nofollow к ссылкам - несколько сомнительная затея)
Владимир, в итоге вынужден признать, что вы были полностью правы. Всё-таки рекомендации Google (как обычно) можно и нужно воспринимать не как полный ответ на вопрос (так как они действительно не передают PageRank). Однако подробно было описано, что с донора он «уходит», а акцептор не получает только после того, как оптимизаторы начали «управлять» весом с помощью атрибута rel nofollow. Так что остаётся только один вариант «управлять» ссылочным весом → не ставить ссылки вовсе. Ну и тут нужно не перемудрить, потому что, если убрать со всех страниц ссылку на "Контакты" → это может неплохо ударить по бизнес-показателям :( В итоге, в следующем релизе мы сделаем несколько доработок алгоритма, чтобы более чётко учитывать атрибут rel nofollow → сейчас же ссылки с таким атрибутом просто игнорируются. Спасибо!)
Alex WiseCEO & Founder в Netpeak Software
9 ноября 2016
Anton Reva
9 ноября 2016
1. да, точно уверен, мне нужно понимать, что я правильно переливаю вес с контентной части сайта тоже. 2. ок.
1. Хорошо. Подумаем, как это можно сделать более логично, чем присутствие на 50% страниц всего сайта.
Alex WiseCEO & Founder в Netpeak Software
9 ноября 2016
Vasya Vasin
9 ноября 2016
Как исправить "Висячий узел" с jpg, pdf ?
Спасибо за вопрос! 1. С изображениями типа jpg, png всё просто → рекомендуется их встраивать в страницы, а не давать на них прямые ссылки. А встроенное изображение уже показывать разными удобными для пользователей способами. Просто стараться избегать конструкции a href="IMAGE URL". При этом должна быть карта сайта изображений (Image Sitemap), где будут перечислены все страницы и картинки, которые на них есть. 2. С другими форматами файлов типа pdf, doc, xls всё несколько сложнее → по сути, их также можно встраивать (не забывайте про возможности Google Docs) и размещать в карте сайта, чтобы поисковые системы их смогли проиндексировать. Однако сами поисковые системы умеют индексировать эти файлы как обычные HTML-файлы, а это значит, что, если внутри PDF-файла есть ссылка, например, на главную страницу вашего сайта, значит это уже не висячий узел, а обычная страница. К сожалению, Netpeak Spider пока что не индексирует полноценно файлы с форматом не-HTML. Возможно, чтобы не путать вас, мы уберём из алгоритма расчёта внутреннего PageRank другие форматы файлов, ссылки в которых мы ещё не умеем парсить. Спасибо, что навели на правильные мысли!)
Alex WiseCEO & Founder в Netpeak Software
10 ноября 2016
Vasya Vasin
10 ноября 2016
Извиняюсь, только сейчас озадачился, а что означает встраивать в страницы? Если использовать src или href это уже как я понял будет висячий узел? Разжуйте пожалуйста недалекому.
Всё очень просто: под встраиванием в страницы я имею в виду использование img src="IMAGE URL". В этом случае при любом режиме сканирования в Netpeak Spider мы не будем считать изображение «висячим узлом». Если же вы используете конструкцию a href="IMAGE URL", вот тогда это становится настоящим «висячим узлом», так как это прямая ссылка на какой-то узел, на котором нет исходящих ссылок, т.е. вес дальше не передаётся. Я ответил на ваш вопрос? Не стесняйтесь спрашивать ещё → если я смогу помочь, обязательно это сделаю! :)
Alex WiseCEO & Founder в Netpeak Software
11 ноября 2016
Vasya Vasin
11 ноября 2016
А если я делаю превью 100х100 вместо оригинала 2500х1300 (грубо говоря) который идет по href для оптимизации веса страницы и скорости загрузки? Тут как выкрутится?)
Разве что с помощью JS выводить просмотр увеличенного файла на текущей странице, который уже будет обращаться к «большой версии» файла, однако в исходном коде её не будет.
Alex WiseCEO & Founder в Netpeak Software
14 ноября 2016
Alex Krivoshein
14 ноября 2016
А будет ли внедрена выгрузка карты сайта в xml и html форматах? если да то в каком временном интервале это планируется?
Да, 100% будет. Мы планировали выпустить релиз с генерацией XML и HTML-карт сайта уже на этой неделе, но вынуждены его задержать примерно на 2 недели. Так что уже совсем скоро ждите новую фичу!
Alex WiseCEO & Founder в Netpeak Software
7 декабря 2016
Дмитрий Владимирович
6 декабря 2016
ДОБРЫЙ ВЕЧЕР! МОЖЕТ ЗНАЕТЕ КАК В NextGEN УБРАТЬ ПРЯМУЮ ССЫЛКУ НА ФОТО? ВСЕ ФОТО С ПРЯМОЙ ССЫЛКОЙ. ПРОГРАММА ВЫДАЕТ КУЧУ ОШИБОК "ВИСЯЧИЙ УЗЕЛ". NextGEN ЭТО ПЛАГИН ДЛЯ ВОРДПРЕСС.
Дмитрий, здравствуйте! Само понятие "Висячего узла" – это критическая ошибка, но если висячим узлом является картинка, то советую вам уделить время другим критическим и важным ошибкам. А когда они все будут исправлены, вот тогда уже можно будет задуматься о том, как убрать прямые ссылки на картинки. Главное – понимать, что исправление одной этой проблемы не принесёт моментально огромнейший результат в плане увеличения трафика / продаж и т.д. Однако, если все остальные моменты во внутренней оптимизации исправлены и отлажены, тогда можно задуматься об исправлении данной проблемы. Насчёт плагина Photo Gallery не могу точно ответить, но уверен, что в исходном коде не должно остаться самой конструкции: <a href="IMAGE URL"></a>
Alex WiseCEO & Founder в Netpeak Software
7 декабря 2016
Дмитрий Владимирович
7 декабря 2016
Я проверил. Включаешь атрибут HREF (как я написал выше), программа Netpeak Spider выдает "висячий узел", отключаешь - все чисто. Такая настройка есть только Photo Gallery, в NextGEN я такого не нашел.
Отлично: спасибо, что написали!) Будем рекомендовать использовать этот плагин в случае подобных ситуаций :)
Alex WiseCEO & Founder в Netpeak Software
8 декабря 2016
Vitaliy Korshunov
8 декабря 2016
Добрый день подскажите вы не думали сделать возможность выгрузки сразу в гуглдокс? Часто приходится работать там, а перегонять файлы не очень удобно!
Виталий, даже это в планах у нас есть, но не в самых приоритетных. Перегонять хоть и не слишком удобно, но всё же возможно, потому мы и не пытаемся сломя голову делать эту фичу. А в принципе насчёт Google Docs с вами полностью согласен – я сам уже давно не пользуюсь ничем другим.
Alex WiseCEO & Founder в Netpeak Software
8 декабря 2016
Alex Krivoshein
14 ноября 2016
А будет ли внедрена выгрузка карты сайта в xml и html форматах? если да то в каком временном интервале это планируется?
Alex Krivoshein, кстати, только вчера выкатили новый релиз, где внедрена выгрузка XML и HTML карт сайта. Смотрите подробнее здесь — https://netpeaksoftware.com/ru/blog/netpeak-spider-2-1-1-3-generatsiya-sitemap
Alex WiseCEO & Founder в Netpeak Software
8 декабря 2016
Дмитрий Владимирович
8 декабря 2016
Спасибо за пробный период. Netpeak - хорошая программа!
Дмитрий, спасибо за то, что описали плагин и за приятные слова в наш адрес!) Пользуйтесь и советуйте нам, что можно ещё улучшить – вместе сделаем программу лидером рынка!)
Alex WiseCEO & Founder в Netpeak Software
21 декабря 2016
Максим Соболев
21 декабря 2016
Ребята, это невероятно круто! Вы молодцы)
Максим, спасибо за отзыв! Мы очень старались :) А теперь пришло время немного принести счастья этому миру... с помощью улучшенного Netpeak Checker, разумеется.)
Alex WiseCEO & Founder в Netpeak Software
27 декабря 2016
Слава Иванов
27 декабря 2016
Очень нужная фича! Спасибо огромное, ждём новый Checker)
Спасибо за приятные слова! Новый Netpeak Checker будет уже очень скоро :)
Alex WiseCEO & Founder в Netpeak Software
13 сентября 2017
Денис Ахсаров
7 сентября 2017
Мне программа выдала большое наличие Висячих узлов. Все они - картинки. Проблема ли это? И как устранить?Интернет-магазин на Опенкарт.
Денис, привет!) Я уже выше немного писал по этому поводу → сама ошибка "Висячий узел" крайне опасна. Но если там только изображения, то это не очень опасно, так что смело можете пропускать и заниматься более важными ошибками по внутреннему SEO-аудиту :)
Alex WiseCEO & Founder в Netpeak Software
13 ноября 2017
Bogdan Topal
13 ноября 2017
Ура! Молодцы!
Не без твоей помощи, Богдан ;)
Alex WiseCEO & Founder в Netpeak Software
7 декабря 2017
dewf fsdfds
7 декабря 2017
Добрый день! Скрыл вспомогательное меню скриптами(оставил его только на главной), программа считает что все хорошо, вес данных страниц снизился, нужных страниц увеличился. Но если посмотреть данные страницы как гуглбот через вебмастер, то Гугл видит данное меню, получается вес для поисковой системы все-таки не изменился? Спасибо.
Привет!) Что означает для вас "скрыл меню скриптами"? SEO-hide? Google понемногу учится работать с JS и заверяет о том, что понимает ссылки, которые организованы через него, потому лучше в принципе избавляться от ссылок, не забывая о юзерах и юзабилити.
Alex WiseCEO & Founder в Netpeak Software
7 декабря 2017
dewf fsdfds
7 декабря 2017
Скрыл с помощью JS. На данный момент ситуация такая, есть меню услуг - вынесено самое важное и основное и есть общее меню сайта - отзывы, о компании и.т.д. При расчете статического веса данные страницы имеют одинаковый показатель. При скрытии меню через JS Netpeak Spider показывает результат, которого мы бы хотели добиться, т.е. вес ненужных пунктов меню понизился. Если посмотреть страницы через Search Console сканирование-посмотреть как гуглбот, то меню видно на скриншоте "Так увидел эту страницу робот Googlebot". Netpeak Spider как-то учитывает, что Гугл вначале рендерит страницу и исполняет JS при расчете статического веса и доступен ли данный JS пауку Googlebot?
Я понял вас!) Googlebot может рендерить JavaScript, Netpeak Spider пока что не умеет этого делать. Мы только в процессе разработки этой фичи. Я вам как раз пытался объяснить в прошлом сообщении, что Google понимает ссылки, реализованные через JS, потому лучше пытаться не закрывать их скриптами, а реально убирать. Но если ссылки нужны бизнесу сайта и полезны для юзабилити, тогда нужно искать компромиссы.
Alex WiseCEO & Founder в Netpeak Software
7 декабря 2017
dewf fsdfds
7 декабря 2017
Спасибо, а если закрыть JS от индексации в robots, это не решит проблему? Для юзабилити меню останется, статический вес станет меньше, чем на необходимых страницах.
Google очень не рекомендует этого делать – это же и есть SEO-hide. Очень советую всё-таки постараться как-то иначе, более просто (с технической точки зрения) и более сложно (с моральной) решить проблему.
Alex WiseCEO & Founder в Netpeak Software
7 декабря 2017
dewf fsdfds
7 декабря 2017
Я должен был еще раз это спросить=) Спасибо, буду думать. Netpeak Spider оказался самым удобным инструментом, функции такие же как у конкурентов, а юзабилити и простота в настройках на высоте.
Спасибо за приятные слова – мы стараемся! =) И прошу извинения, что подводим с рендерингом JavaScript → это временно. Уже есть задумки, как сделать это оптимально!
Alex WiseCEO & Founder в Netpeak Software
27 декабря 2017
1. Мы серьёзно. 2. Если у вас есть копия нашего продукта, написанная на Python – вы большой молодец. Но я сомневаюсь, что у вас именно копия, так как мы работаем над текущим продуктом уже около 2-х лет, потратив огромное количество времени разработчиков, тестировщиков, project-менеджеров и менеджеров по работе с клиентами на улучшение продуктов. Это очень кропотливый труд и его очень сложно скопировать, даже если сильно захотеть :) 3. По поводу работы с большими проектами: – На Windows – у нас дела получше: и в текущей версии всё кастомизируемо (можно работать с сайтами по 5 млн страниц без проблем); и в новой версии Netpeak Spider 3.0, которую мы сейчас разрабатываем – будет всё ещё лучше: там не нужно будет париться с отключением каких-то параметров, всё по умолчанию будет оптимизировано и это будет первый прецедент на рынке. – На Mac OS – здесь немного сложнее с большими сайтами, и эта версия немного отстаёт от версии на Windows. Потому после запуска Netpeak Spider 3.0 на Windows мы уже будем думать о переделывании текущей версии Спайдера на Mac OS под новую архитектуру. Пока что на Mac OS могу посоветовать пробивать сайт частями, либо с использованием правил сканирования, обязательно с отключением параметра "Входящие ссылки" (пока что он жрёт больше всего оперативной памяти). Дмитрий, могу ли я чем-нибудь ещё вам помочь? ;)
Alex WiseCEO & Founder в Netpeak Software
28 марта 2018
Bogdan Topal
28 марта 2018
Молодцы!! Впечатляет. Ждем версию mac OS.
А как я жду, Богдан! ;) Спасибо за поддержку.
Alex WiseCEO & Founder в Netpeak Software
29 мая 2018
Спасибо за статью, Николай! Всё по делу ;) Единственный вопрос интересует → как вы замеряли, что поднялся трафик именно от сокращения URL: точно ли никаких других движений с сайтом не делали (я про чистоту эксперимента)?
Alex WiseCEO & Founder в Netpeak Software
29 мая 2018
Николай Гринько
29 мая 2018
Алекс, спасибо за отзыв и отличный вопрос ... Вообще, первое, что я делал на своем блоге, чтобы привлекать трафик это писал множество контента. И контент был не самого высокого качества. Поэтому сильного роста я не наблюдал, а иногда он и вовсе застывал на одном месте на несколько месяцев, (как в описании первой тактики). В то же время я постоянно читал популярные западные блоги и сайты и находил все больше информации о том, как сделать сайт более посещаемым и как увеличивать трафик. Далее, я применял это на практике. И как только я что-то новое делал, я замечал вот такие скачки трафика. Например, в прошлом году, когда трафик моего блога вырос почти в 2 раза, я не написал вообще ни одной статьи. А в этом году я начал наращивать ссылочную массу легальными методами и заметил, что трафик тоже идет в верх и причем сильно. Николай.
Понял, спасибо за подробный ответ ;) Удачи вам в раскрутке вашего блога!
Alex WiseCEO & Founder в Netpeak Software
7 июня 2018
Андрей Петров
7 июня 2018
Отличный пост ! и самое главное, не забываем выбрать *заранее* качественный шаблон для Wordpress, ведь от оптимизации темы зависит и его быстрая реакция и скорость работы ( меньше мусора в коде, лучше и интереснее процесс раскрутки). Чем меньше ошибок в коде, тем легче роботу индексировать ваш сайт :)
Айк, просто райский бальзам для глаз ;) Александра ещё кучу постов про оптимизацию сайта на WordPress написала, зацените → https://netpeaksoftware.com/ru/blog/user/7bf5f9d3#posts
Alex WiseCEO & Founder в Netpeak Software
6 августа 2018
Aleh Barysevich
3 августа 2018
Добрый день от команды SEO PowerSuite и лично меня, Олега Борисевича :) Круто, что вы продолжаете развивать Netpeak Spider, всегда приятно видеть улучшения, молодцы! А можете подробнее немного рассказать о проведенном эксперименте со сравнением краулеров? Интересно, какие использовались вводные данные, домены, какое железо, насколько репрезентативна выборка, ну и вообще методологию эксперимента. Думаю, всем пользователям было бы это тоже очень интересно. Спасибо!
Олег, привет: лично от меня и команды Netpeak Software! ;) Извиняюсь за такой долгий ответ — попросил своих ребят дать мне ответить, а тут ещё и выходные, потому немного затянулось. Как я писал в статье, для сравнения краулеров мы приводили настройки программ к максимально похожим (насколько это позволяют сделать сами программы) и сканировали одинаковые сайты. Чуть подробнее опишу ниже: 1. Одинаковые настройки → область обхода сайта, количество потоков, типы сканируемого контента, учёт правил индексации, User Agent, IP-адрес. 2. Одинаковое железо → Windows Server 64-bit, процессор i7 2.67 GHz, оперативная память 24 GB, обычный жёсткий диск (не SSD). 3. Одинаковый домен → замеры проводились на сайте opera.com, который имеет достаточно много страниц и очень хорошую скорость ответа сервера, позволяющую «разогнать» сканирование до 70 URL/сек. 4. Одинаковый полный доступ к программам → купленные лицензии Screaming Frog SEO Spider, WebSite Auditor (тариф «Enterprise») и Sitebulb. 5. Перед каждым запуском проверялись 1000 страниц с помощью Netpeak Spider на соответствие эталонным показателям типа скорости сканирования и качества получения результатов (у нас они почти не меняются при сканировании сайта вглубь). Если всё стандартно, то сканирование начиналось следующим продуктом. Это необходимо, чтобы убрать фактор в стиле «Конечно же, вы просканировали своим продуктом 100K и после него Opera блокирует наш продукт и потому мы такие медленные!». 6. Каждый тест проведён несколько раз (некоторые продукты — очень много раз, так как не все смогли даже нагрузку в 100K выдержать). Результаты получились примерно одинаковые, то есть достаточно репрезентативные. Отдельно хочу поблагодарить за приятные слова насчёт развития Netpeak Spider. Мы стараемся! Вы тоже большие молодцы, у вас хороший продукт :) Олег, я могу ещё чем-то помочь?
Alex WiseCEO & Founder в Netpeak Software
17 августа 2018
Олег Фарионов
25 мая 2018
Подскажите пожалуйста, а как можно URL картинки спарсить?
Олег, хоть Вика и ответила выше, но по таким точечным вопросам очень советую обращаться к нашим ребятам в техподдержку — они любят такие задачки ;)
Alex WiseCEO & Founder в Netpeak Software
25 августа 2018
Было бы неплохо при загрузке Netpeak Spider / Checker просить подсоединить датчик и загружать прямо в голову эту информацию каждому нашему пользователю — уж очень часто меня спрашивают, почему страницы не индексируются или вообще не сканируются ;)
Alex WiseCEO & Founder в Netpeak Software
24 сентября 2018
Andrii Gora
24 сентября 2018
Получается появился достойный конкурент SEO PowerSuit? Только в разы дороже, с платной рекаптчей и без визуализации. На кой?
Привет!) 1. Да, появился. Хотя нет, всегда был, если брать связку Netpeak Checker с Netpeak Spider — некоторые функции серьёзно пересекаются, но далеко не все. 2. Не в разы дороже. 3. Да, с платной антикапчей. В будущем, возможно, решим эту проблему, добавив решение капчи в отдельный тариф. 4. Насчёт визуализации — это вы про какой именно инструмент? Если про новый Netpeak Checker, то там никакой визуализации и не было предусмотрено, так как это всё-таки не трекер позиций. Если вы про Netpeak Spider, то это совсем другая история и у нас есть много функций, с помощью которых мы можем хорошо "поконкурировать" ;) 5. Если вы не видите смысла заранее в инструменте, то наша команда может вам помочь разобраться и увидеть этот смысл. Если и после этого не подойдёт, то вы хотя бы точно это будете знать!)
Alex WiseCEO & Founder в Netpeak Software
26 октября 2018
Кайф в том, что я собираюсь тут канальчик сделать публичный и сам заюзаю этот мануал! Вика, премного благодарен! ;)
Alex WiseCEO & Founder в Netpeak Software
7 декабря 2018
Дима, спасибо за статью! Уже давненько не читал ничего так же легко и чётко написанного → я доволен! ;)
Alex WiseCEO & Founder в Netpeak Software
20 февраля 2019
Andrey Yaromenko
20 февраля 2019
К 11 вопросу можно подтверждающие источники? (x-robots-tag раньше применяется чем robots.txt?)
Мне самому интересно! ;) Попросил ребят — скоро ответят)))
Alex WiseCEO & Founder в Netpeak Software
25 февраля 2019
Andrey Yaromenko
21 февраля 2019
Другое дело ;)
Уже исправили в ответах — Андрей, спасибо за наводку! ;)
Alex WiseCEO & Founder в Netpeak Software
10 апреля 2019
Первый пост о major-релизе, который писали всей командой (а не я бессонными ночами) → я доволен, теперь можно на покой! ;)
Alex WiseCEO & Founder в Netpeak Software
10 апреля 2019
Illia Cherepynets
10 апреля 2019
Эх, на пол года бы раньше. А то в свое время пришлось поиграться с поиском багов
Ну нам пришлось повозиться, чтобы сделать максимально качественно: это занимает много времени :)
Alex WiseCEO & Founder в Netpeak Software
11 апреля 2019
Андрей Голуб
11 апреля 2019
Alex, о каком покое вы говорите? Даже и не думайте. Всё самое интересное только начинается. Отличный софт. Реально не представляю, как раньше обходится без него. Сейчас юзаю триал, но буду однозначно брать. Просто колоссальная экономия времени. Чумавое ПО. Если честно, то достойных аналогов на российском рынке я не встречал. Так что ребята, ни о каком покое не может быть и речи. Сделан колоссальный рывок, и теперь сбавлять обороты — просто преступление. Ещё раз хочу сказать большое спасибо за работу. А для тех кто ещё думает, хочу сказать следующее. Ребята, за вас уже всё придумали. Вам остаётся только брать это чудо в работу и навсегда забыть о нехватки времени, а так же кучи доп плагинов и ПО.
Андрей, спасибо за приятные слова! ;) P.s. честно говоря, я думал уйти «на покой», но никак не всю компанию туда отправить))))))
Alex WiseCEO & Founder в Netpeak Software
12 сентября 2019
Виктор Симонов
11 сентября 2019
Сегментации данных - вещь, которая и выручит и успеет надоесть) но без нее никак
А почему «надоесть»? :(
Alex WiseCEO & Founder в Netpeak Software
12 сентября 2019
Виталий Охрименко
5 сентября 2019
Про внутреннюю БД особенно интересно. Не знал об этой фиче Где можно подробней почить?
Виталий, думаю, ты очень много пользовался этой функцией, просто не знал, что она так называется))))
Alex WiseCEO & Founder в Netpeak Software
13 сентября 2019
Aleksandr Gramm
12 сентября 2019
Добрый день. Очень круто. Соглашусь, по базе очень полезная фича. Вообще пробовал спайдер во время бесплатного периода и просто наслаждался (это с учетом, что я могу сравнивать с другими инструментами). К сожалению, да, к моему личному сожалению, направление маркетинга в нашей деятельности ограничено (пока что). Поэтому мне остается только ждать и люто рекомендовать инструмент знакомым.
Спасибо, Александр — нам мега-приятно ;) А вам желаю скорейшего развития и чтобы маркетинг был без ограничений!))
Alex WiseCEO & Founder в Netpeak Software
18 октября 2019
Pavel G
18 октября 2019
что по поводу приватности данных? я могу быть уверен что вы не пушете статистику себе? какие либо пруфы предоставить можете?
Павел, данные из Google Analytics или Search Console, которые вы анализируете в Netpeak Spider, полностью приватны: на этом мы специально сделали акцент в описании в настройках программы → https://img.netpeaksoftware.com/wise/15PY29M.png Если бы вы попросили предоставить пруфы того, что мы что-то дополнительно собираем, мы бы смогли вам отправить кусочки кода, который это делает — но мы не можем вам отправлять пустоту, так как мы ничего не собираем ;) Кстати, когда мы проходили валидацию приложения у самого Google, то, разумеется, они так же спрашивали про хранение данных и в иной ситуации, возможно, даже не предоставили бы нам возможность сделать такую интеграцию. Потому предлагаю вам «поверить на слово», ибо репутация компании для меня не самый последний приоритет)))
Alex WiseCEO & Founder в Netpeak Software
25 октября 2019
Сергей Федяшкин
25 октября 2019
А что по поводу интеграции с Яндекс.Метрикой?
Ждём, когда пользователи попросят ;) Пока что, честно говоря, немногие просят. Видимо, всё же GA стоит у большего количества проектов. P.s. если вы не против, добавлю вас в список наших пользователей, которые ожидают эту фичу.
Alex WiseCEO & Founder в Netpeak Software
16 декабря 2019
Дмитрий Захаренков
16 декабря 2019
Сам спросил, сам и отвечу. Нашёл. В списке с редиректами давим на F1 и получаем входящие ссылки. Там всё, что нужно.
Есть ещё один отчёт, который поможет вам, Дмитрий — вы найдёте его здесь: Экспорт → Специальные отчёты по ошибкам → Редиректы: входящие ссылки и конечные URL https://img.netpeaksoftware.com/wise/1E5IHCS.png Этот отчёт был специально создан нами для того, чтобы смотреть, откуда стоят ссылки на страницы с редиректами, чтобы изменить эти ссылки на конечные и избавиться тем самым от цепочек.
Alex WiseCEO & Founder в Netpeak Software
1 июля 2020
Evgeniy А
19 июня 2020
Благодарю! Думаю, чтобы не заморачиваться с опросниками - проще в настройках кабинета (и при клике на кнопку "Отписаться" кстати, тоже) - разбить по уровню в виде чекбоксов. По умолчанию - все чекбоксы уровней "Новички", "Средний уровень", "Продвинутый" - включены, но можно просто снять галочку и не получать письма :) Ну а дальше все просто - рассылаете всем пресс-релиз на почту "Теперь можно выбрать свой уровень подписки" и все) + посмотрите письмо последнее про хлебные крошки с мобильника) Надпись "Новичкам" заметна только если точно знать, что где-то там она должна быть)
Евгений, благодарю за дельные советы и позитивную критику — сейчас редко увидишь такое! ;)
Alex WiseCEO & Founder в Netpeak Software
18 июля 2020
Лустан Залурецкийм
16 июля 2020
Самый лучший бесплатный конструктор сайтов и лендингов - это мой сын сеньор C# :)))) Но это личный как Вы понимаете :))) А так Битрикс 24 раньше пользовался. Но капец, его писали пьяные программисты, ночью в подвале без света, ногами на калькуляторе без батареек
В Битрикс 24 смысл в огромном наборе инструментов и взаимодополняемости этих инструментов. Вы использовали просто отдельно конструктор лендингов или вместе с CRM и таск-менеджером?
Alex WiseCEO & Founder в Netpeak Software
15 октября 2020
Demi Murych
15 октября 2020
Селекторы Непонятна целевая группа статьи. Если она для тех кто ориентируется в том, что такое селекторы, то объяснять им что такое совершенно не нужно. Тем более когда сам в этом вопросе плаваешь. Если это статья для людей которые НЕ понимают и НЕ знают что такое DOM дерево, то научить их языку в рамках такой статьи невозможно, можно только напугать. Что Автору прекрасно удалось сделать. А нужно было всего лишь подсказать СПОСОБ как любой человек без каких бы то ни было специальных знаний может получить нужный адрес, не вспоминая детали языка который им не нужен. СПОСОБ ПОЛУЧЕНИЯ НУЖНОГО СЕЛЕКТОРА: Найдя нужный вам элемент в dev tools нажмите на нем правую кнопку мыши, в открывшемся подменю выберете опцию Copy ➊ в подменю меню выберете тот формат селектора который вам удобнее: ➋ для CSS селектора и ➌ для XPath. В буфер обмена будет скопирован готовый селектор для доступа к этому узлу. Скрин: https://drive.google.com/file/d/1wY2qEScQSmCXyVxqMrCcrW-RfStkNLqX/view Разница между CSS и XPath в рамках работы спайдера мне не известна. Если они используют webkit для парсинга страницы, то лучше выбирать CSS - будет работать быстрее. Ну и по сути предмета: >В таком случае нужно использовать XPath. Он позволяет задать порядковый номер элемента. XPath тут не нужен. Тут нужно знать предмет - а именно CSS чтобы не городить огороды. Селекторы позволяют нумеровать конкретные ноды ровно так же как и XPath. Xpath: //table[@class="chars-t"]/tbody/tr[2]/td[2] CSS: table.chars-t tbody tr:nth-child(1) td:nth-child(3) XPath нужен только в случае, когда вам нужно адресовать узел, который идентифицировать можно исключительно при реверсивном обходе дерева. То есть то чего CSS делать не умеет.
1. Целевая аудитория этой статьи — наши пользователи. И им сочувствующие))) 2. Спасибо за комментарий и советы.) 3. Никто из нас не идеален и не знает всех нюансов в любом деле в мире — и вы тоже. Но мы стараемся каждый день становиться лучше: думаю, что подобные комментарии помогут нам в этом!)
Alex WiseCEO & Founder в Netpeak Software
27 октября 2020
Антон Величко
27 октября 2020
Призовой подарочек получен! Немного долго получилось, извиняюсь, перед ребятами! Фото для отчета отослал! Теперь деятельность по SEOшке пошла с новой силой в паре с совой-помощницей!)) С полным комплектом "помощница+колонка+очки" можно вообще со стула не вставать без крайней необходимости! Котейка, гроза ITшников, уже пробовал покушаться на конкурентку, но она высоко сидит и далеко глядит!)) Еще раз благодарю за возможность рассказать мою историю. Надеюсь, что кому-нибудь она была интересна и придала уверенности в том, что можно в любом возрасте начать с чистого листа. Живите и процветайте, коллеги!)
Фотосессию с совой-помощницей видел — команда в восторге! Спасибо за историю и кучу приятных эмоций ;)
Alex WiseCEO & Founder в Netpeak Software
26 ноября 2020
Алекс Алекс
26 ноября 2020
Сейчас будет смешно. Когда захотел купить упомянутый в статье Netpeak Spider, но AdBlock блокирует содержимое раздела "Подписки" в личном кабинете Netpeak Software =) И не картинки, а целые блоки основного контента этого раздела.
Это не очень смешно, даже грустно стало ;( Мы разберёмся, спасибо!)
Alex WiseCEO & Founder в Netpeak Software
26 ноября 2020
Алекс Алекс
26 ноября 2020
???? Скрин примера я утром высылал в тикете по поводу возврата за продление подписки. Оказалась проблема в Адблоке, что не видно никаких включенных подписок и возможностей их выключить - адблок режет половину страницы.
Да, мы так и поняли — из-за этой функции AdBlock блокирует наши плашки https://img.netpeaksoftware.com/yuki/SJN0OI.png
Нравится комментарий?
Чтобы поставить комментарию отметку «Нравится», пожалуйста, зарегистрируйтесь (в этом случае вы получите массу плюшек от Netpeak Software) или войдите в свой аккаунт.
Хотите ответить на комментарий?
Чтобы ответить на комментарий к посту, пожалуйста, зарегистрируйтесь (в этом случае вы получите массу плюшек от Netpeak Software) или войдите в свой аккаунт.