Дата обновления: 23.03.2023
LinksTamed SEO Tool
|
LinksTamed SEO Tool – это браузерный парсер для проверки структуры сайта с бесплатным расчётом внутреннего статического веса страниц и метрик качества контента, релевантности, а также поиск частичных дубликатов и подробный аудит технических недочетов, способных оказать влияние на видимость страниц в поисковых системах. Удобный инструмент для SEO-специалистов, Web-мастеров и владельцев сайтов с подробной инструкцией и подсказками.
С сентября 2024 года Вы можете установить расширение LinksTamed только в Яндекс.Браузер.
Для разрешения работы в режиме Инкогнито, которое затребует LinksTamed перед первым парсингом, перейдите на страницу browser://tune/ и там в блоке LinksTamed выберите Подробнее, появится опция Разрешить использование в режиме Инкогнито.
LinksTamed больше не доступен для установки в браузере Chrome Beta (уже установленные отключены, но пока их можно повторно активировать ползунком в настройках). Еще поддерживается обычный Chrome. Магазин расширений Chrome переходит на новую версию API, что требует практически полного переписывания краулера. Работы ведутся, но займут месяцы.
|
Увеличивайте статический вес продвигаемых страниц, избежав при этом выпадения их доноров из индекса поисковых систем. Сохраняйте вес, даже не удаляя внешние ссылки, благодаря фирменной метрике SaveRank. В случае необходимости, изучайте цифры подробно во всплывающих окнах, включая количество веса и анкоры по каждой исходящей и входящей ссылке.
LinksTamed не только производит аудит, но и трансформирует структуру сайта, следуя всем директивам для поисковых систем, позволяя увидеть более актуальное распределение статического веса по сайту: переносит и удаляет ссылки согласно множеству правил, склеивает страницы или, наоборот, отменяет недействительные Canonical
и Clean-param
, стараясь создать реалистичный вид структуры сайта.
Повышенная точность расчётов достигается благодаря рендерингу страниц прямо через приватное окно Инкогнито в браузерах семейства Chromium, на движке которого работает браузерный googlebot. LinksTamed не просто загружает HTML-код, но также исполняет JavaScript и производит рендеринг с учетом стилей CSS, позволяя работать даже с сайтами на чистом JavaScript: SPA, PWA и тому подобных. Он легко обнаружит ссылки загруженные с помощью скриптов, которых нет в HTML-коде, что позволяет чувствовать себя увереннее со сторонними плагинами.
LinksTamed также умеет самостоятельно находить и склеивать частичные дубликаты, отменять недействительные директивы и Canonical. И всё это без обращений к стороннему сервису или поисковой системе.
Список и описание возможностей
Парсинг JavaScript-сайтов:
Сканируйте и проверяйте любые сайты на JavaScript (SPA, PWA и тому подобные), если они вообще могут быть проиндексированы поисковыми системами, используя бесплатные решения LinksTamed для быстрого и надёжного краулинга асинхронно подгружаемого JavaScript контента.
LinksTamed уже настроен для большинства сценариев, просто начинайте парсинг!
В случае возникновения вопросов перейдите к инструкции по парсингу сайтов на JavaScript;
Статический вес страниц сайта
Узнайте, попадает ли на продвигаемые страницы нужное количество статического веса, то есть какой авторитет среди прочих внутренних страниц сайта они имеют и, наоборот, что второстепенные страницы получают рациональный минимум. Помимо этого, контролируйте утечку веса из-за исходящих ссылок и тех адресов, которые закрыты от индексации.
Значение веса документа также показывает вероятность попадания на него пользователя с других страниц сайта и в идеале должно отражать приоритеты владельцев ресурса при продвижении. Этот момент будет важен всегда.
Доступны следующие метрики статического веса:
- Графа
веса страниц
— статический вес документов;
- Графа
утечки веса
— учет потерь от ссылок на внешние сайты и документы, закрытые от индексации или по nofollow-ссылке;
- Графа
утечки внутри
— показывает потери веса только из-за внутренних документов;
- Графа
Save Rank
— показывает, сколько утекающего веса можно сохранить, добавив всего одну ссылку на странице;
- Графа
Power Rank
— показывает, сколько статического веса даст одна новая ссылка со страницы.
Во всплывающих окнах можно узнать откуда и сколько течёт веса, URL-адреса и анкоры как исходящих, так и входящих на каждую страницу ссылок.
Имеется возможность исключать ссылки на страницы и сайты из расчетов.
Карточка весов сайта поможет получить сводную информацию по весам и утечкам.
Перейти к инструкции по работе со статическим весом страниц и индексируемых типов файлов;
Дубликаты и пагинации на сайте
- Найдите страницы с похожим контентом с помощью графы ДУБЛИ на грани, которые могут вызвать проблемы при ранжировании в поисковых системах, а также просматривайте их действительно важные различия во всплывающих окнах с деталями и в выгрузках в формате CSV;
- Сравнивайте два и более документа с любых доменов (по списку);
- Проверяйте на работоспособность имеющиеся
Canonical
(всех видов, даже Link HTTP header) и Clean-param
, включая схожесть контента, и получайте предупреждения о проблемах в аудите - LinksTamed справится с беспрецедентно большим количеством сложных ситуаций и даже отменит недействительные Canonical
для более точного расчёта веса. Более того, позвольте алгоритму склеивать дубликаты самостоятельно, чтобы видеть более реалистичную структуру сайта;
- Доверьте LinksTamed находить и автоматически объединять по одному адресу страницы пагинаций, такие как категории и многостраничные тексты, даже если они не имеют отметок
next
\prev
\previous
;
Перейти к описанию поиска частичных дубликатов, пагинаций, Clean-param;
Парсинг произвольных данных и разметка ссылок:
Web scraping — парсинг данных с сайта
Проводите глубокий аудит полей и контейнеров на сайте, например, для мониторинга цен, или извлекайте данные со страниц сайта в любых других целях, сохраняя результаты скрапинга в выгружаемой таблице в формате CSV. Можно даже скачивать изображения и другие файлы. Добавить правило и начать парсинг данных с сайта можно всего за несколько секунд. Все эти возможности теперь доступны каждому, вместе с полностью бесплатным модулем веб-скрейпинга в парсере LinksTamed.
Перейти к описанию веб-скрейпинга и примерам быстрого старта парсинга данных с сайта;
Разметка и исключение ссылок по признакам в HTML-коде
Узнайте положение ссылки - назначьте ссылкам псевдонимы по их положению на макете страницы, отделив шаблонные ссылки и ссылки «в подвале». Эффективно оценивайте ссылочный профиль страницы, что особенно удобно при просмотре внутренних входящих ссылок и анкоров, а также удаляйте ссылки по псевдониму при расчетах статического веса. Разметка ссылок внутри структурных тегов HEADER
, ASIDE
, NAV
и FOOTER
уже включена по умолчанию.
Перейти к описанию разметки ссылок и веб-скрапинга;
Оценка и проверка текста на сайте:
Графа
качество акцента
— показатель ценности текста:
Оцените, насколько эффективно дополняют аспекты текста страницы общий смысл сайта, то есть каким количеством дополненной ценности обладает каждый документ. Алгоритм в составе парсера извлекает суть из текста каждой страницы и назначает им баллы, позволяя увидеть страницы с неоспоримыми проблемам качества контента.
Перейти к описанию метрики «Качество акцента» для определения ценности текста;
- Группа граф
Релевантность текста тегам
:
- Графы
TITLE
, H1
, Meta Description
в столбцах оптимальной длины и столбцами с длиной в символах, а также предупреждениями в случае превышения рекомендуемой длины;
- Дополнительные графы для
Meta
Description
:
- Проверка уникальности набора слов в
TITLE
-заголовке страницы, Meta
Description
и первого H1
с любым из перечисленных тегов в пределах страницы и относительно других страниц сайта с отображением в аудите, а также разовое предупреждение, если имеются страницы без данных типов текстовых данных;
- Вывод в аудите словоформ (латинских слов (a-z) и слов из букв кириллической группы), которые встречались на нормальных страницах сайта только 1 раз, для дальнейшей проверки орфографии визуально или в стороннем софте, например в Яндекс.Спеллер;
- Поиск сообщений об ошибках серверных скриптов типа
Warning
, Error
и тому подобных, а также фрагментов «сломанного» JavaScript-кода в тексте страниц;
- Поиск не преобразованных в символ HTML-мнемоника типа
"&
;
- Графа
всего слов
;
- Графа
% слов без повторов
;
- Графа
H2n
раядом с графой всего слов
показывает количество заголовков H2 на странице, позволяя визуально оценить, насколько насыщен текст подзаголовками;
- Работа с языками страниц:
- Аудит атрибута
lang
в теге html
, расшифровка локали;
- Определение языка страниц сайта без шаблонных ссылок (автоматичеки) и проверка его сочетаемости с языковыми тегами.
Перейти к описанию атрибута LANG и его аудита, языковых кодов, их расшифровки и определения языков.
- Структурные теги:
- Аудит проблем, связанных со структурными тегами (
section
, article
, header
, footer
, hgroup
, main
и прочих);
- Проверка иерархии или недопустимости использования заголовков
H1
-H6
в очевидных случаях, включая области действия структурных тегов section
, article
;
Проверка изображений и других медиафайлов:
- Если изображение является ссылкой - проверка наличия описания в alt и явно указанных размеров в теге или стилях;
Следующий функционал потребует включения опции загрузки изображений на странице ПАРАМЕТРЫ:
- Проверка HTTP-кода ответа сервера любых изображений, включая фоновые, а также других медиафайлов (отображается только в аудите в случае проблем);
- Проверка альтернативных изображений в атрибуте
srcset
;
- Возможность скачивания изображений по правилам в модуле веб-скрейпинга;
Оптимизация рендеринга (отрисовки) макета страницы:
- Предупреждение о сдвиге макета на длинной странице из-за отсутствия для тега
HTML
или BODY
принудительного отображения вертикальной полосы прокрутки (overflow-y:scroll
);
- Предупреждение о появлении горизонтальной полосы прокрутки, когда контент не помещается по ширине в область просмотра;
- Предупреждение о контенте высотой более 13000px.
Другие возможности:
- Продвинутый поиск по результатам парсинга сайта, включая логические условия «И» и «ИЛИ», а также разноцветную подсвету результатов поиска. Доступны такие виды поиска как, например, длина значения в px, регулярных выражения (RegExp), поиск чисел в текстовых значениях ключевых тегов (включая операции сравнения равно, больше, меньше). Всего более 40 типов данных и 25-ть способов их обработки.
Перейти к описанию всех возможностей поиска по результатам парсинга;
- Предотвращение известных проблем при парсинге сайтов, предупреждение, когда необходимо выполнение задания для продолжения парсинга;
- Если будет обнаружена необходимость в действии пользователя на сайте, LinksTamed пришлет уведомление со звуковым сигналом-нотой;
- Поддержка HTTPS протокола, www2 и тому подобных;
- Поддержка адресов с доменами и путями на основе любых национальных алфавитов и привидение их в читабельный вид;
- Парсинг по домену или мультидоменный обход по списку URL-адресов;
- Аудит ошибок в robots.txt, включая подробный пакет рекомендаций;
- Естественный обход в пределах домена или мультидоменный парсинг по списку;
- Проверка на конфликты X-Robots-Tag и meta директив;
- Учет любых редиректов, включая серверный, meta (в т.ч. с задержкой) и JS, оповещение о возможных проблемах, циклических, двойных и многократных редиректах;
- Определение типа файла из его content-type;
- Проверка валидности редиректов в HTTP-заголовках;
- Проверка всех ссылок ресурсов на доступность (внутренних и внешних);
- Проверка всех ссылок на мусорные фрагменты и потенциальные опечатки;
- Диагностический монитор подгружаемых на страницах сетевых ресурсов;
- Предупреждения о смешанном контенте: ресурсы с http на страницах с протоколом https;
- Вывод предупреждений, если в HTML-коде много комментариев и подключаемых ресурсов;
- Аудит тега
base
и проблем, которые он может вызвать;
- Вывод в таблице количества входящих на страницу ссылок передающих вес, а также nofollow;
- Графы в таблице со входящими и исходящими на страницу ссылками: обычными и nofollow (включает ugc и sponsored);
- Поиск ссылок без анкоров, различных ссылок-картинок без анкора в виде alt с выводом проблем в аудите;
- Сохранение в CSV и выгрузка старых весов из CSV;
- Уровень вложенности страниц от главной;
- Справочный подсчет количества iframe (вес не передают и не получают);
- Поддержка древних frame;
- Использование прокси-сервера, указанного в настройках браузера;
- Настраиваемое количество потоков парсинга: каждый поток использует свое ядро процессора для выигрыша в скорости;
- Возможность не только учесть правила для робота, но и представиться сайту поисковым ботом;
- Учет ошибок зависания и любых других ошибок в процессе загрузки, безопасная выгрузка из памяти страниц с зависшими скриптами, игнорирование диалоговых окон;
- Более ста других проверок и возможностей.
Технические требования и совместимость версий
- Минимальные системные требования:
- Разрешение экрана: 1024x600;
- 2Gb ОЗУ;
- Не менее 6Gb всегда свободного места на жестком диске;
- Рекомендуемые системные требования:
- Разрешение экрана: 1920x1080;
- Четырехядерный или двухядерный четырехпоточный процессор с поддержкой инструкций AVX 2.0;
- 4Gb ОЗУ;
- Операционная система и браузер 64-bit.
- Ограничения:
При парсинге сайта с более чем 60 000 страниц или 1 400 000 ссылок необходимо не менее 3Gb ОЗУ и ОС 64-bit.
Текущая версия не предназначена для парсинга более чем 120 000 страниц с контентом или 23 000 000 ссылок в сумме.
Для 32-bit версий ОС и браузеров лимит 65 000 страниц или 7 000 000 ссылок в сумме.
Если домен или пути в URL-адресах кириллические - пределы меньше.
Пределы можно увеличить, если удалять ненужные блоки макета имеющие ссылки с помощью метода ==ignore==
в поле Web Scraping;
- Поддержка операционных систем и браузеров:
LinksTamed доступен в Windows, Mac OS, Linux и Chrome OS через интеграцию с одним из следующих браузеров семейства Chromium с идентичным движком:
Chrome, Chromium, Opera, Edge, Yandex.Browser, Atom, Vivaldi и другие таблица.
Вы можете работать одновременно с несколькими проектами в разных браузерах.
- Не рекомендуется установка в Beta-версиях браузеров, так как они опережают стабильные сборки по дате выхода, поэтому могут возникнуть ещё не устраненные проблемы;
- Сторонние менеджеры загрузки файлов с перехватом из браузеров могут посылать неверные коды состояния HTTP или не давать ответ до действия пользователя, что значительно замедлит парсинг до таймера предельного ожидания файлов (в настройках LinksTamed). Отключайте интеграцию на время краулинга сайтов с большим количеством непосредственных ссылок на файлы.
- Получение обновлений:
Свежие версии устанавливаются автоматически из хранилища интернет‑магазина Chrome вместе с обновлениями вашего браузера. Если версия LinksTamed отстает от свежеанонсированной и вы не хотите ждать, можно обновить расширения вручную на странице chrome://extensions/ (кроме Firefox), включив опцию «Режим разработчика» и нажав кнопку «Обновить». Также вы можете удалить и установить LinksTamed заново, но потеряете при этом все настройки.
Влияет ли краулинг страниц через браузер на показатель Page Experience (Core Web Vitals)?
Нет. Парсинг происходит через Приватные окна Инкогнито. Более того, на данный момент учитываются данные только из мобильных браузеров.
Сканирует ли краулер поддомены?
Только при ручном вводе адресов списком для технического аудита или поиска дубликатов. Естественный обход краулером сайта, после которого идёт расчёт весов, возможен только в рамках одного поддомена.
Собирает ли LinksTamed какие-либо личные данные пользователя?
Нет. LinksTamed не собирает никаких данных, в том числе и обезличенных, но если Вас беспокоит интеграция в браузер, Вы всегда можете использовать любой другой совместимый.
Как запустить ещё один экземпляр парсера?
Просто откройте LinksTamed в любом другом совместимом браузере таблица.
Что нового
Дата: xx.06.2024 (ещё не вышла)
3.0.0.0 Beta:
- Минимальная версия совместимых браузеров, необходимая для установки, повышена c 103 до 120;
- Аудит Content-Language в HTTP-заголовке и meta-теге с
http-equiv
;
- Примечание, для ошибки "В контейнер MAIN нельзя вкладывать NAV", что возможно исключение, когда NAV - это не общесайтовая навигация, а оглавление контента в MAIN;
Дата: 23.03.2023
2.3.0.0 Beta:
- Аудит атрибута
lang
в теге html
;
- Автоматичекое определение языка страниц сайта и проверка его сочетаемости с языковыми тегами;
- Аудит сложных проблем связанных с тегом
base
;
link
с rel="canonical"
в HTTP-заголовке теперь учитывается при склейке по правилам бота yandex
;
- Исправление неправильного позиционирования подсветки найденных элементов по правилам web scraping или разметки ссылок при их тестировании;
- Аудит множества проблем, связанных со структурными тегами;
- Проверка иерархии или недопустимости использования заголовков
H1
-H6
;
- Устранена ошибка парсинга при попытке получения заголовков
H1
-H6
с помощью модуля web scraping;
- Устранены проблемы точности при оценке релевантности заголовка
H1
;
- Исправление проблем с выгрузкой результатов web scraping;
- Устранена проблема сдвига заголовка при любом экспорте таблиц в формате CSV;
- Предупреждение о наличии META-тега c
name="KEYWORDS"
;
- Устранен скачек заполнения ОЗУ на этапе постобработки при использовании SSD-накопителей, которые быстро читают, но очень медленно пишут;
- Устранена проблема увеличения времени поиска частичных дубликатов, из-за которого процесс поиска дублей мог растянуться на десятки часов;
- Исправлена неработоспособность опционального очищения cookies перед загрузкой каждой страницы;
- Устранены проблемы при ручном переобходе проблемных страниц;
- Получил исправления алгоритм определения проверок на робота и оповещения о необходимости действия, введены улучшения, а также подсказки для преодоления типичных затруднений у пользователей.
Дата: 26.12.2022
2.2.0.5 Stable:
- Минимальная версия совместимых браузеров, необходимая для установки, повышена с 85 до 103;
- Возможность поиска документов содержащих ссылки на указанный документ или группу документов по паттерну;
- Отображение в аудите ссылок без анкоров c анализом их видимости, физических размеров и других важных деталей;
- Исправлено зависание при поиске баллов релевантности.
Дата: 15.12.2022
2.2.0.1 Beta - 2.2.0.4 Stable:
- Более продвинутая технология предотвращения проблем доступа к сайту;
- Продвинутый поиск по данным;
- Возможность указать игнорируемые при оценке релевантности словоформы из ключевых тегов;
- Устранена ошибка при которой парсинг не мог завершиться автоматически если robots.txt для основного зеркала отсутствует и был запрошен robots.txt не основного адреса;
- Некоторые проблемы при склейке пагинаций больше не приводят к их разрыву на острова, но разъясняются в аудите при их возникновении;
- Устранены неточности работы с зеркалами сайта при использовании своих правил для robots.txt;
- Устранена ошибка экспорта аудита сайта в файл при определенном сочетании факторов;
- Добавлено преобразование HTML-мнемоник в символ из атрибутов Meta Description и ALT тега IMG;
- Поиск фрагментов не преобразованных в символ HTML-мнемоников;
- Минимальная версия браузеров семейства Chromium повышена с 79-й до 85-й.
Дата: 03.06.2022
2.2.0.0 Beta:
- Проверка уникальности TITLE, Description и первого H1 страницы относительно других страниц сайта;
- Оценка релевантности текста относительно избранных алгоритмом ценных слов из TITLE-заголовка страницы, Description, первого тега H1 с выставлением оценки от 0 до 10 в основной таблице, а также расшифровкой в виде избранных слов и учетом словоформ;
- Выставление оценки наиболее релевантному относительно TITLE-заголовка описанию картинки в атрибуте ALT и расшифровкой по избранным словам;
- Отображение в таблице с результатами Description и первого заголовка H1-заголовок страницы, а также их длины, включая предупреждение о превышении рекомендуемых длин в аудите;
- Более детальные метрики для проверки описания страницы в Description: длина первого предложения в Description, а также отображение максимальной длины при наличии nosnippet max-snippet и предупреждение, если они обрезают Description.
- В основной таблице, рядом со столбцом "всего слов" появился столбец с заголовком H2(n), который показывает, насколько насыщен структурно подзаголовками H2 текст страницы;
- Включен парсинг robots.txt даже при неправильном content-type файла в нарушение протокола REP и RFC2046 (по фактическому поведению ботов);
- Исправление проблемы индексации документов при противоречивых директивах в разных User-Agent в robots.txt;
- Множество других технических нововведений для повышения точности различных алгоритмов парсера.
Дата: 10.05.2021
2.1.0.0 Beta - 2.1.0.6 Stable:
- Реализована функция бесконечной прокрутки для основной и всплывающих таблиц с умной динамической подгрузкой и уборкой строк вне видового экрана. Таблица любой высоты теперь почти не занимает места в опративной памяти и подгружается мгновенно даже на слабых компьютерах. Физические размеры тайтлов и ссылок теперь расчитываются ещё во время краулинга, предсказывая высоту строки. Если значение совсем чуть-чуть не влезает в строку, оно будет сужено. Кроме того, максимальная высота значения теперь 4 строчки, а хвост будет выводиться одной длинной строкой за границы ячейки;
- Визуальные сокращения в ссылках типа
🔒⚠️🅦…
теперь преобразуются в обычную ссылку при копировании в буффер обмена;
- Новая секция проверки рендеринга: предупреждение об отсутствии overflow-y:scroll на длинных страницах, предупреждение о длинных и слишком широких страницах;
- Новое предупреждение об URL выше рекомендуемой длины и защита от добавления сверхдлинных URL, которые не могут быть представлены в выдаче ПС;
- Устранена ошибка при активизации видимости вкладки;
- Улучшен семантический анализ ошибок сервера типа
Warning
, Error
и тому подобных, которые выводятся прямо на страницу;
- Уточнения для алгоритма поиска дубликатов;
- Корректная обработка адресов с указанием порта (
https://example.com:443/
);
- Распознавание HTTP-кода ответа кэшированных браузером редиректов;
- Редиректы, Canonical и эвристические консолидации теперь в одном столбце с соответствующими метками, что освободит место для новых метрик;
- Расширен аудит файла robots.txt, редиректов и тега IMG;
- Уточнено поведение бота при Disallow: // в robots.txt;
- Исправлено несколько проблем связанных с выгрузками.
Дата: 03.03.2021
2.0.0.1 Beta — 2.0.0.3 Beta:
- Уточнены критерии для пагинаций: страницы с одинаковым TITLE-заголовком могут быть склеены только если последующие страницы структуры имеют в url‑адресе признаки постраничного разбиения;
- Исправлена ошибка при анализе групповых link header;
- Отключён оранжевый цвет входящих ссылок при canonical страницы на себя.
Дата: 02.03.2021
2.0.0.0 Beta:
- мультидоменное сканирование по списку (расчет статического веса не производится);
- web scraping, загрузка изображений и разметка ссылок, исключение блоков макета, тестирование правил - всё это язык разметки условий DJpath;
- поиск частичных дубликатов страниц, которые находятся на грани склеивания или признания их некачественными;
- склеивание практически идентичных дубликатов эвристически без
canonical
, которые уже или только будут склеены ПС;
- эвристические пагинации: самостоятельный поиск и склеивание пагинаций, вместо старого алгоритма склеивания по
rel="next"
, rel="prev"
, rel="previous"
;
- новый подход к парсингу: много потоков, большое время простоя для отработки скриптов, в том числе AJAX-запросов;
- поддержка
rel="ugc"
, rel="sponsored"
и их сочетаний;
- предупреждение о смешанном контенте (mixed content): ресурсы и ссылки с http:// на страницах с https://;
- проверка
canonical
для AMP-страниц;
- проверка на Disallow теперь также для медиафайлов и внешних документов (опционально);
- метрика «качество акцента» (уникальность сути текста);
- возможность выбора мобильных версий (Smartphone) поисковых роботов: частичная эмуляция Android и iPhone;
- HTTP-коды, которые означают недоступность подгружаемых ресурсов теперь отображаются в аудите (скриптов, стилей, шрифтов, а также (опционально) медиафайлов и изображений (в том числе и в srcset));
- предупреждение в аудите, если сайт использует однопоточный протокол HTTP/1.1;
- новые метрики проверки достаточности таймеров для загрузки асинхронных скриптов, включая простой активизации методов видимости для скриптов;
- Монитор загрузки ресурсов для страниц: первой; с самым поздним загруженным script и AJAX-запросом; последние 20 страниц и их ресурсы;
- для активизации событий видимости окна в скриптах сайтов каждая вкладка выводится на передний план, добавлен соответствующий таймер;
- добавлены буферы в базе данных IndexedDB: снижен расход оперативной памяти в 2-15 раз;
- в статистике парсинга появилось время максимального прихода JavaScript или AJAX-пакета после события onload, для проверки достаточности выставленных таймаутов;
- проверка схожести контента со страницей указанной в
canonical
перед склейкой;
- добавлены показатели в основную таблицу: «всего слов» и «% слов без повторов»;
- сопутствующая проверка на выводимые сообщения серверного скрипта с ошибками и предупреждениями типа
Warning
, Error
и тому подобных;
- попутный поиск фрагментов JavaScript в видимой части текста;
- добавлена карточка весов сайта с подсчётом распыления (притупления весов из-за утечек);
- предупреждения о чрезмерном количестве подключаемых файлов стилей «.css» и скриптов «.js»;
- дополнительные рекомендации при аудите robots.txt.
- ошибки из-за изменений в прошлой версии:
- редирект на себя вызывал сбой;
- неработоспособность таймера превышения времени загрузки документа;
- устранены некоторые неточности в окошках со списками ссылок (на расчёты не влияло).
- улучшен механизм удаления лишних потоков анализируемых вкладок (когда они не нужны, так как процессор и так перегружен);
- дополнительные работы по адаптации парсера для браузера Opera;
- защита от спящего режима на время парсинга или анализа данных.
- показ некоторого количества уникальных слов на сайте в аудите;
- ограничение для аудита в целях экономии оперативной памяти — 2000 деталей на секцию с деталями;
- обработка 307 редиректа согласно стандарту HSTS;
- внутренние ссылки теперь показываются без домена согласно новой концепции «вся таблица на одном экране 1920px»;
- при изменении настроек во время паринга показатель скорости теперь изменяется быстрее;
- множество мелких изменений;
- появилась инструкция на сайте.
Дата: 28.02.2019
1.3.1.2 Stable:
- переработан метод обработки редиректов с целью адаптации для браузера Opera, что также дало ускорение на 2% для не связанных с редиректами документов.
Дата: 24.02.2019
1.3.1.1 Stable:
- отключено прослушивание этапов загрузки документа при отсутствии парсинга;
- мелкие неточности при декодировании Punycode.
Дата: 19.02.2019
1.3.0.0 Beta:
- актуализация всех директив и используемых правил на февраль 2019 года;
- добавлена поддержка альтернативного имени бота yandexbot;
- поддержка для yandexbot директив
noindex
, nofollow
в X-Robots-Tag
;
- увеличение скорости парсинга в 2-4 раза;
- расчёт статического веса теперь 4 раза быстрее;
- правильная обработка
noindex
;
- активный контроль свободной оперативной памяти;
- в таблице теперь пустые значения вместо нулей;
- если документ «утечка», его вес теперь показывается (вместо нуля) и помечается синим цветом;
- когда изначальное количество ссылок не совпадает с тем, что осталось по правилам — цифра в таблице станет оранжевой.
Дата: 23.01.2019
1.2.9.2 — 1.2.9.3:
- проблемы экспорта старых весов из CSV.
Дата: 22.01.2019
1.2.9.1:
- добавлен детальный просмотр утечек веса для страницы;
- URL-адреса с якорем и без теперь изначально склеиваются;
- устранена неточность отображения внутренних утечек и утечек при nofollow из-за эффекта распыления.
Дата: 10.01.2019
1.2.9.0:
- возможность указать свои правила вместо robots.txt на сайте;
- уточнение видимых визуально показателей утечки веса при ситуациях, когда по ссылкам
nofollow
не утекает вес;
- новые показатели: PowerRank, SaveRank, «утечки внутри»;
- можно сортировать нажав на подзаг.;
- остановить парсинг заранее;
- проверка наличия
itemprop
при отсутствии атрибута rel
у тега link
вместо ложной ошибки.
Дата: 09.09.2018
1.2.0.4:
- мелкие правки отображаемой информации.
Дата: 02.08.2018
v 1.2.0.1 — 1.2.0.3:
- устранена проблема «Waiting for available socket» в движке браузера с бесконечным ожиданием свободного сокета из-за частого обращения к файлам;
- устранена проблема работы декодера доменных имен в Punycode, если там были ошибки со стороны пользователя.
Дата: 22.07.2018
v 1.2.0.0 Beta:
- добавлен аудит и обработка пагинаций
rel="prev"
, rel="previous"
и rel="next"
, а также их склейка по средствам rel="canonical"
;
- не так давно разработчики Chrome пересмотрели отношение к блокирующей природе диалоговых окон
alert()
, prompt()
, comfirm()
и в новых версиях окончательно внедрили новую логику. Поскольку теперь такие окна не могут заморозить JavaScript, рендеринг и парсинг, LinksTamed больше не будет внедрять JS код для их подмены на неблокирующие, что ускорило парсинг. Ввиду нововведений, минимальная версия Chrome, необходимая для установки, повышена с 56 на 65;
Clean-param
— оптимизация производительности и повышение достоверности при наличии ошибок и мусора в динамических параметрах URL-адресов.
Дата: 15.03.2018
v 1.1.1.5 (промежуточная):
- страницы с
rel="noindex, follow"
или просто rel="noindex"
теперь не индексируется для googlebot
(настраивается в фильтрах);
- теперь через ссылки с
rel="nofollow"
для googlebot вес утекает по умолчанию, поведение можно настроить в фильтрах;
- изменение приоритета некоторых директив;
- устранена неточность при подсчете входящих ссылок
rel="nofollow"
;
- исправлено поведение
Clean-param
при редких сочетаниях, расширен аудит;
- добавлена опция «учитывать Clean-param» для googlebot;
- решены проблемы при экспорте старых весов, когда их много;
- устранены неточности сортировки значений в таблице;
- ускорение итераций пересчета Page Rank.
Дата: 19.02.2018
v 1.1.1.4 (нестабильная):
- исправлена ошибка остановки парсинга связанная с некоторыми директивами
Clean-param
;
- в выгрузке аудита не удалялись некоторые HTML-теги;
- выставлено ограничение максимальной длины строки в таблице с адресом редиректа,
rel="canonical"
и Clean-Param
которые могли занимать большую часть таблицы;
- при наведении на на значение весов теперь можно увидеть полную цифру в подсказке;
Disallow: /?
считала весь сайт закрытым от индексации, исправлено.
Дата: 10.11.2017
v 1.1.1.3:
- адреса, содержащие в значениях GET-параметров незакодированную ссылку на другой домен отображались как содержащие ошибки, создано исключение.
Дата: 01.11.2017
v 1.1.1.1:
- минимальная версия необходимая для установки выросла с 54 до 56;
- добавлена выгрузка в формате файла CSV и загрузка старых значений весов и утечки;
- добавлен проверка URL-адресов на мусорные фрагменты;
- добавлена защита от просмотра глубже 15-го уровня вложенности;
Дата: 19.10.2017
v 1.0.0.0 Beta:
- LinksTamed — первый в мире общедоступный SEO-парсер с рендерингом опубликован в интернет‑магазине Chrome.
Политика конфиденциальности
Связь с разработчиком: dux-viator@mail.ru
LinksTamed SEO Tool (Links Tamed) 2017-2021. Патентные заявки поданы.