Обзоры расширений Joomla

 

 

WebSite Auditor – многофункциональная русскоязычная программа для проверки SEO сайта по множеству критериев. В предыдущей статье «Обзор WebSite Auditor. Анализ контента сайта» были рассмотрены новшества программы. Так как я уже около 4-х лет использую данную программу и остальные программы из пакета SEO PowerSuite, на сайте накопилось много справочно-обзорных статей. Про основные возможности можно прочесть в первой части «Обзор WebSite Auditor. SEO анализ сайта».

К основным новшествам, появившимися за последний год (с 26.09.2016), стоит отнести следующие:

  1. Обновление «паука» (краулера).
  2. Появилась возможность поиска смешанного содержимого HTTPS.
  3. Анализ текста TF-IDF.
  4. Новая метрика оценки страниц.
  5. SEO отчёты.

В обзоре будет участвовать последняя, на момент написания статьи (26.10.2017), русскоязычная версия WebSite Auditor Enterprise 4.30. С момента предыдущего обзора программа была обновлена 65 раз (на 26.10.2017), не считая поисковых алгоритмов.

Перед рассмотрением основных изменений в программе перечислю ряд более мелких. Эти изменения коснулись всех программ (Rank Tracker, SEO SpyGlass, LinkAssistant), включая WebSite Auditor.

  • Добавлены кнопки обновления данных в заголовки столбцов (при наведении курсора мыши).
  • Выполнение задач в фоне. Появилась очередь задач.
  • Добавлены новые «поисковые системы»: yandex.com.tr, sogou.com.
  • Исправления в интерфейсе для экранов с высоким разрешением.
  • Исправление интерфейса (UI/UX).
  • Исправления во внешнем виде отчётов.
  • Множество мелких исправлений под алгоритмы поисковых систем.
  • Множество мелких исправлений производительности и стабильности работы.

Обновление сканера («паука»)

В прошлой статье были рассмотрены изменения в плане сканирования сайта программой. В этом году «паук» получил новую и существенную порцию обновлений. В принципе, это вполне логично, так как от качества обхода страниц будет зависеть, какие и сколько ошибок SEO найдёт программа. По заявлению разработчиков в WebSite Auditor самый комплексный/всесторонний «паук» в мире. По крайней мере, не считая «пауков» поисковых систем. Также они заявляли, что по их тестам WebSite Auditor находил на 30% больше проблем, чем другие популярные программы подобного рода.

Сканирование JavaScript и AJAX. WebSite Auditor может сканировать динамический контент. Например, на моём сайте это комментарии (на AJAX). Мне это помогло найти битые ссылки в комментариях. Хотя комментариев у меня не так уж и много (11790), но поиск и проверка ссылок во всех комментариях «вручную» занял бы слишком много времени. А битые ссылки, как Вы знаете, это не очень хорошо с точки зрения пользователя.

А для владельцев сайтов на конструкторах Wix или Squarespace поддержка AJAX при анализе сайта просто необходима. Для активации этой функции в WebSite Auditor достаточно включить опцию Выполнять JavaScript (на втором шаге пересбора проекта в разделе Расширенные настройки) (рисунок ниже).

Также появилась возможность сканирования закрытых на пароль сайтов. То есть, если Вы закрыли сайт при помощи аутентификации на веб-сервере, то в настройках сканирования WebSite Auditor можно указать логин и пароль (рисунок ниже). Программа авторизуется и просканирует Ваш сайт. Это очень удобно в тех случаях, когда сайт ещё не полностью готов. Так Вы сможете закрыть его от поисковых систем, но при этом настроить файл «robots.txt» с нужными правилами для нормальной индексации поисковыми системами.

WebSite Auditor
WebSite Auditor

Сканирование JavaScript также позволит найти цепочки переправлений. От них желательно избавляться. Плюс, в рекомендациях для веб-мастеров так и написано: «Чтобы робот Googlebot правильно распознавал содержание сайта, откройте ему доступ ко всем ресурсам, например файлам CSS и JavaScript. Наша система индексирования обрабатывает страницу со всеми ее элементами: изображениями, файлами CSS и JavaScript.». Если Google научил своих «пауков» понимать JavaScript, то и SEO-оптимизаторам нужен инструмент, где это предусмотрено. Тем более, что есть много модулей меню, реализованных на JavaScript. Их нахождение и анализ тоже важная задача.

Поиск кода. В панели инструментов в разделе Структура сайта – Страницы появился новый инструмент Пользовательский поиск. Он позволяет найти в исходном коде сайта заданный Вами фрагмент кода (рисунок ниже). Поиск идёт по HTML тегам, скриптам, плагинам и тексту. Можно также задавать поиск CSS селекторов.

Поиск фрагмента кода
Поиск фрагмента кода

Такая опция даже может помочь в поиске вредоносного кода (если сайт взломали). Ну а верстальщикам и front-end разработчикам эта опция точно должна понравиться.

Поиск страниц с большим количеством редиректов. В разделе Структура сайта – SEO-анализ вебсайта появился новый критерий Страницы с большим кол-вом редиректов (рисунок ниже). Там будут отображаться URL, на которые ведут перенаправления с более чем двумя редиректами. Например, c URL «А» перенаправление на URL «Б» – это нормально, а вот с URL «А» перенаправление на URL «Б» и перенаправление на URL «Г» – это уже «цепочка» перенаправлений. Это неправильно, от такого нужно избавляться путём простановки прямого перенаправления с «А» на «Г».

Проверка SEO
Проверка SEO

Глубина вложенности страницы. В разделе Структура сайта – Страницы появилась новая метрика Глубина вложенности (рисунок ниже). Тут Вы увидите, какие страницы спрятаны от пользователей и поисковых систем слишком далеко. Более 4-х «уровней вложенности» может препятствовать индексированию такой страницы поисковыми роботами. Как вариант, можно создать карту сайта, причём средствами самого WebSite Auditor. Владельцам сайтов на Joomla рекомендую ознакомиться с таким SEO-компонентом как JSitemap PRO.

Глубина вложенности страницы
Глубина вложенности страницы

Столбец с данными по глубине вложенности можно добавить, кликнув правой кнопкой мыши на любой из столбцов и выбрав опцию Глубина вложенности (рисунок ниже).

Глубина вложенности
Глубина вложенности

Поиск «тяжёлых» страниц. В разделе Структура сайта – SEO-анализ вебсайта появился новый критерий Слишком большие страницы. При обходе страниц WebSite Auditor вычисляет суммарный размер страницы (в килобайтах, мегабайтах), включая размер HTML кода, изображений, находящихся на страницах, видео файлов (не включая файлы, находящиеся на внешних видео-хостингах типа YouTube) и файлов JavaScript. Программа рекомендует ограничивать размер страницы до 3-х мегабайт.

Это может помочь в анализе скорости оптимизации сайта. Как правило, страницы с большим размером загружаются дольше. Касательно оптимизации скорости загрузки страниц любых сайтов и инструментов оптимизации для Joomla, в частности, у меня есть ряд статей:

О других инструментах для анализа страницы с точки зрения скорости загрузки сайта Вы можете прочесть в статье «Обзор WebSite Auditor. Новые возможности анализа сайта».

Сканирование субдоменов. Для активации этой функции в WebSite Auditor достаточно включить опцию Сканировать субдомены (на втором шаге пересбора проекта в разделе Расширенные настройки). Таким образом, например, можно будет анализировать структуру сайта в рамках одного проекта, если сайт разнесён на поддомены.

Смешанное содержимое HTTPS

Как Вы знаете, в августе 2014 Google заявил, что HTTPS – это фактор ранжирования. На данный момент (26.10.2017) мне не известно о подобных заявлениях от Яндекса. На 20.03.2017 их позиция такова:

1. Нужно ли переходить на HTTPS? Поможет ли это улучшить позиции? В поисковой системе Яндекс сайты по протоколу HTTP/HTTPS индексируются и участвуют в поиске на равных условиях. Принимая решение о подключении SSL-сертификата, ориентироваться стоит на безопасность пользователей. Например, в случаях, если на сайте можно совершать покупки или другие операции с финансами.

2. Планируете ли вы помечать все сайты по протоколу HTTP как небезопасные? Таких планов в настоящий момент нет.

Но они тоже уделяют этому внимание в статьях и видео: «Поисковая оптимизация сайта: переезжаем на https», «Деликатный переезд (или рекомендации Яндекса по переезду на HTTPS)».

В видео сотрудник Яндекса упоминает о необходимости сделать так, чтобы весь контент сайта загружался по защищённому протоколу (если Вы переехали на HTTPS). Об этом есть много упоминаний и в других источниках, включая форум для веб-мастеров Google. Иначе у Вас появится проблема смешанного содержимого. Это может негативно сказаться на Вашем сайте как в глазах поисковых систем, так и в глазах пользователей (в виде предупреждений в браузере).

В разделе Структура сайта – SEO-анализ вебсайта появился новый критерий Страницы HTTPS со смешанным контентом (рисунок ниже). Ранее в программе уже был добавлен критерий анализа дублирования версий HTTP/HTTPS.

Как исправить смешанное содержимое HTTPS
Как исправить смешанное содержимое HTTPS

WebSite Auditor позволяет находить активное и пассивное смешанное содержимое. Подробнее о проблеме смешанного содержимого можно прочесть в статье Google «What Is Mixed Content?» (на англ.). Если кратко, то смешанное содержимое – это загрузка частей страницы по протоколу HTTP в то время, как сама страница загружается по протоколу HTTPS.

К активному смешанному содержимому относятся: скрипты, таблицы стилей, фреймы, флэш-ресурсы и другой код, который браузер может загружать и выполнять.

К пассивному смешанному содержимому относятся: изображения, видео и аудиоконтент, а также другие ресурсы, которые не могут взаимодействовать с остальной частью страницы.

Исправить смешанное содержимое HTTPS, как правило, достаточно легко. Нужно изменить протокол, по которому загружаются те или иные ресурсы, с HTTP на HTTPS. Иногда для этого достаточно автоматически «пробежаться» по базе данных автозаменой ссылок. Или изменить протокол в файлах скриптов. WebSite Auditor позволяет найти все такие ресурсы. Вам остаётся внести исправления и пересканировать сайт.

Я перенёс с HTTP на HTTPS три своих и два клиентских сайта (Joomla). В каждом случае прибегал к анализу дублирования и поиска смешанного содержимого в WebSite Auditor. Это сильно облегчило, ускорило и сделало мою работу более качественной.

Информацию о смешанном контенте можно также включить в отчёт для клиентов (рисунок ниже).

Отчёт
Отчёт

Анализ текста TF-IDF

Немного поясню, что же значит TF-IDF. Из Википедии становится известно, что:

TF-IDF (от англ. TF — term frequency, IDF — inverse document frequency) — статистическая мера, используемая для оценки важности слова в контексте документа, являющегося частью коллекции документов или корпуса. Вес некоторого слова пропорционален количеству употребления этого слова в документе и обратно пропорционален частоте употребления слова в других документах коллекции.

Мера TF-IDF часто используется в задачах анализа текстов и информационного поиска, например, как один из критериев релевантности документа поисковому запросу, при расчёте меры близости документов при кластеризации.». Там же есть хороший пример: «Если документ содержит 100 слов и слово «заяц» встречается в нём 3 раза, то частота слова (TF) для слова «заяц» в документе будет 0,03 (3/100). Вычислим IDF как десятичный логарифм отношения количества всех документов к количеству документов содержащих слово «заяц». Таким образом, если «заяц» содержится в 1000 документов из 10 000 000 документов, то IDF будет равной: log(10 000 000/1000) = 4. Для расчета окончательного значения веса слова необходимо TF умножить на IDF. В данном примере, TF-IDF вес для слова «заяц» в выбранном документе будет равен: 0,03 × 4 = 0,12.

То есть, TF-IDF используется для измерения важности данного ключевого слова на странице. В отличие от плотности ключевых слов, он не просто рассматривает количество раз, когда термин используется на странице; он также анализирует больший набор страниц и пытается определить, насколько важно то или иное ключевое слово.

Есть мнения, что поисковые системы используют TF-IDF в алгоритме ранжирования. Насколько сильное влияние - неизвестно. Предполагается, что поисковики могут таким образом определить тематическую релевантность документа вместо учёта присутствия какого-то конкретного ключевого слова «в лоб». То есть, SEO оптимизация текста на странице сайта, по-хорошему, должна выходить за пределы классического подсчёта «плотности» ключевого слова и подстраиваться под семантический поиск. А это подразумевает поиск информации на основании смыслового (контекстного) значения запроса (поиск по синонимам, схожим по смыслу словам, слова из одной тематической области). Тому подтверждением являются алгоритмы «Палех» и «Королёв» от Яндекса и «Колибри», «RankBrain» от Google.

В WebSite Auditor был добавлен анализ текста TF-IDF для контента страницы и появился соответствующий отчёт. Это позволит Вам найти актуальные ключевые слова и фразы для использования в тексте страницы. TF-IDF анализ текста на странице поможет:

  1. Определить, какие ключевые слова являются наиболее важными и актуальными для Вашей темы.
  2. Понять, какие из ключевых слов встречаются на Вашей странице с той частотой, с какой этого предположительно ожидает Google.
  3. Увидеть, какие термины на Вашей странице используются слишком часто или слишком редко.

Чтобы опробовать это на практике в самой программе, перейдите в раздел Анализ контента – Аудит страницы и проведите анализ страницы точно так, как это происходило ранее (инструмент Добавить станицу). Укажите 1-3 ключевых слова для анализа (лучше одно) и дождитесь окончания проверки. После этого перейдите в раздел Анализ контента – TF-IDF (рисунок ниже). В моём примере я анализирую страницу «https://aleksius.com/sozdanie-sajtov/incomedia-website-x5/website-x5-14», ключевое слово «Website X5 14», поисковая система Google (регион «Россия»).

Анализ текста TF-IDF
Анализ текста TF-IDF
  • TF-IDF (мин) – минимальное значение TF-IDF для слова/фразы на конкурирующих страницах.
  • TF-IDF (макс) – максимальное значение TF-IDF для слова/фразы на конкурирующих страницах.
  • TF-IDF (средн) – среднее значение TF-IDF для слова/фразы на конкурирующих страницах.
  • TF-IDF (Ваша страница) – значение TF-IDF для слова/фразы на Вашей странице.

На основании анализа текста TF-IDF конкурентов из поисковой выдачи и моей страницы, WebSite Auditor нашёл 774 варианта ключевых фраз и 1097 варианта ключевых слов. Из 774 ключевых фраз, программа предложила дополнить мой текст такими дополнительными фразами:

  1. «обзор incomedia».
  2. «обзор incomedia website».
  3. «официальный сайт».
  4. «официальный сайт программы».
  5. «сайт программы».
  6. «сайт технической».
  7. «сайт технической поддержки».
  8. «создать сайт».
  9. «технической поддержки».

Таким образом на основании анализа программа нашла ключевые фразы, которые не используются у меня на анализируемой странице, но есть на страницах конкурентов. Добавление этих фраз должно увеличить общую релевантность страницы по конкретному запросу в конкретной поисковой системе. Разумеется, что эти фразы не должны быть просто перечислены через запятую. Необходимо максимально гармонично ввести их в текст, «окружив» смысловой нагрузкой. Если это уместно.

В этом же разделе WebSite Auditor покажет Вам слова и словосочетания, какие уже есть у Вас на страннице, но которые нужно употребить чаще или реже. По сути, подскажет оптимальную плотность ключевых слов/фраз.

На рисунке ниже показана вторая вкладка из нижней части страницы – Конкуренты.

Анализ текста TF-IDF (2)
Анализ текста TF-IDF (2)

В WebSite Auditor TF-IDF применяется не только для подсказок расширения синонимии, но и для аудита контента страницы (рисунок ниже).

Аудит страницы с применением TF-IDF
Аудит страницы с применением TF-IDF

В Анализ контента – Редактор страниц (рисунок ниже) рекомендации касательно вносимых изменений также основываются на TF-IDF.

Редактор страниц с применением TF-IDF
Редактор страниц с применением TF-IDF

Рейтинг доменов/ссылок InLink Rank (альтернатива Google PageRank)

В WebSite Auditor и других программах из пакета SEO PowerSuite появилась альтернативная Google PageRank метрика. Google уже несколько лет не давал доступ к обновлённым данным по PageRank (для «простых смертных»), а в последний год и вовсе закрыл доступ даже к устаревшим данным. Данная метрика использовалась SEO-инструментами для определения качества ссылок и авторитетности сайтов (в какой-то мере).

Вот почему появилась необходимость внедрения альтернативной метрики в SEO программы. Специалисты из Link-assistant создали альтернативную метрику – «InLink Rank», которую и используют в программах пакета SEO PowerSuite (Rank TrackerSEO SpyGlass, LinkAssistant).

InLink Rank – это оценка (рейтинг), которая учитывает популярность ссылок или важность веб-страниц. Важность/популярность определяется с учётом количества и качества входящих ссылок на страницу (как внешних, так и внутренних). InLink Rank может принимать значения от 0 до 100, где 0 – минимальное значение (худшее), а 100 – максимальное (лучшее). InLink Rank пересчитывается регулярно. В среднем рейтинг InLink Rank определённого сайта может обновляться не реже одного раза в месяц. По мере обновления InLink Rank он также расширяет свой индекс, вычисляя оценку для новых страниц, которым ранее не присвоен рейтинг InLink Rank.

Обратите внимание, что InLink Rank - это ориентировочный показатель, не стоит воспринимать его как главный и единственный аргумент в вопросах определения качества ссылок или авторитетности домена. Так как данная оценка сильно зависит от полноты информации о ссылающихся на Ваш сайт страницах. Из практики замечал, что даже Google, Яндекс и Bing не всегда оперируют актуальной информацией по ссылающимся страницам (по крайней мере насколько об этом можно судить по доступным данным в панелях для веб-мастеров этих поисковых систем).

Так, например, на 28.10.2017 у сайтов «aleksius.com» и «magazin.aleksius.com» рейтинг InLink Rank домена – 77 из 100. Мне кажется, что это слишком завышенная оценка. Так, например, Яндекс тИЦ у сайта «aleksius.com» – 0 (недавно переехал с http на https). Хотя разработчики говорят, что InLink Rank – аналог Google PageRank, а не тИЦ, но всё равно эта метрика как-то сильно выделяется по отношению к другим (рисунок ниже).

Метрики домена
Метрики домена

Помимо метрики домена (рисунок выше) InLink Rank есть в SEO SpyGlass (рисунок ниже) и LinkAssistant для оценки домена/ссылки. Также эта метрика доступна в SEO SpyGlass в Сравнение проектов (сравнение конкурентов). А в Rank Tracker

InLink Rank в SEO SpyGlass
InLink Rank в SEO SpyGlass

А в Rank Tracker та метрика применяется для анализа сложности ключевого слова (рисунок ниже).

InLink Rank в Rank Tracker
InLink Rank в Rank Tracker

Несмотря на возможные погрешности в вычислениях InLink Rank, считаю, что это полезное обновление, особенно с учетом отсутствия доступа к актуальной информации о Google PageRank.

Обновление пользовательского интерфейса (UI)

Все программы пакета SEO PowerSuite получили множество обновлений интерфейса пользователя (UI). Внедрено множество пожеланий пользователей. Была улучшена читабельность и навигация. Добавилось много возможностей по настройке интерфейса под себя. Также он стал интуитивно понятнее.

Интерфейс разрабатывался с учётом Ultra HD мониторов с расширением 4K (около 4096х3072 пикселя) или 5K (около 5120х2160 пикселей).

Для настройки рабочей области достаточно нажать на заголовок любого столбца правой кнопкой мыши, и появится специальное окно (рисунок ниже)

Настройка рабочего пространства
Настройка рабочего пространства

Настройки фильтра тоже стали более удобными (рисунок ниже).

Фильтр данных
Фильтр данных

А в WebSite Auditor получать информацию о результатах SEO-анализа стало ещё удобнее (рисунок ниже).

Как исправить смешанное содержимое HTTPS
Как исправить смешанное содержимое HTTPS

В следующей статье «Обзор Rank Tracker. Составление семантического ядра и анализ сниппетов» мы рассмотрим новшества Rank Tracker в плане подбора и работы с ключевыми словами сайта.

 

Полезные ссылки: