LSI (latent semantic indexing — скрытое семантическое индексирование) — алгоритм Google, используемый для обнаружения качественного контента на страницах сайтов. Задача, ради которой была задействована эта технология, — вытеснить из выдачи бесполезные ресурсы, улучшив этим качество работы поисковой машины.
Соответственно, LSI-копирайтинг — составление текстов, оптимизированных под этот сложный набор инструкций. Цель автора — сделать так, чтобы алгоритм Google счел статью актуальной, информативной и полезной для пользователей. К тому, как этого достичь, перейдем чуть позже, но сначала немного истории.
Впервые об LSI заговорили в 2012 году, когда Google запустил знаменитую «Панду», ужасную и ненавистную многими оптимизаторами. Под нож легло огромное число ранее успешных проектов с низкопробным содержимым — отлично оптимизированными по части SEO, но бесполезными, сомнительными или малоинформативными текстами.
Поисковый гигант тогда призвал всех владельцев сайтов размещать естественный контент, то есть полезный для людей, а не поисковых систем. Стало ясно, что грамотно вставленных ключей на странице недостаточно — нужно еще «убедить» алгоритмы, что здесь есть действительно подробный и достоверный ответ на запрос. Срочно следовать рекомендациям пришлось всем, кто хотел место в топе.
Нравится нам или нет, но LSI — это уже норма. Постепенно к Google подтянутся другие поисковики — они тоже научатся отсеивать бесполезные страницы. Тем, кто раньше успешно зарабатывал на копеечных сайтах с бесплатными шаблонами и текстами от школьников, уже сейчас нелегко, а будет еще сложнее.
Однако для обычных пользователей Сети это плюс, потому что алгоритм LSI дал дорогу полезным сайтам, которые раньше были далеко от топ-10 из-за мелких недочетов с внутренними факторами и малого количества обратных ссылок. Они получили то, чего заслуживают.
И вот мы подошли к главному вопросу: как сделать качественный, то есть максимально релевантный контент? Ответ на него давно не секрет, и есть два единственных препятствия в этой задаче: трудоемкость и существенные затраты на ее реализацию.
Чтобы определить релевантность страницы, алгоритм семантического поиска теперь не ограничивается анализом количества запросов, их плотности, разнообразия словоформ и подобными критериями. Также существенно:
Только при выполнении этих требований можно получить релевантные тексты, максимально соответствующие запросам пользователей.
В LSI-копирайтинге существует два вида ключей:
Что касается количества вхождений, то оно никак не регламентируется Google. Единственная рекомендация: используйте их естественно (подключайте синонимы) — читателю не должны бросаться в глаза одни и те же ключевые фразы.
Чтобы достичь высоких позиций в органической выдаче поисковых систем, нужен большой набор ключевых фраз обоих видов. Это возможно в двух случаях:
Очевидно, что текст, оптимизированный под LSI, бессмысленно заказывать у копирайтера с биржи, который пишет по 60 рублей за 1000 знаков и ежедневно сдает до 40 000 символов. Более правильный вариант — писать материалы самостоятельно или обращаться к тем авторам, у которых в приоритете качество, а не объем. В этом случае количество правок и доработок будет сведено к минимуму.
Сегодня LSI-копирайтинг — это путь к высоким позициям сайта в органической выдаче поисковых систем. Вы можете провести блестящую внутреннюю оптимизацию, но если на страницах ресурса будут бестолковые тексты, то не ждите, что они попадут в топ-10. Тщательно работайте над контентом, чтобы он нравился и пользователям, и поисковикам. Всем высокой посещаемости и конверсии!