Премиум каналы

DrMax SEO

🚀 DrMax SEO — ваш проводник в мир эффективного продвижения! 🔍 Здесь вы найдёте проверенные SEO-инструменты и стратегии, которые помогут вашему сайту занять высокие позиции в выдаче. 💡 Следите за нашими обновлениями, чтобы быть в курсе последних трендов и решений для успешного продвижения в интернете! 🚀🚀🚀

Последние публикации с канала

‼️Вебмастер удвоил объем трафика за полгода после регистрации в LEADS!

Хочешь также? Автоматизируй!

LEADS уже давно формирует вокруг вебмастера всю необходимую ему инфраструктуру из полезных инструментов и сервисов, которые улучшают его конверсию и аналитику. По многим – аналогов на рынке просто нет!

Что предлагает LEADS?

Десятки инструментов и сервисов, которые доступны после регистрации, например:

🔹 Конструктор витрин: Инструмент, который не хуже Тильды создаст вам уникальный сайт с набором офферов и всей необходимой аналитикой за 5 минут. Главная фишка – полная кастомизация!

🔹 Агентские кабинеты: Выводите средства, не дожидаясь холда, в различные рекламные системы, такие как Яндекс, Вконтакте и получайте кешбэк до 30%!

🔹 Postback: Сервис, который в отличие от других конкурентов, дает более гибкие настройки, среди которых: создание до 10 групп условий и возможность добавить любые параметры.

🔹 Чекер: для фильтра вашей базы на релевантность для СМС-рассылки,

🔹 Виджет-маркет: готовые виджеты для монетизации ваших доходных сайтов,

🔹 IVR-прозвон и СМС-рассылка, Ультралендинг, Парковка домена, BackUrl, Генератор UTM, Сокращатель ссылок и много других!

🔹 Гибкая система выплат: более 13 доступных каналов, среди которых Capitalist, банковские карты и электронные кошельки.

Заходи и тестируй бесплатно сразу после регистрации, которая займет не более 3-х минут!

27.05.2024 / 07:05

🟢 SiteAnalyzer SEO Tools - браузерное расширение для SEO

Наш добрый товарищ Андрей Симагин, широко известный линейкой бесплатного SEO софта, выкатил новую полезность.

SiteAnalyzer SEO Tools - браузерное расширение для Chrome и Firefox, представляющее собой набор инструментов для анализа SEO-показателей сайта, технического аудита, анализа URL и исправления ошибок SEO-оптимизации. Основные возможности SiteAnalyzer SEO Tools таковы:

- Определение Яндекс ИКС
- Определение общего числа страниц сайта в индексе Яндекса и Google
- Проверка статуса индексации URL в Яндексе и Google
- Отображение содержимого тегов Title, Description, H1-H6
- Определение наличия «Robots.txt» и «Sitemap.xml»
- Учет правил «Robots.txt», мета-тега «Robots», заголовка «X-Robots-Tag»
- Учет REL «Nofollow», «Sponsored» и «UGC» для ссылок и URL
- Определение внутренних и внешних ссылок на странице
- Семантический анализ контента страницы
- Проверка скорости загрузки страниц
- Получение кодов ответа сервера (200, 3xx, 4xx, 5xx)
- Определение CMS сайта
- Получение даты регистрации и возраста домена
- Отображение всех изображений страницы и содержимого тега ALT
- Определение IP-адреса и страны сайта

Чем сможет помочь плагин SEO-специалисту?

- Проверка индексации страниц
- Анализ мета-тегов и контента страниц
- Поиск технических ошибок на сайте

Безопасность

- Расширение распространяется абсолютно бесплатно, не требует регистрации, не собирает и не отправляет куда-либо ваши персональные данные.

Протестировать расширение можно (и нужно) на офф страничке: https://site-analyzer.ru/soft/seo-extension/

Поскольку Андрей, не посторонний для многих товарищ, то неплохо было бы отправлять ему фидбеки по работе полезняшки. А ежели кто не совсем ленив - то отпишитесь на странице расширения в Chrome Web Store / Firefox.

#DrMax #SiteAnalyzer

22.05.2024 / 16:05

Предпринимателям и владельцам сайтов!

Канал, который поможет вам привлечь больше клиентов и увеличить трафик на ваш сайт.

Подписывайтесь на наш канал SEO ETC, где мы делимся секретами успешного продвижения и оптимизации сайтов. 🔑

Вы узнаете:
☑️ Как инвестировать в себя и свой проект, чтобы добиться успеха;
☑️ Можно ли успешно продвигаться без использования ссылок;
☑️ И другие полезные советы, которые помогут вам улучшить позиции вашего сайта в поисковых системах.

Кроме того, мы предоставляем бесплатные списки каталогов для размещения вашей информации.

Подписывайтесь, чтобы не пропустить новые списки!

SEO ETC - Ваш ключ к успеху в мире онлайн-бизнеса!

Telegram
SEO ETC

#польза_для_бизнеса
Инвестиции в себя, в проекты и диверсификация

В прошлом году я прошел курс по работе с PBN и Дропами. Самым сложным было выделить время на обучение и не просто выполнять ДЗ, а писать подробный мануал для себя, чтобы в конечном итоге делегировать…

20.05.2024 / 08:05

🤓 Опять про мартовский CoreUp

Собственно говоря, переезд на новый домен показал восстановление трафа на убитом в мартовский ап сайте.

Как радикальное средство сгодиться. Ждем, догонит ли классификатор (HCU) при условии исправления контента/ закупки нового ссылочного.

Доклад закончил )) Подробности в комментариях.

#DrMax #SEO #CoreUpdate

19.05.2024 / 11:05

🧐 Подключаем Gemeni к Гугл Таблицам

Пожалуй самое простое подключение.

Для начала, как и для Барда добываем API ключик к генеративному API

Потом идем в Гугл таблице и в меню сверху ищем Расширение —> Дополнения —> Установить дополнения.

Теперь ищем вот такое дополнение:

AI Assist for Gemini in Sheets, Docs and Forms
Gemini AI magic in Sheets, Docs and Forms for data enrichment, categorization, translation, and seamless content creation. Elevate your workflow!
Разработчик: GW Add-onsopen_in

Это дополнение бесплатное, все остальные через сотню запросов начнут требовать бабла.

Вводим ключик в настройках.

Теперь доступно десяток новых функций (посмотрите сами), но самая важная:
=gemini(промпт ; температура; модель)

Модель можете задать в настройках. Доступны от 1 версии до 1.5.pro (каждая модель ест разное кол-во токенов).

Гугл выдает на день около миллиона токенов для простой модели и гораздо меньше для сложных. Я использую в основном gemeni-pro с ограничением 2048 токенов. Лимитов еще не исчерпал ни разу.

Опять же скажу - не копируйте формулу на 100500 ячеек сразу - слишком большое кол-во обращений к API выдаст ошибки.

Развлекайтесь )))

#DrMax #SEO #Gemini #GoogleSheets

15.05.2024 / 06:05

🧐 Подключаем Perplexity к Гугл Таблицам

В отличии от Bard это платный вариант, но он того стоит. Как никто, Perplexity.ai умеет собирать в интернете, анализировать и обобщать информацию. Правда пишет несколько корявым языком, но это простительно (авось не эстеты и далеко не лингвисты), не за это ценим.

Платная версия стоит$20 в месяц + нужно положить денюжку на доступ к API. К примеру, заведенные $50 никак не потратим, хотя уже счет запросов уже десятками тысяч (там разные модели стоят по разному).

Итак, прикупаем доступ (получаете $5 на API), берем в админке секретный ключ (он же ключ API) и идем опять в Гугл Таблицы, где опять лезем в скрипты. Теперь вставляем туда вот такой код:


const SECRET_KEY = "pplx-ваш-ключ-API";
const MAX_TOKENS = 256; // кол-во возвращаемых токенов (больше-дороже)
const TEMPERATURE = 0.2; // температура от 0 до 1 (чем выше - тем больше выдумок)
// здесь список всех моделей которые я нашел
//pplx-7b-chat, pplx-70b-chat, pplx-7b-online, pplx-70b-online
//llama-2-70b-chat, codellama-34b-instruct, codellama-70b-instruct, mistral-7b-instruct, and mixtral-8x7b-instruct.
// llama-3-sonar-small-32k-chat
// llama-3-sonar-small-32k-online
// llama-3-sonar-large-32k-chat
// llama-3-sonar-large-32k-online
// llama-3-8b-instruct
// llama-3-70b-instruct
// mixtral-8x7b-instruct

function pplx(prompt, temperature = TEMPERATURE, model = "pplx-70b-chat") {

// Set API endpoint
const url = "https://api.perplexity.ai/chat/completions";
const payload = {
model: model,
messages: [
{ role: "system", content: "System prompt goes here." }, // Set system prompt.
{ role: "user", content: prompt },
],
temperature: temperature,
max_tokens: MAX_TOKENS,
};
const options = {
contentType: "application/json",
headers: { Authorization: "Bearer " + SECRET_KEY },
payload: JSON.stringify(payload),
};
const res = JSON.parse(UrlFetchApp.fetch(url, options).getContentText());

// Now, return the response
return res.choices[0].message.content.trim();

}


Сохраняем и идем опять в Гугл таблицы.

У нас теперь доступна функция =PPLX (Prompt, Temperatura, Model)

В качестве аргументов задаем промпт (или ссылку на ячейку с ним), температуру и названием модели.

Список всех моделей, что я нашел - см в коде скрипта.

Ограничения API от веб версии:

1. нельзя подключить Клавдию или ЧатГПТ. Переписка с поддержкой показала, что юзаем только модели встроенные в Перплексити.

2. Обратите внимание, сколько запросов ПРО версия делает для поиска информации в веб версии - десятки! Потому ответы у них так хороши. Потому или разбивайте промпты на цепочки с обработкой промежуточных результатов или переделывайте логику промпта.

Долго плевался, но после недели мучений - научился добиваться супер результатов.

3. Разные модели (не факт что нашел все) кушают разное кол-во токенов. И ответы будут стоит по разному.

4. Себе сделал 3 функции, условно говоря pplx256, pplx1024, pplx2048, где прописал руками переменную
max_tokens
прямо в функции. Не стал делать 4-ю передаваемую переменную.

В общем развлекайтесь, оно того стоит. Крайне полезный и могущественный инструмент вышел.

#DrMax #SEO #Perplexity #GoogleSheets

15.05.2024 / 06:05

🧐 Подключаем Bard к Гугл Таблицам

Для автоматизации всего и вся ранее использовал Bard + Гугл Таблицы. Причин для использования море - начиная от автоматизации генерации красивых и правильных Тайтлов для страницы и заканчивая... да чем угодно. И да, у Барда есть доступ к интернету.

Итак, для начала получаем доступ к API. Идем (через VPN) в makersuite.google.com и там тыкаем Create API key in new project и собственно забираем ключик.

Есть и второй путь получения ключика API - через https://console.cloud.google.com/ - изначально я там его и делал. В инете много инфы, как получить ключ этим способом - дублировать не буду.

Далее, заходим в Гугл Таблицы.
В главном меню жмем Расширения —> APPS Script
и туда вставляем вот такой код, добавив в него свой ключ:

function BARD(prompt) {

var apiKey = "свой_ключ_API";
var apiUrl = "https://generativelanguage.googleapis.com/v1beta2/models/text-bison-001:generateText";

var url = apiUrl + "?key=" + apiKey;

var headers = {

"Content-Type": "application/json"

};

var requestBody = {

"prompt": {
"text": prompt
}

}

var options = {

"method": "POST",
"headers": headers,
"payload": JSON.stringify(requestBody)
}

var response = UrlFetchApp.fetch(url,options);
var data = JSON.parse(response.getContentText());
var output = data.candidates[0].output;

//return generatedText;
Logger.log(output);
return output;

}


Жмем Сохранить (дискета) и возвращаемся в Гугл Таблицы.

Теперь нам доступна функция =BARD(), гдк в качестве аргумента можно использовать или промпт (в прямых кавычках) или ссылку на ячейку с промптом.

Вся эта фиговина - бесплатная, ограничения на количество токенов в день - чудовищное, но не стоит сразу копировать функцию на 100500 ячеек - пойдут параллельные запросы к Барду и вы словите Ошибки.

Развлекайтесь.

#DrMax #SEO #BARD #GoogleSheets

15.05.2024 / 06:05

Оценка влияния Google SGE на ваш бренд

Вышла очень интересная статья, где показан процесс внедрения SGE Гуглом. Ну и некоторые советы приводятся по оптимизации SEO процессов под SGE. Расстановка приоритетов является ключом к оценке влияния Google SGE на ваш бренд.

На графике фиолетовым цветом - полностью автоматическая генерация SGE, зеленым - по кнопке, нажатой пользователем. Как видим, панель охватывает до 90+% в некоторых отраслях.

Необходимо прикладывать усилия к оптимизации тех запросов, что находятся в фиолетовой зоне. Для этого:

Соберите данные Google SGE для запросов, которые охватывают 80-90% объема вашего поиска.

Какой процент вашего трафика и запросов приходится на запросы, возвращающие автоматически сгенерированный Google SGE, по сравнению с запросами, сгенерированными вручную?

Есть ли закономерность между этими двумя группами?

Разделение ваших запросов на автоматически сгенерированные и сгенерированные после клика позволяет вам в первую очередь сосредоточиться на автоматически сгенерированных запросах Google SGE и отслеживать это соотношение, поскольку наши исследования показывают, что Google SGE автоматически охватывает больше запросов.

Разделив запросы на два сегмента — автоматически сгенерированный и SGE, созданный вручную, — сосредоточьтесь на оптимизации запросов в автоматически сгенерированном сегменте.
Отслеживайте охват Google SGE в сегменте, созданном вручную (со временем Google будет показывать больше автоматически созданных результатов поиска SGE).

ну и т.д.

Статья интересная, читайте вот тут

Достаточно полезно для понимания, откуда теперь брать трафик.

#DrMax #SEO #Google #SGE

09.05.2024 / 07:05

☄️ Финальный пост про мартовский Core Update

Хотел расписывать про особенности каждого типа контента, расписал выше только про ревьюшки, больше вычленять не буду - абсолютно нет времени.

Итак, что мы знаем:
1. Те кто припал в сентябрьский ап полезного контента - припал и в марте
2. Практически никто из припавших не восстановился с сентября по март
3. Восстановились и выросли перенесшие сайты на новый домен
4. Из перенесших, те кто сделал 301 редиректы, но не правил контент - упали в марте
5. Теперь классификатор является частью ядра алгоритмов Гугла
6. Штраф накладывается на домен целиком
7. Кроме классификатора, важную роль играет траст (ссылки, нахождение в Гугл-графе знаний)
8. Реальный, прокачанный бизнес пострадал меньше всевозможных обзорников
9. Гугл вырезал 45% всех страниц в инете

Чтобы восстановиться необходимо резко нарастить траст сайта. И тогда, возможно, через ап Гугл вернет трафик.

[ТУТ ОТКАЗ ОТ ОТВЕТСТВЕННОСТИ - ВСЁ ПРОДЕЛЫВАЕТЕ НА СВОЙ СТРАХ И РИСК]

Что нужно проделать - либо переехать на другой домен (с редиректом) + править контент. Восстановитесь еще до коре апа.

Либо, как уже говорил, резко нарастить качество сайта:
1. Убираем признаки обзорности из контента. Вырезаем паттерны.
2. Переписанные страницы переносим на новые URL, отслеживая чтобы в них не было паттернов (с заменой ссылок по сайту и редиректом 301).
3. Ядовитые страницы с 0 трафиком удаляем/объединяем
4. Линкбилдинг
5. Техничка! Вылизываем проект. Устраняем 5xx ошибки. Приводим в порядок и всё остальное.


Далее, так как штраф накладывается на домен целиком, а поддомены, по сути - отдельные сайты, то выносим на них либо самое ядовитое (в надежде через пару апов получить восстановление на главном домене), либо то что раньше приносило трафик, вплоть до того, чтобы на домене осталась только морда, остальное было раскидано по поддоменам - блог отдельно, магазин отдельно, обзоры отдельно. Но это рекомендуется только совсем уж отчаявшимся товарищам.

Не забываем обновить/уточнить коммерческие данные. Не забываем про желтые страницы и проверку NAPW. Всё это поможет пролезть в граф знаний и, возможно, переведет сайт из статуса обзорника в иной статус (просто добавление, например, магазина на сайт - не работает, судя по докладам).

Важно:
Посмотрите внимательно на те страницы, что выпали из индекса в конце мартовского апа и за время после него - это наихудшие страницы вашего сайта. Их на переделку или на обновление или вырезать.

И опять линкбилдинг + переподача выпавших страниц в индекс через API (после переделки или удаления).

В целом, у каждого сайта - свои нюансы и чтобы найти их - нужна тщательная работа по анализу. Причем для разных типов сайтов и для разных последствий от апа - они различаются.

Но в первом приближении, вот такие задачи надо решить.


#DrMax #Google #CoreUp

03.05.2024 / 11:05

⚠️ Гугловцы откатили базу по индексу на 3 дня.

Пару часов назад было, что обновляли они 1 числа. Сейчас уже 30 ))). Регион - штаты.

Откаты/ докатки еще неделю будут в Гугле после апа.

#DrMax #Google

03.05.2024 / 09:05

[ПОИСК] Собственно нужен совет

Необходимо заложить с десяток однотипных сайтов с примерно равноценным контентом для проверки разнообразных идей. В том числе и по борьбе с HCU. Поэтому нужен какой то продвинутый генератор контента, например в виде плагина к WP или там внешнего сервиса. Требования:
1. Работа с perplexity и/или с Бардом
2. Шаблонизатор продвинутый
3. Возможность работы со списками URL
4. Возможность дописывать контент / переписывать имеющееся

Кто ни будь что то подобное использует?

Можно, конечно, на зенке реализовать оное, но я с зеннопостером только на заре его создания пообщался, потом ни к чему было. Что то не хочется опять в это лезть.

Накидайте в комментариях какие либо варианты. Посмотрел на кодеканьоне. Фиг его знает - то что нужно или нет.

В общем нужен совет от практиков )))

#DrMax #Поиск

02.05.2024 / 17:05

😱 Про то как нужно слушать и понимать заявления Гугла.

Всем известно, что говорящие головы Гугла частенько врут. То ли из за недомыслия, то ли из за недостатка информации. Взять того же Джона Мюллера. То что он вещает, зачастую, через какое то время, опровергается или практикой или им же самим, а то и всплывает совершенно обратное в ходе судебных слушаний ( например поведенческое).

Официальные заявления Гугла тоже весьма скользкие. И часто подразумевают совершенно не то, о чем говорилось.

Вот, например, обмусоленное заявление о снижении ценности ссылочного, как фактора ранжирования. Мол ссылочное не торт и не играет для Гугла большой роли.

Народ, в большинстве своем воспринял это как снижение значимости ссылочного в целом. Но это совсем не так. Поясню на самых простых примерах с небольшим экскурсом в историю интернета.

На заре интернета был придуман гугловцами алгоритм PageRank, базировавшийся на количестве (а в следующих версиях и на качестве) ссылочного. Для начала отсчета брались так называемые корневые сайты и в зависимости от их удаленности каждой странице присваивались PR.

Предположим, что 20 лет назад корневые сайты имели, ну пусть 10 тысяч ссылок на каждом. При этом PR10, который считается по экспоненте - ну пусть миллион очков.

Интернет рос. Кол-во ссылок ежегодно вырастало в десятки раз.

Сегодня корневые сайты имеют ну пусть 10 миллионов ссылок, при этом PR10 уже будет, предположим, миллиард очков.

Таким образом, чтобы достичь PR3 сегодня нужно в 100 раз больше ссылок, чем 20 лет назад.
Таким образом, ВЕС ОДНОЙ ССЫЛКИ уменьшился в десятки раз - и значимость этой ссылки тоже уменьшилась в десятки раз.

А вот расчётный PR как был в алгоритме ранжирования- так им и остался. И выдача строится, в том числе, используя PR. И YMYL страницы в своих наборах факторов EEAT активно его используют. И т.д. И т.п.

Вот о чем действительно говорят гуглоиды, когда вещают о снижении ценности ссылочного: Оно не стало хуже работать - просто теперь нужно в десятки а то сотни раз больше ссылок строить, чтобы достичь необходимого уровня PR. Который и участвует в ранжировании.

Если сейчас посмотреть выдачу, то там болтаются либо трастовые сайты, либо проекты с большим кол-вом ссылочного. Попробуйте найдите в конкурентном ТОП-е сайт без ссылочного. Вряд ли найдете.

Продолжим....

Вот прошел последний CoreUP. Как говорят гуглоиды - они вырезали 45% сайтов/страниц, якобы плохого качества. И якобы это они сделали в великой заботе о пользователях.

На самом деле это не так. Ряд прекрасных сайтов попало под раздачу. При этом в ТОПе висят сайты, которым там делать нечего.

Гугловцы заботятся только об одной группе людей - их акционерах. Вернее об их карманах и показателях прибыли. Вот вырезали они хорошие сайты из выдачи. Теперь им для ведения бизнеса придется закупаться рекламой. Спрос вырастет, вырастет ценник на рекламу. И те кто до этого закупался рекламой станут платить больше. При этом объемы закупок вырастут. Профит.

Снижение на 45% кол-ва страниц в инете означает, прежде всего, снижение необходимости в дата центрах. При этом кратно упадут расходы на электроэнергию, которые составляют подавляющую часть расходов в поддержке экосистемы Гугла. А каждый сэкономленный доллар - это заработанный доллар. Опять прямая выгода Гуглу, а вовсе не конечным пользователям Гугла.

У каждого заявления Гугла есть второе, а порой третье дно. И докопаться до него не всегда удается.

Просто надо помнить, что Гугл - это не про пользователей. Гугл - это про деньги. И именно так и надо подходить к каждому заявлению Гугла.

Собственно говоря, Гугл никому ничего не должен))) Он зарабатывает как может и нельзя его за это осуждать.

#DrMax #Google

02.05.2024 / 15:05

⁉️ Как Гугл понимает что перед ним обзор чего либо.

* Дополнение к предыдущему посту.

Существует несколько паттернов, по которым можно определить, является ли контент обзором.

🟢Структура:

Обзоры обычно имеют четкую структуру, с введением, основной частью и заключением. Во введении обычно представлен продукт или услуга, которая рассматривается, а также дается краткий обзор того, что будет обсуждаться. В основной части подробно рассматриваются различные характеристики продукта или услуги. В заключении обычно подводятся итоги обзора и дается общая оценка продукту или услуге.

Ключевые слова: введение, заключение, разделы и пр.


🟢Язык:

Обзоры обычно написаны информативным языком, понятным для целевой аудитории. Они часто включают в себя оценочные суждения и мнения автора. В них могут использоваться сравнения с другими продуктами или услугами.

Ключевые слова: обзор, рецензия, оценка, анализ, сравнение, плюсы/минусы, мнение, впечатление, опыт, тест, вердикт и т.д.


🟢Тон текста (легко определяется алгоритмически):

Информативный, объективный, субъективный, оценочный, сравнительный, рекомендательный (самый паскудный).


🟢Контент:

Обычно в обзорах встречаются подобные слова:
Лучший, худший, топ, рейтинг, лидер, новинка, популярный, must-have ))), не / рекомендую, уникальный и пр.


🟢Ссылки:
Обзоры часто содержат ссылки на другие источники информации, такие как веб-сайты производителей, технические характеристики и отзывы пользователей.

Следует отметить, что наличие одного или двух паттернов не гарантирует, что контент является обзором. Однако наличие нескольких паттернов является «strong indication» того, что контент является обзором.

Вот несколько примеров, явно указывающих на обзор:
"Обзор нового смартфона Samsung Galaxy S23 Ultra"
"Рецензия на фильм "Аватар: Путь воды""
"Сравнение ноутбуков Apple MacBook Pro и Dell XPS 13"
"Плюсы и минусы использования электромобиля"
"Мое мнение о фотоаппарате Canon EOS R5"
"Опыт использования фитнес-браслета Xiaomi Mi Band 7"
"Тест умной колонки Amazon Echo Show 10"
"Вердикт: стоит ли покупать iPhone 14?"
"Лучшие книги 2024 года"
"Топ-5 самых популярных электронных устройств"
"Лидеры рынка смартфонов в 2024 году"
"Новинка от компании Sony: PlayStation VR2"
"Must-have гаджеты для путешественников"
"Я не рекомендую покупать этот телевизор"


Таким образом Гугл прекрасно алгоритмически понимает, что вот эта страничка явно обзор. При условии низкого траста домена, плохого поведенческого (отскоки в выдачу, мало время на страничке, низкая глубина просмотра, отсутствие нажатий, скроллирований, сдвиганий и пр) неплохо бы такой обзор выкинуть из выдачи.

Продолжение следует...

#DrMax #SEO #Google #CoreUpdate

30.04.2024 / 17:04

🔝Гугл вырезал пол-интернета из выдачи. Анализ мартовского CoreUP. Часть2.

➡️ Тип контента: обзоры

Сайты, наполненные статьями с обзорами чего либо пострадали больше всех. К ним можно отнести и небольшие коммерческие проекты с блогами и какие ни будь тревел блоги с уникальными обзорами, всевозможные агрегаторы чего либо или просто обзоры какой нибудь фигни. Изначально такие сайты пострадали от сентябрьского апдейта полезного контента и были добиты мартовским.

Существует два стойких мнения, почему так произошло.

Первое – что рулит траст и если вы не являетесь:

Общепризнанным брендом или знаменитостью
Крупной корпорацией
Сертифицированным экспертом в своей области
Известным независимый брендом
то вам не только не видать топов, но и в выдаче незачем быть.

Отчасти это справедливо. Это основано на том, что в ходе судебного расследования Гугл признался, что он не умеет достоверно и полно понимать, о чем повествует контент. И поэтому он пользуется всевозможными факторами ранжирования типа ссылочного, поведенческого, графа знаний, микроразметки, хостовых факторов (сколько лет живет проект, как часто обновляется и пр). Таким образом, Гугл не в состоянии алгоритмически отличить хороший контент от выдающегося. И его советы о создании экстра качественного контента – от лукавого.

Вторая группа товарищей утверждает, что всевозможные ревьюшки давно всем надоели, не несут никакой добавочной ценности и потому были прибиты Гуглом. Они говорят что нужно писать не о том, ЧТО такое объект/явление/предмет, а КАК им пользоваться.

В качестве примера берем холодильник. Как правило он давно есть в каждой семье и обзоры на новые модели никому не нужны (да собственно ничего нового то и нет в новых холодильниках). А вот то как оперировать этим холодильником, поддерживать его работоспособность, например как менять резинки, как очистить холодильник изнутри и т.д. – это ценная информация, востребованная многими товарищами. Таким образом, смещая вектор с ненужных обзоров (которые никто не смотрит) на советы по этим предметам (много ищут), якобы можно поиметь тонны трафика.

Несколько не соглашусь с этим заявлением. В первом комментарии график очень опытного товарища, занимающегося ремонтом, который ведет частный блог, описывает КАК нужно делать, снимает уникальные видео и выкладывает их и посмотрите как он припал.

Мое мнение таково. Необходимо иметь могучий траст, прокачанный бренд и хорошее поведенческое. И тогда ревьюшки действительно займут ТОП. Ну а качество контента – это второй слой, который обеспечивает именно поведенческие факторы. Плохой и ненужный контент юзать не будут и поведенческое будет стремиться к нулю.

И как вы думаете, сможет ли замена контента на сайте восстановить ранжирование? Об этом далее…

#DrMax #SEO #Google #CoreUpdate

30.04.2024 / 16:04

🔝 Гугл вырезал пол-интернета из выдачи. Анализ мартовского CoreUP. Часть1.

Первоначально Google сообщал, что количество низкокачественного и бесполезного контента сократится на 40%. Теперь Google заявил, что в конечном итоге этот показатель оказался ближе к 45%. Фактически половина страниц Интернета выпала из выдачи, что несомненно хорошо для Гугла (снижение расходов) и плохо для владельцев сайтов.

Google обновил страницу справочного центра, на которой описывается, как владельцы сайтов могут устранить падение ранжирования. Насколь я помню - раньше там были просто кривульки, а теперь они эти кривульки расписали.

Гугл глумливо сделал страницу фидбека по результатам апа. Если вы припали - то отпишитесь туда. Толку не будет, но мало ли.

Гугл также выпустил обновление по спаму в марте 2024 года, которое началось 5 марта и завершилось 20 марта . Google также выпустил множество ручных действий, связанных с проблемами чистого спама (вырезал сайты целиком). Наконец, в этот период Google изменил свои основные веб-функции, чтобы использовать INP вместо FID. Таким образом, множество изменений перекрывают друг друга, наверняка для того, чтобы было сложно определить, какие изменения могли повлиять на падение ранжирования. Ну или на рост (кому повезло).

В Google заявили, что это обновление уточнило, как они понимают, какие веб-страницы «бесполезны, имеют плохой пользовательский опыт или кажутся созданными для поисковых систем, а не для людей». Сюда «могут относиться сайты, созданные в первую очередь для соответствия очень специфическим поисковым запросам», добавили в Google.

Теперь важно:
В этом основном обновлении, выпущенном в марте 2024 года, Google прекратит анонсировать новые обновления полезного контента , поскольку система полезного контента была включена в основную систему обновлений. Последнее обновление полезного контента было в сентябре 2023 года. Классификатор системы полезного контента был переработан и теперь включен в основное обновление от марта 2024 года.

То есть те, кто припал в сентябре от хелпфул обновления, припали еще больше. Тех, кого сентябрьское обновление вырезало почти полностью, мартовским были добиты.

Судя по спец форумам, кои были зачитаны до дыр, практически никому, кого подрезало сентябрьское обновление не удалось восстановиться. Видимо, классификатор полезности стал еще более жестким. Единственные радостные уведомления были от ребят, которые перенесли сайт на новый домен - те восстановились практически полностью (непонятно делали они редиректы или нет, что очень важно).

Google поглумился еще раз и выдал несколько новых советов для восстановления:
Конкретных действий для восстановления не требуется. Негативное влияние на рейтинг может не указывать на то, что с вашими страницами что-то не так.

Google опять предложил свой старый список вопросов, на которые следует ответить, если вы упали в результате обновления.

Google сказал, что между обновлениями ядра можно увидеть некоторое восстановление, но самое большое изменение произойдет после еще одного обновления ядра.

Короче говоря, пишите полезный контент для людей, а не для ранжирования в поисковых системах.

Так ли это на самом деле ?

#DrMax #SEO #CoreUpdate #Google

30.04.2024 / 12:04

Гугл завершил мартовский CoreUp

Наверное, самый длинный апдейт в истории Гугла. Длился почти 2 месяца.
Теперь нужно обдумать, что они там наворотили и готовиться к майскому спам апдейту.

#DrMax #Google #CoreUP

27.04.2024 / 08:04

О разных полезностях и вопросах из комментариев.

Тут меня в комментариях спрашивали – мол, кто для меня из SEO специалистов является авторитетом. Наверняка, чтобы оных товарищей почитать, поизучать их труды.

Ну, начнем с Рунета. Тут кроме всеми нами уважаемого Миши Шакина, есть несколько человек, одни довольно известные, как Андрей Симагин (автор кучи востребованного бесплатного SEO софта), есть и очень скромные товарищи, мало известные паблику, но с которыми я общаюсь лет 15-20 уже и восхищаюсь их мега способностями в SEO.

Хочу познакомить сейчас еще и с Кириллом, который ведет свой SEO канал, в коем время от времени попадаются крайне интересные мысли и наблюдения.

Вот, например, опять всплыла дремучая тема с собиранием трафика на PDF. Эта тема зародилась чуть ли не на заре интернета, когда поисковики научились индексировать PDF. В книжице «SEO Монстр» я докладывал, как ловко собирал ссылочное с упоминаний в PDF. А теперь вот Кирилл расписал, насколько рулит такой способ в Яндексе. Собственно, как монетизировать оный трафик – дело десятое. Главное, что тема живет и процветает.

Там же, на канале он периодически докладывает о результатах работы со всякими AI-ботами. И если я пишу про всякие проверки на актуальность, всевозможные факт чекинги и прочие академические исследования при работе с ботами, то Кирилл переводит это всё в практическую плоскость, типа вот такого. Там вроде курсы у него есть на эту тему, обучение но я в это не вникаю ))).

В общем есть что почитать, подумать. Канал у него с "оригинальным" названием Лайфхаки по SEO ))) Но это абсолютно не влияет никак на качество контента. Я вот тоже думал, как обозвать этот вот канал, да плюнул (посмотрите как у меня канал называется в описании 😀 ).

А про буржуйских товарищей оптимизаторов – я завтра распишу (ежели захотите). Может быть даже расскажу про одного хитрого знакомого товарища родом из Индии.

PS
давайте канал с комментами переименуем как то. Есть мысли ?

#DrMax #SEO #Мысли

25.04.2024 / 12:04

😱 Как написать AI-контент, оптимизированный для EEAT

Moz выкатил статью про создание качественного контента силами ботов. Основные мысли таковы:

Мы начинаем с создания вручную 2–3 частей качественного контента. Наши опытные копирайтеры пишут их, чтобы гарантировать, что они устанавливают строгий стандарт качества и релевантности.

Затем мы используем наш инструмент искусственного интеллекта для проверки этого созданного вручную контента на предмет соответствия рекомендациям Google по оценке . Этот шаг гарантирует, что наш контент соответствует самым высоким стандартам EEAT.

Используя наш эталонный набор контента, мы просим ChatGPT генерировать контент аналогичного качества для указанной темы, используя наши ручные примеры в качестве стандарта качества.

После того, как ИИ сгенерирует контент , мы сравниваем его с рейтингом первых нескольких статей в Google. Такое сравнение помогает нам выявить пробелы или дополнительную информацию, которую нам необходимо включить.

Затем наши копирайтеры уточняют контент искусственного интеллекта, добавляя уникальные идеи, точки зрения и информацию, не вошедшую в топовые публикации в блогах.

Наконец, мы оптимизируем контент, учитывая лучшие практики SEO. Это включает в себя реализацию внутренних ссылок, разметку схемы и включение элементов EEAT.

Выводы: без вычитки и правки генеренки - никуда.

Сама статья вот тут.

#DrMax #SEO #Content #AI

24.04.2024 / 04:04

Forwarded From SEO вебинары Шакина

🥒 Весенняя SEO-солянка c Dr.Max

Хотите узнать новые SEO-фишки от Dr.Max? Как сейчас безопасно и эффективно продвигать сайты в топ? Как быстро найти точки роста для увеличения посещаемости сайта?

22 апреля в 15 по Москве смотрите вебинар Dr.Max @drmaxseo.

📺 Трансляция на YouTube:
https://www.youtube.com/watch?v=H8tvya1aSCE

🎞 Смотрите плейлист "Круглые столы по SEO" на моем YouTube канале:
https://www.youtube.com/playlist?list=PLS7oN4pFU92uFmLvxXur-UiJqjMPH7_E2

Смотрите предыдущие вебинары с Доктором Максом:
Хитрый линкбилдинг 2024. Строим ссылки с конкурентов!
https://www.youtube.com/watch?v=0oygm26K_48

Секреты линкбилдинга
https://www.youtube.com/watch?v=pcooQJ3wvYk

Рост эффективности SEO на 1000% своими руками
https://www.youtube.com/watch?v=uBH7gw_I44o

32 фишки внутренней перелинковки
https://www.youtube.com/watch?v=G4PLTuVtn8c

🎥 Трансляция в моем профиле ВК. Все записи вебинаров доступны здесь https://vk.com/video/@globator):
https://vk.com/globator

🚛 Мои каналы в ВК Видео:
https://vk.com/video/@shakinseo - видео по продвижению сайтов в рунете
https://vk.com/video/@burzhunetseo - видео по продвижению англоязычных сайтов

📼 Кроме этого, запись вебинара будет размещена в моем канале на Дзене:
https://dzen.ru/shakin

📹 И в моем Rutube канале:
https://rutube.ru/channel/24777621/

Михаил Шакин, @shakinweb #линкбилдинг #аналитика #лайфхак #seotools #точкироста #трафик #техническоеseo

YouTube
Весенняя SEO-солянка c Dr.Max

Хотите узнать новые SEO-фишки от Dr.Max? Как сейчас безопасно и эффективно продвигать сайты в топ? Как быстро найти точки роста для увеличения посещаемости сайта?

Смотрите вебинар Dr.Max.

Сайт DrMax:
https://drmax.su/

Книги DrMax:
https://drmax.su/download…

20.04.2024 / 08:04
Отзывы: - 0
Поделитесь вашим мнением! Оставьте отзыв:

Похожие

Избранное