DrMax SEO
🚀 DrMax SEO — ваш проводник в мир эффективного продвижения! 🔍 Здесь вы найдёте проверенные SEO-инструменты и стратегии, которые помогут вашему сайту занять высокие позиции в выдаче. 💡 Следите за нашими обновлениями, чтобы быть в курсе последних трендов и решений для успешного продвижения в интернете! 🚀🚀🚀
Пару часов назад было, что обновляли они 1 числа. Сейчас уже 30 ))). Регион - штаты.
Откаты/ докатки еще неделю будут в Гугле после апа.
#DrMax #Google
Необходимо заложить с десяток однотипных сайтов с примерно равноценным контентом для проверки разнообразных идей. В том числе и по борьбе с HCU. Поэтому нужен какой то продвинутый генератор контента, например в виде плагина к WP или там внешнего сервиса. Требования:
1. Работа с perplexity и/или с Бардом
2. Шаблонизатор продвинутый
3. Возможность работы со списками URL
4. Возможность дописывать контент / переписывать имеющееся
Кто ни будь что то подобное использует?
Можно, конечно, на зенке реализовать оное, но я с зеннопостером только на заре его создания пообщался, потом ни к чему было. Что то не хочется опять в это лезть.
Накидайте в комментариях какие либо варианты. Посмотрел на кодеканьоне. Фиг его знает - то что нужно или нет.
В общем нужен совет от практиков )))
#DrMax #Поиск
Всем известно, что говорящие головы Гугла частенько врут. То ли из за недомыслия, то ли из за недостатка информации. Взять того же Джона Мюллера. То что он вещает, зачастую, через какое то время, опровергается или практикой или им же самим, а то и всплывает совершенно обратное в ходе судебных слушаний ( например поведенческое).
Официальные заявления Гугла тоже весьма скользкие. И часто подразумевают совершенно не то, о чем говорилось.
Вот, например, обмусоленное заявление о снижении ценности ссылочного, как фактора ранжирования. Мол ссылочное не торт и не играет для Гугла большой роли.
Народ, в большинстве своем воспринял это как снижение значимости ссылочного в целом. Но это совсем не так. Поясню на самых простых примерах с небольшим экскурсом в историю интернета.
На заре интернета был придуман гугловцами алгоритм PageRank, базировавшийся на количестве (а в следующих версиях и на качестве) ссылочного. Для начала отсчета брались так называемые корневые сайты и в зависимости от их удаленности каждой странице присваивались PR.
Предположим, что 20 лет назад корневые сайты имели, ну пусть 10 тысяч ссылок на каждом. При этом PR10, который считается по экспоненте - ну пусть миллион очков.
Интернет рос. Кол-во ссылок ежегодно вырастало в десятки раз.
Сегодня корневые сайты имеют ну пусть 10 миллионов ссылок, при этом PR10 уже будет, предположим, миллиард очков.
Таким образом, чтобы достичь PR3 сегодня нужно в 100 раз больше ссылок, чем 20 лет назад.
Таким образом, ВЕС ОДНОЙ ССЫЛКИ уменьшился в десятки раз - и значимость этой ссылки тоже уменьшилась в десятки раз.
А вот расчётный PR как был в алгоритме ранжирования- так им и остался. И выдача строится, в том числе, используя PR. И YMYL страницы в своих наборах факторов EEAT активно его используют. И т.д. И т.п.
Вот о чем действительно говорят гуглоиды, когда вещают о снижении ценности ссылочного: Оно не стало хуже работать - просто теперь нужно в десятки а то сотни раз больше ссылок строить, чтобы достичь необходимого уровня PR. Который и участвует в ранжировании.
Если сейчас посмотреть выдачу, то там болтаются либо трастовые сайты, либо проекты с большим кол-вом ссылочного. Попробуйте найдите в конкурентном ТОП-е сайт без ссылочного. Вряд ли найдете.
Продолжим....
Вот прошел последний CoreUP. Как говорят гуглоиды - они вырезали 45% сайтов/страниц, якобы плохого качества. И якобы это они сделали в великой заботе о пользователях.
На самом деле это не так. Ряд прекрасных сайтов попало под раздачу. При этом в ТОПе висят сайты, которым там делать нечего.
Гугловцы заботятся только об одной группе людей - их акционерах. Вернее об их карманах и показателях прибыли. Вот вырезали они хорошие сайты из выдачи. Теперь им для ведения бизнеса придется закупаться рекламой. Спрос вырастет, вырастет ценник на рекламу. И те кто до этого закупался рекламой станут платить больше. При этом объемы закупок вырастут. Профит.
Снижение на 45% кол-ва страниц в инете означает, прежде всего, снижение необходимости в дата центрах. При этом кратно упадут расходы на электроэнергию, которые составляют подавляющую часть расходов в поддержке экосистемы Гугла. А каждый сэкономленный доллар - это заработанный доллар. Опять прямая выгода Гуглу, а вовсе не конечным пользователям Гугла.
У каждого заявления Гугла есть второе, а порой третье дно. И докопаться до него не всегда удается.
Просто надо помнить, что Гугл - это не про пользователей. Гугл - это про деньги. И именно так и надо подходить к каждому заявлению Гугла.
Собственно говоря, Гугл никому ничего не должен))) Он зарабатывает как может и нельзя его за это осуждать.
#DrMax #Google
🔴Ищутся сайты которым нужно увеличить позиции ссылками БЕСПЛАТНО
На канале @info_site Андрей уже выложил около 270+ крутых сайтов для простановки, с помощью которых можно увеличить позиции своего сайта. Если сайт новый - можно получить рост DR от 0 до 15-20 пунктов и рост органических ключевых слов.
Андрей не только выкладывает площадки для фрипостинга, но и рассказывает как их индексировать, какие манипуляции нужно проводить со ссылками, чтобы их полюбил Гугл. Чтобы ссылки работали на вас, а не висели ненужным балластом.
На канале @info_site представлены такие типы ссылок:
✅ Крауд профили
✅ Крауд форумы
✅ Комментарии под статьями
✅ Комментарии под статьями на ЭДУ сайтах
✅ Крауд статейные WEB 2.0
✅ Крауд трастовые сабмиты
✅ Крауд статейные c блогов
✅ Гест посты
Андрей рассказывает как все это бесплатно можно повторять 🔥
Примеры блоговых площадок для повторений:
Раз
Два
Подписывайтесь на телеграм канал автора для бесплатного размещения на трастовых сайтах 🚀
#Гостевой_пост
Apsense
Experience the Power of Nature with Susanne Kaufmann Cosmetics by Carles PuyolsLuxury cosmeticsSusanne Kaufmann is a luxury skincare brand that has been providing natural and organic products to customers since 1997. Founded by Susanne Kaufmann, the brand is based in Austria and...
* Дополнение к предыдущему посту.
Существует несколько паттернов, по которым можно определить, является ли контент обзором.
Обзоры обычно имеют четкую структуру, с введением, основной частью и заключением. Во введении обычно представлен продукт или услуга, которая рассматривается, а также дается краткий обзор того, что будет обсуждаться. В основной части подробно рассматриваются различные характеристики продукта или услуги. В заключении обычно подводятся итоги обзора и дается общая оценка продукту или услуге.
Ключевые слова: введение, заключение, разделы и пр.
Обзоры обычно написаны информативным языком, понятным для целевой аудитории. Они часто включают в себя оценочные суждения и мнения автора. В них могут использоваться сравнения с другими продуктами или услугами.
Ключевые слова: обзор, рецензия, оценка, анализ, сравнение, плюсы/минусы, мнение, впечатление, опыт, тест, вердикт и т.д.
Информативный, объективный, субъективный, оценочный, сравнительный, рекомендательный (самый паскудный).
Обычно в обзорах встречаются подобные слова:
Лучший, худший, топ, рейтинг, лидер, новинка, популярный, must-have ))), не / рекомендую, уникальный и пр.
Обзоры часто содержат ссылки на другие источники информации, такие как веб-сайты производителей, технические характеристики и отзывы пользователей.
Следует отметить, что наличие одного или двух паттернов не гарантирует, что контент является обзором. Однако наличие нескольких паттернов является «strong indication» того, что контент является обзором.
Вот несколько примеров, явно указывающих на обзор:
Таким образом Гугл прекрасно алгоритмически понимает, что вот эта страничка явно обзор. При условии низкого траста домена, плохого поведенческого (отскоки в выдачу, мало время на страничке, низкая глубина просмотра, отсутствие нажатий, скроллирований, сдвиганий и пр) неплохо бы такой обзор выкинуть из выдачи.
Продолжение следует...
#DrMax #SEO #Google #CoreUpdate
Сайты, наполненные статьями с обзорами чего либо пострадали больше всех. К ним можно отнести и небольшие коммерческие проекты с блогами и какие ни будь тревел блоги с уникальными обзорами, всевозможные агрегаторы чего либо или просто обзоры какой нибудь фигни. Изначально такие сайты пострадали от сентябрьского апдейта полезного контента и были добиты мартовским.
Существует два стойких мнения, почему так произошло.
Первое – что рулит траст и если вы не являетесь:
то вам не только не видать топов, но и в выдаче незачем быть.
Отчасти это справедливо. Это основано на том, что в ходе судебного расследования Гугл признался, что он не умеет достоверно и полно понимать, о чем повествует контент. И поэтому он пользуется всевозможными факторами ранжирования типа ссылочного, поведенческого, графа знаний, микроразметки, хостовых факторов (сколько лет живет проект, как часто обновляется и пр). Таким образом, Гугл не в состоянии алгоритмически отличить хороший контент от выдающегося. И его советы о создании экстра качественного контента – от лукавого.
Вторая группа товарищей утверждает, что всевозможные ревьюшки давно всем надоели, не несут никакой добавочной ценности и потому были прибиты Гуглом. Они говорят что нужно писать не о том, ЧТО такое объект/явление/предмет, а КАК им пользоваться.
В качестве примера берем холодильник. Как правило он давно есть в каждой семье и обзоры на новые модели никому не нужны (да собственно ничего нового то и нет в новых холодильниках). А вот то как оперировать этим холодильником, поддерживать его работоспособность, например как менять резинки, как очистить холодильник изнутри и т.д. – это ценная информация, востребованная многими товарищами. Таким образом, смещая вектор с ненужных обзоров (которые никто не смотрит) на советы по этим предметам (много ищут), якобы можно поиметь тонны трафика.
Несколько не соглашусь с этим заявлением. В первом комментарии график очень опытного товарища, занимающегося ремонтом, который ведет частный блог, описывает КАК нужно делать, снимает уникальные видео и выкладывает их и посмотрите как он припал.
Мое мнение таково. Необходимо иметь могучий траст, прокачанный бренд и хорошее поведенческое. И тогда ревьюшки действительно займут ТОП. Ну а качество контента – это второй слой, который обеспечивает именно поведенческие факторы. Плохой и ненужный контент юзать не будут и поведенческое будет стремиться к нулю.
И как вы думаете, сможет ли замена контента на сайте восстановить ранжирование? Об этом далее…
#DrMax #SEO #Google #CoreUpdate
Первоначально Google сообщал, что количество низкокачественного и бесполезного контента сократится на 40%. Теперь Google заявил, что в конечном итоге этот показатель оказался ближе к 45%. Фактически половина страниц Интернета выпала из выдачи, что несомненно хорошо для Гугла (снижение расходов) и плохо для владельцев сайтов.
Google обновил страницу справочного центра, на которой описывается, как владельцы сайтов могут устранить падение ранжирования. Насколь я помню - раньше там были просто кривульки, а теперь они эти кривульки расписали.
Гугл глумливо сделал страницу фидбека по результатам апа. Если вы припали - то отпишитесь туда. Толку не будет, но мало ли.
Гугл также выпустил обновление по спаму в марте 2024 года, которое началось 5 марта и завершилось 20 марта . Google также выпустил множество ручных действий, связанных с проблемами чистого спама (вырезал сайты целиком). Наконец, в этот период Google изменил свои основные веб-функции, чтобы использовать INP вместо FID. Таким образом, множество изменений перекрывают друг друга, наверняка для того, чтобы было сложно определить, какие изменения могли повлиять на падение ранжирования. Ну или на рост (кому повезло).
В Google заявили, что это обновление уточнило, как они понимают, какие веб-страницы «бесполезны, имеют плохой пользовательский опыт или кажутся созданными для поисковых систем, а не для людей». Сюда «могут относиться сайты, созданные в первую очередь для соответствия очень специфическим поисковым запросам», добавили в Google.
Теперь важно:
В этом основном обновлении, выпущенном в марте 2024 года, Google прекратит анонсировать новые обновления полезного контента , поскольку система полезного контента была включена в основную систему обновлений. Последнее обновление полезного контента было в сентябре 2023 года. Классификатор системы полезного контента был переработан и теперь включен в основное обновление от марта 2024 года.
То есть те, кто припал в сентябре от хелпфул обновления, припали еще больше. Тех, кого сентябрьское обновление вырезало почти полностью, мартовским были добиты.
Судя по спец форумам, кои были зачитаны до дыр, практически никому, кого подрезало сентябрьское обновление не удалось восстановиться. Видимо, классификатор полезности стал еще более жестким. Единственные радостные уведомления были от ребят, которые перенесли сайт на новый домен - те восстановились практически полностью (непонятно делали они редиректы или нет, что очень важно).
Google поглумился еще раз и выдал несколько новых советов для восстановления:
Короче говоря, пишите полезный контент для людей, а не для ранжирования в поисковых системах.
Так ли это на самом деле ?
#DrMax #SEO #CoreUpdate #Google
Наверное, самый длинный апдейт в истории Гугла. Длился почти 2 месяца.
Теперь нужно обдумать, что они там наворотили и готовиться к майскому спам апдейту.
#DrMax #Google #CoreUP
Тут меня в комментариях спрашивали – мол, кто для меня из SEO специалистов является авторитетом. Наверняка, чтобы оных товарищей почитать, поизучать их труды.
Ну, начнем с Рунета. Тут кроме всеми нами уважаемого Миши Шакина, есть несколько человек, одни довольно известные, как Андрей Симагин (автор кучи востребованного бесплатного SEO софта), есть и очень скромные товарищи, мало известные паблику, но с которыми я общаюсь лет 15-20 уже и восхищаюсь их мега способностями в SEO.
Хочу познакомить сейчас еще и с Кириллом, который ведет свой SEO канал, в коем время от времени попадаются крайне интересные мысли и наблюдения.
Вот, например, опять всплыла дремучая тема с собиранием трафика на PDF. Эта тема зародилась чуть ли не на заре интернета, когда поисковики научились индексировать PDF. В книжице «SEO Монстр» я докладывал, как ловко собирал ссылочное с упоминаний в PDF. А теперь вот Кирилл расписал, насколько рулит такой способ в Яндексе. Собственно, как монетизировать оный трафик – дело десятое. Главное, что тема живет и процветает.
Там же, на канале он периодически докладывает о результатах работы со всякими AI-ботами. И если я пишу про всякие проверки на актуальность, всевозможные факт чекинги и прочие академические исследования при работе с ботами, то Кирилл переводит это всё в практическую плоскость, типа вот такого. Там вроде курсы у него есть на эту тему, обучение но я в это не вникаю ))).
В общем есть что почитать, подумать. Канал у него с "оригинальным" названием Лайфхаки по SEO ))) Но это абсолютно не влияет никак на качество контента. Я вот тоже думал, как обозвать этот вот канал, да плюнул (посмотрите как у меня канал называется в описании 😀 ).
А про буржуйских товарищей оптимизаторов – я завтра распишу (ежели захотите). Может быть даже расскажу про одного хитрого знакомого товарища родом из Индии.
PS
давайте канал с комментами переименуем как то. Есть мысли ?
#DrMax #SEO #Мысли
Moz выкатил статью про создание качественного контента силами ботов. Основные мысли таковы:
Выводы: без вычитки и правки генеренки - никуда.
Сама статья вот тут.
#DrMax #SEO #Content #AI
Forwarded From SEO вебинары Шакина
🥒 Весенняя SEO-солянка c Dr.Max
Хотите узнать новые SEO-фишки от Dr.Max? Как сейчас безопасно и эффективно продвигать сайты в топ? Как быстро найти точки роста для увеличения посещаемости сайта?
22 апреля в 15 по Москве смотрите вебинар Dr.Max @drmaxseo.
📺 Трансляция на YouTube:
https://www.youtube.com/watch?v=H8tvya1aSCE
🎞 Смотрите плейлист "Круглые столы по SEO" на моем YouTube канале:
https://www.youtube.com/playlist?list=PLS7oN4pFU92uFmLvxXur-UiJqjMPH7_E2
Смотрите предыдущие вебинары с Доктором Максом:
Хитрый линкбилдинг 2024. Строим ссылки с конкурентов!
https://www.youtube.com/watch?v=0oygm26K_48
Секреты линкбилдинга
https://www.youtube.com/watch?v=pcooQJ3wvYk
Рост эффективности SEO на 1000% своими руками
https://www.youtube.com/watch?v=uBH7gw_I44o
32 фишки внутренней перелинковки
https://www.youtube.com/watch?v=G4PLTuVtn8c
🎥 Трансляция в моем профиле ВК. Все записи вебинаров доступны здесь https://vk.com/video/@globator):
https://vk.com/globator
🚛 Мои каналы в ВК Видео:
https://vk.com/video/@shakinseo - видео по продвижению сайтов в рунете
https://vk.com/video/@burzhunetseo - видео по продвижению англоязычных сайтов
📼 Кроме этого, запись вебинара будет размещена в моем канале на Дзене:
https://dzen.ru/shakin
📹 И в моем Rutube канале:
https://rutube.ru/channel/24777621/
Михаил Шакин, @shakinweb #линкбилдинг #аналитика #лайфхак #seotools #точкироста #трафик #техническоеseo
YouTube
Весенняя SEO-солянка c Dr.MaxХотите узнать новые SEO-фишки от Dr.Max? Как сейчас безопасно и эффективно продвигать сайты в топ? Как быстро найти точки роста для увеличения посещаемости сайта?
Смотрите вебинар Dr.Max.
Сайт DrMax:
https://drmax.su/
Книги DrMax:
https://drmax.su/download…
Есть куча всевозможных детекторов, которые, якобы, палят генеренный контент. Впрочем, самые крупные производители уже свернули развитие детекторов из за полной их бесперспективности.
Тем не менее, товарищи по прежнему пользуются некоторыми, например вот таким.
Потестил генеренку Барда (самый простой промпт) - всё раскрасило красным - мол плохой, генереный контент.
Далее тот же сгенеренный контент загнал в DeepL Write и опять потестил в оном AI-детекторе. Теперь детектор пишет, что контент 100% человеческий.
То ли все эти детекторы на определенные паттерны настроены, которые раз за разом выдают всякие чат-боты, то ли еще чего, но при использовании новой платформы генерации контента ( у которой уже совсем иные паттерны), все эти AI-детекторы генеренки лажаются. А новые чат-боты рождаются ежедневно, каждый из которых обучен/переобучен по своему и паттерны, которые будут выдавать генеренку и них свои.
Именно поэтому, крупные игроки детекторов свернули свои наработки, именно поэтому гугл не наказывает за генеренку, а наказывает за анти-хелпфул контент (бесполезный г. контент).
Ну и чтоб параноя не развивалась (как указали в комментариях), используйте нормальные промпты, вычитывайте что у вас получилось после генерации, ну или прогоните вашу генеренку через могучий DeepL Write (аглицкий только).
#DrMax #SEO
Гугл откатывает кэш ???
Интересное наблюдение вылезло прямо сейчас. Смотрите:
1. У меня на сайте подвыпала страничка (просканировано, но не проиндексировано)
2. Я её переделал и запихнул в Гугл, который радостно съел её (прокэшировал/проиндексировал) за пару минут. Было это аккурат 10 апреля
3. Проверка на индексацию этой страницы в GSC показывала 10 апреля. И такое показывалось до вчерашнего дня (может до позавчерашнего - фиг знает, особо не следил).
4. Сегодня обновилась консоль по 16 апреля и что вы думаете? Та же страничка опять выпала.
5. Смотрю - дата последнего сканирования в консоли у этой странички аж 22 марта (а не 10 апреля)
Похоже Гугл напортачил конкретно со своими обновлениями и сделал откат из некоего бэкапа.
Регион - штаты / услуги
Вы такого не наблюдали?
зы
на другом сайте выкинул страничку ( просканировано/непроиндексировано). Страничка была сделана в феврале месяце, в консоли показывает дату последней индексации аж 3 сентября. Естественно такой странички и в помине тогда не было ))))
поломали Гугл совсем )))
#DrMax #Google #CoreUpdate
Первое.
Миша Шакин пригласил меня поучаствовать в телеконференции на следующей неделе. Есть какие то предпочтения о чем поведать? Или книжку с выражением часа 3 посидеть почитать? На 2 голоса с Мишей )))
Отписывайте в комментариях о тематиках. Только не о последних апах Гугла. Коре еще идет.
Выберу из того, что понравится )))
#DrMax #техническое
Ситуация достаточно редкая, но иногда случается:
1. Предположим, какой то сайт спер у вас контент.
2. Сайт более трастовый, чем исходный
3. Гугл, наплевав на даты публикации, признал страницу вражеского сайта с вашим контентом более каноничной
4. Трафик на вашей странице падает, так как это дубль (см скрин)
5. Все входящие ссылки на эту страницу переклеиваются на вражескую страницу с вашим контентом (как внешние, так и внутренние)
Последнее вы можете посмотреть в GSC - отчет по ссылкам, выбрав исследуемую страницу и посмотрев куда ведут внешние ссылки.
То есть вы лишаетесь не только контента и трафика, но и внешних ссылок + сами начинаете ссылаться на вражеский проект.
Вот такие дела.
Потому, ежели вы выкладываете куда контент со страниц сайта - то видоизменяйте его, урезайте, чатами переписывайте и пр.
#DrMax #SEO #Google
Многие читатели канала используют Вордпресс в своей работе (кстати мне недавно показали вордпресс-сайт на несколько сотен страниц, который генерирует больше миллиона $/месяц).
Итак, вордпрессовцы прикрутили новое API и выпустили официальный плагин, который загружает и реендерит страницы, которые предполагаются будут загружены. Ну например, вы навели мышь на ссылку, не переходя по ней, а загрузка страницы уже началась. Это позволяет повысить уровень взаимодействия с пользователями из за крайне быстрой навигации по сайту.
По сути это является неким аналогом функции <link rel="prefetch">
Вордпрессовцы выдают это за некий прорыв и подумывают встроить такую функцию в ядро (пока плагин только). Но на самом деле - такая фишка была реализована достаточно давно. Я встречал её в некоторых кэш-плагинах, да и в Хроме есть такая фигулина, которая срабатывает при 80% вероятности перехода на страницу (ссылку исправил).
Эта функция предварительной загрузки страниц называется "Speculative Loading". Повторюсь, что плагин позволяет браузеру предварительно визуализировать всю веб-страницу, на которую пользователь может перейти дальше. Плагин делает это, предугадывая, на какую веб-страницу может перейти пользователь, в зависимости от того, где он находится. Именно от точности предугадывания зависит качество подобного функционала ( в противном случае будет напрасно отъедаться трафик и нагружаться процессор, да и память может закончиться).
В целом, потестить плагин крайне интересно. Вероятно, для некоторых сайтов он даст плюсы в ранжировании из за улучшения поведенческого. Ну и то, что всё это дело встроено в ядро (API), а не в виде какой то внешней нашлепки, как в иных плагинах кэширования, вероятно даст плюс к скорости / точности.
Скачать плагин можно здесь.
#DrMax #WordPress
Есть десятки подобных способов, начиная от подстановки параметров в URL запроса, подменой хитрых настроек в Хроме, использованием VPN и т.д. и т.п.
А есть вот такой немудренный способ с применением гугло-инструмента "Предварительный просмотр и диагностика объявлений" , который позволяет вам увидеть, как выглядят ваши платные рекламные объявления, когда люди ищут ключевые слова, связанные с вашим бизнесом в своем регионе.
Именно его и можно применять для просмотра выдачи с точным ГЕО (см скрин).
Правда нужен аккаунт Гугл Рекламы.
Инструмент вот тут.
Удобно )))
#DrMax #SEO #Google
📺 Как Гугл ранжирует контент
Гэри Иллис (гугло инженер) записал новое коротенькое видео, где он рассказывает как Гугл ранжирует страницы. Он начинает рассказ с подчеркивания, что цель поиска — предоставить результаты на веб-страницах высокого качества, заслуживающих доверия и релевантных.
Очень важное уточнение, что релевантность - это не семантическая релевантность контента, а релевантность для пользователя. То есть опять всё упирается в поведенческое и степень удовлетворенности пользователя контентом. В целом, релевантность для пользователя может означать персонализацию, включающая предыдущие поисковые запросы, актуальность и геолокацию.
Потом он упоминает о расширении запроса. Именно эта подсистема помогает ранжироваться странице по какому-то запросу, даже если в контенте нет фразы, включающий этот запрос.
Говоря о ранжировании, он упоминает следующие соображения:
Интересно, что Гэри решил подчеркнуть уникальность контента не просто как фактор качества, а как важный фактор.
В целом, рекомендую ознакомиться с видео.
#DrMax #SEO #Google
YouTube
How Google Search serves pagesPreviously, Gary discussed how Google Search processes and analyzes a web page in order to be returned to users as a search result. In this episode, Gary covers how Google Search actually returns that result; technically. How does Search process users' queries…
Текущий апдейт алгоритмов ранжирования Гугла, в числе прочего, завязан на относительное понижение ссылочного, как фактора ранжирования. Собственно данная тенденция началась пару лет назад, когда в майском апдейте 2022 года уже происходило подобное действие (потом вроде как откатили). Но тем не менее, отныне ссылочное менее значимо, чем ранее.
Во многом это связано и с алгоритмом SpamBrain . который нивелирует значение недостаточно качественного ссылочного.
Первое явное заявление, от сотрудника Google, было сделано прошлой осенью на PubCon Austin, где Гэри Иллис заявил, что ссылки даже не входят в тройку лидеров по факторам ранжирования.
Ну Джон Июллер тут как тут: «Сегодня для веб-сайтов есть более важные вещи, и чрезмерное внимание к ссылкам часто приводит к тому, что вы тратите время на вещи, которые не делают ваш сайт лучше в целом».
Обновление Google совпало с четырьмя изменениями в их документации, которые преуменьшали роль ссылок, включая удаление слова «важно» из предложения о ссылках как факторе ранжирования. Все остальное в предложении осталось прежним, из документации убрали только слово «важно».
До: «Google использует ссылки как важный фактор при определении релевантности веб-страниц».
После: Google использует ссылки как фактор определения релевантности веб-страниц.
Собственно будем смотреть как изменится влияние ссылочного по завершению мартовского апа, начавшийся 5 марта и продолжающийся по сей день.
Всякое может вылезти.
#DrMax #SEO #Google
Как дела с ранжированием в Гугле? Вырос или упал трафик после начала Core + спам апдейта?
Final Results
7% - Рунет - Вырос
27% - Рунет - без изменения
12% - Рунет - Припал
5% - Бурж - Вырос
12% - Бурж - без изменения
14% - Бурж - Припал
23% - у меня нет сайта