URL: удаляем дубли страниц с параметром etext в адресе

URL: удаляем дубли страниц с параметром etext в адресе

С начала 2022 года многие пользователи при анализе UTM-меток своих рекламных кампаний начали замечать довольно странный параметр etext. Параметр etex обычно добавляется при переходе на сайт из поисковика Яндекс.

Как выглядит параметр etext

Ниже приведем пример, как может выглядеть данный параметр в строке URL при переходе из выдачи поисковика Yandex.

Вначале появляется адрес домена ресурса, за которым, после символа « ? », могут следовать некоторые параметры (в данном примере следуют две UTM-метки разделенные символом « & »):

https://url.ru/?utm_source=yandex&utm_medium=cpc&

Далее после очередного разделяющего символа амперсанд идет непосредственно сам параметр etext (в примере немного сократил длину текста после символа « = », т. к. его значение может быть очень длинным):

etext=2202.O8h4Q7ra312KaA7ldeBO4DLCV2HSTwv

Полностью URL выглядит так:

https://url.ru/?utm_source=yandex&utm_medium=cpc&etext=2202.O8h4Q7ra312KaA7ldeBO4DLCV2HSTwv

Метод GET

Чтобы лучше понимать URL, необходимо ознакомиться с методом GET, когда все переменные и их значения передаются прямо через адрес, где:

  • ? — символ разделения между адресом и блоком с переменными
  • utm_source=yandex — переменная utm_source и ее значение yandex
  • & — этот символ разделяет одни переменные и их значения от других
  • etext=2202.O8h4Q7ra312KaA7ldeBO4DLCV2HSTwv — то же самое, переменная etext, значение 2202.O8h4Q7ra312KaA7ldeBO4DLCV2HSTwv

Как видим, создается дубль нашей страницы с довольно длинным адресом, при этом параметр etext не относится к полезным и заданными нами UTM-меткам.

Кто придумал параметр etext и как с ним бороться

Можно предположить, что Яндекс использует параметра etext как технический, но для каких целей пока не дает официальной информации.

Существует вероятность, что дубли страниц с данным загадочным параметром могут попасть в индекс поисковика Яндекс, что может плохо сказаться на вашем SEO сайта.

И если вы заметили, что дубли все-таки попадают в индекс поисковика, то могу предложить простой способ бороть с этой напастью. Для этого необходимо прописать директиву в файле Robots.txt:

Clean-param: etext

После этого страница с параметром etext не будет индексироваться роботом Яндекса и через некоторое время пропадет из выдачи.

Scroll to top