Проблема дублированного контента в интернете

Главная Работа Бизнес Проблема дублированного контента в интернете
Проблема дублированного контента в интернете
Основные преимущества
  • Все самое важное в области SEO и интернет-маркетинга
  • Обучение джедайским техникам продвижения сайтов в ТОП
  • Полезные материалы для широкого круга digital специалистов

лава отдела по борьбе со спамом Мэтт Каттс в очередной раз затронул важную тему, касающуюся выявления дублированного контента в глобальной сети.

Большинство пользователей волнует вопрос о том, как поисковая система Google определяет наличие неуникального контента. Кроме того, многих интересует не только механизм выявления дубликатов, но и то, какое влияние они оказывают на ранжирование ресурсов в выдаче.

По мнению Мэтта Каттса, более 25% контента, который появляется в сети, составляют дубликаты. И это совсем не удивительно, ведь в интернете можно найти цитаты из различных источников, которые подкреплены ссылками. Учитывая это обстоятельство, нельзя автоматически считать весь дублированный контент спамом.

Мэтт Каттс утверждает, что высокие позиции в выдаче могут быть только у первоисточника. Это обязательное условие, без соблюдения которого могут возникнуть определенные проблемы: наличие на SERP страниц с одинаковым содержанием приведет к засорению выдачи. Учитывая это, можно сказать, что понижение позиций сайтов с дублированным контентом – это вынужденная мера.

Руководство Google поставило перед специалистами компании цель собрать весь неуникальный контент и объединить его в один блок. В связи с этим было принято решение отображать в верхних позициях выдачи только одну страницу. На менее выгодных местах окажутся сайты, содержание которых дублирует другие ресурсы.

Специалисты поисковой системы, как правило, разделяют неуникальный контент и веб-спам. Однако это вовсе не означает, что пользователи могут безнаказанно злоупотреблять дублированием. Если будут выявлены факты манипулирования поисковой выдачей за счет размещения дубликатов, со стороны Google будут предприняты соответствующие меры.

К числу наиболее проблемных случаев можно отнести попытки генерировать контент автоматически с помощью RSS-фидов. Поскольку данное наполнение сайта не имеет добавочной ценности, многие считают его веб-спамом.

Тем, кто создает региональные версии интернет-ресурсов, следует отдельно указать «Условия» для каждого сайта. Также не стоит полностью переносить содержание основной страницы, это поможет вам избежать многих трудностей.

Напомним, что Мэтт Каттс уже говорил о проблеме наличия дубликатов на сайтах интернет-магазинов. В данном случае специалист Google посоветовал владельцам подобных ресурсов размещать на всех сайтах только ключевой одинаковый контент. Необходимо стремиться к тому, чтобы информация, которую пользователи найдут на разных версиях одного и того же интернет-магазина имела добавочную ценность. Только в этом случае удастся поднять позиции всех страниц в поисковой выдаче.

Похожие записи
Файлу ROBOTS.TXT исполняется 20 лет
Файлу ROBOTS.TXT исполняется 20 лет
Благополучная индексация любого сайта практически...
0
94
Подробнее
Facebook: новый дизайн для публичных страниц
Facebook: новый дизайн для публичных страниц
Социальная сеть Facebook заявила о запуске переработанного...
0
99
Подробнее
Авторитет автора оказывает влияние на выдачу в Google Авторитет автора оказывает влияние на выдачу в Google
В Google считают, что не стоит использовать Disalow Links для отклонения нерелевантных ссылок В Google считают, что не стоит использовать Disalow Links для отклонения нерелевантных ссылок