Проблема дублированного контента в интернете

Главная Работа Бизнес Проблема дублированного контента в интернете
Проблема дублированного контента в интернете
Основные преимущества
  • Все самое важное в области SEO и интернет-маркетинга
  • Обучение джедайским техникам продвижения сайтов в ТОП
  • Полезные материалы для широкого круга digital специалистов

лава отдела по борьбе со спамом Мэтт Каттс в очередной раз затронул важную тему, касающуюся выявления дублированного контента в глобальной сети.

Большинство пользователей волнует вопрос о том, как поисковая система Google определяет наличие неуникального контента. Кроме того, многих интересует не только механизм выявления дубликатов, но и то, какое влияние они оказывают на ранжирование ресурсов в выдаче.

По мнению Мэтта Каттса, более 25% контента, который появляется в сети, составляют дубликаты. И это совсем не удивительно, ведь в интернете можно найти цитаты из различных источников, которые подкреплены ссылками. Учитывая это обстоятельство, нельзя автоматически считать весь дублированный контент спамом.

Мэтт Каттс утверждает, что высокие позиции в выдаче могут быть только у первоисточника. Это обязательное условие, без соблюдения которого могут возникнуть определенные проблемы: наличие на SERP страниц с одинаковым содержанием приведет к засорению выдачи. Учитывая это, можно сказать, что понижение позиций сайтов с дублированным контентом – это вынужденная мера.

Руководство Google поставило перед специалистами компании цель собрать весь неуникальный контент и объединить его в один блок. В связи с этим было принято решение отображать в верхних позициях выдачи только одну страницу. На менее выгодных местах окажутся сайты, содержание которых дублирует другие ресурсы.

Специалисты поисковой системы, как правило, разделяют неуникальный контент и веб-спам. Однако это вовсе не означает, что пользователи могут безнаказанно злоупотреблять дублированием. Если будут выявлены факты манипулирования поисковой выдачей за счет размещения дубликатов, со стороны Google будут предприняты соответствующие меры.

К числу наиболее проблемных случаев можно отнести попытки генерировать контент автоматически с помощью RSS-фидов. Поскольку данное наполнение сайта не имеет добавочной ценности, многие считают его веб-спамом.

Тем, кто создает региональные версии интернет-ресурсов, следует отдельно указать «Условия» для каждого сайта. Также не стоит полностью переносить содержание основной страницы, это поможет вам избежать многих трудностей.

Напомним, что Мэтт Каттс уже говорил о проблеме наличия дубликатов на сайтах интернет-магазинов. В данном случае специалист Google посоветовал владельцам подобных ресурсов размещать на всех сайтах только ключевой одинаковый контент. Необходимо стремиться к тому, чтобы информация, которую пользователи найдут на разных версиях одного и того же интернет-магазина имела добавочную ценность. Только в этом случае удастся поднять позиции всех страниц в поисковой выдаче.

Похожие записи
Специалисты Google разработают новый алгоритм
Специалисты Google разработают новый алгоритм
На конференции Marketing Expo, Мэтт Каттс, начальник отдела...
712
Подробнее
Google поработал над обновлением инструмента для удаления устаревшего контента
Google поработал над обновлением инструмента для удаления устаревшего контента
Сотрудник Google Джон Мюллер сообщил, что поисковиком был...
818
Подробнее
Авторитет автора оказывает влияние на выдачу в Google Авторитет автора оказывает влияние на выдачу в Google
В Google считают, что не стоит использовать Disalow Links для отклонения нерелевантных ссылок В Google считают, что не стоит использовать Disalow Links для отклонения нерелевантных ссылок