Фото сканирования текстаНа уникальном контенте сайты живут хорошо, но такой контент стоит дорого. Заказывать несколько тысяч страниц рерайта для сайта, созданного специально под TrustLink — не годится. Подобное количество контента обойдется как минимум в 1к$ — эта сумма будет долго окупаться. Есть хороший выход — отсканировать бумажную литературу и опубликовать — дешево и сердито. 2000 статей по 1к символов можно купить за 150-200$, т.е. в 5 раз дешевле, чем рерайт. Но здесь есть определенные проблемы. Не секрет, что сайты на сканированном контенте часто вылетают из индекса (банальный АГС), причин этому может быть много, но все их можно поделить на две большие группы:

  • Ваш контент был/стал неуникальным
  • Поисковые системы спалили, что это скан

А вот теперь можно более подробно со всем этим разобраться. Начнем с уникальности.

Если вы решили самостоятельно сканировать книги

Перед сканированием книги ее нужно проверить на уникальность. Самый простой и доступный способ – перепечатать по одному предложению с 5-10 страниц книги и в виде поисковых запросов по отдельности вбить их в Google и Яндекс. Если ничего не находит, значит мы нашли книгу, до которой другие любители нарушить авторские права не добрались. А, может, мы просто плохо проверили. Если плохо проверили, значит частично контент уже будет неуникальным, поэтому ничего удивительного, когда нагрянет АГС, не будет.

Но если контент все-таки уникальный, а сайт все равно позже попал под АГС, ищем другие причины. Возможно, пока вы думали какой бы бюджет выделить под продвижение очередного сателлита, кто-то нашел эту книжку, отсканировал, разместил на старом домене, закупил ссылок, прогнал по твиттеру и контент проиндексировался быстрее, чем ваш. И вас посчитали дублем. Не мешкаем. 🙂

А может все-таки никто не нашел этой книжки, которую вы решили сканировать, т.к. она была выпущена в единственном экземпляре бабушкой Ритой с 2-го подъезда. А почему-то у кого-то уже полностью весь контент в индексе. Значит, у вас просто спарсили сайт и открыли его на новом домене пока вы непонятно чего ждали. Вывод: не палим непроиндексированные сателлиты на скане.

Если вы решили сэкономить время и купить скан

Все верно, идем на мегасофт и покупаем 100.000.000 символов за 20 рублей. Можно даже 200.000.000 за 30 купить. Конечно же, он уникальный и в одни руки, почищен и поделен на логические статьи. Выкладываем на купленный домен и… снова АГС.
Ну а если без шуток, то купить качественный скан, который бы вам продали действительно в одни руки крайне сложно. Поэтому, лучше все делать самому. Долго, нудно, но эффективно. Ну, или за мороженое поручить это младшему брату или сестре. Или бабушке Рите со 2-го подъезда – все-таки ей в своей же книге будет проще ориентироваться.

Где купить скан

Я стараюсь не покупать скан, а добывать его самостоятельно – все же, так надежнее. Но если вы все же решили купить пару тысяч килознаков скана, то эти ссылки вам пригодятся:

В этих разделах форумов вебмастеров можно запросто найти предложения о продаже сканированного контента.

Где достать скан

На всякий случай добавлю и этот пункт, мало ли. Самый просто способ – отобрать тематическую литературу, которая есть у вас дома, и проверить ее на уникальность. Если дома книг нет, идем в библиотеку. Лень идти в библиотеку – сидим дома и пишем статьи сами. Ну или заказываем по 1$ за килознак. Или по 2$.

Еще подкину хорошую идею для студентов. У каждого ВУЗа есть своя библиотека, в которой просто огромное количество литературы, которую писали сами преподаватели и которая, чаще всего, предназначена для использования в стенах ВУЗа и выпускается крайне ограниченным тиражом. Различные методички, лабораторные практикумы, узкоспециализированная литература. Вероятность того, что ее кто-то опубликовал в тырнетах стремится к нулю. На этом контенте можно создавать целые тематические порталы, так что не ленимся находить способы заполучить эту литературу.

На этом с уникальностью закончим, а перейдем к тому, что:

Поисковые системы палят скан

Было бы глупо полагать, что поисковые системы не палят скан. Нет, не качественный и чищенный, а просто «как есть», который на автомате разбивается на статьи и заливается на сайт. Но поисковая система это всего лишь очень умный алгоритм, а мы ведь умнее… или нет? Перечислим признаки сканированного контента:

  • Масса ошибок в тексте, куча непонятных символов.
  • Почему-то между некоторыми словами по 8 пробелов. Видимо, стиль оформления такой.
  • Быстрое появление нового контента на страницах сайта (относится и к остальным способам автоматического наполнения).
  • Проблемы с буквами «с», «о» и т.д. – часто английские распознаются как русские и наоборот. Для пользователей то никакой разницы, а поисковики все видят. Или не видят?
  • В статьях нет четкой логической связи.
  • Все страница сайта имеют приблизительно одинаковый объем текста.
  • Отсутствует контекстная внутренняя перелинковка. Я имею ссылки на другие статьи из текста статей, а не перелинковка плагинами и прочей ересью.
  • На страницах нет изображений, либо они не имеют логической связи с текстом страниц.
  • Страницы в категории добавляются случайным образом.

А как поисковики запалят сканированный контент, если в нем не будет ошибок, не будет больших пробелов между словами, если контент будет добавляться медленно и неравномерно (в один день 3 статьи, во второй 1, в третий вообще ни одной), если будут добавляться разные по объему статьи, которые будут иметь смысл, если из текста статей будут стоять ссылки с правильными анкорами на другие статьи, если будут подобраны тематические изображения и категории будут соответствовать добавляемым материалам? Ну как можно определить, что это скан? Я знаю как. Никак, наверное. Поэтому сейчас проверяю это на практике — купил отлежавшийся домен и заполняю его качественным сканом, пока все индексируется отлично, даже трафик есть, хоть и тематика крайне узкоспециализированная.

Поэтому сканируем, прогоняем через ворд и исправляем все, делим на логические статьи – это нужно делать руками. Остальное можно автоматизировать. С таким подходом я вообще не вижу причин попадать под АГС. Конечно, можно еще улучшить схему и делать оптимизированные заголовки под ключи из вордстата. Тогда трафика будет еще больше.

Для любителей автоматизации всех действий, есть замечательный плагин для WordPress, который называется Cross-Linker. С помощью него можно автоматически превратить на всех страницах сайта заданные ключевые слова в ссылки на заданные страницы. Только не перестарайтесь, а то весь сайт будет пестрить ссылками.

И не забываем, что сканировать контент – это прямое нарушение авторских прав. Пойду поем. 🙂