Современная электронная библиотека ModernLib.Net

Раскрутка: секреты эффективного продвижения сайтов

ModernLib.Net / Анар Бабаев / Раскрутка: секреты эффективного продвижения сайтов - Чтение (Ознакомительный отрывок) (стр. 1)
Автор: Анар Бабаев
Жанр:

 

 


Бабаев А., Евдокимов Н., Боде М., Костин Е., Штарев А

Раскрутка: секреты эффективного продвижения сайтов

Вводная

? Эволюция факторов ранжирования поисковых систем

? Слагаемые бюджета на SEO

Эволюция факторов ранжирования поисковых систем

Несмотря на сделанные еще в 1960-1970-х предсказания фантастов, лет двадцать – двадцать пять назад мало кто догадывался, что вскоре для поиска любой информации миллионы людей будут обращаться к Глобальной cети. Трудно вообразить, что когда-то Интернет был «исхоженным» вдоль и поперек – не миллионы, а жалкие десятки разрозненных сайтов, которым не приходилось бороться за высокие позиции в поисковой выдаче (она же по-английски Search Engine Results Page, SERP). Да и первые алгоритмы поиска были простыми как колесо: релевантными признавались те ресурсы, на страницах которых содержался поисковый запрос. Сама выдача была ожидаемо куцей.

Однако грибница Интернета расползлась по миру, и по мере того, как ширился Веб, множились и сайты в нем. Чтобы не сдуться при этом масштабировании, поисковым системам потребовалось изменить подход к ранжированию ресурсов и взяться за разработку гораздо более сложных алгоритмов.

<p>Внутренние факторы</p>

В 1994 году увидела свет первая полнотекстовая поисковая система под названием WebCrawler. Произошла революция: ранее информация в Сети структурировалась исключительно в виде каталогов ссылок, сгруппированных по тематическому признаку. Следом на орбиту большого поиска вышли Lycos и AltaVista. Это были первые попытки организовать доступ к ресурсам Веба не на основе каталогизации. До наших дней дошли только упоминания о тех поисковых системах, хотя многие из нас застали их на закате славы.

В 1997 году практически одновременно на двух разных континентах зародились гиганты современного поиска – Google и «Яндекс». Их алгоритмы ранжирования, со скидкой на локальные особенности, развивались в одном русле. Стремительные изменения в качестве поисковой выдачи требовали принятия решительных мер ради выполнения единой миссии – предлагать пользователям релевантные их запросу, предельно качественные и полезные ресурсы.

Львиная доля сайтов на рубеже тысячелетий была по сегодняшним меркам примитивна, их страницы отличались незамысловатым дизайном и длинными «портянками» текстов с высокой плотностью ключевых слов. Благодаря нескольким наивным, на наш взгляд, приемам они могли продвигаться вверх в выдаче и добиваться лояльности со стороны поисковиков. В частности, большое значение для выхода в топ имело использование ключевых слов в метатегах. Один из них,

keywords
, ранее предназначался исключительно для того, чтобы передать информацию поисковому роботу. Он больше не играет ведущей роли в ранжировании, и даже оставить его незаполненным не будет страшным грехом.

Со временем подтвердилось, что мало учитывать лишь эти внутренние факторы, отводя сайту подобающее ему место в SERP. К внутренней оптимизации страниц предъявлялись все более высокие требования. Поисковики усложняли свои алгоритмы и объявляли войну некачественному и неуникальному контенту, скрытому тексту и многим другим нарушениям со стороны сайтостроителей, пытающихся обмануть, с одной стороны, поисковую машину, с другой – пользователей.

На текущий момент в связи с увеличением «удельного веса» внутренних факторов сложился целый свод писаных и неписаных требований к оптимизации, без соблюдения которых дорога в «высшее общество» – в топ – закрыта. И наоборот, отдельные факторы, которые ранее вершили судьбы сайтов (как то: метатеги, «тошнота», большие тексты, схемы перелинковки), утрачивают актуальность. Таким образом, если первые алгоритмы поисковых машин анализировали лишь релевантность ресурса запросу, то в настоящее время важнее его качество и полезность для посетителей.

<p>Внешние факторы</p>

Внутренняя оптимизация сайта – вотчина его владельца или администратора. Неудивительно, что веб-мастера из числа – выразимся иносказательно – «моральных релятивистов» научились оперировать не совсем честными методами и выдавать порой некачественные страницы за релевантные поисковому запросу. Так было до 1998 года, пока в Google не сошлись на том, что необходимо ввести новые факторы, которые бы не зависели напрямую от действий оптимизатора и позволяли объективнее судить о качестве сайта.

Вскоре вступили в силу внешние ссылочные факторы, призванные определять популярность ресурса в Сети, которая выражалась в количестве других сайтов, ссылающихся на него. Иначе говоря, к текстовой добавилась ссылочная релевантность. Оценка внешних факторов являлась дополнительным критерием отсева, благодаря которому в выдаче оседали действительно хорошо сделанные и интересные людям сайты. Но к тому моменту маховик интернет-бизнеса раскрутился и SEO[1] из боязни упущенной выгоды ответило на действие противодействием. Ввод ссылочного ранжирования повлек за собой всплеск ссылочного спама. Оказалось, что манипуляции подвержены не только внутренние, но и внешние факторы. Сетки сателлитов (вспомогательных, сопутствующих сайтов, предназначенных лишь для улучшения позиций главного) прекрасно «пускали пыль в глаза» поисковикам, убеждая их в авторитетности сайта, а выдача все больше засорялась шлак-ресурсами. Так аферисты внедряются в бомонд, и если в него проникает слишком много пройдох и пустышек, то бомонд превращается в лучшем случае в полусвет. Поисковики парировали «мусорную атаку».

Впоследствии алгоритмы ссылочного ранжирования становились все более сложными, на службу борьбы с искусственной накруткой ссылочных метрик были поставлены многочисленные фильтры. Именно в ту пору за SEO закрепилась сомнительная слава грязного трюкачества, с помощью которого удается обхитрить поисковые алгоритмы. Как внешние, так и внутренние факторы ранжирования требовали все более глубокого анализа сайта и внешней ссылочной массы. Оценке подвергались технические характеристики ресурса, его возраст, контент и качество ссылающихся на него сайтов-доноров. Было введено такое понятие, как TrustRank (называемый также трастом) – показатель доверия поисковиков к площадке. Не заслуживший траста сайт имел минимальные шансы подняться вверх в выдаче и занять желаемые места в топе.

Благодаря многочисленным ссылочным биржам веб-мастер сегодня все же способен самостоятельно влиять на внешние факторы. Но закупка ссылок требует внимательного и взвешенного подхода. Неверная стратегия ссылочного продвижения лишь навредит ресурсу. На помощь оптимизаторам и сайтовладельцам в наши дни приходят «умные» сервисы, которые максимально эффективно и безопасно, работая с внутренними и внешними факторами, обеспечивают подъем ресурса в топ поисковой выдачи. Одним из таких сервисов, самым крупным на российском рынке автоматизированной поисковой оптимизации, является SeoPult (http://seopult.ru/).

<p>Поведенческие факторы</p>

Анализ поведения пользователей явился следующей ступенью в развитии поисковых алгоритмов. Он был призван кардинально повысить качество выдачи и помочь в борьбе с поисковым спамом. Поведенческие факторы – если не совершенное оружие в арсенале поисковых систем, то, во всяком случае, мощное: на них трудно воздействовать искусственными методами. Если пользователи сходным образом реагируют на тот или иной сайт, с высокой степенью вероятности это говорит о том, отвечает ли он их ожиданиям. И дело не только в кликабельности, которая якобы поддается накрутке.

Поведенческие факторы – это широкий комплекс пользовательских действий, учитываемых и интерпретируемых поисковыми алгоритмами. «Яндекс» возлагает выполнение столь деликатной миссии на плечи «оценщиков»-асессоров и на технологию машинного обучения MatrixNet. Изначально, когда поведенческие факторы обрабатывались по иному принципу, наблюдения за активностью посетителей зачастую трактовались ошибочно. Само собой, глубина просмотра туристического портала с увлекательными статьями о путешествиях будет не такой, как у сайта службы такси. Поведенческие факторы разнятся в зависимости от тематики и типа сайта. Введением технологии MatrixNet проблема была решена. Ресурсы были разбиты на группы и проходили проверку по формализованному набору параметров и общему впечатлению асессоров.

Таким образом, прежние методы «черной» оптимизации утратили силу, так как низкосортные ресурсы были не в состоянии конкурировать в топе с «человеколюбивыми» и качественными. Влиять напрямую на поведенческие факторы невозможно, но косвенно – вполне. Самое главное, сайт должен быть качественным и полезным для пользователей. Уникальный тематический контент, грамотное юзабилити, продуманный дизайн, привлекательный сниппет (подробнее о сниппетах читайте в разделе «Оптимизация сниппетов» главы «SEO-практикум»), бесперебойная работа сайта – все это в руках веб-мастера. Подчиняясь этим требованиям, владелец площадки создает благоприятные условия для ее посетителей, а уж их удовлетворенность сайтом поисковая система не преминет зафиксировать и перевести на язык цифр, которые определяют позиции в топе.

<p>Новые факторы</p>

Стремительное развитие электронной коммерции и высокий спрос на товары и услуги в Интернете отразились на факторах ранжирования. Специально для интернет-магазинов «Яндекс» внедрил коммерческий алгоритм ранжирования, поскольку применительно к сайтам такого типа важно учитывать совсем не такие характеристики, как, например, в случае с новостными или информационными порталами.

С точки зрения «Яндекса», для качественного коммерческого сайта имеют большое значение такие факторы, как четкое указание цены товара или услуги, широта ассортимента, недвусмысленное описание условий доставки, корректность контактной информации с использованием карт. Учитывается также наличие отзывов и комментариев пользователей, оставляемых в сервисе «Яндекс.Маркет» или на других сайтах с рейтингами компаний, а также в социальных сетях. По количеству и характеру отзывов поисковик судит о качестве оказываемых услуг и уровне обслуживания покупателей. Если на компанию подозрительно часто жалуются, это, скорее всего, ударит по позициям ее интернет-магазина в SERP.

Известность компании – это еще один коммерческий фактор, влияющий на ранжирование. Частые запросы к поисковику, связанные с сайтом конкретной компании, свидетельствуют о ее популярности, а значит, такому ресурсу «больше веры».

В особую категорию выделяются социальные факторы ранжирования. Базовое правило работы с ними элементарно: ни в коем случае не следует пренебрегать инструментами социального маркетинга для нужд SEO. Самая популярная в Рунете социальная сеть «ВКонтакте» имеет ежедневную аудиторию более 40 млн человек. Поисковые системы придают информации в социальных сетях большое значение и учитывают в ранжировании ряд социальных факторов.

Во-первых, поисковый робот учитывает в социальных сетях внешние ссылки. Во-вторых, наряду со ссылками рассматривается активность пользователей в официальных группах, имеющих отношение к сайту. В группе кипит жизнь, в ней много участников (не ботов)? Поисковый робот констатирует: «Учтем». В-третьих, приветствуется наличие на сайте социальных кнопок, в том числе Like («Мне нравится») на странице рядом со статьей, обзором, описанием товара и другим контентом, который может оценить пользователь. Каждый «лайк» сигнализирует поисковику о том, что страница нравится посетителям и заслуживает более высокого места в топе.

В полном соответствии с исторической наукой алгоритмы поисковых систем становятся все более многогранными, факторы ранжирования сегодня разносторонне учитывают множество аспектов продвигаемого ресурса. По мере развития Глобальной сети рождаются тренды, которые не остаются без внимания поисковых систем, и, что логично, в игру вступают новые факторы, влияющие на ранжирование. Зато у владельца сайта, в отличие от ситуации десяти-пятнадцатилетней давности, есть незыблемые ориентиры: думать об удобстве и качестве проекта, думать о посетителе, да и просто – думать. Возможно, то, что не учитывается сегодня, будет важным фактором завтра. Например, почему бы, помимо формальных признаков картинки, не учитывать, кривые ли руки у фотографа, снимавшего товар для интернет-магазина. Глядишь, «Яндекс» назовет это «фактором божьей искры». Но догадки догадками, шутки шутками, а здравый смысл подчас помогает предвосхитить будущее поисковой оптимизации лучше, чем бурная фантазия.

Слагаемые бюджета на SEO

Современное SEO – не шаманство, а комплекс рациональных мер, вписанный в сферу цивилизованного интернет-маркетинга: кампания дробится на этапы, каждый – с конкретными задачами и KPI[2]. Однако в большинстве случаев, кто бы ни брался за раскрутку сайта – агентство или оптимизатор-одиночка, – заказчик редко получает подробный отчет о той или иной статье расходов. Гораздо прозрачнее SEO выглядит при использовании автоматизированных сервисов поискового продвижения. В системе SeoPult финансовая составляющая рекламной кампании и вовсе разложена по полочкам – с первого взгляда видно, какие суммы уходят на покупку ссылок. Но ссылки – это далеко не единственная часть поисковой оптимизации. Финансовых вложений требуют и иные меры, без принятия которых до попадания в топ будет как до Антарктиды на самокате. Так что владельцу сайта лучше заранее разведать, сколько денег может быть потрачено из бюджета на продвижение и на какие именно задачи.

<p>Внутренняя оптимизация</p>

Работа с внутренними факторами – хронологически приоритетная и чрезвычайно важная часть поискового продвижения. Перед тем как начать покупать ссылки, необходимо провести скрупулезный аудит сайта на предмет его корректности с точки зрения SEO. Полноформатная ревизия предполагает проверку HTML-кода, файла

robots.txt
, настроек CMS (системы управления контентом), наличия дублей страниц и других технических деталей. Обязательный пункт подготовки – оптимизация контента, проверка текстов на уникальность и защита авторства материалов. Мало того, что тексты должны иметь оптимальный процент вхождения ключевых слов, необходимо проанализировать их структуру и форматирование: использование заголовков и подзаголовков, абзацев, списков и т. д. Не забывайте и о правильной внутренней перелинковке. Она служит как для удобства пользователей, так и для передачи веса между страницами сайта. Все недочеты, выявленные аудитом, должны быть устранены, иначе зачем он нужен?

Внутренняя оптимизация сайта – это еще и «рихтовка» каждой посадочной страницы в отдельности. Это титаническая работа, с которой сам владелец ресурса полностью едва ли справится, если только он не супергерой – разработчик, интернет-маркетолог и оптимизатор в одном лице, не разменивающийся на такие мелочи, как сон. Но, скорее всего, придется прибегнуть к помощи специалистов, которые подготовят сайт к продвижению, и оплатить их услуги. Лучше не жадничать, потому что вложения окупятся сторицей: будучи грамотно оптимизированным, ресурс позволяет сократить траты на SEO в дальнейшем. Начинать оптимизацию с покупки ссылок – все равно что абы с кем выходить в открытое море на яхте, состояния которой вы себе не представляете. Любая серьезная внештатная ситуация в сотнях километров от береговой линии – огромный риск, равно как и «плавание» по выдаче «Яндекса» в опасной близости от поисковых фильтров. А ведь еще поди пойми, с чем беда – со штаг-юферсом или спинакер-фалом, если ты не готовил судно к плаванию. «Хорошую ж яхту купил! Белую такую…» – разведет руками незадачливый «мореход». Сайт тоже, бывает, выглядит в глазах его хозяина «белым» и непотопляемым. До первого серьезного волнения в топе.

<p>Покупка ссылок</p>

Стоимость ссылочного продвижения напрямую зависит от конкурентности и частотности запросов, под которые оптимизируется каждая конкретная страница сайта. На стадии формирования семантического ядра нужно понимать, что высокочастотные запросы обойдутся куда дороже, чем низкочастотные. Далее, цена ссылок зависит от того, сколько и на что тратят ваши конкуренты. Прежде чем назначить цену на ту или иную ссылку, нужно провести анализ конкурентной среды. Это трудозатратно и увеличивает расходы на кампанию, если заказывать ее в агентстве.

В SeoPult, однако, нет необходимости в монотонной ручной работе по подбору ключевых слов, анализу конкурентов и высчитыванию оптимального бюджета. Автоматизация перечисленных процессов снижает затраты владельца сайта на продвижение и дает ему четкую картину расходов на закупку ссылок. Следует заметить, что SeoPult лишь вспомогательное звено в продвижении: система дает рекомендации относительно затрат на ссылки, анализируя конкурирующие сайты. Однако клиент всегда вправе перейти на «ручное управление», если чувствует такую необходимость.

<p>Заказ контента</p>

Content is king[3]. А на престоле немыслим самозванец, не скрывающий своего сомнительного статуса. И взбунтуется народ, и исполнятся гневом посетители, и прахом пойдут поведенческие факторы. Да и «Яндекс» вмешается в эти «игры престолов» и загонит площадку под плинтус. То бишь на периферию выдачи, куда не ступала нога ищущего.

Как осетрина бывает только первой свежести, так и контент должен быть уникальным и тематическим – и никаким другим. Хотите высоких позиций и высокой конверсии? Напишите в бюджете большими буквами: «Заказ текстов». Связывать слова в предложения, а предложения в абзацы можно самому, были бы талант да навык, но это обычно нерационально: владельцу сайта придется потратить сотни часов на одни лишь тексты. Распространенная практика – заказывать контент на текстовых биржах или у копирайтеров-фрилансеров. Зачастую на биржах выходит дешевле и безопаснее, причем они несут прямую ответственность за действия своих сотрудников и следят за сроками выполнения задач.

К контенту относятся и графические материалы. Коммерческой площадке важно не только описать, но и показать товар. Заимствовать изображения у конкурентов категорически противопоказано, равно как и использовать чужие статьи. Поисковые алгоритмы идентифицируют картинку-дубль в два счета. Оптимальный вариант – сделать качественные, детальные снимки товара, демонстрирующие все его характерные особенности. На съемку придется потратиться, зато ваши собственные, ниоткуда не скопированные фотографии послужат заделом на будущее и предотвратят досадные эксцессы с поисковыми системами.

Еще одна, часто игнорируемая, ипостась контента – комментарии. Их наличие на страницах сайта определенно приветствуется. «Живой» сайт милее поисковым системам, да и люди охотнее пользуются им, если видят активность со стороны других его посетителей. Комментарии и отзывы достаются владельцам площадок, как правило, бесплатно, но, если проявить смекалку и дать клиентам небольшой бонус за отклик о проекте или о продукте, можно получить в разы больше пользовательского контента.

<p>Работа специалистов</p>

Созданием и продвижением сайта обычно занимается несколько человек, и каждый рассчитывает получить вознаграждение за свой труд. Команда может включать верстальщика, программиста, дизайнера, маркетолога, оптимизатора, линк-менеджера, копирайтера, контент-менеджера и т. д. Нередко ввиду скромного бюджета к работе над проектом привлекаются всего два-три специалиста, которые обладают разносторонними навыками. Расценки у каждого свои и зависят от множества критериев, включая квалификацию, опыт, сложность задач и, с позволения сказать, «повышающий коэффициент за простодушие заказчика». В случае SEO выделяются два базовых варианта – расчет с оптимизатором-фрилансером по договору и оплата счета, выставленного агентством. Ни «ремесленник-одиночка», ни солидная контора полной гарантии выхода в топ не даст, но, само собой, каждый хочет получить денежную компенсацию за выполненную работу. А уж поручать ли внутреннюю и внешнюю оптимизацию сайта SEO-компании или же пытаться действовать самостоятельно с помощью системы автоматизированного продвижения и веб-мастера – решать владельцу ресурса.

Бюджет на продвижение не константа. Иногда что-то из него допустимо исключить, а что-то уместно добавить. Необходимо подходить к его оценке взвешенно, четко понимая, какие цели поставлены и каких результатов нужно достичь. Стратегию каждый выбирает для себя: гнаться ли за конкурентами и тратить не меньше, чем они, или же достаточно поначалу выбирать менее конкурентные фразы и постепенно наращивать позиции в топе. Далеко не всегда большой бюджет означает мгновенный успех. И лить воду на SEO-мельницу надо осторожно, чтобы не снести плотину

SEO-практикум

? Работа над уникальностью контента на сайте

? Оптимизация в стратосфере Рунета

? Икроножное SEO: оптимизаторские финты для интернет-изданий

? SeoPult: приборы, карты, фигуры пилотажа

? Трастовость сайта

? АГС, горе от ума и парадоксы современного SEO

? Особенности продвижения интернет-магазина

? Поведенческие факторы ранжирования

? Оптимизация сниппетов

? Продвижение в «Яндекс.Картинках»

? Продвижение через поисковые подсказки

? Выбор домена и хостинга

? Проверка уникальности контента методом шинглов

? Семантическая разметка страниц

? Трафиковое продвижение

? Зеркала и склейка

? Особенности продвижения молодого сайта

? Региональное продвижение: места силы

? Аффилиаты: сидя на двух стульях

? Продвижение аффилированных интернет-магазинов

? Создание эффективной посадочной страницы

? Возможности HTML5 при оптимизации

? Особенности мобильных версий сайтов

Работа над уникальностью контента на сайте

Оригинальный авторский контент на сайте – одна из первостепенных метрик, обуславливающих качество, трастовость площадки. Представители поисковых систем не устают повторять, что нет никакого резона добиваться высоких позиций сайта в выдаче за счет полулегальных ухищрений, а тем более откровенно нечестных методов. Зато проведенная с умом внутренняя оптимизация и внятное содержимое сайта – это путевка в топ.

Перефразируя поговорку, подтверждаем: кто понял Веб, на контент не скупится. Многие блогеры и владельцы сайтов берут тексты буквально из головы, переводя мысли в буквы по многу часов ежедневно. Кто-то формирует целую редакцию, которая выдает на-гора десятки и сотни статей в месяц. Чаще эту задачу поручают копирайтерам. Производство авторского контента трудозатратно, что отталкивает тех, кто ищет легких путей всегда и везде. Бич Интернета в целом и SEO в частности – воровство контента: зашел к конкуренту на сайт, скопировал текст и загнал в CMS своего сайта в первозданном виде или с вариациями. К счастью, в наше время существуют способы защиты интеллектуальной собственности в Интернете от посягательств. Автор контента имеет возможность подтвердить свои права на него, а сайту в результате нехитрых операций можно присвоить статус первоисточника текста (если он действительно является первоисточником).

<p>Защита уникальности контента</p>

Уникальный контент нравится и пользователям, и поисковым машинам. Гораздо приятнее и продуктивнее открывать в топе по какому-либо запросу сайт за сайтом и изучать различные точки зрения, а не натыкаться на один и тот же текст где ни попадя. Поисковые системы стараются не допустить высокого ранжирования сайтов с чужим контентом. Успехов в борьбе с такими площадками позволили достичь введенные Google алгоритмы Panda и Penguin. Борется с плагиатом и «Яндекс», исключая из выдачи по ключевым запросам страницы с дублированным контентом.

Все бы хорошо, и «нарушители конвенции» вправду заслуживают наказания. Но часто эти алгоритмы обрушиваются, как ни странно, на самих авторов, признавая их тексты неуникальными и налагая на них суровые санкции. Вопиющая несправедливость, однако пока таков статус-кво. Как же все-таки защитить свой контент от воровства и при этом сделать его первоисточником с точки зрения «Яндекса» или Google?

Прежде чем рассмотреть способы защиты контента, разберемся с тем, какими путями нечистые на руку веб-мастера добывают чужие тексты. Если злоумышленник – новичок, то он обычно переходит с сайта на сайт и без затей копирует текст вручную. Поднаторевшие плагиаторы автоматизируют свой «труд» программами-парсерами, которые считывают и собирают всю необходимую информацию воедино. Таким же манером «умыкают» содержимое RSS-лент.

Способов защиты от воровства предостаточно. Самые простые – запрет копирования текста средствами JavaScript и наложение прозрачного GIF на картинку. Но эти приемы выбьют почву из-под ног разве что у малоопытных «копипастеров». Более продвинутые индивиды обойдут такую защиту в два притопа, в три прихлопа и в четыре клика. Не повредит также «включить дипломатию»: обнаружив на чужом сайте свои тексты, картинки, элементы дизайна, куски кода и т. д., обратитесь к его владельцу с настоятельной просьбой удалить все, что он у вас «подрезал». В девяноста пяти случаях из ста ответом вам будет тишина, но попытка не пытка. Иногда можно добиться своего, написав хостинг-провайдеру жалобу на нарушителя с призывом повлиять на него или закрыть площадку. Однако желательно позаботиться о защите своего контента еще до того, как он будет украден. Это наиболее верная тактика, которая сбережет ваши время и нервы.

Сравнительно недавно и Google и «Яндекс» осознали масштабы плагиата в Сети и сделали первый серьезный шаг навстречу сайтовладельцам, желающим предотвратить «угон» своего контента. Механизм защиты Google основан на привязке контента к аккаунту пользователя в Google+. На странице сайта ставится ссылка на профиль автора посредством атрибута

rel="author"
, который говорит Google: «Вот первоисточник». Кроме того, в качестве маркера, удостоверяющего авторство, может выступать электронный адрес, расположенный на том же домене, что и сам сайт. В профиле участника Google+ указывается адрес электронной почты. Например, домен сайта – somesite.ru, значит, адрес должен иметь вид somename@somesite.ru. Он отображается в разделе «Мои публикации». Ради защиты приватности можно запретить показывать электронный адрес всем пользователям. Таким образом, ставя под своими статьями подпись с адресом электронной почты, привязанной к профилю Google+, вы декларируете свое авторство перед лицом Google.

У «Яндекса» защита контента строится по иной схеме. Автору предоставляется возможность сообщить о новом материале и защитить его еще до того, как он будет впервые опубликован. На панели сервиса «Яндекс.Вебмастер» есть форма, через которую можно заявить об авторстве. Туда вводится адрес сайта и текст объемом 2-32 тыс. символов. Пассаж проходит проверку на уникальность, и, если таковая подтверждается, указанному сайту присваивается статус первоисточника. Одно «но»: сервисом могут воспользоваться лишь сайты с тИЦ[4] больше десяти.

Заодно никто не мешает прибегнуть к старому доброму методу, который изобрели оптимизаторы: покупается несколько ссылок с анкорами[5], содержащими фрагменты текста, который подлежит защите. Такие ссылки с цитатами из статей наводят поисковые системы на первоисточник и помогают исключить возникновение проблем с копированием контента и установлением его авторства.

<p>Проверка контента на уникальность</p>

Иногда требуется произвести проверку текстов на уникальность. Например, копирайтер прислал заказанную ему статью, но вдруг он обманщик и выдает плоды чьего-то труда за свой материал?

Инструментов для проверки контента на уникальность много. Одни работают в режиме онлайн, другие требуется скачать в виде приложения и установить на компьютер. Перечислим наиболее известные и распространенные интернет-сервисы первой категории: Copyscape Premium, Antiplagiat.ru, Istio.com, Miratools.ru. Обратите внимание и на программы второй категории: Advego Plagiatus, DCFinder, Praide Unique Content Analyzer.

Помните, что своевременная проверка текстов на уникальность позволяет избежать больших неприятностей. Ведь, к примеру, приняв от фрилансера сворованный текст, вы невольно оказываетесь его пособником, ну а поисковику безразлично, почему именно на вашем сайте было опубликовано описание товара, составленное для другого интернет-магазина.

<p>Где брать уникальный контент</p>

Требования к текстам зависят от тематики и специфики сайта. Например, для интернет-магазина бытовой техники описания товаров составляют, опираясь на их характеристики. В таком случае услуги копирайтера нужны нечасто: гораздо проще воспользоваться специальными шаблонами. А вот для туристического портала с описанием стран и курортов необходимы интересные авторские статьи, обзоры, заметки.

Копирайтинг, или написание текстов с нуля, – это наиболее дорогой способ получения оригинального контента. Статьи заказываются, как правило, у фрилансеров или на специализированных биржах. Не всегда копирайтер так уж необходим: качественно изложить смысл чужого текста с добавлением авторской изюминки сумеет и добросовестный рерайтер, чей труд несколько дешевле. Рерайт в большей степени актуален для новостных сайтов.

Другой источник контента – публикации на иностранных языках. Интернет в целом априори богаче контентом, чем один из его сегментов – российский. Знаете английский, немецкий, испанский языки? Отлично. Переводите профильный для вас материал и публикуете его на своей площадке, в соответствии с правилами хорошего тона снабдив статью указанием источника информации. Правда, такой способ нельзя назвать быстрым и недорогим. В любом случае вы потратите либо свое время, либо деньги, если привлечете к делу переводчика.


  • Страницы:
    1, 2, 3, 4, 5, 6