#1 RX pharmacy affiliate program!

Нестандартный подход к выбору доменного имени

Автор статьи — Денис Головач, создатель и ведущий блога GolDenOne.ru.

Я думаю, каждый вебмастер хоть раз задавался проблемой: как придумать оригинальное и запоминающееся имя для сайта? Как назвать сайт, чтобы посетители могли его легко запомнить и набрать потом в адресной строке браузера? Как выбрать домен, если все интересные уже заняты?

Сегодня я постараюсь помочь вам с решением этих проблем. Путей много, но я вам покажу один из них, на мой взгляд, самый оригинальный и нечасто используемый. А для начала давайте определимся, что же помогает пользователю быстро запомнить имя сайта? Сразу по пунктам:

  1. Длина домена. Согласитесь, что домен onemilliondollarshistory.com набрать и запомнить гораздо труднее, чем ziza.ru. Отсюда делаем вывод, что короткие домены запоминаются проще. Так уж устроен мозг человека.
  2. Ассоциативность. Например, для юморного сайта больше подойдет домен типа hahaha.ru или bugaga.ru, чем microsoft.com. Как, вы не согласны?
  3. Транслитерация. Не все знакомы с этим термином, поэтому я объясню на примере. Многим пользователям удобнее запомнить и набрать moskva.ru, чем moscow.ru. Поэтому есть такие сайты, как «вконтакте» и «одноклассники».

А теперь перейдем от теории к практике.

Для этого нам понадобится так называемый «Обратный словарь русского языка», который содержит около 99000 слов. Можете скачать по ссылке, но я вам советую найти более обширный словарь, желательно в бумажном виде. Он может содержать от 150000 до 230000 слов. Что же такое «обратный словарь», спросите вы? Это обычный список слов, которые стоят в алфавитном порядке, но этот самый порядок регулируется исходя не из начала слова, а из его окончания. Т.е. словарь построен по следующему принципу:

а
ба
аба
кааба
баба
бой-баба
кульбаба
даба
жаба
раба
штраба
амеба

девичья
ничья
стручья
вайшья
передняя
преисподняя
посторонняя
малолетняя
совершеннолетняя
несовершеннолетняя

Обратите внимание, что в словаре слова с одинаковым окончанием находятся рядом, т.е. их очень просто найти. Например, вот какие слова есть с окончанием «…ру»:

ввечеру
впору
тпру
поутру
кенгуру
сдуру

Вы понимаете, куда я клоню? Если домены vveche.ru, vpo.ru и т.п. еще не заняты – скорее занимайте!

Дальше все зависит напрямую от вашей фантазии. К примеру, мы имеем доменную зону .com («ком»), в «обратном cловаре» из 99000 слов с таким окончания около 80 (вечерком, утречком, домком и т.п.). Я уверен на 100%, что среди слов с этим окончанием вы сможете найти интересный свободный домен.

А если совсем раскрепостить разум и отпустить фантазию в свободный полет, то на ум приходят такие имена:

  • kulach.com (сайт для женской боксерской секции)
  • bobi.com (сайт клуба охоты с борзыми)
  • sinya.com (салон красоты)
  • palchi.com (соревнования по армрестлингу) и так далее.

Выберите все существительные, оканчивающиеся на «р»: донор, маркер, дизайнер и т.д. Теперь мы имеем замечательные, красивые, легкозапоминающиеся и легкопроизносимые домены: dono.ru, marke.ru, dizayne.ru. Знаю одну студию web-дизайна, которая придумала себе домен monito.ru. Почему бы и нет?

Дальше – интереснее. Доменная зона .us читается как «ус» или «юс», таких слов я нашел больше 150. А если пофантазировать, то можно выдать даже такие домены: nagiba.us (нагибаюсь), oshiba.us (ошибаюсь). Для этого просто находим в словаре список слов на «…ться», это глаголы в неопределенном времени.
Дальше переделываем их по принципу: ошибаться – ошибаюсь, нагибаться – нагибаюсь… Этих слов в обратном словаре около 7420. Здорово, правда?

А как вам такие домены в зоне .ua («уа»): ampl.ua (амплуа), burj.ua (буржуа), padetr.ua (па-де-труа).

Теперь вам остается только определиться с тематикой вашего сайта и подобрать подходящее слово для него. Кроме того, вы можете использовать не только русские слова, но также и английские, это значительно расширит круг вашего поиска. Я не буду подробно останавливаться на всех доменных зонах, но хочу сказать одно: имя
сайта – 80% его успеха. Помните об этом. Удачи, и прибудет с вами Сила!

спасибо Profit Hunter

Привлекаем трафик, накачиваем ссылочный вес…

Пару недель назад я получил на пробу программу Social Submitter, которая, по словам автора, способна засабмитить любой сайт (или страницу с сайта) в кучу социальных сайтов и сайтов закладок за считанные минуты (на данный момент в базе программы насчитывается 155 социалок).

Поскольку программа прекрасно справляется с поставленными перед ней задачами, мои впечатления о ней сугубо положительные (ну а что еще я могу написать, если софт и вправду хорош? :) )

Собственно, вы можете сами ознакомиться с функциями Social Submitter и даже поработать с демо-версией программы (триал работает три дня и постит в три социалки — вполне достаточно, чтобы понять, что к чему), чтобы проверить мои слова. Поэтому в этом обзоре я коснусь лишь тех моментов, которые мне особенно понравились.

1. Про количество социалок говорить не буду — оно говорит само за себя :) Все сайты проверены, все работают. Если какой-то из сайтов меняет алгоритм постинга, разработчики сразу же вносят в Social Submitter необходимые изменения (буквально на днях был очередной апдейт программы).

2. Не нужно вносить данные отдельно для каждого сайта — достаточно один раз указать логин и пароль, которые вы использовали при регистрации на сайтах, и нажать кнопку Apply For All, и программа присвоит эти данные всем сайтам. (Кстати, использовать одинаковый логин и пароль для всех сайтов очень удобно. Особенно это заметно в процессе регистрации аккаунтов :) ).

3. Программа также способна проверять состояние ваших аккаунтов. Мало ли, что там случилось? Может социалка умерла, а, может, аккаунт забанили. В любом случае, если доступа к сайту у вашего аккаунта нет, вам это лучше знать.

4. Что касается постинга, то при подготовке страницы к сабмиту вам достаточно указать ее адрес, нажать кнопку Load Page и программа сама выдаст вам заголовок, описание и тэги. Вам останется только нажать кнопку Submit Page, и закладки на ваш ресурс появятся на всех сайтах, которые вы выберете.

5. Social Submitter также находит исходящие ссылки на выбранных вами страницах, чтобы затем вы могли поставить закладки на те сайты и страницы, куда ведут эти ссылки. Помните, в Весеннем Марафоне и на страницах блога я неоднократно говорил о том, что для того, чтобы ваш аккаунт долго жил и здравствовал, вам нужно постить в него не только свои, но и чужие страницы и сайты? Так вот эта фича как раз и способствует тому, что вы сможете быстро найти сайты для постинга и, разместив их у себя в закладках, поднять авторитет своего профиля.

6. Программа может собрать все страницы с вашего сайта, подготовить их к постингу и разместить на сайтах закладок. Я использую эту функцию исключительно для парсинга сайтов — как будете использовать ее вы, решать вам.

7. И, наверное, самое важное преимущество этой программы заключается в том, что разработчики поддерживают постоянную обратную связь с клиентами. Специально для этого создан багтрекер, где каждый пользователь программы сможет оставить сообщение об обнаруженных неполадках и разместить свои пожелания относительно добавления новых функций и социальных сайтов.

Вот, собственно, и все, что я хотел сказать. Как видите, штука в хозяйстве нужная. Перспективы роста у программы Social Submitter есть (один только я озадачил автора тремя или четырьмя идеями по поводу улучшений в функционале), так что пользуйте демку, и дальше решайте, надо оно вам или нет.

Ну а как по мне, дополнительные посетители и обратные ссылки лишними никогда не бывают ;)

обязательно читаем Profit Hunter

Модификаторы ключевых слов и позиции в топах

При поддержке: Антивирус Касперского® 7.0 всего 35 у.е.

Молодой ростокНе знаю, читаете вы блог SEO Design Solutions или нет (если нет, рекомендую), но у меня на то, чтобы прочитать и переварить информацию с этого ресурса, времени катастрофически не хватает. Практически все записи с блога уходят в Избранное.

(Тем временем хочу отблагодарить Всеволода Козлова, директора Школы поисковой оптимизации за анонс моего мануальчика по заработку в Интернете. Спасибо большое!)

Не то, чтобы на этом блоге палилось много тем, нет. Даже наоборот, я там тем особо и не встречал. Авторы просто описывают проверенные временем белые методы оптимизации с разных сторон. В этой статье они рассказывают о том, как использовать модификаторы ключевых слов для улучшения позиций сайта в поисковых ситемах в долгосрочной перспективе.

——————

Конечно, seo — это не ядерная физика, но тем не менее успешная оптимизация сайта под поисковые системы требует немалых временных затрат, и на каждом ее этапе необходимо найти правильный баланс on-page и off-page факторов. Только в этом случае вы сможете обеспечить себе стабильные позиции в топе по нескольким конкурентным и многим длинным ключевым фразам.

Если провести аналогию с растением, любому сайту нужны крепкие корни, т.е. разбросанные по тексту страниц ключевые слова и их модификаторы, благодаря которым сайт впоследствие и выходит в топы по множеству запросов. Именно они вместе с тематическими ссылками (с нужными якорями) позволят вам всерьез и надолго занять позиции на первых страницах выдачи.

Чтобы подобрать модификаторы для вашего конкретного сайта, поставьте себя на место типичного посетителя и подумайте, по каким фразам он может искать контент, аналогичный тому, что размещен у вас на сайте.

Для примера вот вам несколько категорий модификаторов, по которым могут искать ваш сайт:

Общая тематика:

  • Company
  • Services
  • Professional
  • Best
  • Top
  • Leading
  • Internet
  • Organization
  • Marketing
  • Business
  • Solution
  • Online

“Денежные” модификаторы:

  • Rates
  • Pricing
  • Deals
  • Affordable
  • Offers
  • Packages
  • Quality

Гео-модификаторы:

  • город
  • пригород
  • штат (в том числе аббревиатура)
  • область, район, округ, графство (в зависимости от страны)

Для примера возьмем такой случай: у вас есть страница, заточенная под определенное ключевое слово и вы хотите, чтобы на нее приходили посетители по “локальным” запросам.

Чтобы добиться этого, вам в первую очередь нужно разбросать по тексту несколько гео-модификаторов. Поисковые боты сегодня настолько умны, что без труда выдергивают нужные ключевые слова в сниппет (если, конечно, вы заранее не задали мета-описание для страницы). Поэтому подумайте дважды, прежде чем составлять мета-описание. Возможно, стоит переложить эту задачу на ботов. Пара ссылок с нужным якорем, длинное ключевое слово, выдернутое в описание машиной, и вы в десятке!

Чтобы увеличить вероятность попадания в топ, используйте дополнительные on-page факторы:

1. Цитаты. Текст, заключенный в цитату, имеет для поискового бота больший вес, чем остальной текст на странице. Код цитаты лучше расположить повыше (в начало страницы), поставить на нее html-якорь (#) и сослаться на этот якорь из текста (текстом ссылки должно быть ключева фраза с модификатором).

2. Ссылки с ключевыми словами в подвале сайта. Конечно, такие ссылки можно поставить не на каждой странице, однако правильное использование ссылок в подвале поможет вам продвинуть нужные страницы по нужным запросам (только не нужно этим злоупотреблять, все должно быть в меру). Этот же метод можно применить для продвижения страницы, заточенной под отдельный ключевик, а не под какую-то местность, по гео-запросам.

3. Использование внутренней перелинковки и тега nofollow. Ссылки в футере, ограничение исходящих ссылок до пяти с одной страницы, использование редиректов и тега nofollow — все это можете применить и вы, единственное, что для каждого конкретного сайта вам придется искать свою золотую середину. Если у вас будет страница (1) с чистым кодом, (2) текстом на 500-750 слов, (3) ключевыми словами и релевантными модификаторами, (4) ссылками с других пиаристых страниц и (5) качественными внешними ссылками, тогда у вас есть все предпосылки для выдвижения страницы в топ.

Теперь все, что вам нужно делать, это постепенно увеличивать ссылочный вес сайта и отдельных страниц. Если это возможно, используйте разные якоря для внешних ссылок (2-4-словные ключевые фразы с модификаторами), чтобы постепенно захватывать все больше и больше топов (и, соответственно, увеличивать поисковый трафик на сайт).

Для примера давайте возьмем сайт, который предлагает услуги в сфере маркетинга. Первое, что нужно сделать с этим сайтом, это накачать ссылками самые релевантные и важные страницы. В идеале якоря ссылок должны быть разными и содержать тематические ключевые слова и модификаторы. Со временем это позволит странице подняться и по смежным ключевым словам (так, например, если на страницу ведет масса разных якорей, содержащих слово dog, страница может высоко ранжироваться и по фразам со словами pet, puppies и т.д.) Для нашего примера вы можете использовать такие якоря:

  • Leading Marketing Company
  • Professional Internet Marketing Services
  • Best Online Marketing Professional in (State)
  • Affordable (Company) Marketing Rates
  • Top Quality Solutions in (City)

В долгосрочной перспективе использование этих и схожих якорей выведет страницы сайта в топы по нужным запросам. В дополнение к этому вы можете создать отдельные страницы, заточенные под конкретные города, штаты и т.д. Это еще больше увеличит ваши шансы на попадание в топ по длинным ключевым фразам.

Вывод: Наполните сайт отменным (и оптимизированным) контентом, направьте на страницы тематических ссылок и пусть страницы настаиваются. Торопиться здесь ни к чему, вы работаете на перспективу. Как только основные страницы закрепятся в выдаче, принимайтесь за второстепенные.

Вот такая вот она, белая оптимизация :)

По теме модификаторов почитайте еще вот эту статью.

При поддержке: Продвижение сайта в ТОП 10. Быстрее и удобнее с TNX (XAP).

http://www.profithunter.ru/optimizaciya/modifikatory-klyuchevyx-slov-i-pozicii-v-topax/

Клоакинг — зло?

До прочтения статьи Рэнда Фишкина на SEOmoz я думал, что клоакинг в любом виде — это исключительно черный метод продвижения, за который можно получить по шапке от всевидящего и всезнающего Google. Но я оказался неправ (что, в общем-то совсем не удивительно). Мне просто не хватило ума приложить основную характеристику клоакинга — выдача различного содержания поисковым ботам и рядовым пользователям — к белым сайтам, которыми я пользуюсь каждый день.

*Этот пост будет всецело посвящен различным видам клоакинга и тому, к каким из них Google отномитеся терпимо, и какие на дух не переносит. Здесь не будет никаких “тем”, просто интересная информация для расширения seo-кругозора.

—————

И все еще никак закончится список блоггеров, которым я премного благодарен за продвижение в массы моего Марафона по заработку в Интернете. Сегодня респект отправляется автору блога Fleek.org.

Да, а если кому-то из читателей хочется получить $100+ от Тормоза практически задаром, здесь написано, как это сделать.

—————

Вот неслабый список неслабых сайтов, которые успешно используют клоакинг в своих целях:

  • Google (ага, он самый). Поищите в Google гугловские же сервисы типа google translate, adwords, adsense и пр. и посмотрите, какие урлы выдает поисковик. А теперь перейдите по ссылке и посмотрите, во что превращается адрес страницы по мере ее загрузки. Мало того, содержание целевой страницы иногда отличается от того, что хранится с кеше, независимо от того, залогинены вы в Google или нет.
  • NYTimes.com. Встроенные рекламные страницы, приглашение залогиниться/зарегистрироваться на сайте после 5 кликов, архивные данные — все это человек видит иначе, чем поисковые боты.
  • Forbes.com. На этом сайте невозможно даже взглянуть на главную страницу, не насладившись прежде рекламным роликом на полэкрана. Кешированные страницы тоже часто отличаются от того, что видит на сайте человек.
  • Wine.com. Даже если не брать во внимание редиректы, каждый пользователь прежде чем посмотреть цены (как, впрочем, и страницы), должен выбрать штат. Вряд ли это требуется от поисковых ботов.
  • WebmasterWorld.com. Этот сайт одним из первых ввел (теперь общепринятую) практику нескольких бесплатных кликов по сайту, после которых идет предложение записаться в члены сайта. Но на боты Google это не распространяется.
  • Yelp.com. Активное применение геотаргеттинга на базе куков.
  • Amazon.com. Благодаря кукам и данным с прошлых посещений Амазон может варьивать, например, выдачу по рекомендуемым товарам.
  • iPerceptions.com. По сути сайт не использует клоакинг, но попап на сайте виден только с тех компьютеров, где браузеры поддерживают куки (причем виден он не только на этом сайте, а и на доброй сотне других). не говоря уже о том, что сайт принадлежит одному из сотрудников Google.
  • ComputerWorld.com. Если бы вы были ботом, вы бы никогда не увидели реклам на весь экран, попапов и даже некоторых яваскриптов, которые срабатывают только тогда, когда на сайт заходит реальный человек.
  • Scribd.com. Машина видит на сайте исключительно html-текст. Человек видит то, что видит.
  • Nike.com. Google показывает, что сайт состоит из более чем полутора миллионов страниц. Только почему-то все эти страницы начинаются с одного и того же flash-ролика.
  • Wall Street Journal. Бот Google совершенно не видит ссылки pay to access, который стоит после первого абзаца на некоторых статьях на сайте.

Этот список можно продолжать и продолжать, но суть и без этого ясна: клоакинг не всегда зло, особенно если вы:

  • крупный и всемирно известный бренд; или
  • маскируете страницы так, что от этого получают пользу не только поисковые боты, но и живые посетители сайта.

Вот классификация типов клоакинга от  Рэнда Фишкина:

1. Кристально белый:

  • Разрешенные приемы: распознавание куков, яваскрипты.
  • Цель: оптимизация целевых страниц, предоставление контента зарегистрированным пользователям.

На том же SEOmoz есть платная подписка, содержимое которой могут видеть только ее участники. Технически поисковые боты и некоторые посетители видят разные вещи, но у них все основано на куках и выполнено в строгом соответствии с требованиями поисковых систем.

2. Почти белый:

  • Разрешенные приемы: все, что выше, + User Agent.
  • Цель: геотаргеттинг, определение типа браузера, минимизация расхода трафика на ботов.

Геотаргеттингом балуется Craigslist.org. Представители Google открыто заявили, что до тех пор, пока Craigslist показывает ботам те же страницы, что и посетителям, такое поведение сайта не нарушает правил. Только вот боты видят совсем не те страницы, что посетители, — по логике вещей они и не должны их видеть, ведь боту нужно скормить весь контент сайта, а не только объявления под Нью-Йорк или Сан-Франциско. Однако такое нарушение правил не приводит к серьезным последствиям, потому что, по большому счету, и пользователи, и поисковые системы получают то, что им нужно.

3. Слегка серый:

  • Разрешенные приемы: все, что выше, + User Agent / просмотр информации об IP-адресе.
  • Цель: редирект ссылочного веса на аналогичные страницы, показ скрытого контента.

На сайтах, где размещаются большие статьи, как правило, стоят ссылки вроде “прочитать статью” или “распечатать статью” и т.д. в том же духе. Когда на вот эти варианты одной и той же статьи появляется несколько ссылок с разных источников (блоги, соц. сайты), поисковики начинают их индексировать и пеналить за дублированый контент. Чтобы этого избежаить на второстепенные ссылки ставится 301-й редирект, и тогда весь ссылочный вес направляется на саму статью. Но опять же, несмотря на нарушение правил, этот метод приносит пользу как посетителям (они переходят на оригинал статьи), так и поисковым системам (у Yahoo и MSN все еще есть проблемы с определением дублированного контента). Т.е. авторитетным сайтам за это точно ничего не грозит.

4. Темно-серый:

  • Разрешенные приемы: все.
  • Цель: показ менее оптимизированного контента, редирект ссылочного веса на левые страницы.

Некоторые партнерки вместо того, чтобы редиректить ссылочный вес с партнерских ссылок на страницы, куда они должны вести, редиректят его на страницы, которые нужно подпитать ссылками и продвинуть в выдаче. Такие телодвижения очень близки к черным методам, поэтому поисковики за такое наказывают.

5. Черный:

  • Разрешенные приемы: все.
  • Цель: показ контента, совершенно не соответствующего поисковому запросу.

Здесь Рэнд приводит пример, как он ввел в поиск запрос inurl:sitemap.xml и на 9-м месте в выдаче обнаружил ссылку www.acta-endo.ro/new/viagra/sitemap.xml.html, которая привела его… да вы сами знаете, куда приводят такие ссылки :) За такое поисковики банят сайты сразу, как только их обнаружат.

Вывод: Все, что бело или слегка серо, принимается поисковыми системами на ура, несмотря на публичные заявления некоторых говорящих голов, поскольку не нарушает интересов сторон. За все остальное банят.

http://www.profithunter.ru/putevye-zametki/kloaking-zlo/

Выявление дублированного контента на сайте

Как хорошо, что есть такая девушка Энн Смарти. У нее реально талант находить полезные сервисы для вебмастеров и оптимизаторов.

В этот раз она взялась за дублированный контент и сервисы, которые помогают отыскать его на сайте. Думаю, многим из вас будет интересно.

И хорошо, что есть такой человек Дмитрий, он же директор SEO-Зоопарка, в котором водится немало интересных статей и прочей seo-живности. Спасибо, Дима, что не поленился рассказать о моем наебуке своим читателям.

Так вот, дублированный контент.

Почему тема дублированного контента сегодня так актуальна? Если не считать очевидных (копипаст одних и тех же статей на разные страницы), основных причин две:

  • использование движков, которые создают кучу урлов на одну и ту же страницу;
  • нехватка знаний в области seo. Так, например, урлы www.yoursite.com/page1 и www.yoursite.com/Page1 поисковики видят как две разные страницы, хотя их наполнение совершенно идентично с тем лишь отличием, что во втором урле слово page написано с большой буквы. Но это знают не все.

Предпосылки для появления дублированного контента:

  • наличие двух версий сайта: с www и без него;
  • присутствие на сайте страниц с одинаковыми тайтлами и мета-описаниями;
  • существование нескольких версий главной страницы (www.site.com и www.site.com/index.php);
  • неполадки в навигации сайта, приводящие к появлению нескольких урлов на одни и те же страницы (www.site.com/page.php?id=567 и www.site.com/category/page.php?id=567).

Естественно, дублированный контент вам нужен, как телеге пятое колесо. И дело здесь не только в том, что поисковый бот может подхватить и вынести в выдачу не совсем ту страницу, какую бы вы хотели там видеть (хотя это тоже очень важный момент). В дополнение к этому дублированный контент снижает скорость сканирования страниц гуглботами (даже боты не хотят выполнять лишнюю работу и сканировать дубли) и замедляет процесс попадания в индекс молодых сайтов.

НО! НЕ ВСЕ ТАК ПЛОХО! Купите платную подписку на мои сайты HowtoKillYourSitein10Seconds.com и SurefireWaytoDestroyYourRankingsImmediately.com я расскажу, как все исправить :)

Ладно, шутки в сторону. Думаю, увидев имя Энн Смарти в начале поста, вы уже поняли, что без полезных инстурментов тут не обойдется. Так и есть.

1. Duplicate Content Tool. Сервис выявляет следующие моменты:

  • наличие/отсутствие редиректа с www.site.com на site.com;
  • проблемы с кешированием страниц;
  • наличие одинаковых страниц в выдаче;
  • выдача 404-й ошибки на несуществующие страницы;
  • разбазаривание PR между ‘www-’ и ‘без-www-’ вариантами сайта.

Duplicate Content Tool

2. Xenu (десктопное приложение). Программка сканирует сайт и выдает информацию по всем урлам, которые там находит. Вам достаточно отсортировать результат по тайтлу (колонка Title), найти одинаковые заголовки и исправить их. (В программе что-то не так с кодировкой, русские заголовки идут иероглифами. Впрочем, удивляться не приходится (с).)

Xenu

3. Google Webmaster Tools. Сервис помогает найти идентичные татйлы и мета-описания.

Какие еще знаете инструменты, полезные для этих целей?

п.с. Кстати, найти дубли — это только полдела, их еще нужно и устранить. И в этом вам поможет вот эта статейка.

http://www.profithunter.ru/optimizaciya/vyyavlenie-dublirovannogo-kontenta-na-sajte/


Warning: This content has expired
disclaimer