Основы контентной оптимизации, Эффективная интернет-коммерция и продвижение сайтов в интернет - Евдокимов Николай Семенович (2007)
-
Год:2007
-
Название:Основы контентной оптимизации, Эффективная интернет-коммерция и продвижение сайтов в интернет
-
Автор:
-
Жанр:
-
Серия:
-
Язык:Русский
-
Издательство:Вильямс
-
Страниц:106
-
ISBN:5-8459-1095-1
-
Рейтинг:
-
Ваша оценка:
Основы контентной оптимизации, Эффективная интернет-коммерция и продвижение сайтов в интернет - Евдокимов Николай Семенович читать онлайн бесплатно полную версию книги
то, большая часть Web-страниц изначально создается ради этой цели. Мало кто
создает в Сети сайт в надежде, что его никто и никогда не найдет. Напротив,
Web-ресурсы стремятся охватить определенную аудиторию, которая должна
быть четко определена еще до начала работ над сайтом.
5.1.2. Несовершенство методов поиска
В настоящее время поисковые алгоритмы недостаточно совершенны: ведь ну
жен настоящий искусственный интеллект, чтобы проанализировать содержа
ние Web-страницы, отнести ее к нужному тематическому разделу, определить
информационную ценность и степень релевантности тем или иным поисковым
запросам. После того как алгоритмы, работающие по таким принципам, будут
созданы, политика создания текстового контента для сайтов значительно из
менится. Любые оптимизаторские ухищрения станут бесполезными, и первые
позиции на страницах выдачи результатов поиска займут сайты, содержащие
самый интересный, подробный, релевантный и хорошо написанный контент.
Разумеется, оптимизаторы не исчезнут и не перестанут существовать, одна
ко их уровень профессионализма в условиях грядущих "поединков" с велико
лепными алгоритмами поисковых машин должен будет значительно вырасти
(по сравнению с тем, к а к а я ситуация с этим складывается в данный момент).
В будущем оптимизатор обязательно превратится в филолога-математика, опе
рирующего "семантическими уравнениями" и прочими еще даже не открыты
ми параметрами текста.
Но это вовсе не значит, что сейчас поисковые роботы " г л у п ы " и легко подда
ются обману. Над их алгоритмами работают лучшие программисты всего мира,
а решения и математические модели, созданные при разработке алгоритмов по
исковых машин, применяются в огромном количестве других сфер познания.
На исследования поисковых алгоритмов выделяются громадные суммы, при
чем суммы эти не утекают в пустоту. Каждый год появляются все новые и новые
поисковые машины, предлагающие свои оригинальные методы определения
релевантности страниц, а крупнейшие поисковые машины (например, Google)
набирают такой головокружительный темп развития, что даже самые смелые
прогнозы аналитиков превращаются в пресс-релизы буквально на глазах.
Однако уже сейчас поисковые системы очень и очень неплохо анализируют
текстовый контент страницы, выводя на первые позиции в своем внутреннем
ранжировании сайты, информационная структура которых образована контен
том "двойной привлекательности" — интересным к а к поисковому роботу, так
и целевой аудитории.
Но пока поисковые машины еще не перешли к анализу исключительно тек
стового контента Web-страниц и не отказались от считывания HTML-разметки.
Грамотная HTML-верстка не потеряет своего значения еще очень долго, по
скольку даже здравый смысл подсказывает простой, напрашивающийся сам
собой вывод: если создатели сайта ответственно подошли к созданию структуры
невидимой глазу HTML-разметки, то и ко всему остальному (контенту, внутрен
ней ссылочной структуре, внешним факторам ранжирования и прочему) подход
столь же серьезный и ответственный. И наоборот — те сайты, при разработке
которых правила оптимизационной верстки не учитывались, обычно неинте
ресны с точки зрения контента и абсолютно нерелевантны, поскольку сделаны
"спустя рукава" (и это проявляется во всем комплексе контента сайта).
5.1.3. HTML — прощай, король?..
Сверхвысокая скорость развития Интернет-технологий и отсутствие воз
можности построить адекватную долгосрочную модель динамики Интернета
(точнее, его технологических аспектов) приводит к невозможности ответить
на вопрос, сколько еще времени "продержится на коне" созданный в 1991 году