WEB-MASTER

WEB-MASTER
WEB_MASTER

КАКИЕ АЛГОРИТМЫ ЛЕЖАТ В ОСНОВЕ РАБОТЫ ПОИСКОВЫХ СИСТЕМ?

22.11.2017
#Сайты
#Реклама

Наверняка вы замечали, что один сайт в Yandex выходит на одной позиции, а в Google на другой. В этой статье мы поговорим о том, почему так происходит.

У каждой поисковой системы свои алгоритмы выдачи ссылок на сайты. Что в них общего и какие есть различия?

При вводе одного и того же запроса в разных поисковиках, вы получите разные результаты. Это как раз и является следствием разных алгоритмов, используемых различными поисковыми системами.

Задача любой поисковой системы  выводить в результатах выдачи максимально релевантный результат, то есть максимально соответствующий запросу пользователя. Более того, алгоритмы так же учитывают авторитет ресурса, информативность сайта и страницы.

Каждая поисковая система стремится очистить ряды поисковой выдачи от искусственно накрученных, малоинформативных и неинтересных проектов. Не смотря на то, что поисковый алгоритм представляет собой череду математических формул, за ними стоит кропотливая работа многих человеческих умов.

Таким образом, поисковые машины борются за своего пользователя, конкурируя между собой, ведут непрекращающуюся борьбу с мастерами накрутки сайтов. Как только алгоритм становится известен и достаточно точно просчитан, в ТОПе выдач появляются сайты, которых там быть не должно. Для борьбы с такими явлениями у Яндекса например существуют случайные составляющие алгоритма.

Как правило, все поисковики стремятся приблизить работу алгоритма к работе живого человека. Поэтому при оптимизации страниц сайта можно дать общую рекомендацию для всех случаев – писать тексты не для поисковых роботов, а для людей.

Существуют специальные сервисы, собирающие данные о наиболее часто встречающихся запросах и о часто просматриваемых страницах. Совокупность данной информации так же используется при выдаче результатов. Алгоритмы так же оценивают тематику сайтов ссылающиеся на другие сайты, сравнивают содержимое сайтов, которые ссылаются, с теми, на которые они ссылаются, определяя в итоге максимально релевантные страницы. Поэтому тематические ссылки, с авторитетных, ценятся выше.

Многие алгоритмы поисковых систем исследуют и внутреннее строение сайтов, оценивая ссылочную структуру, простоту навигации и соотношение страниц, плотность ключевых слов и т.д.

Полученная информация формируются в базы данных, на основании которых и производится ранжирование сайтов и страниц в поисковой выдаче. Причем, во многих случаях, существует ручная модерация.

Вот общий список параметров, которые учитывают поисковые системы и на основании которых регулируется поисковая выдача:

1. Количество ключевых слов или запросов на странице и на сайте.

2. Отношение числа слов на сайте к их количеству на сайте.

3. Отношение числа слов на странице к их количеству на странице.

4. Индекс цитирования.

5. Тематика и ее популярность.

6. Количество запросов по ключевому запросу за период времени.

7. Общее количество проиндексированных страниц сайта.

8. Применение стиля к страницам ресурса.

9. Объём текста всего сайта.

10. Общий размер сайта.

11. Размер каждой страницы сайта.

12. Объём текста на каждой странице сайта.

13. Возраст домена и время существования сайта.

14. Домен и URL сайта и его страниц, наличие в нем ключевых слов .

15. Частота обновления информации на сайте.

16. Последнее обновление сайта и его страниц.

17. Общее число картинок (рисунков, фотографий) на сайте и на странице.

18. Количество мультимедийных файлов.

19. Наличие описаний (замещающих надписей) на картинках.

20. Количество символов (длина) в описании картинок.

21. Использование фреймов .

22. Язык сайта.

23. Географическое положение сайта.

24. Шрифты и теги, которыми оформлены ключевые слова и фразы.

25. Где на странице располагаются ключевые слова.

26. Стиль заголовков.

27. Наличие и анализ мета-тегов «title» «dеscription» «keywords».

28. Параметры файла «robot.txt».

29. Программный код сайта.

30. Присутствие в составе сайта flash модулей.

31. Наличие дублей страниц или контента .

32. Соответствие содержания сайта разделу каталога поисковика.

33. Наличие «стоп слов» .

34. Количество внутренних ссылок сайта.

35. Количество внешних входящих и исходящих ссылок .

36. Использование java скриптов .

37. Ещё что-то, чего не знает никто.

Теперь вы знаете на много больше про алгоритмы выдачи сайтов в поисковых системах, но мы знаем больше). Поэтому не раздумывая, заказывайте продвижение сайта у нас и мы гарантируем, что мы выведем ваш сайт в ТОП10.

#Сайты
#Реклама