Дізнайтеся, за допомогою яких роботів Google сканує ресурси в Інтернеті

Під цим терміном розуміються будь-які програми, які автоматично виявляють та сканують сайти, переходячи за посиланнями від сторінки до сторінки. Наш основний пошуковий робот називається Googlebot. У таблиці нижче наведено відомості про ключові пошукові роботи Google, які потрапляють до журналів джерел посилань. Також ви дізнаєтеся, як вказувати дані цих роботів у файлі robots.txt, у метатегах robots та в командах X-Robots-Tag HTTP.

Пошукові роботи, перелічені нижче, застосовуються продуктами та сервісами Google:

  • Токен агента користувачавказується в рядку User-agent: файл robots.txt і використовується при створенні правил сканування для певних пошукових роботів. Як видно з таблиці, деяким роботам відповідає більше одного токена. Для застосування правила достатньо написати один варіант. Наведений нижче перелік не є вичерпним, але містить інформацію про найпоширеніші роботи.
  • - Це повний опис пошукового робота. Воно вказується у запиті та журналах.

Інструменти зловмисників можуть вказувати аналогічні токени та рядки.Щоб переконатися, що на вашому сайті був робот Googlebot, використовуйте зворотний DNS-запит .

Пошуковий робот Токен агента користувача (продукту Google) Повний рядок агента користувача
APIs-Google APIs-Google (+https://developers.google.com/webmasters/APIs-Google.html)
AdSense

Mediapartners-Google

Mediapartners-Google

AdsBot-Google-Mobile

Mozilla/5.0 (Linux; Android 5.0; SM-G920A) AppleWebKit (KHTML, як Gecko) Chrome Mobile Safari (compatible; AdsBot-Google-Mobile; +http://www.google.com/mobile/adsbot.html)

AdsBot-Google-Mobile

Mozilla/5.0 (iPhone; CPU iPhone OS 9_1 як Mac OS X) AppleWebKit/601.1.46 (KHTML, як Gecko) Version/9.0 Mobile/13B143 Safari/601.1 (комп. .google.com/mobile/adsbot.html)
AdsBot-Google (+http://www.google.com/adsbot.html)
Googlebot Images
  • Googlebot-Image
  • Googlebot
Googlebot-Image/1.0
Googlebot News
  • Googlebot-News
  • Googlebot
Googlebot-News
Googlebot Video
  • Googlebot-Video
  • Googlebot
Googlebot-Video/1.0

AdsBot-Google-Mobile-Apps

AdsBot-Google-Mobile-Apps

FeedFetcher-Google

FeedFetcher-Google; (+http://www.google.com/feedfetcher.html)

Google-Read-Aloud

Не враховує правила у файлі robots.txt.

  • Поточна версія:
    Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/41.0.2272.118 Safari/537.36 (compatible; Google-Read-Aloud; +https://сайт/webmasters/answer/106
  • Колишня версія (Більше не підтримується):
    google-speakr
Duplex on the Web

DuplexWeb-Google

Може ігнорувати знак підстановки *.

Mozilla/5.0 (Linux; Android 8.0; Pixel 2 Build/OPD3.170816.012; DuplexWeb-Google/1.0) AppleWebKit/537.36 (KHTML, як Gecko) Chrome/74.0.3729.131

Google Favicon

Отримує значки для різних веб-сайтів.

У разі запитів користувача ігнорує правила у файлі robots.txt.

Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, як Gecko) Chrome/49.0.2623.75 Safari/537.36 Google Favicon

Агенти користувача у файлах robots.txt

Якщо у файлі robots.txt вказані інструкції для кількох агентів користувача, робот Google виконає найсуворіші з них. Якщо ви хочете, щоб наші роботи могли повністю сканувати ваш сайт, цей файл взагалі не потрібен. Щоб заборонити або дозволити всім пошуковим роботам Google доступ до того чи іншого контенту, вкажіть як агент користувача Googlebot. Так, якщо вам потрібно, щоб всі сторінки сайту відображалися в результатах пошуку Google, а також щоб на сторінках відображалися оголошення AdSense, не використовуйте файл robots.txt. Якщо потрібно закрити деякі розділи для всіх роботів Google, зробіть це для користувача Googlebot. Це призведе до блокування всіх інших роботів.

Ви також можете вказувати спеціальні правила певних агентів користувача. Припустимо, вам потрібно, щоб усі сторінки вашого сайту відображалися в Google Пошуку, але при цьому хочете заборонити сканування зображень, що знаходяться в особистому каталозі. У такому разі забороніть агенту користувача Googlebot-Image у файлі robots.txt сканувати файли в каталозі /personal. При цьому робот Googlebot, як і раніше, матиме доступ до файлів у всіх каталогах. Запис повинен виглядати так:

User-agent: Googlebot Disallow: User-agent: Googlebot-Image Disallow: /personal Розглянемо інший приклад. Ви бажаєте розмістити рекламу на всіх сторінках, але вони не повинні відображатися в Google. Для цього заблокуйте доступ до вмісту агента користувача Googlebot, але залиште його доступним агенту користувача Mediapartners-Google таким чином: User-agent: Googlebot Disallow: / User-agent: Mediapartners-Google Disallow:

Агенти користувача в метатегах robots

Деякі сторінки містять кілька тегів meta, в яких вказані інструкції для різних пошукових роботів. Приклади:

У цьому випадку Google буде використовувати всі заборонні інструкції, а Googlebot виконає обидві директиви: noindex і nofollow.

Ця інформація виявилася корисною?

Як можна покращити цю статтю?

Яндекс має кілька роботів, які представляються по-різному.

Yandex/1.01.001 (compatible; Win16; I) - основний індексуючий робот
Yandex/1.01.001 (compatible; Win16; P) - Індексатор картинок
Yandex/1.01.001 (compatible; Win16; H) - Робот, що визначає дзеркаласайтів
Yandex/1.02.000 (compatible; Win16; F) - Робот, що індексує піктограми (favicons)сайтів
Yandex/1.03.003 (compatible; Win16; D) - Робот, що звертається до сторінки при додаванні її через форму «Додати URL»
Yandex/1.03.000 (compatible; Win16; M) - Робот, що звертається при відкритті сторінки за посиланням « Знайдені слова»
YaDirectBot/1.0 (compatible; Win16; I) - Робот, що індексує сторінки сайтів, що беруть участь у Рекламної мережі Яндекса
YandexBlog/0.99.101 (compatible; DOS3.30; Mozilla/5.0; B; robot) - Робот пошуку по блогах, що індексує коментарі постів.

IP-адрес, з яких «ходить» робот Яндекса, багато, і вони можуть змінюватися. Список адрес ми не розголошуємо.

Окрім роботів, у Яндекса є кілька агентів-«простукивалок», які визначають, чи в даний момент доступний сайт або документ, на який стоїть посилання у відповідному сервісі.

Yandex/2.01.000 (compatible; Win16; Dyatel; C) - «простукувала» Яндекс.Каталогу. Якщо веб-сайт недоступний протягом декількох днів, він знімається з публікації. Як тільки сайт починає відповідати, він автоматично з'являється у каталозі.
Yandex/2.01.000 (compatible; Win16; Dyatel; Z) - «простукувала» Яндекс.Закладок. Посилання на недоступні сайти позначаються сірим кольором.
Yandex/2.01.000 (compatible; Win16; Dyatel; D) - «простукувала» Яндекс.Директа. Вона перевіряє коректність посилань із оголошень перед модерацією. Жодних автоматичних дій не робиться.
Yandex/2.01.000 (compatible; Win16; Dyatel; N) - «простукувала» Яндекс.Новин. Вона формує статистичні звіти для контент-менеджера та інформує його про можливі проблеми у партнерів-постачальників новин
Джерело: help.yandex.ru

Роботи Google

Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html) - Пошуковий робот Google.

Googlebot-Image (Google) Googlebot-Image/1.0 - Робот-індексатор картинок.
Директиви, адресовані цьому роботу, прописуються для видалення зображень з Зображення Google, наприклад, для заборони індексації картинок у новинах (у цьому випадку ілюстрації до новин розміщуються у папці /news/img/):

User-agent: *
Disallow: /news

User-agent: Googlebot-Image
Disallow: /news/img/

(аналогічно директиви можна застосувати до всіх робіт, перерахованих на цій сторінці)

Mediapartners-Google- Робот-аналізатор AdSense.
Директиви, адресовані цій роботі, прописуються для заборони індексації сторінок із збереженням показу оголошень AdSense, наприклад:

User-agent: *
Disallow: /news

User-agent: MediaPartners-Google
Allow: /news

(Allow: - директива, що відкриває для індексації, протилежна Disallow: аналогічно директиви можна застосувати до всіх робіт, перерахованих на цій сторінці)

Googlebot-Mobile (compatible; Googlebot-Mobile/2.1; +http://www.google.com/bot.html) - Робот, що індексує сайти для мобільних пристроїв.
Google Search Appliance (Google) gsa-crawler - Пошуковий робот нового апаратно-програмного комплексу Search Appliance (GSA 6.0).
AdsBot-Google (+http://www.google.com/adsbot.html) - оцінка якості цільових сторінок AdWords.

Робот Рамблера

StackRambler/2.0 (MSIE incompatible) - Пошуковий робот Рамблера.
StackRambler/2.0- Пошуковий робот Рамблера.

Роботи Апорту

Aport- пошуковий робот Апорта
AportCatalogRobot/2.0- Робот Апорт каталогу.

Роботи Yahoo!

Mozilla/5.0 (compatible; Yahoo! Slurp; http://help.yahoo.com/help/us/ysearch/slurp) - Пошуковий робот Yahoo!
Mozilla/5.0 (compatible; Yahoo! Slurp/3.0; http://help.yahoo.com/help/us/ysearch/slurp) - Новий робот Yahoo! 3-го покоління.
Yahoo-MMCrawler/3.x (mms dash - Робот-індексатор картинок.
Yahoo-Blogs/v3.9 (compatible; Mozilla 4.0; MSIE 5.5; http://help.yahoo.com/help/us/ysearch/crawling/crawling-02.html) - Робот пошуку по блогах.

Роботи MSN

msnbot/1.1 (+http://search.msn.com/msnbot.htm) - Основний робот MSN.

msnbot-media/1.0 (+http://search.msn.com/msnbot.htm) - Робот-індексатор мультимедійних файлів для images.live.com.

msnbot-media/1.1 (+http://search.msn.com/msnbot.htm) - Робот-індексатор мультимедійних файлів.

msnbot-news (+http://search.msn.com/msnbot.htm) - Робот, що індексує новини.

msnbot-NewsBlogs/1.0 (+http://search.msn.com/msnbot.htm) - забезпечує актуальність новин та блогів для search.live.com/news
Якщо робот пошукової системи намагається отримати доступ до вашого веб-сайту частіше одного разу на кілька секунд, можна збільшити затримку між зверненнями та налаштувати їхню мінімальну частоту (у секундах) за допомогою параметра Crawl-delay у файлі robots.txt, наприклад:

User-agent: msnbot
Crawl-delay: 120

(На новинний робот msnbot-NewsBlogs /1.0 не поширюється дія параметра затримки обходу)

msnbot-Products/1.0 (+http://search.msn.com/msnbot.htm) - індексація для пошуку товарів та шопінгу products.live.com

msnbot-Academic/1.0 (+http://search.msn.com/msnbot.htm) - здійснює академічний пошук у academic.live.com

Робот Alexa

ia_archiver (+http://www.alexa.com/site/help/webmasters; [email protected]) - Робот Alexa.
ia_archiver-web.archive.org - Робот Alexa. Роботи Alexa корисні тим, що індексують сайти для web.archive.org

SAPE.BOT is watching you! - Сканує сайти для біржі SAPE.ru

Як переглянути інформацію про відвідування сайту роботами можна дізнатися на сторінці

Щодня в інтернеті з'являється безліч нових матеріалів: створюються сайти, оновлюються старі веб-сторінки, завантажуються фотографії та відеофайли. Без невидимих ​​пошукових роботів неможливо було б знайти у всесвітньому павутинні жоден із цих документів. Альтернативи подібним роботизованим програмам на даний момент не існує. Що таке пошуковий робот, навіщо він потрібен та як функціонують?

Що таке пошуковий робот

Пошуковий робот сайтів (пошукових систем) – це автоматична програма, яка здатна відвідувати мільйони веб-сторінок, швидко переміщаючись інтернетом без втручання оператора. Боти постійно сканують простір знаходять нові інтернет-сторінки та регулярно відвідують уже проіндексовані. Інші назви пошукових роботів: павуки, краулери, боти.

Навіщо потрібні пошукові роботи

Основна функція, яку виконують пошукові роботи, - індексація веб-сторінок, а також текстів, зображень, аудіо- та відеофайлів, що знаходяться на них. Боти перевіряють посилання, дзеркала сайтів (копії) та оновлення. Роботи також здійснюють контроль HTML-коду на предмет відповідності нормам Всесвітньої організації, яка розробляє та впроваджує технологічні стандарти для Всесвітньої павутини.

Що таке індексація і навіщо вона потрібна

Індексація - це, власне, і є процесом відвідування певної веб-сторінки пошуковими роботами. Програма сканує тексти, розміщені на сайті, зображення, відео, вихідні посилання, після чого сторінка з'являється у результатах пошуку. У деяких випадках сайт не може бути просканований автоматично, тоді він може бути доданий до пошукової системи вручну веб-майстром. Як правило, це відбувається за відсутності на певну (часто тільки недавно створену) сторінку.

Як працюють пошукові роботи

Кожна пошукова система має власний робот, при цьому пошуковий робот Google може значно відрізнятися за механізмом роботи від аналогічної програми "Яндекса" або інших систем.

Взагалі принцип роботи робота полягає в наступному: програма «приходить» на сайт за зовнішніми посиланнями і, починаючи з головної сторінки, «читає» веб-ресурс (у тому числі переглядаючи ті службові дані, які не бачить користувач). Бот може переміщатися між сторінками одного сайту, так і переходити на інші.

Як програма вибирає, який Найчастіше «подорож» павука починається з сайтів новин або великих ресурсів, каталогів і агрегаторів з великою масою посилань. Пошуковий робот безперервно сканує сторінки одну за одною, на швидкість та послідовність індексації впливають такі фактори:

  • внутрішні: перелінування (внутрішні посилання між сторінками одного і того ж ресурсу), розмір сайту, правильність коду, зручність для користувачів тощо;
  • зовнішні: загальний обсяг маси посилань, яка веде на сайт.

Насамперед пошуковий робот шукає на будь-якому сайті файл robots.txt. Подальша індексація ресурсу проводиться, виходячи з інформації, отриманої саме від цього документа. Файл містить точні інструкції для "павуків", що дозволяє підвищити шанси відвідування сторінки пошуковими роботами, а отже, і досягти якнайшвидшого потрапляння сайту у видачу "Яндекса" або Google.

Програми-аналоги пошукових роботів

Часто поняття «пошуковий робот» плутають з інтелектуальними, користувальницькими або автономними агентами, "мурахами" або "хробаками". Значні відмінності є лише проти агентами, інші визначення позначають подібні види роботів.

Так, агенти можуть бути:

  • інтелектуальними: програми, що переміщуються від сайту до сайту, самостійно вирішуючи, як чинити далі; вони мало поширені в Інтернеті;
  • автономними: такі агенти допомагають користувачеві у виборі продукту, пошуку або заповненні форм, це так звані фільтри, які мало відносяться до мережних програм.
  • користувальницькими: програми сприяють взаємодії користувача зі Всесвітнім павутинням, це браузери (наприклад, Opera, IE, Google Chrome, Firefox), месенджери (Viber, Telegram) або поштові програми (MS Outlook або Qualcomm).

"Мурахи" та "хробаки" більше схожі з пошуковими "павуками". Перші утворюють між собою мережу і злагоджено взаємодіють подібно до справжньої мурашиної колонії, "хробаки" здатні самовідтворюватися, в іншому діють так само, як і стандартний пошуковий робот.

Різновиди пошукових роботів

Розрізняють безліч різновидів пошукових роботів. Залежно від призначення програми вони бувають:

  • «Дзеркальними» – переглядають дублікати сайтів.
  • Мобільними – націлені на мобільні версії інтернет-сторінок.
  • Швидкодіючими – фіксують нову інформацію оперативно, переглядаючи останні оновлення.
  • Посилочними – індексують посилання, підраховують їх кількість.
  • Індексаторами різних типів контенту – окремих програм для тексту, аудіо- та відеозаписів, зображень.
  • "Шпигунські" - шукають сторінки, які ще не відображаються в пошуковій системі.
  • «Дятлами» – періодично відвідують сайти, щоб перевірити їхню актуальність та працездатність.
  • Національними – переглядають веб-ресурси, розташовані на доменах однієї країни (наприклад, .ru, .kz або .ua).
  • Глобальними – індексують усі національні сайти.

Роботи основних пошукових систем

Існують також окремі роботи пошукових систем. Теоретично їх функціональність може істотно відрізнятися, але практично програми практично ідентичні. Основні відмінності індексації інтернет-сторінок роботами двох основних пошукових систем полягають у наступному:

  • Суворість перевірки.Вважається, що механізм пошукового робота "Яндекса" дещо суворіше оцінює сайт на відповідність стандартам Всесвітнього павутиння.
  • Збереження цілісності сайту.Пошуковий робот Google індексує сайт цілком (у тому числі медіаконтент), "Яндекс" може переглядати сторінки вибірково.
  • Швидкість перевірки нових сторінок. Google додає новий ресурс у пошукову видачу протягом кількох днів, у випадку з "Яндексом" процес може розтягнутися на два тижні і більше.
  • Частота переіндексації.Пошуковий робот "Яндекса" перевіряє наявність оновлень пару разів на тиждень, а Google - один раз на 14 днів.

Інтернет, звичайно, не обмежується двома пошуковими системами. Інші пошукові системи мають своїх роботів, які дотримуються власних параметрів індексації. Крім того, існує кілька павуків, які розроблені не великими пошуковими ресурсами, а окремими командами або веб-майстрами.

Поширені помилки

Всупереч поширеній думці, "павуки" не обробляють отриману інформацію. Програма лише сканує та зберігає веб-сторінки, а подальшою обробкою займаються зовсім інші роботи.

Також багато користувачів вважають, що пошукові роботи негативно впливають і «шкідливі» інтернету. Справді, окремі версії павуків можуть значно перевантажувати сервера. Має місце і людський фактор - веб-майстер, який створював програму, може припускатися помилок у налаштуваннях робота. Все ж більшість діючих програм добре спроектовані і професійно управляються, а будь-які проблеми, що виникають, оперативно усуваються.

Як керувати індексацією

Пошукові роботи є автоматичними програмами, але процес індексації може частково контролювати веб-майстра. У цьому значно допомагає зовнішня та ресурсна. Крім того, можна вручну додати новий сайт до пошукової системи: великі ресурси мають спеціальні форми реєстрації веб-сторінок.

Друзі, я знову вітаю Вас! Зараз ми розберемо, що таке пошукові роботи і детально поговоримо про пошуковий робот google і як дружити з ними.

Спершу треба розуміти, що взагалі таке пошукові роботи, ще їх називають павуки. Яку роботу виконують павуки пошукових систем?

Це програми, що перевіряють сайти. Вони переглядають усі записи та сторінки на вашому блозі, збирають інформацію, яку потім передають у базу тієї пошукової системи, на яку вони працюють.

Не треба знати весь список пошукових роботів, найголовніше знати, що у гугла зараз з'явилися два основні павуки, які називаються «панда» та «пінгвін». Вони борються з неякісним контентом та сміттєвими посиланнями і треба знати як відбивати їх атаки.

Пошуковий робот google «панда» створений для того, щоб просувати у пошуку лише якісний матеріал. Усі сайти з низькопробним контентом знижуються у пошуковій видачі.

Вперше цей павук з'явився у 2011 році. До появи можна було просунути будь-який сайт публікуючи у статтях великий обсяг тексту і використовуючи величезний обсяг ключових слів. У сукупності ці два прийоми виводили на верх видачі пошуку не якісний контент, а хороші сайти знижувалися у видачі.

«Панда» одразу навів порядок перевіривши всі сайти та розставив усіх на свої заслужені місця. Хоча вона й бореться з низькопробним контентом, проте зараз можна просунути навіть невеликі сайти з якісними статтями. Хоча раніше такі сайти просувати було марно, вони не могли конкурувати з гігантами, у яких велика кількість контенту.

Зараз ми з вами розберемося, як можна уникнути санкцій панди. Потрібно спочатку зрозуміти що їй не подобається. Я вже писав вище, що вона бореться з поганим контентом, але якийсь текст для неї поганий, давайте розберемося в цьому, щоб не публікувати такий на своєму сайті.

Пошуковий робот google прагнутиме, щоб у цьому пошуковику видавалася тільки якісні матеріали для претендентів. Якщо у вас є статті в яких мало інформації і вони не привабливі зовні, то терміново перепишіть ці тексти, щоб панда не дісталася до вас.

Якісний контент може мати як великий обсяг, так і маленький, але якщо павук бачить довгу статтю з великою кількістю інформації, значить вона більше принесе користі читачеві.

Потім треба відзначити дублювання, тобто плагіат. Якщо ви думаєте, що переписуватимете чужі статті собі на блог, то можете відразу поставити хрест на своєму сайті. Копіювання суворо карається накладенням фільтра, а перевіряється плагіатдуже легко, я писав статтю на тему як перевіряти тексти на унікальність.

Наступне, що треба помітити, це перенасичення тексту ключовими словами. Хтось думає, що напише статтю з одних ключів і займе перше місце у видачі – дуже помиляється. У мене є стаття, як перевіряти сторінки на релевантність, обов'язково прочитайте.

І ще що може залучити до вас панду, так це старі статті, які застаріли морально і не приносять трафік на сайт. Їх треба обов'язково оновити.

Існує також пошуковий робот google «пінгвін». Цей павук бореться зі спамом та сміттєвими посиланнями на вашому сайті. Також він обчислює куплені посилання з інших ресурсів. Тому щоб не боятися цього пошукового робота, треба не займатися закупівлею посилань, а публікувати якісний контент, щоб люди самі на вас посилалися.

Зараз давайте сформулюємо, що треба зробити, щоб сайт очима пошукового робота виглядав ідеально:

  • Щоб зробити якісний контент, спочатку добре вивчіть тему, перш ніж писати статтю. Потім треба розуміти, що цією темою реально цікавляться люди.
  • Використовуйте конкретні приклади та картинки, це зробить статтю живою та цікавою. Розбивайте текст на дрібні абзаци, щоб читати було легко. Ось, наприклад, якщо ви відкрили в газеті сторінку з анекдотами, то які спочатку прочитаєте? Звичайно кожна людина спочатку читає короткі тексти, потім довше і в останню чергу вже довгі онучі.
  • Улюблена причіпка «панди» — це не актуальність статті, в якій міститься застаріла інформація. Слідкуйте за оновленнями та змінюйте тексти.
  • Слідкуйте за щільністю ключових слів, як визначити цю щільність я написав вище, у сервісі про який я розповів ви отримаєте точну необхідну кількість ключів.
  • Не займайтеся плагіатом, всім відомо, що не можна красти чужі речі або тексту – це те саме. За крадіжку відповідатимете потраплянням під фільтр.
  • Тексти пишіть щонайменше на дві тисячі слів, тоді така стаття виглядатиме очима роботів пошукових систем інформативною.
  • Не уникайте теми вашого блогу. Якщо ви ведете блог із заробітку в інтернеті, то не треба друкувати статті про пневматичну зброю. Це може знизити рейтинг вашого ресурсу.
  • Красиво оформляйте статті, діліть на абзаци і додавайте картинки, щоб приємно було читати і не хотілося швидше піти з сайту.
  • Купуючи посилання, робіть їх на найцікавіші та найкорисніші статті, які реально читатимуть люди.

Ну ось зараз ви знаєте яку роботу виконують роботи пошукових систем та зможете з ними дружити. А найголовніше пошуковий робот google та «панда» та «пінгвін» вами докладно вивчений.

З цієї статті ви дізнаєтеся все про пошукові системи.

Коротке знання.

Як робот знаходить нову інформацію?

Процес індексації.

Принцип роботи пошукової системи Google.

Як визначається відповідність?

Як пошукові роботи бачать сайти?

Що таке пошукова система? Це такий комплекс, що включає ряд спеціалізованих засобів для надання інформації людям. Говорячи людською мовою – це система, що дозволяє буквально будь-якому користувачеві знайти потрібну інформацію.
Найбільш популярними пошуковими системами є:
Yandex(Яндекс) – найпопулярніша у країнах СНД. Варто відзначити, що частка даної пошукової системи в РФ становить понад 60%. Вона має велику базу даних.
Goolge (Гугл) - на відміну від яндекса, популярна у всьому світі.
Пропоную розглянути їх докладніше. Знаходьте зручніше, починаємо.
Принцип роботи пошукової системи Yandex
Для початку, яндекс проводить збирання всієї можливої ​​інформації, до якої він може дістатися. Потім за допомогою спеціального обладнання контент проходить перевірку. Важливою особливістю є те, що збором інформації займається спеціалізована пошукова машина, а процес, за допомогою якого відбувається підготовка даних, називається індексуванням.
Пошукова машина складається з пошукового робота (ось навіщо потрібен файлик robots.txt). Він періодично відвідує індексовані сайти, перевіряє їх контент (оновився чи ні) та проводить сканування Інтернету на наявність незначних сторінок (порожніх чи віддалених), якщо потрібно – видаляє їх.

Як робот знаходить нову інформацію

  • Є три відомі способи: За допомогою посилань з інших джерел. Завдяки спеціальному сервісу «Аддурілке» — додати нову адресу. У ньому можна додати нову адресу вашого сайту і через деякий час його відвідає пошуковий робот. Використовуючи програмний пакет – ЯндексБар. Їм відстежується активність користувача (які сайти відвідує), який користується пакетом і потім якщо користувач потрапляє на новий ресурс, то за ним слідує і робота

    Процес індексації

За допомогою різних пошукових алгоритмів, робот перевіряє інформацію на відповідність – чи корисна вона для користувача чи ні і потім він її додає до списку або видаляє.
Після визначення корисності інформація додається в спеціальне сховище і розбирається до найдрібніших частин. Сторінка проходить очищення від хтмл-розмітки, потім кристальний текст відправляється на інвентаризацію

Принцип роботи пошукової системи Google

Ця система працює за допомогою трьох базових для неї кроків:
Процес сканування.
Це крок, протягом якого спеціальні пошукові роботи гугла знаходять нові, оновлені сторінки, щоб потім додати їх до пошукової бази.
У розпорядженні Google знаходиться безліч потужних комп'ютерів, призначених для сканування великої кількості сторінок.
Спеціальна програма проводить вибірку – Googlebot, який має свої алгоритми – які та як часто сканувати сторінки та кількість індексованих сторінок.
Сканування починається з URL – адреси кожної сторінки.
Безпосередньо індексація
Що це таке? Це процес, на якому робот Google обробляє кожну сторінку, на яку він заходить, щоб проаналізувати розташування ключових слів на кожній сторінці.
Також, гугл має більш розширений функціонал – обробляє інформацію, яка має такі ключові теги, як title і alt.
Мінутом бота є те, що він не може обробляти сторінки, які мають безліч мультимедійних файлів та динамічні сторінки.
Етап обробки
Це останній процес. Він настає тоді, коли користувач мережі вводить потрібний йому пошуковий запит. Ось він ввів його, тепер пошукова система відразу ж заходить в базу даних (БД) і підбирає найбільш відповідну ключовому запиту інформацію.

Як визначається відповідність

Існує величезна кількість факторів, але головним з них є PR(ранг сторінки, тобто, це показник важливості сторінки і чим він вищий, тим краще).
На жаль, далеко не всі посилання рівні, але корпорація Google продуктивно працює над вирішенням цієї проблеми - знаходить спамові посилання, перевіряє файлик robots.txt, щоб він не був модифікований. Важливо! Найбільш якісними посиланнями є ті, що видані завдяки якісному контенту.
Якщо ви хочете, щоб ваш сайт мав найвищий ступінь важливості, переконайтеся, що робот Google правильно та безперешкодно сканує та індексує ваш сайт. Спеціально розроблені для цього сервіси Google для вебмайстра, здатні запобігти масі популярних помилок у просуванні, а також допоможуть підвищити PR рейтинг вашого сайту.

Як пошукові роботи бачать сайти?

Пошукові системи бачать сайти інакше, ніж ми з вами. Коли ми люди дивимося на сайт, ми бачимо картинки, тексти, відео, різні таблиці та інший красивий контент. Коротше ми бачимо його у кольорі. А якщо ми поглянемо, як пошукові системи бачать контент на власні очі?

Пошукові машини просто люблять текст та ігнорують різні картинки. Картинка буде прочитана, якщо додано атрибут alt, текстовий підпис до неї. Роботи здебільшого бачать тексти у форматі html. Роботи не люблять, коли на сайті багато різних форм і jawa скрипту, такі сторінки ігноруються. Якщо у вас свій сайт приділяйте більше уваги текстовому контенту.

Висновок

Якщо ви хочете, щоб рейтинг вашого сайту став вищим, оптимізуйте контент, внутрішню частину сайту, щоб полегшити роботу робота – він хоч і розумний, але чим краще оптимізована сторінка, тим правильніше індексує пошуковий робот сайт.