Пошукові алгоритми – це складні математичні моделі, які шляхом обліку і оцінки низки чинників привласнюють сторінкам веб-сайтів певний рейтинг. Від нього залежить їхнє становище в результатах пошуку.
Алгоритми пошукових систем дозволяють формувати найбільш релевантні пошуковим запитам видачі.
Вони постійно удосконалюються і змінюються більш ефективними. Зазвичай нові алгоритми є відповідною реакцією пошукових систем на появу раніше невідомих нелегальних способів просування веб-сайтів, з якими вони завжди намагаються боротися.
Також до алгоритмів пошукових систем відносяться фільтри, які не просто впливають на ранжування сайтів, а цілеспрямовано шукають невідповідність певним умовам (неунікальний контент, заспамленність ключовими словами, покупні зовнішні посилання низької якості) і занижують їх позиції або зовсім виключають з індексу.
Найбільше проблем веб-майстрам доставляють Panda і Penguin від Google, а також Мінусинськ і АГС від Яндекса.