Алгоритъмът на търсещите машини за редуциране на линковете е един от най-ефективните методи за оценка и класиране на качеството и авторитете на входящите връзки към сайтовете. С негова помощ те успяват да филтрират спам линковете и не ги взимат предвид при изчисляване на авторитета на страниците и домейните.
Важно е да разбираме как работят алгоритмите на търсачките и каква е тяхната цел, за да сме наясно какво е възможно да се случи при определени наши действия. Въпреки че няма стопроцентово доказателство, че търсачките използват алгоритъм за редуциране на линкове, налице е сериозна вероятност това да е факт.
Проучвания около алгоритъма за редуциране на линкове
С цел подобряване на алгоритмите за класиране са проведени редица наблюдения в тази насока, от които са получени доста интересни резултати. По време на изследванията са провеждани експерименти с премахване на определени видове линкове от цялото портфолио на сайта, за да се установи как по този начин се повлиява върху алгоритъма на търсачките. Основният извод в началото е бил, че алгоритмите се нуждаят от модифициране, така че да идентифицират нискокачествените връзки и да им придават по-малко тежест за сметка на по-авторитетните.
При експериментите първите премахнати връзки от портфолиото са рекламните и навигационните. Те са сметнати за нискоавторитетни и неподходящи за цялостната оценка на сайтовете.
След тяхното елиминиране се експериментира с нещо като алгоритъм за редуциране на линковете, който работи с карта на препратките и ги оценява като “подходящи“ и „неподходящи“.
Подходящите са тези, чиито източници са места, които са с достатъчно подобна тематика на сайта, а неподходящите са линковете, поставени в сайтове с прекалено различна тематика. Оттук нататък търсачката може да продължи със своята оценка на сайта, който вече е с редуцирано портфолио от линкове.
Гугъл и алгоритъмът за редуциране на линкове
В един от своите патенти световният гигант Гугъл описва алгоритъм, който следва такъв подход. Той е способен да класира линковете според това колко са близки с група от сайтове, които са най-авторитетните за определена тематика. Колкото по-отдалечен от тях е един сайт, толкова по-голяма е вероятността да е нискокачествен.
Този алгоритъм редуцира линковете според „разстоянието“, което ги дели от авторитетните сайтове в определена ниша и оставя само най-близките до тях. Чак след това и само според авторитета на връзките, останали след редуцирането, се изчислява ранг на сайта.
Използва ли наистина Гугъл такъв алгоритъм?
Гугъл по принцип не коментира всички свои изследвания и патенти и няма официално потвърждение, че такъв алгоритъм за редуциране на линкове е фактор при класирането на сайтовете. Вярно е, че всички проучвания и логически връзки сочат, че търсачките действително са внедрили някакъв вид алгоритъм за редуциране на линкове, но без официално потвърждение можем само да гадаем.
Как тогава алгоритмите за редуциране на линкове влияят на SEO?
Добре е всеки да помисли как работят тези алгоритми и каква е тяхната логика. По този начин ще успеете да измислите нови по-ефективни техники, а също и ще разберете защо някои успешни досега вече не работят. Основният извод, който можем да направим, е, че редуцирането на линковете е нещо напълно възможно и приложимо към момента, затова е хубаво всеки да го има предвид.