Clasamentul motoarelor de căutare este un joc câștigător. Primele trei rezultate au rate de click-uri de 30% – 10%; până la poziția nouă, aceasta a scăzut la doar 2%. Dacă site-ul dvs. web nu apare în prima pagină pentru termenii de căutare relevanți, acesta nu își atinge potențialul maxim. Acolo intervine optimizarea motorului de căutare (SEO).

Ce este optimizarea motorului de căutare (SEO)?

SEO este termenul general care acoperă tot ceea ce fac firmele pentru a obține trafic organic de la motoarele de căutare la site-urile lor web. SEO implică aspecte tehnice, cum ar fi arhitectura site-ului, precum și elemente mai imaginative, cum ar fi crearea de articole seo și experiența utilizatorului.  Sună relativ simplu, dar SEO este o țintă în mișcare, chiar și pentru specialiștii în marketing digital. Mitul abundă, algoritmii se schimbă și tactica SEO care a funcționat odată vă poate aduce brusc o penalizare. Pentru a menține un site optimizat, aveți nevoie de cunoștințe profunde despre modul în care motoarele de căutare „gândesc”, precum și despre modul în care oamenii reali gândesc și reacționează cu conținutul dvs. web. Acest amestec de utilizare, arhitectura site-ului și crearea de conținut face ca optimizarea motorului de căutare să se simtă ca un hibrid.

Cum funcționează motoarele de căutare

Numai Google gestionează peste 3,5 miliarde de căutări pe zi. Motorul de căutare parcurge site-urile web estimate la 1,9B, oferind rezultate relevante în mai puțin de 0,5 secunde. Deci, ce se întâmplă în culise? Pentru a returna rezultate relevante, un motor de căutare trebuie să facă trei lucruri: 

·       Creați o listă sau un index al paginilor de pe web

·       Accesați această listă instantaneu

·       Decideți ce pagini sunt relevante pentru fiecare căutare

În lumea SEO, acest proces este descris în mod normal ca accesarea cu crawlere și indexare.

Crawling și indexare

Web-ul este alcătuit dintr-o masă în continuă expansiune de pagini conectate prin legături. Motoarele de căutare trebuie să găsească aceste pagini, să înțeleagă ce conține și să le stocheze într-o masa masivă de date cunoscută sub numele de index. Pentru a face acest lucru, ei folosesc roboți – cunoscuți sub numele de păianjeni sau crawlerele – pentru a scana pe web pentru a găsi domeniile găzduite. Crawlerele salvează o listă a tuturor serverelor pe care le găsesc și a site-urilor web găzduite pe ele. Apoi vizitează în mod sistematic fiecare site web și le „accesează cu crawlere” pentru informații, înregistrând tipuri de conținut (text, video, JavaScript etc.) și numărul de pagini. 

În cele din urmă, utilizează etichete de cod, cum ar fi HREF și SRC, pentru a detecta link-uri către alte pagini, pe care apoi le adaugă la lista de site-uri de accesat cu crawlere. Acest lucru permite ‘’păianjenilor’’ să realizeze o rețea din ce în ce mai mare de pagini indexate, sărind de la pagină la pagină și adăugându-le la index. Motoarele de căutare stochează aceste informații în imense baze de date fizice, din care își extrag date ori de câte ori cineva efectuează o căutare. Google are centre de date răspândite în întreaga lume. Motoarele de căutare accesează cu crawlere și indexează continuu, urmărind paginile nou adăugate, paginile șterse, linkurile noi și conținutul proaspăt.