fbpx

Google nu mai sustine regulile noindex din robots.txt

De la 1 septembrie 2019, Google a oprit oficial suportul pentru regulile noindex din robots.txt. Inainte de a explica mai bine ce inseamna acest lucru, trebuie sa mentionam rolul acestor reguli. 

 

Pentru multi ani, au reprezentat ,,asul din maneca” webmasterilor care doreau sa directioneze indexarea continutului online. Cu ajutorul anumitor directive scrise in fisierul robots.txt (noindex, nofollow si crawl-delay) se puteau aplica strategii de optimizare SEO off-page. Pe scurt, se controla indexarea online prin transmiterea catre algoritmul de cautare a paginilor si link-urilor ce nu trebuie luate in considerare. 

 

Google a luat decizia de a opri suportul pentru aceste reguli, in scopul de a mentine un ,,ecosistem sanatos” si pentru a pregati terenul pentru viitoare modificari benefice webmasterilor care respecta regulile Google. Ce-i drept, Google nu a fost niciodata oficial de partea acestor reguli, insa s-a tinut cont de ele in momentul indexarii. 

Alternative pentru regulile noindex din robots.txt

 

Daca pana acum ai folosit regulile noindex pentru o mai buna indexare, nu trebuie sa iti faci probleme. Din fericire, exista cateva optiuni sustinute de catre Google. Acestea ar fi trebuit sa fie oricum o alegere fireasca si care iti va aduce rezultate mult mai bune pe termen lung. 

 

  1. Noindex in meta taguri pentru Google Robots: aceasta solutie este utilizabila atat cand vine vorba despre HTTP headers, dar si in HTML. Este cea mai simpla si eficienta metoda de a inlatura link-uri din indexare.

  2. Utilizeaza codurile HTTP 404 si 410: acestea transmit algortimului faptul ca pagina nu exista si prin urmare nu trebuie indexata.

  3. Seteaza o protectie cu parola: o alta metoda de succes este protejarea unui continut cu ajutorul unui sistem de tip login. Astfel, Google nu are cum sa indexe pagina pentru care se utilizeaza aceasta metoda.

  4. Disallow în robots.txt: paginile cu atributul disallow nu pot fi indexate, cu toate ca o parte a continutului poate fi vazut cand este conectat prin link-uri de alte pagini ale site-ului.

  5. Search Console: una dintre cele mai la indemana si simple metode pentru a scoate un link din indexarea Google este utilizarea tool-urilor oferite de Search Console. Aici, poti folosi serviciul de blocare temporara a unei adrese URL din indexarea Google. 

Aceasta este doar una dintre schimbarile pe care le-a implementat Google, schimbari ce au rolul de a descuraja utilizarea unor practici nedocumentate si nesustinute oficial de catre companie. Utilizarea unor astfel de practici poate fi inselatoare, pentru ca ii confera webmasterului siguranta ca va avea rezultate garantate. In realitate, un singur atribut gresit poate influenta negativ intreaga munca a unui webmaster si indexarea corecta a site-ului. 

Daca iti doresti cele mai bune rezultate de la site-ul tau, cel mai bine ar fi sa apelezi la specialisti in domeniu, care vor incepe cu o analiza amanuntita. Este vizata analizarea in detaliu a sitemap-ului, cel care cuprinde celebrul fisier robots.txt. Link-urile considerate ,,stricate” pot afecta negativ indexarea si pot atrage chiar penalizari din partea Google. 

Asadar, daca inca utilizezi regulile noindex din robots.txt, rezolva aceasta problema cat mai curand. In cazul in care nu stii cum poti avea cele mai bune rezultate, apeleaza cu incredere la Doctor SEO!

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Open chat
Salut🖐
Ne poti scrie si pe Whatsapp!