Da dodam, do pre 2-3 dana sve je funkcionisalo perfektno.To jest, članci su se indeksirali u roku 2 do 3 sata…
Sada jesu objavljeni ali sa imenom početne stranice sajta kao i opisom tesktom članka ispod (naslovom kojeg sam tražio preko gugla) za neke čak ih i nema u google
Evo malopre sam dodao novi članak preko GSC ali kada sam kliknuo na da zahtevam indeksiranje on sad samo ga “vrti” testira url beskonačno
Kod mene je ista stvar , samo sto kod mene na jednom sajtu je nekih 1.000.000 stranica nije indexirano a nekih 300.000 je indexirano I Taj broj se menja ove neindexirane stranice rastu,a indexirane opadaju , a opada I poseta lepo ! Sta ga google tumba vise ne mogu da pohvatam !
Mozes li dati neki suvisli komentar na ovu temu, a ne kratku drsku rečenicu?
Što po tvom mišljenju može utjecati na ovu pojavu koja nam se vise manje svima događa?
Ako pretpostavljaš da nesto krivo radimo, onda bi trebalo da možeš pretpostaviti i u čemu bi mogao biti problem, barem okvirno?
P.S. nije da se ne slažem da potencijalno nešto krivo radimo.
Ne mogu jer ne znam koji nivo znanja imate, koje stranice su u pitanju i kako ste radili sitemap te što ste točno prijavili u GSC, imate li 301 redirekcije sa ostale tri verzije stranice na glavnu itd.
Na početku se na GSC umetne sitemap i ako je neki SEO plugin na stranici on automatski prilaže nove URL-ove.
Novu stranicu indexira za max.24 sata(barem je tako kod mene).
Postoji li na youtube neki video koji bi po tvom mišljenju objasni kako se točno na pravilan način radi sitemap?
Ja npr. mislim da yoast SEO kompanija zna SEO bolje nego ti i ja, te da njihov način automatskog kreiranja sitemapa ne može biti loš (… da ne kažem pogrešan).
Ako je u pitanju wordpress - pluginovi isto mogu pogrijesiti. Imao sam slucaj da za jedan oglasnik rankmath plugin nije uopce uvrstio kategorije oglasa u sitemap i bile su postavljene na noindex.
Mislio sam na to da samo jedna od cetiri verzije stranice moze biti glavna. Naime, imamo wwwhttp, http, wwwhttps i https verzije stranice. Jednu odredimo kao glavnu (po danasnjim standardima wwwhttps ili https) a sa ostalih verzija ide 301 redirekt na glavnu.
Želim vjerovati da Googl mašinerija ne može pratiti exponencijalan rast sadržaja i da su uključili AI u neku vrstu provjere kvalitete.
Neke stranice zadovoljavaju minimalne kriterije i biti će indexirane, neke ne zadovoljavaju i neće.
A neke prije indexirane stranice više ne zadovoljavaju kriterije i deindexirane su.
I još su uključili i canonical…
Nemam drugog objašnjenja.
Ove priče o pogrešnom sitemapsu po meni ne drže vodu. Običan xml fajl za kojeg postoji milijun generatora i kojeg je teško napraviti pogrešno.
EDIT: Pluginovi su zakon! Treba jedan plugin koji će provjeriti da li je sitemap dobar.
takve stvari provjerim ručno nakon što aktiviram Yoast SEO sitemap. Kada utvrdim da mi odgovara kako sam posložio index i nonidenx onda sitemap dodajem u GSC (ako je riječ o novoj stranici, naravno…).
Baš sam sada išao provjeriti ovo. Sve stranice koje sam radio u zadnjih x godina su mi postavljene na https… Kada to postavljam kroz cpanel, on automatski kreira 301 redirekt na glavnu domenu pa je tako svejedno je li netko za moj site upisao example .com, www.example .com ili http://example .com (u sva tri slučaja se otvara isti site).
Zašto bi takve stvari netko uopće radio ručno, ako postoje vrlo jednostavna automatska rješenja?
Nažalost, ja mislim da je ovo najveća istina u ovakvim situacijama. Google jednostavno ne uspjeva sve svoje zadatke obaviti uspješno, produkt toga bude da ti deindeksira prave-zdrave stranice.