Dali robots.txt može zaustaviti google da prepozna kopirani sadržaj

Dakle,
Na stranici koju izrađujem trebam ubaciti FAQ, T&C, … i to na više jezika. Kako trenutno klijent nema vremena za napisati sav taj text kopirao bih ga s druge lokacije. Zanima me, ako sav taj sadržaj ubacim u mapu “legal”, a u robots.txt označim “Disallow: /legal/”, dali će to sprječiti google crawl, odnosno dali ću imati problema zbog kopiranja ? Znam da bih trebalo napisati orginalni sadržaj, ali to trenutno nemogu dobiti.

Koristi barem neke programe za spinovanje teksta ja misli da nece biti problema sto se googla i duplog sadrzaja tici ali ja ti rade preporucujem da stavis no follow i no index taj faq t&c i to :slight_smile:

Postoji blackhat seo koji u stvari robotu pokazuje neku random glupost, naravno original dok posjetitelji vide kopirane tekstove :slight_smile: .

Kaže google:

“Black hat SEO is more frequently used by those who are looking for a quick financial return on their Web site, rather than a long-term investment on their Web site. Black hat SEO can possibly result in your Web site being banned from a search engine, however since the focus is usually on quick high return business models, most experts who use Black Hat SEO tactics consider being banned from search engines a somewhat irrelevant risk.”

Ipak je ovo projekt na duge staze.

Vec mi je kaznilo jednu stranicu u proslosti, tako da mi nije do rizika. Jeli ko ima iskustva sa robots.txt ?

Naravno da to google ne odobrava, otud i ime blackhat seo, ti bi na duže staze a da varaš robota, sve je to blackhat ;).