Dakle, imam sajt sa velikom količinom podataka koje je moguće kopirati na hard disk koristenjem namjenskih programa za offline surfing.
Također, moguce je napraviti skritptu - php bot, koji pomocu file_get_contents ili curl-a, kopira te podatke sa stranica sajta masovno i sprema ih na hard disk.
Probao sam praviti provjere $_SERVER varijbali, cookija i sl. ali preko curl-a je moguce modifikovati bilo sta (http zaglavlja, cookie, itd…).
Ako stavim da se ti podaci ucitavaju preko ajaxa, onda nista od SEO…
Koja je vrsta zastite najbolja u ovoj situaciji i da li se uopste moguce zastititi od tih botova? - Šta bi mi vi preporučili?
Hvala unaprijed!