Kako (još bolje) dohvatiti članke sa obrisanog weba?

Jel moguće izvući članke, sve ili određene po mogućnosti sa slikama, sa weba koji više ne postoji… ugašen prošle godine… gledao sam na webarchive wayback mašini i njihov search API… ali kao da ne izbacuje popis svih članaka a i fotke ne povuče sa dobivenog URL-a… čekiram još i onaj Warrick na GITHUB samo treba prvo Xcode od 4gb skinut da bi uopće testirao kako i šta radi… zna li neko bolju metodu ili alat za riješit ovaj problem?

Webarchive mi je odmah pao na um, ali koliko odaaavno vidim oni ne rade arhiviranje na dnevnoj bazi, nego nekako sedmično ili mjesečno ili ako se dizajn nije mijenjao dugo vremena, onda i zanemare arhiviranje nekog url-a

Skoro sam skidao par sajtova sa webarchive. Fokus mi je bio tekst a ne slike.

Koristio sam ovo : https://github.com/hartator/wayback-machine-downloader
Naravno na Linuxu.

Prilicno jednostavno se koristi.

wayback_machine_downloader http://example.com

i onda se to skida u folder websites/example.com

Koliko vidim sa ovih sajtova sto sam skidao, nema slika samo tekst. Takodje, kada skines sajt pa pogledas kako izgleda, interlinkovi ne rade.