Kako skinuti cjeli web site na kompjuter?

Pozdrav

Zanima me kako skinuti cjeli site na kompjuter, pa nekada kasnije da mogu surfati offline i pregledati taj site.
Konkretno zanima me http://www.w3schools.com/ , postoji li mogućnost da se prvo vidi koliko je čitav site “težak” , pa da se onda skine?

Našao sam jedan program http://www.httrack.com/ , i stavio sam da mi se skida gore navedeni site, ali skida ga dosta dugo više od 20 min, i neznam koliko dugo će ga još skidati. Može li neka preporuka ako postoji možda bolji program od navedenog.

Također me zanima pošto sam totalni laik što se tiče web dizajna, koliko otprilike teže web siteovi, konkretno ovaj ULKBIH?

Hvala

wget \ --recursive \ --no-clobber \ --page-requisites \ --html-extension \ --convert-links \ --restrict-file-names=windows \ --domains website.org \ --no-parent \ www.website.org/tutorials/html/

hvala ti, ali ako može mala pomoć neznam šta da radim sa tim gore :S

#!/bin/bash wget \ --recursive \ --no-clobber \ --page-requisites \ --html-extension \ --convert-links \ --restrict-file-names=windows \ --domains $2 \ --no-parent \ $1
ovo, kao root, snimi u /usr/local/bin/skini_mi_ga

kasnije kao obican user u konzoli kucaj

Drugi parametar ogranicava skidanje linkova izvan domene forum.linux.org.ba

Odlicna nomenklatura kolega :smiley:

Izvoli
http://www.httrack.com/
ja instaliram onaj windowsov preko wine, program prvi put padne, ali poslije drugog pokretanja radi besprijekorno.
Vazno je pod opcije izabrati limit, ja stavljam 800000 i dali zelis da skida slikice tj image, koje exstenzije itd. Onaj koji radi preko konquerora izgleda mi nekako limitiran i nestabilan, to je bilo prije godinu i po dvije sada ne znam kako radi, mozes pokusati.
A ovo gore da mi ga skine budem isprobao.

wget radi savršeno za ovakve stvari. Čak možete biti fini ako mirrorujete spor site ako dodate opciju --limit-rate=20k ili slično.