Zuerst zur Erklärung: Die Galerie und wiki werden mit php erzeugt. d.h. Aus der URL wird erst nach dem Aufrufen die Webseite die dann zu dir (oder wget) ausgeliefert wird erzeugt. So kann z.B. nur der eigentliche Inhalt abgespiechert werden und die navigationsleiste jedes mal am Ende angefügt werden.
Man kann die gleich Webseite ohne größeren Speicerverbrauch auch an 3 verschiedenen Stellen ausgeben und jedes mal einen anderen Albumtitel drüber schreiben.
(Das geht zwar auch über Links (Frames und eingebundene Bilder) aber zumindest ersteres ist mittlerweile verpöhnt.
wget kann natürlich nicht wissen, das die Webseite im Prinzip gleich ist nur das oberteil ausgetasucht wurde und speichert die Webseite erneut volltändig ab. Das führt zu einem größeren Speicherverbrauch.
Das ganz kann aber noch schlimmer kommen: Hier ein einfaches Beispiel:
Man will eien Zähler implementieren: Das ganze ist ganz einfach man hängt an die URL einfach einen Prameter mit der nr. an, bei der man ist und setzt unten einen link auf die nächste zahl hin PHP nimmt die Zal im Link und zählt eins dazu und steckt an den Platz an dem die Zahl sitzt die neue zahl hin. Das PHP Programm brucht nur addieren können. wget dagegen wird die Webseiten von 1 bis unendlich (bzw. so weit wie PHP zählen kann und das ist sehr weit) abspeichern bis ihm der Speicherplatz ausgeht.
Außerdem kann der Server mit Nutzereingaben (z.B. in der Sufu.) umgehen. (Man sagt ihm infach wenn search=bla) ist gib alles Seiten mit bla aus. Weget kann solche eingaben weder raten noch sich selbst überlegen, was da wohl sinnvollerweise angezeigt wird die Suchfunktion bleibt funktionslos.
Aus diesen gründen verbitet man im Normalfall Programmen wie wget den Zugriff auf solche Seiten was du ignoriet hast (-erobots=off).
Bei der Galerie konnte ich zumindest keine loops fiden trotzdem explodiert der Speicherbedarf.
Ich würde dir empfehlen so einen Befehl loszulassen:
wget -r -l 5 -p -np -k -c
http://www.mandrivauser.de/copper/ 2> /dev/null
Änderungen:
Kein timestamping: Wahrscheinlich wird der Server immer zurück geben, dass die Seite sich geändert hat. (Was wenn er einne Uhr oder so einbindet sogar stimmt.) Es ist also sinvoll die gleich Seite nicht nochmal herunterzuladen wenn sie sich geändert hat.
-l 5: Wenn eine Seite über 5 Klicks von der Hauptseite entfernt ist gehe ich davon aus das ich doch irgendwie im Kreis laufe lieber funktioniert mal ein Link nicht als dass wget nie fertig wird. (Wahrscheinlich ist 4 oder 3 schon ausreichend.)
Außerdem kannst du gewisse Sachen mit -R ggf. *login* oder so ausschließen, weil die Loginseiten, (die von jedem Bild aus über eine andere URL erreichbar sind. (Der Pfad wie man hingekommen ist sieht jedes mal anders aus.)) für eine Offline version sinnlos sind. Auch Files, die lastup lascom topratded... enthalten kann man ggf. wglassen. Da erscheint jedes Album nochmal erneut...