AllInfo

Hur man kopierar en hel webbplats till din dator med wget

Snabblänkar

Nyckelalternativ

Att ladda ner en hel webbplats är användbart om du vill ha en egen kopia av texten, bilderna och annat innehåll på den, ifall författaren tar bort den eller webbplatsen stängs av. Webbläsare inkluderar dock inte den här funktionen direkt. Så här laddar du ner en hel webbplats med hjälp av verktyget wget.

Innan du börjar

Innan du börjar, se till att du har tillräckligt med diskutrymme för att spara webbplatsen du vill ladda ner. Vissa webbplatser har många sidor och mycket innehåll som kan läggas ihop snabbt, så kom ihåg vad du kommer att ladda ner, så att du inte får slut på lagringsutrymme. Om du använder en bärbar dator, se till att du är ansluten till ett eluttag, eftersom nedladdning av potentiellt tusentals filer kan ta ett tag.

Om du använder Windows måste du installera Windows Subsystem for Linux (WSL) för att få åtkomst till wget.

Förstå också att många moderna webbplatser genereras dynamiskt, vilket innebär att de bearbetar data på sina servrar för att generera sidor som ändras när nytt innehåll läggs till eller när du uppdaterar sidan. När du laddar ner en webbplats eller sida skapas en ögonblicksbild av den i det ögonblicket, så du måste ladda ner webbplatsen igen om du vill ha en uppdaterad kopia.

Hur man kopierar en hel webbplats lokalt med Wget

Wget är ett kommandoradsverktyg för att ladda ner data från webben. Det är installerat som standard på Ubuntu (detta betyder också WSL) och Fedora. Om du använder en Arch-baserad distribution måste du installera den. Om du använder macOS är wget tillgängligt via MacPorts.

Om du använder Linux eller MacOS måste du öppna ett terminalfönster. Om du använder Windows med WSL, starta vilken Linux-distro du vill använda.

Du kan bekräfta att wget är installerat genom att köra:

wget –help

Om wget är tillgängligt på ditt system kommer kommandot att returnera information om wget kommando.

Nu är du redo att börja ladda ner. Detta är kommandot för att ladda ner en hel webbplats:

wget -mpEk https://example.com

Det här kommandot kommer att försöka fånga allt det kan från webbplatsen på https://example.com, skanna alla länkar på första sidan, ladda ner de länkade sidor och allt på dem, och fortsätt sedan genom sidorna som är länkade från dessa sidor.

Här är vad var och en av kommandoflaggorna (bokstäverna efter bindestrecket i wget-kommandot ovan) betyder:

Du vet att webbplatsen laddas ned när du ser utdata som liknar följande:

< strong class="an-zone-tag-bottom ad-zone-advertising-sub-tag"> $ wget -mpEk https://example.com
–2024-04-05 10: 00:00– https://example.com/
Löser example.com (example.com)… 93.184.216.34
Ansluter till exempel.com (example.com)|93.184.216.34| :443… ansluten.
HTTP-begäran har skickats, väntar på svar… 200 OK
Längd: ospecificerad [text/html]
Spara till: &lsquo;example.com/index.html&rsquo;
example.com/index.html [ <=> ] 1,07K –.-KB/s på 0s
2024-04-05 10:00:01 (68,7 MB/s) – &lsquo;example.com/index.html&rsquo; sparad [1096]

Observera att även om detta är en rekursiv nedladdning, kommer endast länkar från den angivna webbplatsen att laddas ner. Sidor på andra webbplatser kommer att förbli online och kräver en internetanslutning för att kunna se dem.

Du kan se en komplett lista över alla wget kommandoflaggor och vad de gör i wget användarmanualen.

Kom ihåg att det här kan ta ett tag och det finns inget riktigt sätt att uppskatta hur lång tid det tar att ladda ner stora webbplatser, så det är värt att kontrollera framstegen ibland för att se till att saker och ting är fortskrider fortfarande.

Vad sägs om att ladda ner bara en sida?

Om du vill ladda ner en enda webbsida kan din webbläsare göra det på en mycket enklare process: gå bara till Arkiv-menyn och klicka sedan på "Spara" knappen (formuleringen kan vara lite annorlunda för din webbläsare, i Firefox är det "Spara sida som…").

Om du vill använda wget för att ladda ner en enskild sida, kör följande kommando:

wget -pk https://example.com

Detta utelämnar alternativen som talar om för wget att ladda ner sidor rekursivt och justera tillägg och länkar.

Ladda ner webbplatser för offlineåtkomst h2>

Att ladda ner en hel webbplats är användbart i många situationer, inklusive:

Hur kommer du åt sidan du laddade ner?

En webbplats som du laddar ner med wget kommer att sparas som en HTML-fil på din PC. Om du använde WSL måste du komma åt dina WSL-filer via File Explorer.

I vårt exempel fanns filen på "\wsl.localhostUbuntu-22.04homeexempel" eftersom vi använde Ubuntu 22.04 och vårt Linux-användarnamn är "exempel" Wget kommer att spara mapparna till vilken katalog du har aktiv i terminalen när du kör kommandot, om du inte anger en annan sökväg manuellt.

HTML-filer kan öppnas av vilken webbläsare som helst, även om det finns andra program som också kan göra det, om du föredrar något av dessa.

Andra verktyg för att ladda ner webbinnehåll för offlineanvändning

Även om wget är ett av de vanligaste sätten att ladda ner webbinnehåll, finns det andra som du kan använda om du har andra krav eller inte vill hantera kommandoraden.

< /strong>

Oavsett varför du vill kopiera en hel webbplats till din egen dator, nu vet du hur! Om du planerar att läsa offline är en anständig e-läsare ett absolut måste.

Exit mobile version