HTG förklarar: varför Linux inte behöver defragmentering

Om du är en Linux-användare, har du antagligen hört att du inte behöver defragmentera Linux filsystem. Du kommer också att märka att Linux-distributioner inte komma med disk defragmentering verktyg. Men varför är det?

För att förstå varför Linux filsystem inte behöver defragmentering vid normal användning – och Windows som gör – du måste förstå varför fragmentering inträffar och hur Linux och Windows filsystem fungerar annorlunda från varandra.

Många Windows-användare, även oerfarna, tror att regelbundet defragmentera sina filsystem kommer att påskynda sin dator. Vad många inte vet är varför detta är.

Kort sagt, har en hårddisk ett antal sektorer på det, vilka var och en kan innehålla en liten bit av data. Filer, särskilt stora sådana, måste lagras i ett antal olika branscher. Låt oss säga att du sparar ett antal olika filer till filsystemet. Var och en av dessa filer kommer att lagras i en sammanhängande kluster av sektorer. Senare, uppdaterar du en av de filer du ursprungligen sparade, ökar filens storlek. Filsystemet kommer att försöka lagra nya delar av filen intill originaldelarna. Tyvärr, om det inte finns tillräckligt oavbruten rum, filen måste delas upp i flera delar – allt detta händer öppet för dig. När hårddisken läser filen, måste dess huvuden hoppa runt mellan olika fysiska platser på hårddisken att läsa varje bit av sektorer – detta saktar ner saker.

Defragmentering är en intensiv process som flyttar bitar av filer runt för att minska fragmenteringen, se varje fil är sammanhängande på enheten.

Naturligtvis är detta annorlunda för Solid State Drives, som inte har rörliga delar och bör inte defragmenteras – defragmentering en SSD kommer faktiskt minska dess livslängd. Och på de senaste versionerna av Windows, du egentligen inte behöver oroa sig för att defragmentera dina filsystem – Windows gör detta automatiskt för dig. För mer information om de bästa metoderna för att defragmentera, läs den här artikeln

HTG förklarar: Behöver du verkligen att defragmentera din dator?

Microsofts gamla filsystemet FAT – sågs senast som standard på Windows 98 och ME, även om det fortfarande är i bruk på USB-minnen idag – inte försöka ordna filer på ett intelligent sätt. När du sparar en fil till en FAT-filsystem, det sparar så nära början av disken som möjligt. När du sparar en andra fil, sparar det direkt efter den första filen – och så vidare. När de ursprungliga filerna växer i storlek, kommer de alltid att bli fragmenterad. Det finns ingen närliggande rum för dem att växa till.

Microsofts nyare NTFS-filsystemet, som gjorde sin väg till konsumentdatorer med Windows XP och 2000, försöker vara lite smartare. Den allokerar mer “buffert” fritt utrymme runt filer på enheten, även om, som alla Windows-användare kan berätta, NTFS filsystem fortfarande bli fragmenterad med tiden.

På grund av det sätt på vilket dessa filsystem fungerar, måste de defragmenteras att bo på topprestanda. Microsoft har lindras detta problem genom att köra defragmenteringsprocessen i bakgrunden på de senaste versionerna av Windows.

Linux ext2, ext3 och ext4 filsystem – ext4 är filsystemet som används av Ubuntu och de flesta andra nuvarande Linux-distributioner – allokerar filer på ett mer intelligent sätt. Istället för att placera flera filer nära varandra på hårddisken, Linux filsystem sprider olika filer över hela skivan, vilket ger en stor mängd ledigt utrymme mellan dem. När en fil redigeras och behöver växa, det finns oftast gott om ledigt utrymme för filen att växa till. Om fragmentering inträffar, kommer filsystemet försöka flytta filerna runt för att minska fragmenteringen vid normal användning, utan behov av en defragmentering nytta.

På grund av hur denna metod fungerar, kommer du att se splittringen om filsystemet fylls. Om det är 95% (eller till och med 80%) full, kommer du att börja se några fragmentering. Emellertid är filsystemet som syftar till att undvika fragmentering vid normal användning.

Om du har problem med fragmentering på Linux, behöver du förmodligen en större hårddisk. Om du verkligen vill defragmentera ett filsystem, är det enklaste sättet förmodligen den mest tillförlitliga: Kopiera alla filer från partitionen, radera filer från partitionen, sedan kopiera filerna tillbaka till partitionen. Filsystemet kommer intelligent fördela filer som du kopierar dem tillbaka till disken.

Du kan mäta fragmentering av ett Linux-filsystem med kommandot fsck – leta efter “icke-sammanhängande inoder” i produktionen.

Tack! Det verkar vettigt.

Nu vet jag varför vissa Linux distributioner ibland vill skapa olika partitioner – och ibland även använda olika filsystem. Det verkar som en av anledningarna skulle vara för frekvent jämfört med icke-besökta filer. (Jag vill minnas någon säger detta eller läsa det någonstans men jag glömde det tills jag läste artikeln.) Så, till exempel, en användares / home filer som kan nås mycket ofta och därmed förändra i storlek ganska ofta förmodligen bör vara hålls på en separat partition än de mer “statiska” filer som inte ändras eller sannolikt inte kommer att förändras nästan lika ofta.

Eftersom ingen använder den!: D

Linux är ledare från fickdatorer -Android framtida Tizen – och med IOS nix på fickan är mer än 90% av marknadsandelarna.

Telefoner + tabletter

På servrar Linux har också mer än 90%, använder även MS det.

Vid stationära Ubuntu växer en hel del och är förinstallerat NU på vissa modeller är espected att växa till 5% av marknaden, och Chrome OS annan Linux förinstallerat växer också, anländer snart till 64 bitars datorer.

Även en del företag som FON eller flera offentliga förvaltningar migrerar till Linux, vilket sparar en massa pengar, i Spanien nästan hela utbildningssystemet använder Linux och nästan 25% av den offentliga förvaltningen och växande.

Det är inte ingen.

“Istället för att placera flera filer nära varandra på hårddisken, Linux filsystem sprider olika filer över hela skivan, vilket ger en stor mängd ledigt utrymme mellan dem.”

Kommer inte att orsaka problem när krympande partitioner ???

@mitcoes: Mata inte trollet!

…. Även du glömt superdatorer: http://en.wikipedia.org/wiki/File:Operating_systems_used_on_top_500_supercomputers.svg

En sådan enkel tanke, men det gjorde aldrig slå mig, även efter att ha använt Ubuntu Linux sedan version 5. Trevlig fynd 🙂

Dessutom visste aldrig jag att alltför mycket av läser / skriver är dåligt för SSD …

Den deragmentation systemet Windows fungerar bara om du lämnar datorn på över natten på natten defrag är planerad. Om du har för vana att vrida av datorn på natten (som jag), kommer det inte att automatiskt defragged. Så i detta fall är det en god idé att defragmentera den manuellt då och då (eller komma ihåg att lämna datorn på natten det planerat att defragmentera).

Microsoft använder inte Linux för det system. De använder Microsoft Server. Linux senaste jag läste var 53%, Microsoft var 46% och den andra delades mellan andra leasegivare system. Med tanke på det faktum att Microsoft måste betalas för och Linux är gratis, du måste undra varför Microsoft håller klättring. Användarvänlighet, stöd av tillverkaren och antalet yrkesverksamma som stöder den. Vid ett tillfälle var Linux på peek 83%. Det kommer aldrig att försvinna och det kommer aldrig att ta över. Det är bara en alternativ för användare.

Wow … Aldrig ens uppstod för mig att leta efter en sådan sak på Linux. Antagligen för att jag aldrig haft det sakta ner som Windows.

SSD är rätt väg att gå, hela vägen (kostnad tillåter). Snabb, sval, tyst, ingen fragmentering avmattning!

@Sigman, Microsoft, naturligtvis, inte bara använda Linux för sina system, men ja, de har använt en del Linux för vissa uppgifter.

Tack för den praktiska förklaring, har jag undrat om detta.

Jag använder inte UNIX / Linux dessa dagar (har inte mer än ett decennium, fick ingenting alls emot dem men), eftersom så gott som alla mina klienter är Windows-användare.

Första punkten, du säger: “Om fragmentering inträffar, kommer filsystemet försöka flytta filerna runt för att minska fragmenteringen vid normal användning, utan att det behövs en defragmentering verktyg” som säkert är ett annat sätt att säga att i själva verket finns det en defragmentering verktyget inbyggd i djupet av Linux OS som du inte behöver bekymra sig [och som ni har ingen kontroll?].

För det andra, jag tror att det är lite över casual till råd: “Kopiera alla filer från partitionen, radera partitionen, sedan kopiera filerna tillbaka till partition” när dessa dagar många användare har ett TB eller 2 TB-enheter, även 3 TB, och nog snart större fortfarande. Du har gå för att ta hänsyn till att kopiering partitioner av en sådan storlek kommer att ta en hel del timmar – i varje riktning – en mycket mödosam och fylld drift inte ska underskattas! Detta innebär att defragmentering verktyg i Windows, förutsatt att de är “set and forget” kan vara av ganska värde.

Och en varning, att de flesta Windows defragmentering verktyg vid denna tid don [t verkar för att detektera närvaron av SSD-enheter och skulle utföra traditionella flytta runt filer på SSD och därmed öka deras slitage. Var noga med att kontrollera att det verktyg som du använder är inte en sådan gärningsmannen.

Notera den operativa skäl Linux behöver inte defragging: intelligent. Win 7 * fortfarande * behöver defragging. Jag vet: Jag använder båda. Föredrar Ubuntu eftersom det är en mycket mindre underhåll. Och som Citrus regn sa: det är så mycket snabbare.

Båda lägren … Jag gillar din aldrig detta … Aldrig att … Problemet är inte att välja ett OS på grund av någon religion … Du är som några evangelister … Om du måste köpa en bil och det är skit … Du kommer aldrig att köpa samma bil en andra gång … eller du är en idiot eller du var tvungen att köpa bilen (som det är på vissa pc) … Om du jämför samma functionnality både fönster och (med gott exempel) ubuntu … jag upprepar samma … Då tro mig du kommer inte att gå tillbaka till windows. Ubuntu stövlar i ungefär en minut, avstängningar i också mindre än en minut. Är roligt att använda .. är mycket snabb … är fri … jag var igår på datorn min fru … en Windows Vista … Ha ha ha .. Du kan använda det? 10 minuter för att få en viss stabilitet (jag menar enheten inte blinkar längre) … Windows 7? Samma problem … Jag är en lögnare? Om fönstren är så bra varför i hela friden alla mina vänner, hustru, … ville att jag skulle fixa en deras problem? Ge ett försök till ubuntu … Du kommer inte att komma tillbaka till Windows … Prova det!

När jag växte upp med datorer och diskar, behovet av att flytta läs- och skrivhuvudet var mycket långsammare än att läsa även icke angränsande sektorer som inte krävde någon huvudrörelse. Att sprida information runt en skiva kommer att kräva den långsamma armrörelse (inte för SSD förstås). Jag hör fortfarande diskar klicka, så som fortfarande skulle vara fallet. Kommer någon förklara varför sprida data så att armrörelse behövs är en bra sak? Tack, kanske jag saknas något.

Men Linux är fortfarande i huvudsak defragging som ordnar filerna runt som ut växer det är fritt utrymme. Tro mig, alla system får fragmenterad. Vad händer när disken är nästan full och det finns inte tillräckligt med utrymme för att passa filen.

Med hur Linux gör det, är enheten aldrig contingous, därför gör det värsta än Windows.

Jag defrag huvudsak aldrig Windows och det är alltid snabbare än min Linux-partition. Linux är bara så långsamt! Jag kör Ubuntu 12.04

Titeln på din artikel är ett perfekt exempel på hur även en fråga kan vara falsk. Linux behöver defragmentering. Jag har redan skrivit här att varje dynamisk lokalvård lider defragmentering. Eftersom det inte finns något system som känner till framtiden, vissa filer så småningom kommer att fragmenteras. Linux försöker bara att optimera processen genom spridning filerna längs disken, vilket oundvikligen leder till mer disk huvud rörliga och långsammare bearbetning !!! Du får några förväg på grund av dina filer är sammanhängande, men förlorar en tid på grund av mer diskhuvudrörelse. Så även Linux har ingen silver bullet och låt oss inte låtsas att det har.

Endast ett system skulle vara fri från fragmentering, skulle en 3D-lagring system en kub, men det har en enorm utrymme avfall.

Så den enda verkliga lösningen kommer att bli en billig SSD som kommer att pågå i 8-10 år under 7/24 tung användning. Detta är i en avlägsen framtid ännu.

Och en sista anmärkning: även RAM skulle vara splittrad, men varje OS remaps och flyttar blocken att hålla angränsande vad som behöver vara sammanhängande.

Linux är långsam? Ha ha ha 🙂

@abhijitrucks: Ja, kommer det att orsaka problem. Jag stött på samma problem med Oracle. Om du släpper varje bord men den sista som du har skapat, kan du inte krympa databasen eftersom den sista tabellen är nära slutet. Men om du tappar varje bord men den första, Du kan krympa databasen (det är en mycket förenklad förklaring, är den verkliga situationen mycket mer komplicerad) .; men i Windows Du måste också defragmentera en partition innan krymper det.

Det finns inga mirakel i datavetenskap, är ett dynamiskt system ständigt förändras och om du vill att det ska vara optimalt, bör du ställa in det ibland. Eller du bara helt enkelt erkänna att entropi växer.

Hur som helst, är antivirusprogrammet den mest betydande del av ett system som gör det väldigt långsam och inte diskfragmentering.

@Rudy: Har du någonsin sett en KDE start? Finns det något långsammare än det?

Rudy: eftersom det är lättare att få dig att fixa det än lära sig att göra det. Linux har sina problem också, men användarna är i allmänhet de som vill veta hur man rättar till dem, och göra. Så av någon anledning de tror det betyder att de inte har några problem.

Den sista gången jag använde Ubuntu, jag gillade det väldigt mycket. Jag skulle sannolikt använda det undantag för den vanliga tvingande skäl – de program jag behöver är inte tillgängliga. Det är sannolikt inte att förändras, antingen. Jag är en frilansande skribent, och det helt enkelt ingen ersättning för MS Word när du behöver för att passa in i branschen. Åh, jag kan köra det under vin? Men även om så är fallet, det är inte lätt, det är mycket svårare och mer komplicerat, och jag skulle behöva lära sig att göra det – och jag skulle fortfarande behöva köpa Word. Som installerar med ett par klick på Windows.

Och det finns ingen taligenkänning på Linux, medan det finns ett urval av leverantörer på Windows. Och ingen Evernote. Och ingen Photoshop. Och så vidare.

Ja, för många användare, mestadels geeks och amatörer, it `ett bra val. Men det `s ingen ersättning för att arbeta i den verkliga världen.

Intressant artikel! Hålla dem kommer.

Michel

Detta är en bra argumentation och i det här fallet jag håller fullständigt med dig,. Jag antar att det är därför det finns så många professionella användare som använder en Mac …

Nu har jag verkligen förstår vad defragmentera i Linux och Windows filsystem,. Tack vare ämnen.

Jag har haft massor av OS under årens lopp. Att vara Frank när systemet är färska det hela så fort som varandra. Det är bara när du börjar använda och installera och implementera gör de långsammare. Du som Linux du windows låt oss bara gå vidare med livet, det blir ack så tråkigt denna gruva är snabbare än din. Och innan du säger det, är min större och faster.:p

@stuart

Du antingen avsiktligt underskattar Microsofts användning av Linux, eller du inte är medveten om de 10.000 Linux-servrar som de använder för att köra Skype, eller att varje gång du går till en MS webbplats du faktiskt hämta sidorna via Akamai och Linux.

När de växer tillräckligt stor, Linux flyttar filerna. Med andra ord linux inte defragmentera. Du bara inte behöver trycka på en knapp för att göra det. Endast de som inte vill, inte finna lycka genom att lura sig själva. Men ja, jag fattar poängen. Inte en dålig design idé.

Disk striping är hur en hårddisk fungerar. En SSD använder inga rörliga delar, därför behöver ingen defragmentering. Alla operativsystem använder samma grundkoncept, utom MAC och Linux använder linjär striping. Windows, som är vanligast i datorvärlden har defrag frågor i någon hårddisk. Om du inte kör en server i Windows, bara defragmentera det en gång i månaden och du bör vara OK. IMHO. Många stora företag använder UNIX / Linux för serverfunktioner för enkel användning på Windows-system. Dessutom är Linux ett sätt att få din Windows-system igång igen om det misslyckas. Kolla hirensbootcd.org.

Wow Superb artikel … ..hmm imponerad … hela sönderdelning rensas … .thnks..but nyligen jag HAVD ett problem. Jag har Windows 7 Ultimate Os och jag installerade Win 8 men 2-3 min partition inte fungerar inte kan öppna … i 7 dess fungerar bra … ..any lösningar coz jag vill använda Windows 8 men im fastnat alla bcoz av att ….

@Rudy, “Ge ett försök till ubuntu … Du kommer inte att komma tillbaka till Windows … Prova det!”

Självklart du inte spelar spel.

YB och János har punkten.

1) Linux behöver defragmentering – det gör det i bakgrunden så att du inte vet, 2) Windows gör det i bakgrunden också, eftersom Vista du inte behöver göra det själv..

Om du bara helt enkelt tänka på det: Windows lösning är mycket snabbare eftersom det försöker alltid att lägga filer närmare de snabbaste delarna av hårddisken – medan Linux inte tar hänsyn till detta, och lägger filer runt nästan slumpmässigt. Detta är långsam.

Windows vinner. Igen.

Artikeln är mycket informativ. Jag har sökt efter ext4 defragmenterare utan större framgång. Tack.

@Sigman: Jag tror att jag vet vilka nummer du talar om, Linux / MS-servrar till 53/46%, och det var bara räkna försäljning. Med tanke på att det finns fler Linux distributioner som är gratis och har ingen försäljning att räkna, säger oss ingenting.

@ 3vi1, Om du läser noga, det gjorde jag inte säga några siffror. Jag pekade ut att Microsoft använde Linux, inte underskatta något. Ja, jag är medveten om allt ni påpekade, det är allt uppenbara saker. Men tror du att det enda Microsoft gör drivs Skype och webbhotell;? Gyllene medelväg här. De använder det får jobbet till hands gjort bäst. Om det är deras talet, så var det, om det är öppen källkod, så var det.

Linux metod för spridning innebär att huvudet går till en plats och läser en hel fil – för det mesta. Windows Metoden innebär att varje gång filen växer det kommer att kräva en ny plats, och detta kräver att huvudet att flyttas oftare – mycket långsammare, * file1; – fil2, tomrum, dag 1 Linux))))) ** **))))))))))))))) -, dag 1 fönster **** -))))))))))))))))))))) ; dag 2 Linux)) *******)))))))))))) —, dag 2 Windows **** – *** -)))))))) ))))))); dag 3 Linux)) **********))))) —-, dag 3 fönster **** – *** – *** – )))))))); tada!

@michel; Det finns tiotusentals program för Linux, och det finns ord motsvarigheter aswell,. Men ändå, jag använder Windows istället oftast som det har mina favoritprogram även om jag tror att det är precis vad du är van vid, det finns inget fel med Linux proggies,. @ Szűcs János jag har KDE den startar upp i 18 sekunder, skulle jag inte kalla det långsamma, jämfört med 23 i windows.That s med program loading up.You har uppenbarligen något fel med KDE-installationen.

Michel: vad du säger är helt ogrundad. Ubuntu är helt perfekt för arbetslivet! Alla program som du har namngivna har substitut som är i nivå eller till och med bättre än MS-versioner. Och bäst av allt: de är alla gratis.

Libreoffice är en mycket kapabel substitut för MS Office-paketet. Ja, det har en mycket liten inlärningskurva, men i slutändan den frihet du får med Libreoffice kommer att göra dig att ångra någonsin säger MS Office är bättre 🙂 Outlook är den enda anledningen jag skulle gå tillbaka till MS Office, eftersom Thunderbird bara ISN ‘ t riktigt där ännu.

Evernote fungerar alldeles utmärkt på Ubuntu, men du förmodligen inte ens forskning det? Det finns en app som kallas Nixnote, som är en front-end-app till Evernote, synkroniserar det med min telefon och på nätet Evernote-konto fint.

När det gäller Photoshop: använd Inkscape. Jag kan inte säga att det är ganska lika intelligent som Photoshop, men för SVG manipulation det är mycket enkelt och mycket kraftfull.

Ja, det är sant Linux kräver att du vara helt beredd att lära sig att arbeta med en dator på ett annat sätt, men vad är skillnaden med MacOS? För frilansare som jag själv, små nystartade och lika stora företag, kan Linux vara en perfekt passform på grund av den hastighet, tillförlitlighet och prissättning.

Intressant artikel.

Men inte detta innebära att en nyinstallerad OS skulle Linux vara långsammare (åtminstone inledningsvis)? Om filerna är utspridda över hela disken, inte läs / skrivhuvudet måste gå vidare, oftare, för att ladda en massa filer? Tydligt är strategin att hålla skivan ofragmenterade (antingen automatiskt i Linux fall eller periodiskt i Window fall) en bra sak.

Förresten, bara för att engagera sig i Linux vs Windows argument, varför är det att Windows diskåtkomst är sååå mycket långsammare än i Linux? Jag är en Windows-användare (mer för skälen till kompatibilitet för vissa program jag använder än av val), men för en kort period som jag hade en stor samling av musik som lagrats på en Linux-maskin, fann jag diskåtkomst till vara så mycket snabbare än i Windows – och det var med en lägre specad maskin för Linux-box.

Alex, Michael, för Photoshop använder GIMP! Extremt kraftfull för att vara fri, gör vissa saker bättre än Photoshop. Inkscape är alltför stor, men det är mer inriktad som ett alternativ till Adobe Illustrator (vektorgrafik).

Anonymous ihåg de gamla dagar med att använda flera partitioner eller enheter för olika filsystem.

På den tiden hade vi små (med dagens standard) enheter och enheter av olika hastigheter. För ett system för att springa fort, sätta dig swap och temporära filer på “snabba” enheter, hade rot inte vara snabb eller stor, det var i princip statisk monteringspunkterna. / Etc förändrades inte mycket, men / var (på grund av / var / log etc) hade massor av I / O,. / Home eller / h var oftast stor eftersom det är där de hemkataloger var, men inte har att vara riktigt snabbt.

System som SunOS eller Solaris sätta / tmp i swap, så det var effektivt raderas vid varje omstart, och / var / tmp var där du höll “ihållande arbete” filer.

Eftersom de flesta hobbymaskiner inte har haft massor av enheter (vanligen 1 eller 2 interna) kontroll av massor av enheter har gått bort för de flesta av oss. Dessa dagar vi tenderar att använda san eller LAN / nätverksanslutna enheter för många saker (även moln eller USB), och våra enheter är stora nog det spelar ingen roll.

När jag var en Sun admin, vi backas upp varje monteringspunkt separat eftersom vi var tvungna att återställa en frekvensomriktare varannan månad, och det var lättare att återställa en mindre enhet än en stor.

Hålla databaser säkerhetskopieras var alltid ett problem. Eller stora användardataområdena (5-10 g) innan stora backup-system blev tillgängliga. Men det gjordes.

Idag gör jag backup till hårddiskar över vårt nätverk som finns på andra maskiner. Dessa enheter Jag tenderar att formatera som ext2 inte tre eller fyra, eftersom dessa oftast statiska filsystem (endast säkerhetskopior), skulle jag hellre ha diskutrymme som används för data snarare än snarare än cache skrivbuffertar eller andra omkostnader, särskilt eftersom ext3 & ext4 har ext2 som bas. … Och för data jag verkligen inte vill förlora, jag gör enstaka backup av dessa filer till DVD. Eftersom jag har en långsam nätverksanslutning, jag gör mindre användning av molntjänster än jag skulle göra om jag hade en bra anslutning.

Szűcs János: KDE är inte Linux, har du någonsin sett Linux start och btw, kommer KDE alltid starta snabbare än Win Vista eller 7 på samma hw config?.

Utmärkt artikel. Jag har skrivit om detta och i min blogg, och har även gått på att visa hur fruktansvärt instabil Windows NTFS filsystem kan vara med sin ökända “försvinner filer” problem som har plågat det i år. För mig är en demonstration av hur öppen källkod överstiger programvara stängd källkod. Microsoft håller NTFS hemligheterna bakom stängda dörrar, och ingen kan förbättra det annat än Microsoft som det inte har brytt sig om att göra. Och Windows 7 hemlighet att hålla NTFS defragmenteras? Det är bara en schemalagd aktivitet som kör defragmenteraren oftare, automatiskt för användaren. Med andra ord, bara ett plåster för ineffektiva filsystemet att det är.

khalid

Alla & alla SSD är flash-baserad mikrochips lagring. Defrag någon SSD kommer att förkorta sitt liv,. Regelbundna hårddiskar har biljoner läs skrivcykler innan misslyckas,. Solid State-diskar inte har denna förmåga, eftersom de är flash-baserad minne och har just nu ett par miljoner läsa och skriva cykler innan misslyckas . Sedan defraging någon SSD är dålig, glömma att radera eller skriva över data gör det kommer irreversibelt papperskorgen SSD gör dataåterställning nästan omöjligt.

Ytterligare en bit av information om FAT / NTFS vs EXT fragmentering fråga.

Om jag går att skriva en stor fil i Linux, till exempel kopiera en video från DVD för omkodning kan varje fil från DVD får skrivas till en annan plats, men filerna kommer att tas i platser på HD där de kan passa hela .

I Windows, kommer den första filen får skrivas in i första öppet utrymme på disken, och om filen är för stor för den första öppna utrymme, kommer det att fragmenteras i den andra öppna ytor, och tredje, och så vidare, eftersom det är skrivs den allra första gången.

Så nej, Linux inte “automatiskt köra en defragmentera programmet”. Som filer få flyttade normalt, flyttas de till platser där de passar. Så en fil som aldrig skrivits kommer inte att gå “defragmenteras”. Men dessa filer tenderar att vara ganska förbaskat statisk ändå så det är inte så viktigt.

Det är därför Linux-system inte sakta ner från användning över tiden om disken blir riktigt nära full.

Ja, allt är en kompromiss. Till exempel är en SSD bra för filer som behöver skrivas om hela tiden, för hastighet, men det bär SSD ut snabbare, så det är bättre att använda SSD för filer som inte ofta ändras. En dag jag kan få en SSD, men behålla / home, / var, / usr, / tmp (kanske i minnet), på en snurrande magnet HD. Boot tider skulle vara underbart om / boot, / bin, / lib, / etc, etc., var på en SSD.

@ Michel: Jag har använt Linux professionellt sedan 1993. Och sedan 2004 Jag använder det nästan uteslutande. Jag har också använt DOS, Solaris, MacOS och några andra Unix. har aldrig använt Windows ändå. Men jag antar att jag lever i en virtuell värld?

@YB, János & Kottra

Suger att dina hårddiskar är fulla.

OS X kräver inte heller defrag. Naturligtvis är det en modern OS skillnad Microsofts samling av sphagetti kod.

Linux behöver defragmentering, det bara saknar verktyg för att defragmentera och att uppskatta filsystem fragmentering.

Spridnings tusentals filer över partitionen faktiskt maximerar hårddisk söktider. Detta borde vara självklart. Dessutom är stora filer * garanterad * att vara fragmenterad b / c av spridda filer lämnar inget utrymme tillräckligt stort för att rymma den stora filen i en enda bit.

Det är inte en «mer intelligent sätt» – det är en naiv filplacering strategi som är tillräckligt för de flesta uppgifter Linux har att ta itu med – men inte på något sätt är överlägsen andra filsystem.

@michel som en blivande “publicerade” författare också, jag håller med om att det inte finns någon app för att skriva för Linux, men, MS Word är inte en app för det också. Jag håller återigen att det är mycket bättre än Libreoffice, men det är inte avsedd för allvarliga skrift, eftersom det är Scrivener och så många tillgängliga främst för Mac OS (som i sin tur är * nix OS).

Nu, när jag säger Linux är inget substitut för riktigt arbete, jag håller inte, är det en hel del områden var Linux och andra * nix är mest lämpade än Windows. Ta programmering och näthantering för en chans, de verktyg som finns är mycket mer kraftfull än den Windows har.

@szucs Jag håller med, KDE hade alltid vara en mardröm för mig, Gnome och Unity å andra sidan är ganska bra.

Och om titeln, är min uppfattning att i Windows, måste du defragmentera den själv, medan i Linux OS gör jobbet.

Speciellt tror jag inte använda defrag verktyg för år nu, hårddisken hastighet hade växa en hel del, så inga bekymmer om det är fragmenterad eller spridda. Problemet kom när du är över 90% av din hårddisk, men sedan du behöver en större, eller skära skräp med hälften, inte bara defrag.

@abhijitrucks om krympa, ja, jag hade gjort det väl används partitioner, låt säga över 50% och fick inte otur. Dessutom gjorde jag krympa Windows-partition från Linux sedan.

“Om fragmentering inträffar, kommer filsystemet försöka flytta filerna runt för att minska fragmenteringen vid normal användning, utan behov av en defragmentering nytta.”

Vad anlita har jag om jag är en onormal användare?

Den här artikeln titel är otroligt vilseledande, jag förväntade innehåll om varför Linux gafflar behöver inte vara enhetlig (eventuellt som svar på ett argument för att slå samman, till exempel Android tillbaka till Linux), men fick en artikel om varför filsystem som används med [ många] Linux-operativsystem behöver inte defragmentering.

Underbar förklaring Men det lämnar mig undrar – hur OSX gör det och hur konstigare propietary filsystem, som Autodesks Frame?

@Citrus Rain: Oh well, det var en “mycket, mycket intelligent” kommentar. I stället för att tala något nyttigt Du tar bara personliga anteckningar: –

Och tro det eller ej jag aldrig tillåta minskning av fritt utrymme på varje enhet under 25% !!!

@ksovi: Lägg tid att starta Linux tiden att starta KDE och jämföra detta med tiden för att starta Windows. Följande tävlingar är lika och jämförbara förhållanden!

@Superevil: Ubuntu är fruktansvärt och oanvändbar. Jag har just installerat en Scientific Linux med Gnome2 och Fedora 17 med KDE4, de är mycket mer användbar än Ubuntu. Försök bara…

“OS X kräver inte heller defrag. Naturligtvis är det en modern OS skillnad Microsofts samling av sphagetti kod. ”

Liksom Linux devs, bara Apple inte brytt nog att komma upp med ett. Det finns inget magiskt HFS + som kommer att hindra den från att allvarligt fragmentera när ledigt utrymme börjar torka upp.

http://electronics.howstuffworks.com/how-to-tech/how-to-defrag-hard-drive4.htm

Som “Anonym” påpekar, är det rent _naïve_ att tro att du kan undvika fragmentering genom spridning filer hela hårddisken. Söktid blir längre på grund av läshuvudet behöva flytta fram och tillbaka för att gå från en fil till en annan (som är, jag supect, en av de viktigaste skälen Apple är så ivriga att driva SSD för sin MacBook / Mini linjer), och du sluta med _less_ angränsande, lediga segment på skivan som en följd av spridda filer skära upp i fritt utrymme i små bitar. Naturligtvis, att ha betalat bra dollar för genomsnitt hårdvara, det finns alltid en _emotional_ behöver för att motivera kostnaden, men “HFS + inte behöver defragmentering”, som “MacOS inte får skadlig kod”, är helt enkelt alldeles för absurt för en realistisk anledning.

“Jag har skrivit om detta och i min blogg, och har även gått på att visa hur fruktansvärt instabil Windows NTFS filsystem kan vara med sin ökända” försvinner filer “problem som har plågat det i år. För mig är en demonstration av hur öppen källkod överstiger programvara stängd källkod. ”

Människor skriva allt på sina bloggar. Inte har något mer än bara anekdoter att säkerhetskopiera dina påståenden? Då behöver inte bry sig om att ge efter för andra din teori.

Kom ihåg den beställda vs. återföring fejd över ext4 som fick även Linus Torvalds “trosor i ett gäng?

http://www.h-online.com/open/news/item/Kernel-developers-squabble-over-Ext3-and-Ext4-740787.html

Of course, according to you, this never happened, except it did.

Data corruption in ext3? Totally couldn’t happen, could it? Except it totally did.

http://www.linuxquestions.org/questions/linux-hardware-18/corrupt-ext3-partition-need-to-recover-376366/

Anyone can fluff about unsubstantiated nonsense in a blog, and that includes both you and me.

“Linux DOES need defragmentation – it does it in the background so you don’t know.”

And I am William Wallace in a kilt. At the moment, there is no utility or any slab of code that is deemed “production ready” and can defragment an ext3 or ext4 partition, which, mind you, is what most Linux distros use _exclusively_ for the “root” file system. An experimental, online defrag utility is available for ext4, but, as it stands, it is nothing beyond “experimental”.

https://ext4.wiki.kernel.org/index.php/Ext4_Howto#Online_defragmentation

>If you actually need to defragment a file system, the simplest way is probably the most reliable: Copy all the files off the partition, erase the files from the partition, then copy the files back onto the partition.

Sorry, but this is kind of stupid. There is e4defrag to defragment ext4 partitions or individual files.

Szűcs János: Boot to full kde4 full start up in less than 45 seconds on Gentoo.

michel:If you like ubuntu you find good applications that replace the ones you use on Windows – or try to run them under CX-Office.

Games could be a problem – but opengl has long been better than directx and if more linux smart developers would use it more as it makes things easier to port to MAC and other OSs.

Been running Linux in over 300 autoparts stores in five retail chains since 1999. Heavy database use, web and email, most as servers. No matter what else, it’s 2.5 to 3 times faster on the exact same hardware than running under Windows, and I have several machines that haven’t been rebooted in over 3 years…. (And never had to defrag yet…)

“Sorry, but this is kind of stupid. There is e4defrag to defragment ext4 partitions or individual files.”

As pointed out in my link above, e4defrag is still in its experimental stages. You would have to be _insane_ to try and use it on anything important.

“No matter what else, it’s 2.5 to 3 times faster on the exact same hardware than running under Windows”

Sure. Without any proper method of measuring, this is simply the equivalent of saying that I can run 2.5 to 3 times faster backwards. It’s how I _feel_, so it has to be true, right?

This is not to mention, of course, that one of the key ingredients that sets proof apart from anecdotes is a _controlled environment_, which, to a Linux advocate, would probably translate to comparing a clean install of Red Hat to a copy of Windows 98 with a dozen applications competing for CPU time in the background.

And I am dead serious.

“If you like ubuntu you find good applications that replace the ones you use on Windows – or try to run them under CX-Office.”

Definitely! Why run an application the way it is intended when I can incur overhead in my _pocket_ just so I can bet my important work on a compatibility layer developed by a 3rd party? Heck, even the idea of replacing perfectly working applications just so one can migrate to a different OS for no obvious, practical benefits is absurd enough by its own rights.

Great post, thanks. Just a question. What about Mac OS? Does the HFS filesystem work like Linux to defrag?

Well, as always it’s interesting to read these viewpoints Linux vs Windows

I use both and have done for years. The are some apps that are written only for windows -especially in my industry, and most people have Windows installed on their pcs and few have even heard of Linux.

So, I must use both.

On my home computers -I mostly use PcLinuxOs and I quite like Mint. There are about 400 Linus “Distros” out there -usually those who use Ubuntu are the more recent “converts” as Ubuntu has become well known -I personally don’t like it so much -and there is more to Linux than Ubuntu. I have the opposite experience to Michel -I find Libre office much better than Ms Word and can do much more.

Photo management -linux wins hands down as too with Audio. Photoshop is Adobe -again -you can run Adobe on Windows but Linux and other non-Msoft Os have similar -it depends on your level of expertise with the program -rather than whether the program is good or not.

Both Windows and Linux have their downsides IMHO but I don’t have virus an malware issues on my Linux boxes -and Linux is stable and reliable -so less time spent in finding and fixing “issues” is good for me.;Neither Os will “go away” so the two camps will someday need to calm down and learn to play together nicely. Although having said that -human nature….

“I have the opposite experience to Michel -I find Libre office much better than Ms Word and can do much more.”

Hmm… I certainly would like to know the LO’s alternative for Outlook and Exchange Server syncing, then.

Well, at least, I could always count on LO Writer doing the job right, couldn’t I?

Oops…

http://listarchives.libreoffice.org/global/users/msg16773.html

“Both Windows and Linux have their downsides IMHO but I don’t have virus an malware issues on my Linux boxes -and Linux is stable and reliable -so less time spent in finding and fixing “issues” is good for me.”

Well, do you wash your hands before meal? That is not supposed to be much of a burden for any rational human being, and it prevents you from getting sick.

Let’s say there was a technology out there that could transfer your consciousness to a robotic body. A robot could never get sick from food poisoning, right? Sure, dealing food poisoning sucks, but certainly the alternative would just not be food poisoning being off of the equation, would it? It would basically mean you trading one problem with a set of new one pertainig to a robot. Instead of food poisoning, you would need to worry about different types of fuel, different types of lubricants, battery power, maintenance, societal views on robotic bodies etc. Totally worth the trouble, wouldn’t it?

Being a Windows user for 20 years and having used everything from Zone Alarm and Comodo to Sophos and Norton AV, I have not yet seen a single problem with malware on any of the machines that I _personally_ maintain. Don’t know what that piece of software is? Don’t install it. Don’t know the sender of that email? Don’t open it. Keep your AV suite on auto-update. Keep your firewall up and running. All that is as simple as washing your hands before every meal. The “let’s-stick-this-turkey-into-my-computer-and-see-what-happens-derp” mentality common among most users simply doesn’t fly with any operating system – not Linux, not MacOS, and certainly not Windows.

10x. clicked twice.

@Tony Austin

First point: Bob Robertson explained this really well.

Secondly: Copying files on and off the file system may seem a bit over-casual, but it’s the safest way to perform a defrag given that no mature tools are available.

@Szűcs János & Others

Well, this explains why Linux distros don’t include a defrag tool and why most users don’t need to think about it. As I said in the post, when your file system starts to fill up, you’re going to see some fragmentation — I never said Linux could never become fragmented.

@marad

A quick Google reveals that e4defrag is a very recent tool that isn’t necessarily considered stable yet. I wouldn’t advise everyone to use for production systems yet. Flying Toaster responded to this well.

NTFS came out with …. NT! (3.50 or 3.51, from memory)

I’m also a writer. I use LibreOffice and OpenOffice, and they can save the ‘Document’ in several different versions of M.S.Word!;Give it a try. It’s Free!

“I’m also a writer. I use LibreOffice and OpenOffice, and they can save the ‘Document’ in several different versions of M.S.Word!

Give it a try. It’s Free!”

The guy pointed to from my link tried LO, too! I don’t think it worked out too well for him, though.

Have you heard of e4defrag?

https://bugs.launchpad.net/ubuntu/+source/e2fsprogs/+bug/321528

It’s now in Ubuntu 12.04 and is in the package e2fsprogs

From man e4defrag

DESCRIPTION;e4defrag reduces fragmentation of extent based file. The file targeted by e4defrag is created on ext4 filesystem made with “-O extent” option (see mke2fs(8)).;The targeted file gets more contiguous blocks and improves the file access speed.

target is a regular file, a directory, or a device that is mounted as ext4 filesystem. If target is a directory, e4defrag reduces fragmentation of all files in;it. If target is a device, e4defrag gets the mount point of it and reduces fragmentation of all files in this mount point.

@flying Toaster;Amazon Ebooks use their own ‘Book Format’ which imports OpenOffice documents that were save as MS Word/XP.

“imports OpenOffice documents that were save as MS Word/XP.”

You mean “.doc” files? That’s an old Word file native to Office 2003 and prior and supported by Office 2007 and latter via compability mode. I have never used a Kindle, but that simply doesn’t undermine the fact that you can download a compability pack to handle the newer, OOXML-based format (.docx)in Office 2003 and save whatever there is back to the legacy Word document format or that you can simply convert a “.docx” file to “.doc”, PDF or whatever else using the “Save As…” dialog in Office 2007/10.

Seriously now, have you even _touched_ a copy of MS Office since XP?

I really don’t know much about the Linux file system. In my windows system, I have found that when I defrag the hard drive, I can gain hundreds of Megabytes and sometimes Gigabytes of additional storage space. This happens because the fragmentation causes wasted unused space on the drive. It does not necessarily improve system speed, but I gain space on my drive. I have done this many times to delay buying a higher capacity drive. Now according to this article, by definition Linux automatically creates wasted unused space each time it writes a file. As I said before, I do not know the file system. When it formats the drive does it use sectors and clusters like Windows or just sectors? It has to use at least sectors because all hard drives are low level formatted into sectors by the manufacturer.

For example: for Windows the number of sectors used in a cluster is determined by the size of the drive when it is formatted and the operating system that formats it. A cluster is the smallest amount of space that can be written by the system. So if 1 cluster consists of four 512 byte sectors, then the smallest amount of space used is (4×512=1048 bytes = 1Kbytes). The larger the drive, the larger the cluster size. Using my example, if you write a 12K file (1048+200=1248 bytes), it uses 1 cluster 1048 bytes and only 200 of the next cluster of 1048 bytes. You waste 848 bytes. Repeat this many times and you waste a LOT of space. Defragging recaptures much of the wasted space.

Now you are telling me that Linux automatically pads its writes with additional space. I take that to mean that Linux automatically creates wasted space (in other words fragmented space). Note I did not say fragment file. Eventually you will use up the space on your hard drive sooner than a Windows drive because you have no means to recapture this space. I bet you have a lot more files on your hard drive that you never change. Look at all the emails you have and PDF files and letters and term papers and essays or copying a HTG tip to a Word doc that once created store it for information and only read it when necessary. If you never go back to change the file, that is wasted space never to be regained.;I’ll stick with windows. Tack.

“For example: for Windows the number of sectors used in a cluster is determined by the size of the drive when it is formatted and the operating system that formats it.”

There are also the metadata required to describe the file stream, and that adds extra pressure to a file system that is _designed_ to fragment free space.

This is not to mention that ext2/3/4 do employ the concept of allocation units, although it is called “blocks” instead of “clusters”. It’s a necessary compromise between usable space and maximum partition size.

Everyone saying one is better than the other is living in a black and white world … and trying to compare the two in terms of the other … kind of pointless and stupid don’t you think. I use both (and Mac) nearly everyday … have likes and dislikes using all of them. Almost anything you can do on Windows you can do on Linux … all that crap about can’t do this and can’t do that just doesn’t work anymore … but that doesn’t make Linux the answer for everyone.

Get over trying to prove that your decision is best for everyone in every situation it isn’t … everyone has different uses and different goals … learn to live with a little variety … it’s kind of fun.

nice~

@michel;Dude, there is Libre Office and OpenOffice. Both at least as good as Word 2003 and as good as 2007/2010 if you don’t need all the fluff.;I use a duel boot Linux Mint and Windows 7 system and only use Win 7 now when absolutely necessary.;The advantages of not ever having had to defrag the Linux system have saved me countless hours of inconvenience. Conversely, I have lost count how often I have had to defrag windows which requires me to leave it on overnight. Something that is difficult to do when required as I am on the road for work.;For the minor reduction in immediate HDD speed, the advantages far outweigh the disadvantages.;Zero maintenance, zero viruses, fast, clean and no BS.;As ‘Rudy’ has said… “Try it”.

Den högsta inspelade megatsunami i modern tid drabbade Lituya Bay, Alaska 1958, det förstörde vegetationen upp till 1,722 fot (525 meter) ovanför höjden över bukten och den våg som reste över bukten rapporterades ha en tofs på i storleksordningen 98 fot (30 meter) i höjd.