isileth

Mistero: Differenza Prestazioni Operazioni Su File

3 messaggi in questa discussione

Avrei una domanda per gli esperti di sistemi operativi Windows.

Posto qui perchè non è una richiesta di aiuto per un sistema specifico, quanto una curiosità.

Ho notato in questi giorni, facendo copie di dati da e per dischi USB, da dvd su disco fisso, da dvd su chiavetta, da usb a disco fisso che se ho una certa quantità di dati da copiare e/o spostare, se imposto il lavoro "seleziona tutto - copia - incolla" il sistema segnala e ci mette delle ore a finire il lavoro.

Se invece eseguo l'operazione in stadi, il tempo totale è inferiore di molto a quello richiesto da un lavoro "totale".

Sempre a proposito di lavoro coi file, ho notato che lo stesso succede anche se devo eliminare dei file e delle cartelle.

Un'altra cosa che ho notato è che se utilizzo "del *.*" in una shell dos, con eventualmente degli switch per la ricorsività delle directory, il lavoro è brevissimo rispetto a quello da GUI.

Qualcuno mi sa chiarire come mai succede questo?

Condividi questo messaggio


Link di questo messaggio
Condividi su altri siti

Di sicuro un po' dipende dal sistema operativo e dalla ram che ha il pc o dalla memoria virtuale in uso. Aggiungerei che se la cartella è frammentata i tempi mettendo tutto insieme si allungano proprio per la dispersione sul disco dei file, così come per tanti file piccoli windows sembra non riuscire a "impacchettarli" e trasferirli in blocchetti (e procede copiando un file per volta)

Condividi questo messaggio


Link di questo messaggio
Condividi su altri siti

Reparto ragioni empiriche. Pure ipotesi, e cassatemi senza pietà...

Mi è capitato di dover seccare qualcosa come 1.800.000 file da una cartella in Win2003 server.

Come potete immaginare, esplora risorse manco mi considerava. Dopo 2h di attesa, neanche a pagare di vedere qualcosa. Clessidrona bloccata e niente da fare.

I file tra l'altro erano bloccati da un servizio, ma questa è un'altra storia. Per eliminare tutte queste voci dal filesystem ho fatto un piccolo batch, che seccava in ordine alfabetico tutti i file. Niente di particolare... giusto 27 "del", roba tipo questa

del a*.* /s /f /q
del b*.* /s /f /q
del c*.* /s /f /q

Con l'obiettivo di rendere ad ogni delete la cancellazione più veloce, visto che si riducevano le modifiche da fare al filesystem.

Mi sono divertito a mettere un log con l'ora di inizio e di fine. "Appena" 10 ore.

Finita la barzelletta, cominciamo con le ipotesi.

La GUI del OS fa molte operazioni in background prima e dopo, ma è più lenta nell'elaborare molti dati, a mio parere, in quanto deve fare sempre rendering delle icone, delle associazioni, il layout dei file, il nome, ecc ecc.

Mentre la console comandi, è molto più scarna. I font sono già in memoria, le informazioni sono immediatamente fruibili tramite il filesystem.

Inoltre, credo non sia una novità che è più dispendioso in termini di accesso disco cancellare 100 file da 1mb piuttosto che un unico file da 100mb.

Condividi questo messaggio


Link di questo messaggio
Condividi su altri siti

Crea un account o accedi per lasciare un commento

Devi essere un utente registrato per partecipare

Crea un account

Iscriviti per un nuovo account nella nostra community. È facile!


Registra un nuovo account

Accedi

Sei già registrato? Accedi qui.


Accedi Ora