Dakle, imaš dva diska. Na jednom je tačno jedan fajl koji zajedno sa svim pratećim informacija zauzuma m bitova. Drugi disk je potpuno slobodan. Treba ti program koji će sadržaj prvog diska da upiše na drugi disk tako da se na osnovu sadržaja drugog diska može restaurirati sadržaj prvog diska, ako bi se recimo taj sadržaj obrisao. Pritom će sadržaj drugog diska zauzimati n bitova zajedno sa svim fajlovima i ostalim potrebnim informacijama. Ti tvrdiš da to možeš da uradiš tako da bude n<m bez obzira na strukturu fajla sa prvog diska samo pod uslovom da je npr. m>100.
Dakle, imam 1. disk, sta ce mi dva? I posle tvrdite da ja komplikujem? Dakle imam 1. disk i na njemu OS, engine za kompresiju/dekompresiju i 1. fajl, kad taj jedan fajl kompresujem uz pomoc kompresora trebalo bi da se dobije fajl manji od onog pocetnog sto moze da utvrdi OS ili bilo koji fajl menager, kad se isti dekompresuje trebalo bi da se dobije originalni fajl, sta ce mi dva diska za nesto tako jednostavno?
Ti tvrdiš da to možeš da uradiš tako da bude n<m bez obzira na strukturu fajla sa prvog diska samo pod uslovom da je npr. m>100.
Pa da mogu da uradim vec bih uradio?
Ja tvrdim i stojim iza toga a i Vi mozete da potvrdite da za duzinu niza bita m=153 recimo, postoji 2^153 razlicitih fajlova, od toga (2^153)-2 imaju razlicite i krace ekvivalente tj. mogu da se kompresuju, preostala 2.fajla mogu da imaju razlicite ekvivalente medjusobno, i od svih ostalih, ali ne i krace. Ne vidim nikakvu ekspanziju tu, a kompresija je moguca? Bez obzira na strukture pocetnih fajlova?
Inace hvala za definiciju: "Bez obzira na strukturu pocetnih fajlova", upravo se o tome ovde radi, i sam bih to tako formulisao, pomislice neko na osnovu naslova ili iz rasprave da hocu da kompresujem random podatke, kome bi to ikad zatrebalo osim za neke eksperimente, hocu da mogu da kompresujem podatke sa nekim razumnim stepenom kompresije a da me ne zanima da li su podaci izvorno slika, muzika, film, random podaci ili neki jako optimizovan program.
Dakle, sve ti se svodi na to da od jednog niza nula i jedinica napraviš drugi niz nula i jedinica, odnosno da bespotrebno komplikuješ priču uvođenjem više fajlova, jer ti se opet sve svodi na to da od jednog fajla praviš drugi fajl.
Zasto ne mogu da za 1. originalni fajl napravim 2. kompresovana fajla? Ako ce ta dva u zbiru da zauzimaju manje prostora nego pocetni, zasto ne bih mogao? Jos ako prvi od ta dva ima uputstva da 'pogleda' da li postoji 'parnjak' tj. drugi fajl sa istim imenom ali razlicitom ekstenzijom, ili istim imenom i dodatkom _2 u produzetku pa se posle prvog i drugi dekompresuje i zajedno daju rezultat: originalni fajl? Ili jos bolje taj posao da proveri da li postoji jos jedan fajl da obavi dekompresor?
Ne samo da mi ne smetaju danasnji fajl sistemi ili OS-evi vec je ovo upravo i moguce zbog toga sto i OS i engine za kompresiju znaju po nesto o fajlu tj. deo informacija odlazi na njih.
Odnosno ako je pocetni fajl dovoljno veliki, toliko da mogu da ga zamenim sa dva manja fajla, ako je recimo velicine N, mene vise ne zanima njegova struktura jer znam da svih (2^N)-2 fajlova mogu da zamenim sa pojedinacnim 'jednostrukim' manjim (kracim po broju bita upotrebljenih) fajlovima, a preostala 2. fajla mogu da zamenim sa po dva kompresovana fajla koji su u zbiru manji od originalnog fajla. To je dokaz da je za neke velicine fajlova kompresija bilo kakvih podataka pa i random podataka moguca U PRAKSI.
Za oba diska se mogu napraviti njihove slike zauzetih delova u vidu fajlova (jedan disk, jedan fajl). Nije problem da se dopusti da fajl ne bude proizvoljno dugačak niz bajtova, već bitova ako ti tako više odgovara.
Pa, odgovaralo bi bitova kad vec moze, hvala za info od koristi je. :)