Az EPcompress-t egyébként szintén lehet EP-s programokban használni, az epcompress.7z-ben található decompress_simple.s (az -m2 formátumhoz) és decompress_sfx_m0.s (-m0-hoz) file-okban van olyan "decompressData" rutin, amely a HL címto"l kezdo"do" tömörített adatot a DE-to"l kezdve elo"re haladva kicsomagolja (a DTF -lz-nél ez fordított irányú).
Azonban a memóriaigény nagyobb, az -m2-höz verem nélkül kb. 440-450 byte kell, az -m0-hoz pedig kb. 1350 byte, és az utóbbi lassabb is.
Azt nem tudtam, hogy az DTF -lz mennyire bonyolult, nekem szimpi volt, mert néha verte a ZIP-et
, meg könnyen kibueheráltam a kitömörítő rutint a forrásból.
Mennyivel hatékonyabb az EPcompress -m2, mint a DTF -lz, és mennyivel az -m0, csak azért kérdem, mert a -lz kicsomagoló rutinja nagyon rövid, a -m2 még szimpi hosszra, és gondolom a sebesség is nagyon jó, az -m0 nagynak tűnik, és kéne nem tudom mennyire sínylené meg a program sebessége a kitömörítőét. Mondjuk a hatékonyságot könnyen ki tudom deríteni egy kicsi csomagolással
Azt nem tudom, hogy a RAR PC-n készült-e, viszont ha PC-n készült is túl bonyolult algoritmust nem használhattak, csak olyat, amit még Z80-on ki lehet csomni, nem?