Ahoj,
díky za info - popravdě nevím jak se ten dataset odpojil, stalo se mi to 2x a moc jsem to zatím neřešil (nebylo potřeba). Jde o to, že namountované místo bylo prázdné a když jsem se to snažil odpojit a připojit znovu, tak to nešlo. Po restartu to bylo ok. Z toho důvodu jsem tomu chtěl úplně předejít nastavením distribuovaného FS (něco jako gluster fs), který by měl lokální kopie či nasazením pak nějaké synchronizace. Jde o to, že mi jde o rychlost na disku, ale nejde mi až tak to, jestli se soubory objeví na jiné VPS za 1 minutu či později. Jde o to aby, když se aplikace spustí na jiné VPS, tak pouze ty data musí mít a od té doby poběží tam a pouze tam. Jiná VPS s jinou aplikací na stejná data zapisovat nebude (tzn kolize verzí zřejmě není až tak potřeba řešit). Synchronizace je tam od toho, aby data byla na všech místech - pro přesun app. Z toho pohledu je dataset dobrý, jenže data nejsou lokální a pokud se právě odpojí, tak se na to nedá moc spolehnout a o to mně jde asi převážně.
Jinak data jsou generované obrázky, svg, dxf (různé vektorové formáty), bitmapy, binární soubory, datové soubory (XML/JSON) a raw data. Většina z nich se často mění za běhu aplikace. Datový adresář je rozdělen do složek dle aplikace. Každá aplikace pracuje s jednou složkou. Velikost souborů se pohybuje od 10KB - 500KB většina (cca 80% souborů) zbytek jsou větší, které jsou obvykle od 1MB do cca 40MB dat na soubor - ty se obvykle nemění moc často. V tuto chvíli se jedná o cca 55000 souborů o velikosti 5GB. Jinak data jsou obvykle také procházena automaticky kvůli čištění např. listování dle typů a tak podobně a někdy hromadně upravována. Ale to by vždy udělala pouze jedna app a ostatní by v tu dobu s tím nic nedělali.
Nejsem si jistý jestli je to vhodně popsané. Když tak se ptejte. Jinak na abicku doporučovali synchthing. Těžko říci jestli je to vhodná cesta, zvláště bez vyzkoušení.