Ahoj,
se zpozdenim se chystame vypnout SSLv3 na {api, vpsadmin}.vpsfree.cz,
ale zjistil jsem, ze stavajici vpsfree-client pak nefunguje. Chyba je v
jedne zavislosti, pro spravnou funkci aktualizujte haveapi-client na 0.5.3:
$ gem update haveapi-client
Do tydne SSLv3 vypneme a starsi verze nebudou fungovat, tyka se to i
vsech vpsfreectl prikazu na stahovani zaloh.
Jakub
Ahoj,
vpsAdmin v2.3.0 [1] přináší pohodlné stahování záloh VPS/NASu v CLI [2].
Do teď se muselo čekat na zaslání odkazu pro stažení zálohy emailem,
nyní už nemusíme čekat, stahuje se ihned. Lze si také vybrat mezi
klasickým tar.gz a ZFS data streamem, ten umíme poslat i inkrementálně
(posílají se jen změněná data od předchozího snapshotu).
vpsfree-client [2] obsahuje 4 nové příkazy pro manuální i automatizované
stahování záloh.
Stažení zálohy do souboru:
vpsfreectl snapshot download [<id>] -- --format archive/stream
Nemusíme se bát stahování přerušit. Program se při dalším spuštění
zeptá, jestli má ve stahování pokračovat.
Stažení data streamu (jako zfs send):
vpsfreectl snapshot send <id> | zfs recv <dataset>
Inkrementální stream vyžádáme přepínačem -I, --from-snapshot:
vpsfreectl snapshot send <id2> -- --from-snapshot <id1> | zfs recv
A nakonec klient za vás umí vyřešit veškerou logiku stahování záloh
pomocí příkazu
vpsfreectl backup vps [<id>] <cílový dataset>
nebo
vpsfreectl backup dataset [<id>] <cílový dataset>
Program sám vyhodnotí, které snapshoty má stáhnout a jestli to jde
inkrementálně, nebo musí stáhnout zálohu plnou. Stahuje se přímo do ZFS
datasetu, je tedy nutné mít ZFS nainstalováno a mít připojen zpool.
Snapshoty se i rotují, tzn. mažou se staré snapshoty a uvolňuje se tak
místo pro nové. Tento příkaz stačí umístit do crontabu a o stahování
záloh je postaráno.
Všechny tyto příkazy mají přepínač --max-rate pro omezení rychlosti
stahování. K dispozici je také checksum stahovaného souboru, který
program vždy ověřuje.
Před vlastním použitím se ještě doporučuji podívat do KB [3], kde jsou
tyto příkazy a jejich možnosti popsány podrobněji i s ukázkami použití.
PS: mohl by to někdo vyzkoušet na BSD? Mělo by to fungovat nad jakýmkoli
systémem se ZFS a Ruby >= 2.0.
[1] https://projects.vpsfree.cz/vpsadmin-doc/releases/v2.3.0/
[2] https://kb.vpsfree.cz/navody/vps/api#cli
[3] https://kb.vpsfree.cz/navody/vps/datasety#stahovani_zaloh
Jakub
Ahojte,
skusam rozchodit docker na debian 8 podla tohto navodu:
https://kb.vpsfree.cz/navody/server/docker_debian
Navod je super, na SandBox VPS vsetko spale ako hodinky.
Problem je, ze na node3.brq neviem docker rozchodit, postup robim totozny
ako pre sandbox VPS.
Podla errorov sa to tyka cgroup.
Uz ste sa s tym niekto stretli ? Moze to byt tym, ze konfiguracia SandBox
VPS je ina ako node3.brq ?
Ked sa dostanem k SSH konzole, hodim sem vypis aby sme nevarili z vody.
Skusal som aj Docker na Ubuntu 14.04 ale tam som mal prakticky ten isty
problem.
Vdaka za pripadnu odpoved.
tomas.nr
Ahoj,
rad bych si pohral s lxc kontejnery, ale koncim na chybach cgroup, zkousel
jsem se taky inspirovat v navodu na docker, ale neuspesne.
Nemate prosim nekdo radu, jak na to? Zkousel jsem Ubuntu 14.04 a Debian 8.
Je vubec mozne lxc na vpsfree vyuzivat?
cisty ubuntu trusty:
# lxc-start -n trusty
lxc-start: cgfs.c: cgfs_init: 2246 cgroupfs failed to detect cgroup metadata
lxc-start: start.c: lxc_spawn: 884 failed initializing cgroup support
lxc-start: start.c: __lxc_start: 1121 failed to spawn 'trusty'
...
po pridani mountpointu z navodu na docker:
# lxc-start -n trusty
lxc-start: cgfs.c: lxc_cgroupfs_create: 841 Could not find writable mount
point for cgroup hierarchy 2 while trying to create cgroup.
lxc-start: cgfs.c: cgroup_rmdir: 207 Device or resource busy -
cgroup_rmdir: failed to delete /sys/fs/cgroup/freezer,devices/
lxc-start: cgfs.c: cgroup_rmdir: 207 Device or resource busy -
cgroup_rmdir: failed to delete /sys/fs/cgroup/cpu,cpuacct,cpuset/
lxc-start: start.c: lxc_spawn: 891 failed creating cgroups
...
na cistem debian8:
# lxc-start -n debian8
lxc-start: Could not find writable mount point for cgroup hierarchy 4 while
trying to create cgroup.
lxc-start: Read-only file system - cgroup_rmdir: failed to delete
/sys/fs/cgroup/memory/
lxc-start: Read-only file system - cgroup_rmdir: failed to delete
/sys/fs/cgroup/blkio/
lxc-start: failed creating cgroups
...
Pripadne, neni nekde k dispozici konfigurace kernelu, pro pouziti v prikazu
# lxc-checkconfig
Kernel configuration not found at /proc/config.gz; searching...
lxc-checkconfig: unable to retrieve kernel configuration
...
?
Diky
Vasek
Ahoj všem, potřebuju nějakého šikovného grafika, který by upravil náš
leták (PDF). Potřebujeme tam udělat jednoduchou korekci. Je tu někdo
šikovný, kdo má pár minut času?
--
Petr Krčmář
vpsFree.cz
Dobry den,
podarilo se nekomu rozjet docker ve Centosu ve VPS-u ? chodi mne to nejaki
dost divni error pri startovani.
Centos6: http://pastebin.com/nVpE961h
Centos 7 : http://pastebin.com/EjFpAmX7
moc najdei nemam , treba nejaki miracle :)
--
Best Regards
Mindru Veaceslav
Brno, Czech Republic
Phone: +420733166899
mindruv(a)gmail.com
Ahojte,
po vsech moznych prutazich a natahovani na vsech stranach (at uz to byla
moje liknavost, majitelky adresy naseho sidla, nebo soudu), jsme konecne
spolek :)
Viz. usneseni soudu, dali jsme ho na KB:
https://vpsfree.cz/download/vpsfree_zmena_zs.pdf
/snajpa