> Zaroven SMS gateway zacina mit cim dal vetsi delay. Jestli jste nekdo
> posilal nekdy SMSky pres Linux + GSM phone, napiste prosim na community
> list svoji zkusenost, bude se to hodne hodit.
...SMS bránu jsem v jedné firmě provozoval mnoho let. Odesílání i příjem (a
zpracování) pomocí GSM modulů, AT příkazů a vlastní c++ knihovny. Rád něco
na ten způsob zase zprovozním a dodám včetně zdrojáků a podpory. Nakolik
jsou funkční "standardní" řešení založená třeba na smstools nevím. Když jsem
to psal, k dispozici bylo jen gnokii a to moc nefungovalo.
Zajímalo by mě ale, v čem ti nestačí přirozenější způsob, kdy se alert
mailuje, a mail přijímá na mobilu (aby byl jakože doručen i přečten co
nejrychleji). Mě tyhle maily na mobilu pípají daleko hlasitěji než SMSky...
I v případě, že klekne LAN, bych se asi snažil GSM modul použít jako další
(záložní) síťové rozhraní; ppp i v tomhle století snad ještě funguje :).
Egon
Caute,
vpsAdmin pod Aitherovou rukou prosel velkym prerodem na API-centrickou
aplikaci, zaroven se pridalo od zacatku spoustu funkcionality a ne
vzdycky se ji povedlo do stavajiciho UI dolepit dostatecne intuitivne.
Po tech letech by to chtelo ty naplavy PHPckovyho bahna zahodit uplne a
udelat nacisto nove UItko od nuly.
Jelikoz je vpsAdmin RESTful HTTP API, myslim si, ze idealni bude
postavit javascriptovou aplikaci v browseru, ktera bude to API dotazovat.
Je tu nekdo, kdo takove aplikace umi stavet, ma uz s tim zkusenost by na
to cas?
V podstate shanime nekoho, kdo s nama bude pracovat na vpsAdminu
dlouhodobe a vzal by si ten frontend na triko i do budoucna.
Najde se nekdo?
Kdyby byl jeste rozumne blizko Brnu (nebo rovnou v Brne), tak je to
super bonus :)
Diky,
/snajpa
Ahoj,
haveapi-fs [1] je virtuální souborový systém založený na FUSE [2], který
umožňuje připojit jakékoli API využívající HaveAPI [3], a pracovat s ním
na úrovni adresářů a souborů. Samozřejmě to funguje také s naším
api.vpsfree.cz [4,5].
Práce s haveapi-fs by měla být ještě jednodušší, než s konzolovým
klientem, protože je vše hned vidět jako adresáře a soubory, nemusíme
zjišťovat názvy objektů, akcí, parametrů, přepínačů, apod.
haveapi-fs je napsán v Ruby a instaluje se tak pomocí RubyGems:
$ gem install haveapi-fs
API se připojí následujícím příkazem:
$ haveapi-fs <api_url> <mountpoint>
tedy konkrétně naše API jako
$ haveapi-fs https://api.vpsfree.cz /mnt/api.vpsfree.cz
Odpojení se provede buď přímo příkazem umount jako root, nebo
fusermount -u /mnt/api.vpsfree.cz jako neprivilegovaný uživatel.
Mountpoint obsahuje seznam objektů v API a soubory s nápovědou:
$ cd /mnt/api.vpsfree.cz
$ tree -L 1 .
├── ...
├── dataset/
├── environment/
├── location/
├── node/
├── vps/
├── help.html
├── help.man
├── help.md
├── help.txt
└── ...
Soubory help.{html,man,md,txt} se nachází v každém adresáři a obsahují
vždy popis aktuálního adresáře, tzn. jaké má vlastnosti a jaké má
podadresáře a soubory.
V adresáři objektu je seznam všech jeho záznamů, tedy např. seznam všech
VPS patřících k účtu:
$ tree -L 1 vps/
vps
├── 1112/
├── 1171/
├── 1234/
├── 1245/
├── actions/
├── create.yml
├── help.html
├── help.man
├── help.md
└── help.txt
Záznamy můžeme rovnou i filtrovat:
$ tree -L 1 vps/by-node/103/by-os_template/26
vps/by-node/103/by-os_template/26
├── 1112/
└── ...
$ cat vps/by-node/103/by-os_template/26/1112/node_id
103
$ cat vps/by-node/103/by-os_template/26/1112/os_template_id
26
Podíváme-li se do adresáře nějakého konkrétního VPS, uvidíme seznam jeho
atributů jako soubory, asociované objekty jako adresáře a akce, které
můžeme volat, jsou v adresáři `actions/`:
$ tree -L 1 vps/1112
vps/1112
├── actions/
├── id
├── hostname
├── node/
├── os_template/
├── edit.yml
├── save
└── ...
$ cat vps/1112/hostname
moje-vps
$ cat vps/1112/node/domain_name
node3.prg
$ cat vps/1112/node/location/label
Praha
$ cat vps/1112/os_template/label
Scientific Linux 6.6
Dle oprávnění lze vybrané atributy i měnit, např. změna hostname:
$ echo novy-hostname > vps/1112/hostname
$ echo 1 > vps/1112/save
Zavolat jde i jakákoli jiná akce:
$ tree -L 1 vps/1112/actions
vps/1112/actions
├── ...
├── passwd/
├── reinstall/
├── restart/
├── start/
├── stop/
├── swap_with/
└── update/
$ echo 1 > vps/1112/actions/passwd/exec
Informace o úspěchu či neúspěchu akce je vždy v souboru `status`:
$ cat vps/1112/actions/passwd/status
1
Výstupní parametry jsou pak v adresáři `output/`:
$ cat vps/1112/actions/passwd/output/password
cmrdBcm72KkAM85Ux2MK
Přes další soubory se lze dostat k případné chybové hlášce (`message`),
seznamu chyb (`errors/`) a také zadávat vstupní parametry (`input/`).
Akce lze vykonávat i pomocí `exec.yml` souboru, ve kterém se vyplní
vstupní parametry v YAMLu a po uložení a zavření souboru se akce vykoná.
Takto se dají jednoduše vytvářet nové objekty (`create.yml`) i upravovat
existující (`edit.yml`).
$ vim vps/1112/edit.yml
hostname: dalsi-zmena
:wq
Kompletní popis toho, co haveapi-fs umí, je v README.md [6].
[1] https://github.com/vpsfreecz/haveapi-fs
[2] https://en.wikipedia.org/wiki/FUSE_%28Linux%29
[3] https://github.com/vpsfreecz/haveapi
[4] https://api.vpsfree.cz/
[5] https://kb.vpsfree.cz/navody/vps/api
[6] https://github.com/vpsfreecz/haveapi-fs#usage
Jakub
Mam dotaz ohledne QEMU IO vykonu,
primo ve vps dostavam pri nasledujicim testu
time dd if=/dev/zero of=/test oflag=direct bs=64k count=16000
nasledujici vysledek
16000+0 records in
16000+0 records out
1048576000 bytes (1.0 GB, 1000 MiB) copied, 4.11019 s, 255 MB/s
real 0m4.112s
user 0m0.012s
sys 0m0.720s
Nicmene kdyz to pustim v QEMU na disku typu raw, dostanu
16000+0 records in
16000+0 records out
1048576000 bytes (1.0 GB, 1000 MiB) copied, 13.6918 s, 76.6 MB/s
real 0m4.112s
user 0m0.012s
sys 0m0.720s
QEMU spoustim takto:
qemu-system-x86_64 -cpu host -cdrom archlinux-2016.04.01-dual.iso -drive
file=test,format=raw,cache=writeback -boot order=d -m 1024M -enable-kvm
Disk je naformatovan primo uvnitr QEMU na ext4.
Vykon je tedy vyrazne mensi nez primo ve VPS. Je to maximum, jak
blizko se jde dostat? Nebo mam nekde chybu v tom, jak to pouzivam?
Diky za pomoc,
T.
--
There are only two hard things in Computer Science:
cache invalidation, naming things and off-by-one errors.
O víkendu proběhl v Bratislavě OSS víkend, na kterém Tomáš Srnka
přednášel o vpsFree.cz. Podívejte se na záznam jeho přednášky, ve které
se dozvíte o principu vpsFree.cz a nějaká zajímavé čísla ze současnosti:
https://youtu.be/btS90phQ558?t=4h33m40s
--
Petr Krčmář
vpsFree.cz
Ahoj,
mam na vpske ispconfig, vsimol som si ze mi nefunguju kvoty na hardisk,
predpokladam ze je to sposobene tym ze sa ignoruje fstab.
vedel by mi niekto poradit ako ich rozbehat ?
dakujem
Zdar,
funguje Vam node3.brq? Mam tam 2 VPSky a oboje su mrtve. Ked dam
restart z vpsadminu, zostane na 0%.
Pritom outage nevidim.
Je chyba u mna?
Brano
Ahoj,
konecne se chystam vyzkouset si QEMU a rozhodit si par virtualu ve
VPSce. Ale narazim na to, jak to rozumne managovat. V pripade updatu se
mi nechce logovat do kazdeho systemu zvlast, pustit uplne stejny pripaz
pro update etc. Co pouzivate vy na spravu vice serveru, aby to bylo
zvladnutelne? Diky za tipy.
T.
--
There are only two hard things in Computer Science:
cache invalidation, naming things and off-by-one errors.
Ahoj,
se zpozdenim se chystame vypnout SSLv3 na {api, vpsadmin}.vpsfree.cz,
ale zjistil jsem, ze stavajici vpsfree-client pak nefunguje. Chyba je v
jedne zavislosti, pro spravnou funkci aktualizujte haveapi-client na 0.5.3:
$ gem update haveapi-client
Do tydne SSLv3 vypneme a starsi verze nebudou fungovat, tyka se to i
vsech vpsfreectl prikazu na stahovani zaloh.
Jakub
Ahoj,
vpsAdmin v2.3.0 [1] přináší pohodlné stahování záloh VPS/NASu v CLI [2].
Do teď se muselo čekat na zaslání odkazu pro stažení zálohy emailem,
nyní už nemusíme čekat, stahuje se ihned. Lze si také vybrat mezi
klasickým tar.gz a ZFS data streamem, ten umíme poslat i inkrementálně
(posílají se jen změněná data od předchozího snapshotu).
vpsfree-client [2] obsahuje 4 nové příkazy pro manuální i automatizované
stahování záloh.
Stažení zálohy do souboru:
vpsfreectl snapshot download [<id>] -- --format archive/stream
Nemusíme se bát stahování přerušit. Program se při dalším spuštění
zeptá, jestli má ve stahování pokračovat.
Stažení data streamu (jako zfs send):
vpsfreectl snapshot send <id> | zfs recv <dataset>
Inkrementální stream vyžádáme přepínačem -I, --from-snapshot:
vpsfreectl snapshot send <id2> -- --from-snapshot <id1> | zfs recv
A nakonec klient za vás umí vyřešit veškerou logiku stahování záloh
pomocí příkazu
vpsfreectl backup vps [<id>] <cílový dataset>
nebo
vpsfreectl backup dataset [<id>] <cílový dataset>
Program sám vyhodnotí, které snapshoty má stáhnout a jestli to jde
inkrementálně, nebo musí stáhnout zálohu plnou. Stahuje se přímo do ZFS
datasetu, je tedy nutné mít ZFS nainstalováno a mít připojen zpool.
Snapshoty se i rotují, tzn. mažou se staré snapshoty a uvolňuje se tak
místo pro nové. Tento příkaz stačí umístit do crontabu a o stahování
záloh je postaráno.
Všechny tyto příkazy mají přepínač --max-rate pro omezení rychlosti
stahování. K dispozici je také checksum stahovaného souboru, který
program vždy ověřuje.
Před vlastním použitím se ještě doporučuji podívat do KB [3], kde jsou
tyto příkazy a jejich možnosti popsány podrobněji i s ukázkami použití.
PS: mohl by to někdo vyzkoušet na BSD? Mělo by to fungovat nad jakýmkoli
systémem se ZFS a Ruby >= 2.0.
[1] https://projects.vpsfree.cz/vpsadmin-doc/releases/v2.3.0/
[2] https://kb.vpsfree.cz/navody/vps/api#cli
[3] https://kb.vpsfree.cz/navody/vps/datasety#stahovani_zaloh
Jakub
Ahojte,
skusam rozchodit docker na debian 8 podla tohto navodu:
https://kb.vpsfree.cz/navody/server/docker_debian
Navod je super, na SandBox VPS vsetko spale ako hodinky.
Problem je, ze na node3.brq neviem docker rozchodit, postup robim totozny
ako pre sandbox VPS.
Podla errorov sa to tyka cgroup.
Uz ste sa s tym niekto stretli ? Moze to byt tym, ze konfiguracia SandBox
VPS je ina ako node3.brq ?
Ked sa dostanem k SSH konzole, hodim sem vypis aby sme nevarili z vody.
Skusal som aj Docker na Ubuntu 14.04 ale tam som mal prakticky ten isty
problem.
Vdaka za pripadnu odpoved.
tomas.nr
Ahoj,
rad bych si pohral s lxc kontejnery, ale koncim na chybach cgroup, zkousel
jsem se taky inspirovat v navodu na docker, ale neuspesne.
Nemate prosim nekdo radu, jak na to? Zkousel jsem Ubuntu 14.04 a Debian 8.
Je vubec mozne lxc na vpsfree vyuzivat?
cisty ubuntu trusty:
# lxc-start -n trusty
lxc-start: cgfs.c: cgfs_init: 2246 cgroupfs failed to detect cgroup metadata
lxc-start: start.c: lxc_spawn: 884 failed initializing cgroup support
lxc-start: start.c: __lxc_start: 1121 failed to spawn 'trusty'
...
po pridani mountpointu z navodu na docker:
# lxc-start -n trusty
lxc-start: cgfs.c: lxc_cgroupfs_create: 841 Could not find writable mount
point for cgroup hierarchy 2 while trying to create cgroup.
lxc-start: cgfs.c: cgroup_rmdir: 207 Device or resource busy -
cgroup_rmdir: failed to delete /sys/fs/cgroup/freezer,devices/
lxc-start: cgfs.c: cgroup_rmdir: 207 Device or resource busy -
cgroup_rmdir: failed to delete /sys/fs/cgroup/cpu,cpuacct,cpuset/
lxc-start: start.c: lxc_spawn: 891 failed creating cgroups
...
na cistem debian8:
# lxc-start -n debian8
lxc-start: Could not find writable mount point for cgroup hierarchy 4 while
trying to create cgroup.
lxc-start: Read-only file system - cgroup_rmdir: failed to delete
/sys/fs/cgroup/memory/
lxc-start: Read-only file system - cgroup_rmdir: failed to delete
/sys/fs/cgroup/blkio/
lxc-start: failed creating cgroups
...
Pripadne, neni nekde k dispozici konfigurace kernelu, pro pouziti v prikazu
# lxc-checkconfig
Kernel configuration not found at /proc/config.gz; searching...
lxc-checkconfig: unable to retrieve kernel configuration
...
?
Diky
Vasek
Ahoj všem, potřebuju nějakého šikovného grafika, který by upravil náš
leták (PDF). Potřebujeme tam udělat jednoduchou korekci. Je tu někdo
šikovný, kdo má pár minut času?
--
Petr Krčmář
vpsFree.cz
Dobry den,
podarilo se nekomu rozjet docker ve Centosu ve VPS-u ? chodi mne to nejaki
dost divni error pri startovani.
Centos6: http://pastebin.com/nVpE961h
Centos 7 : http://pastebin.com/EjFpAmX7
moc najdei nemam , treba nejaki miracle :)
--
Best Regards
Mindru Veaceslav
Brno, Czech Republic
Phone: +420733166899
mindruv(a)gmail.com
Ahojte,
po vsech moznych prutazich a natahovani na vsech stranach (at uz to byla
moje liknavost, majitelky adresy naseho sidla, nebo soudu), jsme konecne
spolek :)
Viz. usneseni soudu, dali jsme ho na KB:
https://vpsfree.cz/download/vpsfree_zmena_zs.pdf
/snajpa
Ahoj,
častým dotazem na podpoře je, zda jsme schopni zajistit i instalaci či
provoz aplikací ve VPS. Odpověď zní ne a ani se k ničemu takovému
nechystáme, nicméně spousta našich členů se tím určitě zabývá. Vytvořili
jsme proto stránku v KB, kde se bude nacházet seznam takových lidí:
https://kb.vpsfree.cz/informace/db_spravcu
Jakmile se nás na podpoře někdo znovu zeptá, jestli se mu o VPS i
postaráme, pošleme mu odkaz na tuto stránku. Kdo máte zájem, zapište se.
Jedinou podmínkou je být členem vpsFree.
Jakub
Ahoj,
snazil jsem se napojit docker cloud, kde je moznost misto AWS, digitalocenu apod zvolit vlastni VPS.
To se mi sice povedlo, nicmene k fungovani to potrebuji docker ve verzi 1.9.1 a vyssi.
Jak to vidite s vyhledem na zprovozneni novejsiho dockeru?
Diky,
Vitek
Ahojte nainstaloval som na virtualke podla navodu v kb kvm na ubunte 14.04 a vyhodilo mi to tuto hlasku
> virsh -c qemu:///system list
> error: failed to connect to the hypervisor
> error: Failed to connect socket to '/var/run/libvirt/libvirt-sock': No such file or directory
> # /etc/init.d/libvirtd start
> bash: /etc/init.d/libvirtd: No such file or directory
>
> je chyba umna ci niekde inde?
zopar navodom som pokukal, vsetko mam nainstalovane co je ktomu treba, vsade mi to ide len tuna ani tuk.
uname -a
Linux zaloha-advice 2.6.32-042stab112.15 #1 SMP Tue Oct 20 17:22:56 MSK 2015 x86_64 x86_64 x86_64 GNU/Linux
# service libvirt-bin restart
stop: Unknown instance:
libvirt-bin stop/post-start, (post-start) process 20158
# ps aux | grep libvirt-bin
root 20206 0.0 0.0 10524 964 pts/4 S+ 21:13 0:00 grep --color=auto libvirt-bin
Vdaka
Tomas
Zdravím všechny,
chtěl jsem Vás poprosit o radu/názor ohledně nastavení user/group u
php-fpm z hlediska bezpečnosti. Používám php-fpm v kombinaci s nginxem a
největší obavu mám z napadení php aplikace. Chtěl jsem proto nastavit
souborová práva takovým způsobem, aby se v případě napadaní aplikace
minimalizovala možnost jejího zneužití k šíření malware.
Samozřejmě jsem přečetl různé návody na netu a pro každou php aplikaci
si vytvářím vlastního uživatele, pod kterým běží php-fpm pool (user
"project", group "project"). Uživatel www-data (nginx) pak je součástí
skupiny "project", aby měl přístup k souborům. Na všechny složky jsem
nastavil právo jen pro čtení (440), pouze u "tmp" složek, kde si php
aplikace vytváří dočasné soubory, jsem nastavil právo 640. V nginxu jsem
pak nastavil, že se ze složky "tmp" nesmí nic servírovat ven (php
aplikace tam ukládá jen soubory pro svoji vnitřní potřebu, není potřeba
k nim přistupovat zvenčí).
Celé mi to přišlo jako ohromné řešení, dokud mi nedošlo, že owner
souborů může provést chmod. Tzn. běžící php-fpm pool si může na složkách
či souborech nastavit právo pro zápis, "kompromitovat" soubory a
servírovat je návštěvníkům.
Udělal jsem tedy co nejstriktnější omezení u ngnixu - tzn. přesně jsem
vyjmenoval z jakých složek se můžou servírovat jaké soubory (např. z
"/assets" pouze .js, .css., .jpg, z "/" jen index.php, z "/tmp" složky
vůbec nic). Pořád mi ale vrtá hlavou nastavení přístupu k souborům.
Jediné řešení, které mě napadlo je, že bych musel pro daný projekt
vytvořit uživatele dva a jednu skupinu. Php-fpm pool by pak běžel pod
"project-pool":"project", všechny soubory by ale vlastnil
"project":"project". Skupina by měla přístup jen pro čtení a php-fpm
pool by to nemohl změnit. Skupina by měla práva zápisu jen do složky
"/tmp", aby si mohla aplikace vytvářet dočasné soubory.
Jenže jsem na takové nastavení práv nikde nenarazil a tak nevím, jestli
jsem to moc "nepřekombinoval" :-D
Předem díky za reakce,
Honza
Hello/ahoj,
změnil jsem shell pro root a teď nemůžu přihlasit jako root. Zkusil jsem
nasladujicí...
I messed up with chsh root on my VPS. I can still log in with other
users, but I cannot log in as root. I cannot figure out how to set the
root shell back to something sane. None of my other users are sudoers. I
have tried:
VPSAdmin remote console:
When I enter root and the password, the screen resets (because the
incorrect shell entry exits imediately...)
I also tried:
$ su --login --shell /bin/bash --command /bin/bash
Password:
Cannot execute fish
$ chsh --shell /bin/bash root
You may not change the shell for 'root'.
$ ssh root@<ip-address> /bin/bash
root@<ip-address> password:
Permission denied, please try again.
root@<ip-address> password:
Permission denied, please try again.
root@<ip-address> password:
Permission denied (publickey,password).
I'm not sure what else to try :(
Prosím, vynechte komentáře o tom, že jsem idiot. Už mě to opakoval Google asi milion krat za tu hodinu co Googlím řešení :D
Tim -
timthelion