<div dir="ltr"><div>tohle mne celkem zaujalo:<br><br>
1. zalohovaci pole (co nejvic raw disku, zadne HW RAIDy)
<br><br></div>proc zadne hw raidy?<br></div><div class="gmail_extra"><br><div class="gmail_quote">2018-04-18 17:59 GMT+02:00 Pavel Snajdr <span dir="ltr"><<a href="mailto:snajpa@snajpa.net" target="_blank">snajpa@snajpa.net</a>></span>:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Co myslis konkretne?<br>
<br>
Vlastni vpsAdminOS cluster? Jo. Presne tam je namireny, aby se co mame v produkci, dalo snadno replikovat.<br>
<br>
vpsAdminOS dostava prave integraci s vpsAdminem (proto to jmeno, zejo).<br>
<br>
Potom si budes moct deploynout svuj cluster sam.<br>
<br>
Do dvou nodu budes potrebovat strcit flashku, aby mely jak nabootovat, ty pak budou delat zaroven PXE prostredi pro zbytek clusteru.<br>
<br>
Cele by to melo byt self-hosting, tj. vystaci si to samo, ale krom serveru s lokalnim storage (kombo SSD+HDD nebo SSD only) potrebujes dve zasadni veci:<br>
<br>
1. zalohovaci pole (co nejvic raw disku, zadne HW RAIDy)<br>
2. BGP na switchich/BGP-schopnou-sit (kdyz ne na switchich, dva linuxove treba OpenWRT routery)<br>
<br>
Ohledne replikace dat, jak jsem psal, to budeme teprv resit, takze vetsi HAcka teprv prijdou.<br>
<br>
Na send/recv jsme se taky vykaslali, protoze pokud nejste Nexenta a nemate zamestnanych par skilled ZFS developeru, dost to drhne.<br>
<br>
/snajpa<div><div class="h5"><br>
<br>
On 2018-04-18 16:10, zd nex wrote:<br>
</div></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div class="h5">
Jasně chápu ;)<br>
<br>
Prostě mě to zajímalo. Btw půjde v budoucnu nějakým způsobem<br>
postavit VPS nad více nody?<br>
<br>
Dne 18. dubna 2018 15:53 Pavel Snajdr <<a href="mailto:snajpa@snajpa.net" target="_blank">snajpa@snajpa.net</a>> napsal(a):<br>
<br>
</div></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div class="h5">
My chceme mit primy dosah na technologie, co bezime.<br>
<br>
Ty statisice radku Pythonu, Go, Ruby a ceho ja vim jeste mame uz<br>
nejakou chvili napsane po svem, na zlomek radku kodu. Mame to primo<br>
zaintegrovane tak, jak podkladove technologie, vetsinou psane v<br>
Ccku, pouzivame. Hadej, co bylo driv, vpsFree servery v produkci<br>
nebo vubec nejaky prvni release OpenStacku? ;)<br>
<br>
Uz s tim delame prilis dlouho, abychom se chteli vztekat, ze danou<br>
vec chce projekt X delat po svem a upstream patch pro zmenu chovani<br>
nechce prijmout...<br>
<br>
Ja si myslim, ze vyvoj vlastniho reseni je v podstate od zacatku az<br>
do ted cca podminkou pro to, abychom mohli mit takovyhle setup s<br>
kontejnery ‘jako plne VM’, v takove hustote and all.<br>
<br>
/snajpa<br>
<br>
On 18 Apr 2018, at 15:19, zd nex <<a href="mailto:zdnexnet@gmail.com" target="_blank">zdnexnet@gmail.com</a>> wrote:<br>
<br>
Když už je řeč např. Ceph > nevyplatí se i vyzkoušet<br>
například OpenStack či podobné technologie, které slučují HW<br>
dohromady pod jednu nastavitelnou platformu pro jednodušší<br>
škálování? Nebo se o toto bude snažit právě nové LXC?<br>
<br>
--<br>
S pozdravem,<br>
<br>
Zdeněk Dlauhý<br>
<br>
<a href="mailto:Email%3Asupport@pripravto.cz" target="_blank">Email:support@pripravto.cz</a><br>
Mobil: +420 702 549 370<br></div></div>
Web: <a href="http://www.pripravto.cz" rel="noreferrer" target="_blank">www.pripravto.cz</a> [1]<div><div class="h5"><br>
<br>
Dne 18. dubna 2018 14:43 Pavel Snajdr <<a href="mailto:snajpa@snajpa.net" target="_blank">snajpa@snajpa.net</a>> napsal(a):<br>
Ja bych ani nerekl, ze je to nestastny. Je to, jak to je - lokalni<br>
storage je v podstate jedina mozna produkcni varianta, jak jsme to<br>
vubec mohli mit.<br>
<br>
Kdo u nas uz je dost dlouho, mozna pamatujete na rackovou akci -<br>
kdy jsme chteli prejit do racku a pro virtualy prave udelat shared<br>
storage s tim, ze bychom ho pak pres treba prave DRBD mirrorovali na<br>
druhe pole.<br>
<br>
Narazili jsme na to, ze neexistoval (a stale ee) rozumny zpusob,<br>
jak vysdilet s nizkou latenci a rozumnym cachovanim (sta-)miliony<br>
malinkych souboru.<br>
<br>
NFSv3 ma omezeni na 16 secondary group, do kterych muze user patrit<br>
a neumi ACLka a dalsi veci.<br>
<br>
NFSv4 se neda dokopat k raw uid/gid, co pro kontejnery taky<br>
potrebujem, protoze host nevidi (nemelo by ho to vubec zajimat),<br>
jake UID/GID ma jak pouzite kontejner. Tedy, tak to bylo s OpenVZ 6;<br>
s user namespace pri upstream kernelu uz NFSv4 pravdepodobne nejak<br>
nahackovat pujde, ale ruku do ohne za takovy reseni nedam...<br>
<br>
Taky jsme meli slabou sit (2xGE) a celkove si myslim, ze i<br>
kdybychom to postavili, asi bychom tim zabili sami sebe a s tim chut<br>
vpsFree nejak dal rozsirovat. Jsem si celkem jisty, ze pouzitelnost<br>
reseni v prepoctu na jednu koncovou VPSku by byla v kopru, s<br>
dostupnosti ve finale horsi, nez s lokalnim ulozistem.<br>
<br>
Lokalni storage proste skaluje nejvic. Vi to vsichni a vsude, kde<br>
se virtualizuje kus vic - ve verejnych Internetovych datacentrech se<br>
jede scale-out, centralni prvky neskaluji. V korporatnich je to neco<br>
jinyho, kdyz si firma muze dovolit (a chce mit) proprietarni reseni,<br>
da se.<br>
<br>
Nad OpenVZ jadrem se toho moc vymyslet nedalo, no.<br>
<br>
S upstream kernelem mame najednou jinaci moznosti - a s dostupnosti<br>
10Gbit sitovani za rozumne ceny (z druhe ruky) se uz da premyslet o<br>
nejakem rozumnejsim clusterovani, jako treba Ceph, nebo DRBD9.<br>
<br>
Kdyz neni sit limitujicim faktorem, na kterem by se to kuckalo,<br>
pojede to zase jinak.<br>
<br>
Ale myslim si, ze zadna velka migrace na clustered storage nebude,<br>
ze pojedeme obe reseni najednou.<br>
<br>
Na lokalnich discich budou jak VPSky, tak blockstore pro nejaky<br>
distributed storage (a VPSky nad nim) - a kazdy bude mit na vyber,<br>
jak chce mit data ulozena (protoze to mmj. znamena taky jinou rezii<br>
na ulozeny GB, kdyz to promitnem na raw diskovy prostor).<br>
<br>
Tohle budeme zavadet postupne, prvni metou je dostat se na upstream<br>
kernel. A jestli to bude Ceph, DRBD9, nebo iSCSI ciste s Declustered<br>
RAID driverem v ZFS, nebo co presne, to jeste jasne vubec neni, to<br>
bude zalezet, jak se to v praxi bude chovat nad nasim konkretnim<br>
poctem serveru (a vyhledy do budoucna), pro nas use-case.<br>
<br>
/snajpa<br>
<br>
On 2018-04-18 12:46, sorki wrote:<br>
<br>
Ahoj,<br>
<br>
data VPSiek su momentalne na nodach a je to vcelku nestastne lebo<br>
ked<br>
umre hardware tak jedina moznost je prehadzat disky do inej masiny<br>
aby<br>
sli VPSky aspon odmigrovat. Pohravali sme sa s myslienkou stand-by<br>
node, do ktorych by prave sli disky takto prehadzat, problem je<br>
vsak,<br>
ze niektore nody maju iny pocet diskov a po novom sa nam do toho<br>
miesa<br>
este aj NVMe.<br>
<br>
Dalsia moznost by bola bezat nad clustrovym storageom (snajpa<br>
navrhoval skusit DRBD9), kde by v pripade vypadku hw mohli VPS<br>
nastartovat na inych nodach (storage zdielany cez vsetky nody v<br>
lokacii). Prave druhu moznost by som rad casom virtualizovane<br>
vyskusal, otazka je ako to bude fungovat so zfs.<br>
<br>
- srk<br>
<br>
On 04/18/2018 11:06 AM, Ondrej.Flidr wrote:<br>
<br>
Hoj,<br>
Co ti muzu rict ze svoji zkusenosti, tak data jsou na nodu, kde<br>
bezi virtual. Kdyz node slitne, virtual nejede. Delaly se nejaky<br>
experimenty s centralnim storage, ale bylo to nechutne pomaly<br>
(prakticky takhle vznikl NASbox). Ostatne to je problem vzdycky,<br>
ono<br>
i 100Gbit linky jsou pomaly, kdyz pres to tahas image stovek<br>
virtualu.<br>
<br>
Pokud chces mit jistotu, ze ti veci pojedou at se stane cokoliv,<br>
musis jit do klasickejch HA technik - balancing napric vic VPS,<br>
nesmej bejt na stejnym nodu (idealne pulka v Praze, pulka v Brne,<br>
abys dokazal ustat i DDoS). Je to drahy ale to je HA vzdycky.<br>
<br>
At tvuj stack a jak to udelat lip - vsechno musi byt min. 2x :)<br>
Pokud chces mit jistotu, ze to bude OK, musis to postavit takhle:<br>
<br>
- min 3x vypocetni stroj<br>
- v kazdym 2x radic diskovyho pole<br>
- 2x SAS/FC switch<br>
- Z kazdyho serveru kabel do kazdyho SAS/FC switche<br>
- Z kazdyho SAS/FC switche kabely do kazdyho pole<br>
- V kazdym poli 2x radic, kazdej pripojenej do jednoho switche<br>
- Na obou polich totozny data<br>
<br>
Takhle budes mit jistotu, ze at uz umre cokoliv, porad bude nejaka<br>
cesta jak se danej node dostane k datum. Nicmene uprimne - na tohle<br>
bych se vykaslal, delal storage primo na serverech a mirror/HA na<br>
urovni aplikaci ve virtualech. A proste pocitat s tim, ze hardware<br>
muze umrit, ale aplikaci je to jedno.<br>
<br>
Co se tyce site, tu pak res stejnym konceptem:<br>
<br>
- 2x switch<br>
- v kazdym serveru 2x sitovka, kazda 2 porty (1 muze byt onboard)<br>
- Nakonfigurovany Bond-over-Bond - vzdycky 1 port z kazdy sitovky<br>
do stejnyho switche, nad tim LACP bond a nad temahle dvouma bondama<br>
dalsi v rezimu active-passive (pokud nemas switche co umej<br>
stackovat<br>
a LACP pres ruzny zarizeni)<br>
- 2x router, kazdej vlastni uplink<br>
- kazdej switch pripojenej do obou routeru a mezi sebou. Je potreba<br>
mit dobre nastaveny STP, aby jsi se nezabil na smyckach<br>
<br>
Ondra Flidr<br>
<br>
---------- Původní e-mail ----------<br>
Od: Pavel Hruška <<a href="mailto:mrpear@mrpear.net" target="_blank">mrpear@mrpear.net</a>><br></div></div>
Komu: vpsFree.cz [2] Community list<span class=""><br>
<<a href="mailto:community-list@lists.vpsfree.cz" target="_blank">community-list@lists.vpsfree.<wbr>cz</a>><br>
Datum: 18. 4. 2018 10:45:27<br></span>
Předmět: Re: [vpsFree.cz [2]: community-list] Infrastruktura<br>
<a href="http://vpsfree.cz" rel="noreferrer" target="_blank">vpsfree.cz</a> [3]<span class=""><br>
<br>
Ahoj Pavle, díky za odpověď.<br>
<br></span>
Pro mě je záběr <a href="http://vpsfree.cz" rel="noreferrer" target="_blank">vpsfree.cz</a> [3] [1], resp. vpsadminos, tedy to,<div><div class="h5"><br>
že<br>
<br>
bych se hrabal ve zdrojácích na githubu, trošku za hranou,<br>
navíc<br>
pokud píšeš, že to není příliš friendly pro lidi neznalé<br>
"z<br>
venku" :). Jsem o "několik pater jako admin výš" a některé<br>
věci nechávám raději jako black-box. Jinak virtualizuju spíš<br>
Windows stroje přes KVM (tedy ne u vás, ale tady na firmě).<br>
<br>
Nicméně rád bych věděl trošku víc jak máte z principu<br>
postavený celý systém - jestli chápu dobře, tak každý node<br>
je<br>
samostatný, tzn. je včetně svého úložiště (prostě když<br>
mám svůj virtuál na node14, data mám taky na něm)? NAS je<br>
samozřejmě po síti dostupný z každého node. Zajímá mě co<br>
se<br>
děje při výpadku node: hostované virtály na něm pak nejedou?<br>
Chodí mi samozřejmě maily z outage listu, ale když mi něco<br>
přijde a zkusím si svůj server, vždy to běží, tak nevím,<br>
jestli to chodí až po výpadku nebo jak přesně? Nebo je to<br>
úplně jinak? A pak samozřejmě jde o to, kdyby byl nějaký<br>
horší výpadek, třeba to, že se node celý sesype (hw serveru,<br>
disky), co pak?<br>
<br>
Aktuálně mám virtualizovaný dva fyzický stroje, které sdílí<br>
společné diskové pole, nepřijde mi to moc šťastné, protože<br>
při výpadku toho pole jsem....no asi víš kde. Tak<br>
přemýšlím,<br>
jak to vyřešit lépe.<br>
<br>
Na tom vašem HW mě překvapilo i to, že se v nodech používají<br>
desktop-grade disky (WD black jsem tam viděl), teda jestli jsem to<br>
pochopil správně. A jaké máš dlouhodobě zkušenosti s<br>
Supermicro servery, jsou ok? Četl jsem rozporuplné názory... Já<br>
jedu na HP.<br>
<br>
V podstatě v tom prvním mailu jsem se ptal na to, jestli už<br>
třeba někde nevisí přednáška nebo něco, která by tohle<br>
popisovala. Nechci zbytečně otravovat ;).<br>
<br>
P.<br>
<br>
Dne 17. dubna 2018 16:27 Pavel Snajdr <<a href="mailto:snajpa@snajpa.net" target="_blank">snajpa@snajpa.net</a>><br>
napsal(a):<br>
Cauko Pavle,<br>
<br>
v te tabulce chybi nove nody a celkove je dost zastarala; nechtelo<br>
by se Ti na to napsat skript, ktery by ji generoval? Nebo kdyz ne<br>
tobe, nasel by se jiny dobrovolnik?<br>
<br>
Na vsechny nody mam SSH, skript bych poustel od sebe, jako parametr<br>
by dostal hostnames a pak, kdyby idealne vyplivnul Dokuwiki tabulku<br>
s udaji per node:<br>
<br>
- typ desky (dmidecode)<br>
- nainstalovane procesory (dmidecode)<br>
- nainstalovana pamet (dmidecode)<br>
- nainstalovane disky (lsblk? smartctl -a /dev/sd* ?)<br>
<br>
Kdyby se to nekomu chtelo splacnout, budu velmi rad :)<br>
<br>
Jinak zdrojaky k tomu, co jedeme, jsou na Githubu:<br>
<br>
</div></div><a href="https://github.com/vpsfreecz/" rel="noreferrer" target="_blank">https://github.com/vpsfreecz/</a> [4] [2]<span class=""><br>
<br>
Aktualni reseni neni moc staveny na vic deploymentu, aby si to<br>
kazdy mohl nasadit u sebe - neni to moc dobre podokumentovane a uz<br>
vubec se nepocita pri updatech s nekym "neinformovanym".<br>
<br>
Tak jako tak, OpenVZ 6 doziva a stavime nastupnicky reseni nad<br>
upstream technologiemi:<br>
<br>
</span><a href="https://vpsadminos.org/" rel="noreferrer" target="_blank">https://vpsadminos.org/</a> [5] [3]<span class=""><br>
<br>
Tohle uz si troufame mirit i pro ostatni k nasazeni, je to jeste<br>
dost dlouhy kus cesty, ale chceme se tam dostat.<br>
<br>
Aby si mohli treba kluci v Indii zalozit svoje vpsFree, protoze pro<br>
nas se tam dostat je vcelku z fleku nerealny, kdyz nezname mistni<br>
pomery (a na slepo do nejakyho indickyho datacentra jit, to je o<br>
nervy).<br>
<br>
Vypadky hlasime v outage-listu:<br>
<br>
</span><a href="https://lists.vpsfree.cz/pipermail/outage-list/" rel="noreferrer" target="_blank">https://lists.vpsfree.cz/piper<wbr>mail/outage-list/</a> [6] [4]<span class=""><br>
<br>
Na konferencich nas muzes potkat uz nekolikaty rok, jezdime na<br>
InstallFest, LinuxDays, OpenAlt a cokoliv, co se zrovna povede v<br>
Bratislave - pristi vikend se muzem potkat prave na OpenCampu,<br>
sobota, FIT STU:<br>
<br>
</span><a href="https://opencamp.sk/o-konferencii" rel="noreferrer" target="_blank">https://opencamp.sk/o-konferen<wbr>cii</a> [7] [5]<span class=""><br>
<br>
A jinak se urcite ptej dal, kdyztak dej prosim konkretnejsi dotaz,<br>
akorat ;)<br>
<br>
/snajpa<br>
<br>
On 2018-04-17 15:15, Pavel Hruška wrote:<br>
Ahojte,<br>
<br></span>
četl jsem si ve znalostní bázi o infrastruktuře <a href="http://vpsfree.cz" rel="noreferrer" target="_blank">vpsfree.cz</a> [3]<br>
[1] [1]<br>
(<a href="https://kb.vpsfree.cz/informace/infrastruktura" rel="noreferrer" target="_blank">https://kb.vpsfree.cz/informa<wbr>ce/infrastruktura</a> [8] [6] [2]), můj<span class=""><br>
dotaz<br>
jestli je popsaný stav aktuální?<br>
<br></span>
Jsem u <a href="http://vpsfree.cz" rel="noreferrer" target="_blank">vpsfree.cz</a> [3] [1] [1] přes dva roky a řeším teď<span class=""><br>
infrastrukturu<br>
ve firmě, tedy v menším měřítku (3 fyzické servery) a také<br></span>
díky <a href="http://vpsfree.cz" rel="noreferrer" target="_blank">vpsfree.cz</a> [3] [1] [1] se začínám zajímat více o<span class=""><br>
(opensource)<br>
linuxovou virtualizaci a především ZFS. Dozvědět se více o<br>
tom,<br></span>
jak funguje infrastruktura <a href="http://vpsfree.cz" rel="noreferrer" target="_blank">vpsfree.cz</a> [3] [1] [1] by byla skvělá<span class=""><br>
inspirace,<br>
např. zkušenosti se servery, jak přesněji je řešeno<br>
úložiště, co výpadky nodů (jestli jsou a jak se to<br>
případně<br>
řeší) atp. Nedá někde zjistit více, nebude nějaká<br>
konference,<br>
přednáška, ...?<br>
<br>
Díky,<br>
Pavel<br>
<br>
Links:<br>
------<br></span>
[1] <a href="http://vpsfree.cz" rel="noreferrer" target="_blank">http://vpsfree.cz</a> [3] [1]<br>
[2] <a href="https://kb.vpsfree.cz/informace/infrastruktura" rel="noreferrer" target="_blank">https://kb.vpsfree.cz/informac<wbr>e/infrastruktura</a> [8] [6]<span class=""><br>
<br>
______________________________<wbr>_________________<br>
Community-list mailing list<br>
<a href="mailto:Community-list@lists.vpsfree.cz" target="_blank">Community-list@lists.vpsfree.c<wbr>z</a><br>
</span><a href="http://lists.vpsfree.cz/listinfo/community-list" rel="noreferrer" target="_blank">http://lists.vpsfree.cz/listin<wbr>fo/community-list</a> [9] [7]<span class=""><br>
______________________________<wbr>_________________<br>
Community-list mailing list<br>
<a href="mailto:Community-list@lists.vpsfree.cz" target="_blank">Community-list@lists.vpsfree.c<wbr>z</a><br>
</span><a href="http://lists.vpsfree.cz/listinfo/community-list" rel="noreferrer" target="_blank">http://lists.vpsfree.cz/listin<wbr>fo/community-list</a> [9] [7]<br>
<br>
--<br>
<br>
Ing. Pavel Hruška<br>
<a href="http://www.mrpear.net" rel="noreferrer" target="_blank">http://www.mrpear.net</a> [10] [8]<br>
<br>
<a href="mailto:mrpear@mrpear.net" target="_blank">mrpear@mrpear.net</a><br>
<br>
web, webdesign, web-aplikace:<br>
<a href="http://www.pearfect.cz" rel="noreferrer" target="_blank">http://www.pearfect.cz</a> [11] [9]<span class=""><br>
______________________________<wbr>_________________<br>
Community-list mailing list<br>
<a href="mailto:Community-list@lists.vpsfree.cz" target="_blank">Community-list@lists.vpsfree.c<wbr>z</a><br>
</span><a href="http://lists.vpsfree.cz/listinfo/community-list" rel="noreferrer" target="_blank">http://lists.vpsfree.cz/listin<wbr>fo/community-list</a> [9] [7]<span class=""><br>
<br>
______________________________<wbr>_________________<br>
Community-list mailing list<br>
<a href="mailto:Community-list@lists.vpsfree.cz" target="_blank">Community-list@lists.vpsfree.c<wbr>z</a><br>
</span><a href="http://lists.vpsfree.cz/listinfo/community-list" rel="noreferrer" target="_blank">http://lists.vpsfree.cz/listin<wbr>fo/community-list</a> [9] [7]<br>
<br>
Links:<br>
------<br>
[1] <a href="http://vpsfree.cz" rel="noreferrer" target="_blank">http://vpsfree.cz</a> [3]<br>
[2] <a href="https://github.com/vpsfreecz/" rel="noreferrer" target="_blank">https://github.com/vpsfreecz/</a> [4]<br>
[3] <a href="https://vpsadminos.org/" rel="noreferrer" target="_blank">https://vpsadminos.org/</a> [5]<br>
[4] <a href="https://lists.vpsfree.cz/pipermail/outage-list/" rel="noreferrer" target="_blank">https://lists.vpsfree.cz/piper<wbr>mail/outage-list/</a> [6]<br>
[5] <a href="https://opencamp.sk/o-konferencii" rel="noreferrer" target="_blank">https://opencamp.sk/o-konferen<wbr>cii</a> [7]<br>
[6] <a href="https://kb.vpsfree.cz/informace/infrastruktura" rel="noreferrer" target="_blank">https://kb.vpsfree.cz/informac<wbr>e/infrastruktura</a> [8]<br>
[7] <a href="http://lists.vpsfree.cz/listinfo/community-list" rel="noreferrer" target="_blank">http://lists.vpsfree.cz/listin<wbr>fo/community-list</a> [9]<br>
[8] <a href="http://www.mrpear.net/" rel="noreferrer" target="_blank">http://www.mrpear.net/</a> [12]<br>
[9] <a href="http://www.pearfect.cz/" rel="noreferrer" target="_blank">http://www.pearfect.cz/</a> [13]<span class=""><br>
<br>
______________________________<wbr>_________________<br>
Community-list mailing list<br>
<a href="mailto:Community-list@lists.vpsfree.cz" target="_blank">Community-list@lists.vpsfree.c<wbr>z</a><br>
</span><a href="http://lists.vpsfree.cz/listinfo/community-list" rel="noreferrer" target="_blank">http://lists.vpsfree.cz/listin<wbr>fo/community-list</a> [9]<br>
</blockquote><span class="">
<br>
_____________________________<wbr>__________________<br>
Community-list mailing list<br>
<a href="mailto:Community-list@lists.vpsfree.cz" target="_blank">Community-list@lists.vpsfree.<wbr>cz</a><br></span>
<a href="http://lists.vpsfree.cz/listinfo/community-list" rel="noreferrer" target="_blank">http://lists.vpsfree.cz/listi<wbr>nfo/community-list</a> [9]<br>
<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span class="">
______________________________<wbr>_________________<br>
Community-list mailing list<br>
<a href="mailto:Community-list@lists.vpsfree.cz" target="_blank">Community-list@lists.vpsfree.c<wbr>z</a><br>
</span><a href="http://lists.vpsfree.cz/listinfo/community-list" rel="noreferrer" target="_blank">http://lists.vpsfree.cz/listin<wbr>fo/community-list</a> [9]<br>
</blockquote><span class="">
<br>
______________________________<wbr>_________________<br>
Community-list mailing list<br>
<a href="mailto:Community-list@lists.vpsfree.cz" target="_blank">Community-list@lists.vpsfree.<wbr>cz</a><br></span>
<a href="http://lists.vpsfree.cz/listinfo/community-list" rel="noreferrer" target="_blank">http://lists.vpsfree.cz/listi<wbr>nfo/community-list</a> [9]<br>
<br>
<br>
<br>
Links:<br>
------<br>
[1] <a href="http://www.pripravto.cz" rel="noreferrer" target="_blank">http://www.pripravto.cz</a><br>
[2] <a href="http://vpsFree.cz" rel="noreferrer" target="_blank">http://vpsFree.cz</a><br>
[3] <a href="http://vpsfree.cz" rel="noreferrer" target="_blank">http://vpsfree.cz</a><br>
[4] <a href="https://github.com/vpsfreecz/" rel="noreferrer" target="_blank">https://github.com/vpsfreecz/</a><br>
[5] <a href="https://vpsadminos.org/" rel="noreferrer" target="_blank">https://vpsadminos.org/</a><br>
[6] <a href="https://lists.vpsfree.cz/pipermail/outage-list/" rel="noreferrer" target="_blank">https://lists.vpsfree.cz/piper<wbr>mail/outage-list/</a><br>
[7] <a href="https://opencamp.sk/o-konferencii" rel="noreferrer" target="_blank">https://opencamp.sk/o-konferen<wbr>cii</a><br>
[8] <a href="https://kb.vpsfree.cz/informace/infrastruktura" rel="noreferrer" target="_blank">https://kb.vpsfree.cz/informac<wbr>e/infrastruktura</a><br>
[9] <a href="http://lists.vpsfree.cz/listinfo/community-list" rel="noreferrer" target="_blank">http://lists.vpsfree.cz/listin<wbr>fo/community-list</a><br>
[10] <a href="http://www.mrpear.net" rel="noreferrer" target="_blank">http://www.mrpear.net</a><br>
[11] <a href="http://www.pearfect.cz" rel="noreferrer" target="_blank">http://www.pearfect.cz</a><br>
[12] <a href="http://www.mrpear.net/" rel="noreferrer" target="_blank">http://www.mrpear.net/</a><br>
[13] <a href="http://www.pearfect.cz/" rel="noreferrer" target="_blank">http://www.pearfect.cz/</a><span class=""><br>
<br>
______________________________<wbr>_________________<br>
Community-list mailing list<br>
<a href="mailto:Community-list@lists.vpsfree.cz" target="_blank">Community-list@lists.vpsfree.c<wbr>z</a><br>
<a href="http://lists.vpsfree.cz/listinfo/community-list" rel="noreferrer" target="_blank">http://lists.vpsfree.cz/listin<wbr>fo/community-list</a><br>
</span></blockquote><div class="HOEnZb"><div class="h5">
______________________________<wbr>_________________<br>
Community-list mailing list<br>
<a href="mailto:Community-list@lists.vpsfree.cz" target="_blank">Community-list@lists.vpsfree.c<wbr>z</a><br>
<a href="http://lists.vpsfree.cz/listinfo/community-list" rel="noreferrer" target="_blank">http://lists.vpsfree.cz/listin<wbr>fo/community-list</a><br>
</div></div></blockquote></div><br><br clear="all"><br>-- <br><div class="gmail_signature" data-smartmail="gmail_signature">PhDr. Dominik Prochazka<br>00421 902 121 571<br><br><br><br><br></div>
</div>