Ahojte vazeni clenove,
mame novy termin clenske schuze shrnujici rok 2019,
a sice 26. 6., od 18:30 v restauraci U Balbinu v Praze.
(Jungmannova 22, Praha 1, https://www.ubalbinu.cz/)
Program schuze:
1. Shrnuti roku 2019
- financni + organizacni + technicke shrnuti roku 2019
2. Plany na rok 2020 a dal
- orientace spolku v ekonomicke krizi
- vpsAdminOS, fakturace, web UI
3. Diskuze: socialni rozmer vpsFree, spoluprace ve spolku
- Navrh:
Pravidelne "office hours"
- tj. moznost se pravidelne potkat (mimo pivo)
- spolecne debugovani problemu
- postupne zapojeni dalsich lidi do fungovani spolku (neni-li to
naivni predstava)
- K zamysleni do schuze:
Co muze svym clenum vpsFree nabidnout nad zakladni myslenku sdileni
HW prostredku?
Co muzeme jako spolek nabidnout siroke verejnosti, je-li neco
takoveho?
Jak muzeme zapojit dalsi nadsence do toho, co delame?
Ktere formy propagace spolku jsou pro nas vhodne (a moralne
prijatelne)?
- napr. je OK reklama na FB? Je OK pouzit Google Analytics?
Jak to bude s konferencemi a vpsFree?
4. Volna zabava, rezervaci mame az do pulnoci.
Tesim se na vsechny, co si najdou cas a obzvlast na ty, kdo maji chut
prispet svymi napady do 3tiho bodu :)
Na miste budeme uz od 18:00, takze prijdte klidne driv (obzvlast, pokud
do Prahy prijedete driv).
Na videnou na schuzi! ;)
/snajpa
Ahoj,
přes týden jsem se snažil nastudovat nasazení Nginx jako proxy a vrtá mi
hlavou několik věcí. Chtěl jsem proto poprosit o radu zkušenější, abych
něco "nezkonil" hned na začátku :-)
1) Spojení mezi proxy a backendem
V jiném vlákně tady proběhla diskuze ohledně "vnitřních" IP adres. Na KB
jsem se dočetl, že se o ně musí žádat a můžou se měnit. Mají pro spojení
mezi proxy a backendem vnitřní adresy nějaký význam, například z
hlediska bezpečnosti nebo rychlosti? Můj plán byl dělat spojení mezi
stroji pomocí přidělených IPv6 adres.
2) Šifrování mezi proxy a backendem
Myslím, že v tom samém vlákně Snajpa psal něco ve smyslu, že na síti
mezi VPS je těžké odposlechnout provoz (myslím, že se tam řešili
privátní vlany nebo tak něco). Úplně se v tomhle neorientuji a proto
jsem se chtěl zeptat, zda byste v našem prostředí považovali za
bezpečné, kdybych SSL spojení ukončoval na proxy a mezi proxy a
backendem posílal jen klasické HTTP? Na webu Nginxu jsem našel, že je
možné mezi proxy a backendem rozjet také SSL spojení, ale nevím, zda to
není overkill.
3) SSH tunel na proxy
Aktuálně mám na serveru jednu stránku, pro kterou Nginx poslouchá na
127.0.0.1 a klienti se k ní propojují pomocí SSH tunelu a port
forwardingu. V případě nasazení jako "proxy - backend" bych na proxy
opět udělal server poslouchající na 127.0.0.1 a předávající požadavky na
proxy. Bude stačit, když na backendu pro tuto stránku nastavím omezení
přístupu jen z IP adresy proxy? Nebo bych to měl ošetřit ještě nějak dál?
Předem díky za pomoc!
Všechny zdraví
Honza
--
Jan B. Kolář
Zažeň nudu
Hodolanská 17, 779 00 Olomouc
tel: +420 605 800 859
e-mail: janbivoj.kolar(a)zazen-nudu.cz
www.zazen-nudu.cz
Zdravím,
posledních pár dní hodně čtu o IPv6 a v rámci shánění informací jsem našel mnoho článků, které adorují Nginx proti Apache2. Co jsem se díval, tak nastavit Nginx je stejně snadné jako Apache2 a navíc je na některé údajně rychlejší. Hlavně rychlost je co neustále řeším u klientů a tak bych ho rád vyzkoušel.
Tak se chci zeptat, lze na jednom serveru (Ubuntu 18) k Apache2 doinstalovat i Nginx, a ten nastavit, aby fungoval pouze pro IPv6 volání a do současného stavu se nepletl? Tedy aby se neprali o port 80, ale Nginx bych si pokusně hodil jen na IPv6 volání (a přidal HTTPS). Případně, aby Nginx obsluhoval HTTPS a Apache2 HTTP? Nikde tuto informaci nemohu najít a nechci si poškodit fungující server. Všechny návody co jsem našel řeší migraci z Apache2 na Nginx, ale když řeší souběh, tak jen jako reverzní proxy (nebo reverzní proxy potřebuji taky?).
Díky za radu či případný odkaz, Standa
VPS ID: 16705
Ahoj,
prosím o info (radu), zda je možné instalovat systém Android-x86 na VPS
a mít k dispozici grafickou konzoli (jako např. u VMware).
Díky, BH.
Ahoj,
> On 08.06.2020 10:55, Jaroslav Skrivan wrote:
> Zas tak zle to neni. Nam ze serveru tece 20% ipv6 provozu k uzivatelum
> (prevazne cz/sk provoz). Google hlasi 30%.
> Dlouhodoby rust je ale velmi pomaly.
tak to se přiznám, že mi _na ČR_ připadá docela pěkné. Mohu navázat na
předchozí – naše trojka je takový smutný operátorský Klondike. A to
nemyslím vůbec cenovou politiku apod. Jediný, kdo se tady snažil něco
razantněji dělat, pokud si pamatuji, je Radek Zajíc u TMCZ, ale těžko
říct, zda to nebyl marný boj.
1) O2 – dělá na fixu i mobile DPI (Host u HTTP, SNI u HTTPS) pro mkt
účely; zkušenost ex-zaměstnance 2019
Takže tady bych tuneloval, co se dá, ostatně nedělám si iluze u jiných
operátorů, tedy díky za DNS-over-TLS/HTTPS, ESNI apod.
2) Vodafone – cca v lednu 2019 začal po mnoha letech blokovat na VDSL
příchozí provoz, od té doby účtuje 175 CZK za "veřejnou a statickou
IPv4", ačkoli statická by nebyla vůbec potřeba; IPv6 je utopie
3) TMCZ – jsem v Praze na "fixním" LTE, protože nemám jinou možnost;
IPv4 za CGN, IPv6 v říši snů
Myslím si, že pokud se naši operátoři nepohnou, situace s IPv6 se nějak
nezlomí. Ondřej Caletka ukazoval na poslední prezentaci IPv6 u Orange v
Polsku, prostě paráda.
IPv6 tunel vpsFree je prima počin, ovšem škoda, že Mikrotik umí u
OpenVPN jen TCP/AES256-CBC+(MD5/SHA1) s certifikáty. Dalo by se to
naklikat i zde, se současným (a chápu, rozumným) nastavením bych
potřeboval další stroj na routing. Ale IPv6 laboratorní síť Radka Zajíce
se mi líbila.
Suma sumárum: ačkoli aktivity kolem IPv6 naprosto vítám a podporuji,
mohu jej využívat tak akorát na koncové stanici po wireguard tunelu ke
Cloudflare (WARP).
A tip: pokud používáte nginx jako proxy (líbí se mi to), doporučuji
zadefinovat si nejprve upstream a ten použít v proxy_pass, bude vám pak
fungovat keep-alive a agregace spojení směrem k upstreamu (s trošku
dalších parametrů), jinak nikoli, je to někde v dokumentaci popsáno.
Petr
Ahojte vespolek,
nekdy to prijit muselo, k prilezitosti 4. 6. roku cisla vysokeho, a sice
2020 - je na case zacit mavat kapesnickem, vstupujeme do prvni faze
pohrbu IPv4...
IPv4 je mrtvy protokol.
Jsme davno za bodem si to priznat, ted uz nam nezbyva, nez se s tim
hlavne nejak vyrovnat.
V ramci Rady vpsFree.cz jsme se k tomuhle kroku chystali uz dlouho, pak
se ale nakonec povedlo ziskat jeste posledni /22 IPv4 blok, takze jsme
to mohli trochu odlozit, ale uz je to tu:
Od ted uz nedavame zadne dalsi verejne IPv4 adresy per-clen, kazdy clen
ma narok na jednu a tim to konci.
Vsechny sluzby, ktere ve vpsFree provozujeme (a ze jich je), mame za
jednou verejnou IPv4 adresou, za VPS, ktere rikame proxy.vpsfree.cz.
Svoje dalsi v4 adresy maji jen nameservery (a zprasene legacy instalace,
ktere ceka prevod za proxy, vc. mailu, tam je to kvuli ticketingu pres
RT docela bordylek, ale to se vyresi nekdy pri pristim upgradovani).
Ted nastal cas pro vsechny, aby se tak zaridili. IPv4 adresy nejsou a
dalsi nebudou, nezbyva nam nic jineho.
V tehle fazi prestavame pridelovat dalsi verejne IPv4 adresy clenum (ani
za libovolny uplatek :D).
Pointou je, abychom umoznili dalsim, novym, mladsim, vstoupit na ten nas
zpraseny legacy Internet, dokud bude ten legacy protokol tak moc
potreba.
Kdyz jsme ho kolektivne dostali do bodu, kdy uz neni samo o sobe misto
pro nove, je nesmysl, abychom sami razili kurz, "jako by se nic nedelo".
Deje se - IPv4 adresy dosly; a nedeje tolik - IPv6 se porad zasekava u
koncovych ISP.
To neni stav, ve kterem bychom mohli pridelovat dalsi IP adresy tem,
kteri jsou lini nastavit si svoji proxy VPS ;)
Musime se snazit vsichni spolecne.
Petr Krcmar to sepsal na blog trochu libiveji:
https://blog.vpsfree.cz/prejdeme-na-ipv6-spolecne-potrebujeme-to/
Ale ja jsem si rikal, ze na mailing list bude lepsi napsat primo, jak to
vidime, jak to je.
Zaverem bych jenom uklidnil ty, co uz vic IPv4 adres maji, ze se
nechystame do toho stavajiciho stavu nijak brzo sahat (nejdriv, az kdyz
budeme muset, tj. tak za rok-dva od ted) - sice tak zas trochu pomahame
pravidlu, ktere v4 dostalo, kde je - "prvni prijde, prvni mele", ale zas
takovou urgentni adresni krizi netrpime.
To prijde, az (kdyz) bude potreba brat nekde dalsi IPv4 adresy pro nove
cleny a uz nebude odkud (pokud v4 nebude tou dobou minoritnim
protokolem).
Diky vsem za pochopeni,
/snajpa
Ahoj všichni,
včera jsem reagoval na diskuzi ohledně přechodu na IPv6 a omylem jsem to
poslal jenom Snajpovi. Chtěl bych mu poděkovat za jeho přístup a nabídku
dočasné IP adresy, abych se nedostal do problémů. Rozhodl jsem se, že
raději přenos serveru z playgroundu o týden odložím a zkusím to rovnou
udělat "načisto" s využitím proxy.
Chtěl jsem Vás poprosit o radu ohledně proxy pro mailserver (klasika
Postfix + Dovecot na Debianu). Chtěl bych si to tento víkend nastudovat
a potřeboval bych nasměrovat na nějaké vhodné řešení. V podstatě mám teď
jeden starý VPS s IP4, kde mi běží klasický "hosting" (Nginx, MariaDB,
Postfix a Dovecot na Debian 9). Na playgroundu mám druhý VPS s Debian
10, na kterém mám nainstalovaný jen Postfix a Dovecot. Chtěl bych z
"hostingového" VPS přesunout mailové služby na ten nový a mít tak dva
stroje, jeden na mail a jeden na web.
Je podle Vás lepší řešení udělat na "hostingovém" VPS proxy pro ten
mailserver nebo to obrátit a udělat mailserver s IP4 a přidat tam proxy
pro webové služby?
Co byste případně použili jako proxy software před ten mail server? Já
se včera díval na Nginx, který umí proxy imap a smtp, ale nebylo mi
úplně jasné použití "http auth". Jestli jsem to pochopil správně, musel
bych mít databázi uživatelů na tom proxy, což mi přišlo nešikovné. Ten
přesun jsem plánoval hlavně kvůli tomu, abych si ty služby oddělil a měl
v tom "pořádek" - tzn. ocenil bych mít vše k e-mailům na jednom stroji.
Všechny zdraví
Honza
--
Jan B. Kolář
Zažeň nudu
Hodolanská 17, 779 00 Olomouc
tel: +420 605 800 859
e-mail: janbivoj.kolar(a)zazen-nudu.cz
www.zazen-nudu.cz
Ahoj,
díky moc za rady. Zatím se mi jako nejschůdnější řešení jeví to, že
udělám mailserver s IPv4 a nginxem jako proxy pro weby běžící na druhém,
IPv6 only stroji. Včera jsem to trochu studoval, ale zatím mi některé
věci nejsou úplně jasné. Zkusím to začít testovat a uvidíme, kam se pohnu.
Honza
--
Jan B. Kolář
Zažeň nudu
Hodolanská 17, 779 00 Olomouc
tel: +420 605 800 859
e-mail: janbivoj.kolar(a)zazen-nudu.cz
www.zazen-nudu.cz
Ahoj,
netýká se to přímo vpsFree, ale je to z oboru :-) Chtěl bych si postavit VM
server a osadit ho 2TB NVMe úložištěm. Otázka je, jak to zálohovat. Obecně
se nedoporučuje NVMe dávat do RAIDu, to ani nechci, ale jak to nejlépe
zálohovat např na plotnový disk. Napadá mě jen kopírovat VM jednou za čas
na HDD, ale určitě existuje i něco chytřejšího. Původně jsem chtěl SATA SSD
do RAIDu, ale kvůli výkonu bych raději NVMe.
Teď mám ESXi a v tom HW RAID 1 z 15k disků a zálohy nedělám. Na Zabbix by
to chtělo ale něco rychlejšího. Netrvám na ESXi, ale mělo by to být free a
rozjet tam vše, co na tom ESXi (Linux i Windows stroje).
Předem dík za tipy.
Mirek
Ahojte, je nejaka hranice poctu lidi v jednom meetingu? Mam pozadavek na
pripravu meetingu pro cca 10 lidi, tak jestli je to v pohode (verim ze ano)
a pripadne jake jsou technicke limity...???
Diky,
P.
Ahoj všem,
jak jste již možná zaregistrovali - kvůli aktuální situaci kdy se je třeba snažit vyhýbat kontaktu s lidmi, jsme rozjeli pro tyto účely videokonferenční jitsi instanci u nás.
Jde o čistý jitsi server s vypnutou jakoukoliv možností špehování (Googlí servery, nahrávání serverside..), se zapnutým šifrováním a rebrandingem.
Doufám že bude k užitku a kdybyste narazili na nevhodný či něco nevysvětlující překlad, dejte mi prosím vědět :-)
https://meet.vpsfree.cz/
Martin Myška
martyet
Ahoj,
máme na node1.stg VPS ve které běží libvirtd kde se nám v guestech jednou za čas stane:
kernel: sd 0:0:0:0: [sda] tag#0 FAILED Result: hostbyte=DID_OK driverbyte=DRIVER_TIMEOUT
kernel: sd 0:0:0:0: [sda] tag#0 CDB: Write(10) 2a 00 00 8d 9a 30 00 00 28 00
kernel: print_req_error: I/O error, dev sda, sector 9280048
kernel: Aborting journal on device sda2-8.
kernel: EXT4-fs error (device sda2): ext4_journal_check_start:61: Detected aborted journal
kernel: EXT4-fs (sda2): Remounting filesystem read-only
Viděli jste někdy něco podobného? Dělají ty VMka prostě příliš mnoho I/O takže driver v guestu vytimeoutuje nebo může být problém jinde? Storage volumes jsou qcow2.
Díky,
Martin Milata
Ahojte,
... tak uz ...
... konecne ...
switchujeme ASICem (Broadcom Tomahawk v S4048-ON),
full-kotel-full-on-full-speed.
Min prijemna zprava je, ze porad jedeme a jeste nejakou dobu pojedeme na
jedne vetvi (ted je to pro zmenu ta druha, co je predelana) a zmeny
jeste budou prichazet, hlavne v adresach NATu.
Pro ted je verejna adresa NATu 83.168.228.130, v budoucnu se to asi
jeste zmeni, nejspis dvakrat - jak predelame primarni vetev, tak poskoci
o par cisel nahoru - a jakmile predelame NAT na linux/x86/conntrackd+HA,
zmeni se finalne na jednu IP adresu, na ktere uz v Praze zustane.
/snajpa
Ahoj,
prosím aspoň stručně: jak moc velký problém bylo zprovoznit
meet.vpsfree.cz?Vím že jsem se asi před 2ma roky o Jitsi zajímal, ale
vzdal jsem to vzhledem k nepřehlednosti stránek a nemožnosti najít
informace nějak rozumně po kupě.
(Máme trochu víc dětí a nároky učitelů na offline vyučování a zároveň
snaha pracovat začíná být celkem neřešitelný problém. Takže pokud by to
bylo jednoduché na zprovoznění, tak bych to zkusil aspoň pro jednu třídu
experimentálně spustit. Ale nemám šanci to udělat pokud by to bylo na
dlouhotrvající kompilování, laborování a testování. Předpokládám, že by
nebylo moudré pustit někoho na Meet.vpsFree, zejména ne 20 puberťáků z
jedné třídy.)
Díky moc aspoň za stručnou opověď.
Štěpán.
Zdravím,
nedaří se mi rozhodnout jak vyřešit backup "store".
Jádrem projektu je MS SQL, nic se nesmí ztratit nebo z toho budou pokuty.
(accounting)
Momentálně mám na stole dvě řešení:
- self-hosted na NASce (synology?)
- urBackup server na low-spec VPS s větším "file space" (1-2TB) - tahle
možnost mě přišla docela praktická, pokrývá to mnoho risků které má
jakékoliv jiné self-hosted solution, jenže po rychlém projití googlu se mi
nedaří něco v tomhle smyslu najít nebo se to cenově nevyplatí. Že bych se
blbě koukal?
Díky, a pěkný den
--
Tomáš Svoboda
*Freelancer | Fullstack Python | 730 694 169*
Ahojte,
mám dotaz na python. Už delší dobu přecházíme na Python3 (je to složitý a
problematický a nemáme žádnou významnou funkci co by to opodstatnila).
Během té doby jsme našli 2 chyby (pickle/shelve) v novém Pythonu a nyní
jsme našel nový hodně velký problém.Je to nová funkce PEP515 podtržítka v
číslech. Tato funkcionalita zní možná naprosto skvěle pro některé lidi, ale
nám nyní dělá značnou neplechu.
Jde o to, že nyní všechny interní funkce jako je int/float/literal_eval při
předání "1_1" a podobně vytvoří číslo 11 a ne SyntaxError. Chápal bych, že
tato funkce bude ve zdrojovém kódu možná užitečná. Jenže pokud nyní
uživatel předá "1_1", tak systém pokračuje dál s novým číslem.
Moje otázka zní, znáte nějaký postup jak toto chování vypnout? Ono se to
nezdá ale int/float a literal_eval používáme opravdu hodně a všude řešit
nějakou takovou kontrolu je těžce proveditelné. V minulosti se podobně blbě
chovala nula na začátku a to naštěstí odstranili, ale nyní přidali tuto
vlastnost.
Zkouším hledat na googlu, ale zatím jsem nenašel nic co by to umožnilo
nějak změnit, ideálně globálně.
--
Zdenek
Web: www.pripravto.cz
Ahojte vazeni clenove,
rad bych Vas pozval na clenskou schuzi naseho spolku za rok 2019,
ktera se kona 28. 3. 2020 od 18:30 v restauraci U Balbinu v Praze.
(Jungmannova 22, Praha 1, https://www.ubalbinu.cz/)
Body programu, ktere budeme probirat:
1. Shrnuti roku 2019 + plan na rok 2020
- financni + organizacni + technicke shrnuti minuleho roku
-
2. Plan na rok 2020
- vpsAdminOS, web, nove UI
3. Diskuze: socialni rozmer vpsFree, spoluprace ve spolku
- Navrh:
Pravidelne "office hours"
- tj. moznost se fyzicky potkat, pravidelne, rekneme 2x do mesice,
Praha/Brno
- spolecne debugovani problemu
- postupne zapojeni dalsich lidi do fungovani spolku (neni-li to
naivni predstava)
- K zamysleni do schuze:
Co muze svym clenum vpsFree nabidnout nad zakladni myslenku sdileni
HW prostredku?
Co muzeme jako spolek nabidnout siroke verejnosti, je-li neco
takoveho?
Jak muzeme zapojit dalsi nadsence do toho, co delame?
Ktere formy propagace spolku jsou pro nas vhodne (a moralne
prijatelne)?
- napr. je OK reklama na FB? Je OK pouzit Google Analytics?
Asi bych celou diskuzni cast shrnul jako: co muzeme delat lepe, abychom
byli zajimavejsi pro vice lidi, aniz bychom tim jakkoliv narusili
integritu toho, co jsme do ted vybudovali? Velke cloudy rostou a my,
pokud budeme na nekterych vecech (mozna prilis) zbytecne dupat, tim
ztracime na relevantnosti.
Co, tedy, muzeme delat jinak, lepe?
Ma - napriklad - smysl se ucastnit konferenci v CZ/SK, pokud se ta ucast
vicemene uz nijak nepreklada na nove cleny?
4. Volna zabava, rezervaci mame az do pulnoci.
Tesim se na vsechny, co si najdou cas a obzvlast na ty, kdo maji chut
prispet svymi napady do 3tiho bodu :)
Na miste budeme uz od 18:00, takze prijdte klidne driv (obzvlast, pokud
do Prahy prijedete driv).
Na videnou na schuzi! ;)
/snajpa
(Pavel Snajdr)
(Predseda spolku vpsFree.cz)
Ahoj,
mám ostrý server a playground. Na playgroundu jsem si vytvořil takovou
konfiguraci, kterou chci mít a teď bych to rád přesunul PG na ostrý
server. Jak by se to dalo udělat?
Pokud jde o administraci serveru jsem na naprostém začátku. Budu vděčný za
odkaz na dobré HOWTO, či srozumitelnou radu. Bude li třeba, rád poskytnu
další informace.
S pozdravem a poděkováním
Petr
Ahojte,
TLDR: jelikoz je v seznamu dost domen clenu vpsFree, zkontrolujte si,
prosim, svoje Let's Encrypt certifikaty, pokud LE pouzivate.
Petr sepsal detaily pekne prehledne na blog:
https://blog.vpsfree.cz/lets-encrypt-revokuje-tri-miliony-certifikatu-zkont…
Diky za pozornost a konec hlaseni ;)
/snajpa
Ahoj,
doporucite mi nejakou VPN, jejiz jeden konec by byl na zdejsim VPS a
druhy na Mikrotiku?
Puvodne jsem chtel pouzit IPIP + IPsec, ale ukazalo se, ze to asi
nepujde. A OpenVPN v TCP rezimu (to kvuli Mikrotiku, ktery UDP neumi)
bych se rad vyhnul.
V.
Ahoj,
připravil jsem si skript pro python napojení na vpsadmin pro qnap NAS.
Primárně pro stahování záloh přímo na NAS. Dělal jsem to podle toho ruby
skriptu co je na webu. Ale mám dva dotazy ohledně tokenů. Jde o to, že nyní
jsou ve vpsadminu viditelné (je tam dokonce tlačítko edit asi nefunguje?
mazání zřejmě funguje, chybí přidat?). Nerad bych však dal na NAS přímo
token na všechno a ještě k tomu s možností obnovení. Tak jsem se chtěl
zeptat, zda jde vygenerovat token pouze např. na přístup ke stahování
snapshotů a s délkou např. na rok a zamezit ostatnímu?
--
S pozdravem,
Zdeněk Dlauhý
Web: www.pripravto.cz
Ahojte, chci se zeptat ze zajímavost a taky neznalosti... Všiml jsem si, že
Docker by měl běžet pod vpsAdminOS už celkem v pohodě. Zkoušel jsem v jiném
prostředí RancherOS, což je linuxová distribuce postavená právě kolem
Dockeru a pro Docker. Je reálné, aby RancherOS bylo možné rozjet pod
vpsAdminOS, aby byl k dispozici jako šablona?
Někde jsem četl, že se v produkci nedoporučuje rozjíždět RancherOS (resp.
Docker) pod LXC, kvůli vnoření kontejnerů, nicméně pokud jde rozjet samotný
Docker, asi by mohl jít rozjet i celý RancherOS, který je v podstatě celý
postaven na Dockeru.
Omlouvám se, pokud jsem napsal něco špatně, zatím všechno okolo Dockeru
atp. teprve objevuji...
Pavel
Ahoj,
pravděpodobně v březnu uskutečníme výroční setkání členů, kde
probereme události posledního roku a představíme novinky a plány pro rok
letošní. Potřebujeme tip na nějaký podnik v Praze, kde bychom měli k
dispozici salónek pro dvacet až třicet lidí, kteří obvykle dorazí.
Máte nějaký tip? Díky
--
Petr Krčmář
vpsFree.cz
Ahoj všem,
aktuálně potřebuji koupit HPE Server (ideálně řadu ML350) a rád bych se
zeptal zda někdo nemáte doporučení na ověřeného prodejce s dobrým servisem.
Díky Jirka
--
-------------------------------------------------
Reklalink s.r.o. | A. Jiráska 260 | Příbram | 261 01
Telefon: +420 724 330 493 | Web: http://www.reklalink.cz
Ahoj,
(English version below)
V Praze máme první produkční node s vpsAdminOS: node1.prg. Je to myšleno
hlavně pro nové členy a nové VPS. Migrace pražských produkčních OpenVZ
VPS můžeme provést na požádání, zatím jen individuálně domluvou přes
podporu. Do Brna se vpsAdminOS dostane až později, nadále tam je k
dispozici jen OpenVZ.
Co se týče stagingu, ten poběží tak jak doposud. VPS ze stagingu na
node1.prg přesouvat aktuálně nebudeme a to ani na žádost. Dostaneme se k
tomu až v následujících týdnech, budeme o tom informovat všechny,
kterých se to týká.
Od této chvíle tedy máme v produkci v Praze dvě virtualizační platformy.
Je potřeba na to myslet při práci s NASem a playgroundem. Playground je
nyní jen pro OpenVZ VPS, pro vpsAdminOS tuto funkci bude plnit Staging.
Více informací o rozdílech viz KB:
https://kb.vpsfree.cz/navody/vps/vpsadminos
ENGLISH:
The first production node with vpsAdminOS is now available in Prague:
node1.prg. It's mainly for new members and new VPSes. We can migrate
OpenVZ VPS from Prague on demand, but only individually, contact our
support if you're interested. vpsAdminOS is not available in Brno yet,
OpenVZ remains the only supported platform in this location.
As to staging, nothing changes. We will not migrate VPS from staging to
node1.prg at this time, not even on request. We'll get to it in the
following weeks, we'll contact everyone concerned when the time comes.
From now on, there are two virtualization platforms in Prague. Please
bear in mind the differences as to accessing NAS and playground.
Playground is for OpenVZ VPS only, staging will fullfill this role for
vpsAdminOS for now. See the knowledge base for more information:
https://kb.vpsfree.org/manuals/vps/vpsadminos
Jakub
Hello,
I have an small issue when stopping Alpine (3.11) vps on staging.
It currently takes long time (multiple minutes, I assume before some
timeout happens and it is killed).
When I have remote console opened when stopping, I see this output:
* Stopping sshd ... [ ok ]
* Shutting down ssh connections ... * sshd: caught SIGTERM, aborting
[ ok ]
* Stopping busybox syslog ... [ ok ]
* Unmounting cgroups ... [ ok ]
The system is going down NOW!
Sent SIGTERM to all processes
and it is stuck like this. Did anyone else notice this and is there
some known workaround (it is annoying...)?
Thanks,
W.
--
There are only two hard things in Computer Science:
cache invalidation, naming things and off-by-one errors.
Ahoj,
jaký je stav CentOS 8, aby mohl běžet jako stabílní?
Případně je nějaké TODO co by pro to bylo třeba udělat? Hledal jsem na
VPSFree stránkách a nic se mi nepovedlo najít.
Ahoj,
Filip Bartmann
Ahoj,
mám na VPS problém spočívající v tom, že se mi nedaří zbuildovat aplikace
napsaná pro dotnet 3.0. Příkaz dotnet build nikdy nedoběhne.
Zkoušel jsem to na testovacím stroji u jiného providera, kde vše funguje
bez problémů.
Vidím, že je u obou serverů poměrně zásadní rozdíl ve verzi kernelu, možná
příčina?
urbanecm@titanium ~
$ ssh root(a)77.93.202.76 uname -r
Enter passphrase for key '/home/urbanecm/.ssh/id_rsa':
5.0.0-13-generic
urbanecm@titanium ~
$ uname -r
3.16.6-042stab139.44
urbanecm@titanium ~
$
Na netu jsem reporty nenašel, ale třeba blbě hledám.
Dík za pomoc,
Martin
Ahoj,
omlouvam se za lehky offtopic, ale nevali se nam, nebo nekomu ze clenu
na pracovisti starsi Xeon E3, ale do patice LGA1150 a take aby mel 8
Threadu? Ma to byt pokus o nahradu E3-1220 za neco vykonejsiho. Bezi na
tom virtualy a je tam 32GB RAM.
Dik
Libor Boldan
Ahoj,
už několik dnů na mé VPS pozoruju mnoho spojení se stavem SYN_RECV
viz: netstat -anp |grep 'SYN_RECV' | awk '{print $5}' | cut -d: -f1 |
sort | uniq -c | sort -n
23 xxx.xxx.xxx.xxx
23 xxx.xxx.xxx.xxx
...
okolo 20 IP adres.
Mám se tím znepokojovat nebo je vše ok a vše by se mělo řešit na infrastruktuře?
Díky moc za postřehy a rady
Petr
Ahoj,
(ENGLISH: see https://kb.vpsfree.org/manuals/vps/vpsadminos/storage for
the most important news)
Přináším zase nějaké nové informace o přechodu na vpsAdminOS a čemu jsme
od posledního reportu v červnu věnovali. Píšu po dlouhé době, takže je
to jaksi... delší. To nejdůležitější je na začátku.
Aktuální stav
=============
Ke spuštění produkčního nodu s vpsAdminOS nyní zbývá dořešit přístup k
NFS. Dlouho jsme hledali nějaký funkční model pro přístup k nasboxu z
OpenVZ a vpsAdminOS a to se nám teď snad podařilo, podrobněji viz níže.
S následným přechodem OpenVZ -> vpsAdminOS to aktuálně vidíme tak, že
přidáme jeden další produkční node s vpsAdminOS, na který budeme VPS ze
stagingu individuálně přesouvat. IP adresy měnit nebudeme. Nové členy
budeme umisťovat na nový systém, stávající VPS poběží nadále na OpenVZ.
Kdo chce se bude moct na nový systém přesunout, ale v dohledné době k
tomu nikoho tlačit nebudeme.
NFS v produkci a na stagingu
============================
V posledním reportu [1] jsem naznačoval, jakým způsobem budeme řešit
exporty a mounty datasetů na vpsAdminOS. Ačkoli by to fungovalo, mělo to
jednu zásádní nevýhodu: jeden NAS dataset by nešel připojit najednou do
OpenVZ a vpsAdminOS VPS, resp. jeden z těch dvou systémů by neměl
přistup k datům. Dalo by se s tím žít, ale byla by to pro nás všechny
zbytečná zátěž při migraci VPS.
Zmiňoval jsem taky, že do kernelu 5.2 byla do NFS klienta přidána
podpora pro user namespaces. Zkusili jsme tedy ve VPS povolit mountování
NFS a ono to funguje. Na NFS server chodí ID uživatelů a skupin tak jak
je vidí VPS, resp. user namespace, takže není problém sdílet data s VPS
na OpenVZ.
Znamená to však zásadní změnu v přístupu k nasboxu. Na OpenVZ to funguje
tak, že si mount naklikáte ve vpsAdminu a ten ho připojí, ani vás nemusí
zajímat jakým způsobem to funguje. Na vpsAdminOS to takto být nemůže.
Aby na NFS server chodily správné UID/GID, je potřeba mountovat zevnitř
VPS. Kernel si totiž pamatuje, v jakém user namespace mount vytvořite a
podle toho se chová.
Pro staging/vpsAdminOS se ve vpsAdminu nebudou nastavovat mounty ve VPS,
ale exporty na NFS serveru. Nastavíte si, jaké VPS mají mít k danému
datasetu přístup a vpsAdmin vám zobrazí adresu a cestu k exportu, který
si z VPS sami mountnete. Ve vpsAdminu najdete ukázkový příkaz pro mount,
záznam v /etc/fstab, nebo i systemd mount unit. Ve VPS samozřejmě musíte
mít nainstalovány utility pro práci s NFS. Nově tak máte pod kontrolou
jednak více možností u nastavení exportu (ro/rw per host, root_squash,
sync, atd.) a taky si můžete zvolit libovolné nastavení mountu. Akorát
nepoužívejte -oproto=udp, nefunguje to spolehlivě a budeme to vypínat.
Problém zůstává se sdílením (sub)datasetů VPS. To zatím nebude možné,
žádné ideální zatím řešení nemáme. Předpokládám, že v budoucnu si budete
moct sdílet data mezi VPS tak, že si uvnitř spustíte NFS server. To se
ještě uvidí, jak moc to bude hořet. Jedno z use-case, které tímto
zaniká, je možnost opravy nestartující VPS tak, že si jeho disk
připojíte do jiné VPS. Místo toho plánuju do vpsAdminu přidat možnost
nechat VPS nastartovat z čisté šablony distribuce, ze které se do
rozbitého systému dostanete podobně jako když nabootujete live systém.
Toť tedy aktuální plán zprovoznění nasboxu na stagingu. Všechno už máme
nasazeno, můžete to začít používat. A prosím hlásit na podporu když na
něco narazíte. Abych to shrnul:
- do OpenVZ VPS se datasety a snapshoty připojují tak jako
doposud
- na vpsAdminOS místo mountu z vpsAdminu vytvoříte export datasetu/
snapshotu a ten si z VPS mountnete sami
- jeden dataset/snapshot může být exportován jen jednou, připojen
kdekoli (i na OpenVZ)
Více viz KB:
https://kb.vpsfree.cz/navody/vps/vpsadminos/storage
Nějaký čas to takto necháme běžet. Pokud nenarazíme na nějakou
komplikaci, můžeme vpsAdminOS spustit na ostro. Budeme čekat minimálně
na Linux 5.4, protože to bude LTS, na kterém budeme moci zůstat delší dobu.
Storage driver Dockeru
======================
Hlavní problém dockeru na vpsAdminOS byla nefunkčnost pořádného storage
driveru [3]. Doposud u nás fungoval jen VFS driver a ten je značně
neefektivní. Při vytváření každé vrtsvy kontejneru totiž kopíruje data
na disku sem a tam. Proto u nás byl docker pomalejší než jinde. TL;DR
je, že se nám podařilo zprovoznit overlay2 driver díky tomu, že snajpa
do ZFS dodělal podporu pro overlayfs. Cesta ale byla trnitá.
Výchozím driverem v dockeru je overlay2 založený na overlayfs. Ten
bohužel stále nefunguje nad čistým ZFS [4], protože kernel vyžaduje
implementaci určitých flagů v renameat2(). Další problém je, že se ZFS
pro kernel tváří jako "remote filesystem" a vyžaduje revalidaci
dentries, což overlayfs nedělá.
Docker obsahuje taky ZFS driver, ale ten nejde uvnitř VPS použít,
protože ZFS nepodporuje user namespace a není jasné, jak by to vůbec
mělo fungovat. Tzn. nemáme jak bezpečně předat dataset z hostitele do
VPS. Nakonec by to asi ani nebyl dobrý nápad, ZFS je sice super když
zrovna nepanikaří, ale přináší to i různé komplikace, které stačí že
musíme řešit na hostiteli.
Dalším z možných driverů je AUFS. Jedná se o předchůdce overlayfs, který
obsahuje více funkcí, ale nikdy se do Linuxu nedostal. Zkoušeli jsme ho
přidat do kernelu na stagingu, i tak ho docker stejně sám o sobě
nevyužije, protože si myslí, že AUFS v user namespace nefunguje a
nevyzkouší to. Když se docker opatchuje, s AUFS funguje a je to mnohem
svižnější. Bohužel by to vyžadovalo instalaci dockeru z našich
repozitářů, o které bychom se museli starat. Navíc je AUFS v dockeru
označený za překonaný a je možné, že ho odstraní. Pak bychom si jej
museli udržovat sami.
Nakonec se nám povedlo přizpůsobit si ZFS tak, aby nad ním fungoval
overlayfs. Máme na to pull request [4], začleněn zatím nebyl.
Pokud si myslíte, že pak docker sám od sebe použije overlay2 driver a
všechno bude super, tak jste na omylu. Samozřejmě mají v kódu natvrdo
zapsáno [5], že na ZFS to nefunguje. Takže dockeru z kernelu lžeme a
říkáme mu, že na ZFS neběží... a pak teda funguje. Hurá.
Nasazeno už to máme několik týdnů a podle ohlasů jsou buildy kontejnerů
mnohem rychlejší. Jediný zádrhel byl bug v našem overlayfs patchi, který
rozbil účtování zabraného místa při přesouvání/mazání souborů. Zabrané
místo nešlo uvolnit a postupně se kvůli tomu zaplňovaly kvóty datasetů
VPS. Bylo to způsobeno tím, že jedna důležitá funkce byla volána z
ASSERT makra, které je implementováno jen v debug buildech, takže s
vypnutým debugem to nic nedělalo.
Docker-in-Docker
================
Další chuťovka je docker v dockeru, používá se to např. na nějaké CI v
gitlabu. U nás to samo od sebe nefunguje, protože se to při startu
pokouší o mount -t securityfs, což ve VPS s user namespace nejde. Zatím
se nám nepodařilo kernel upravit tak, aby to prošlo, ale pokud na to
někdo narazíte, má to jednoduchý workaround, stačí přidat volume:
docker run -v /sys/kernel/security:/sys/kernel/security ...
osctl-exportfs
==============
Na nasboxu nám dlouhodobě chybí možnost zjistit kdo a jak ho využívá v
případě, že disky přestávají stíhat. Kernel 5.3 přináší podporu NFS
serveru v network namespace a to nám přináší zajímavé možnosti.
osctl-exportfs [2] je nástroj z vpsAdminOS pro vytváření malých
kontejnerů pro NFS servery, kde každý server má vlastní IP adresu a sadu
exportů. Funguje to tak, že když si ve vpsAdminu nastavíte export,
spustí se vám dedikovaný NFS server. vpsAdmin pak bude schopen počítat
přenesené data či sledovat využití jednotlivých NFS serverů.
syslog namespace
================
Během prázdnin jsme do kernelu přidali syslog namespace, tzn. z VPS je
číst log z kernelu, ala dmesg. Můžete tam vidět zprávy od OOM killeru,
logy z iptables a další.
Nastavení oom_score_adj
=======================
Přidali jsme do kernelu výjimku, aby bylo možné ve VPS libovolně
nastavovat /proc/<pid>/oom_score_adj. Můžete tak chránit důležité
procesy před OOM killerem, např. sshd. Minimálně distribuce se systemd
to využijí automaticky.
Restrikce /sys
==============
Část /sys je sdílená mezi hostitelem a všemi VPS, část se přizpůsobuje
např. network namespace. Změnili jsme oprávnění citlivých adresářů tak,
aby se k nim z VPS nedalo přistupovat. Může se stát, že s tím nějaký
program bude mít problém, např. museli jsme trochu ustoupit libvirtu.
Pokud narazíte na něco dalšího, tak se ozvěte.
vpsfree-cz-configuration a monitoring
=====================================
Během prázdnin jsem z velké části předělal konfiguraci [6] našich
vpsAdminOS nodů a NixOS serverů/VPS. Konfigurace systému se teď definuje
na jednom místě pro různé výstupy, jako netboot server a aktualizace
systému na živo.
V konfiguraci serveru je možné se odkazovat na adresy, služby a porty
ostatních systémů v clusteru, což se hodí třeba na propojování služeb,
přesné nastavení firewallu, nebo generování DNS. Máme taky nový
monitoring, který automaticky hlídá všechny systémy, které jsou součástí
konfigurace.
Nový monitoring je postavený nad prometheusem, alertmanagerem a
používáme taky centralizované logování přes graylog. Sledujeme teď více
parametrů, které nám způsobovaly problémy. Řešil jsem to hlavně kvůli
častým výpadkům při ZFS panics, které nás trápily od začátku prázdnin.
Původní monitoring úplně selhával a o tom, že node přestal ve 4 ráno
provádět diskové operace, jsme se dozvěděli až když se někdo z nás probudil.
Aktuálně logy ze všech nodů zpracovává graylog a pokud dojde k ZFS
panic, pošle o tom alert přes alertmanager. Do minuty tak máme SMS. Je
zde ještě hodně co ladit, zejména doručování SMS různým lidem v různých
časech, abychom se z toho nezbláznili. Na to jsem bohužel existující
řešení zatím nenašel.
Do budoucna bych taky chtěl členům zpřístupnit grafanu s daty z
prometheuse jako náhradu muninu, ale těch parametrů k zobrazení je tam
strašně moc a je potřeba tomu věnovat více času, který teď nemáme.
Buildbot pro vpsAdminOS
=======================
Už mnoho let toužíme po nějaké formě CI a zajišťování QA pro kontrolu
aktualizací či nové funkcionality. Trochu to sice komplikuje fakt, že
nemáme naprosto žádné testy, ale nenašli jsme ani žádnou technologii,
nad kterou bychom to chtěli postavit. Teď jsem s tím trochu pohnul,
repozitář vpsAdminOS hlída Buildbot a při změně ho automaticky
sestavuje. Vypadá to celkem použitelně a postupem času bychom toho
chtěli více. Už teď je to užitečné zejména pro plnění binarní cache, ze
které lze stahovat naše buildy kernelu, ZFS, atd. Na NixOS se dá použít
takto:
nix = {
binaryCaches = [
"https://cache.vpsadminos.org"
];
binaryCachePublicKeys = [
"cache.vpsadminos.org:wpIJlNZQIhS+0gFf1U3MC9sLZdLW3sh5qakOWGDoDrE="
];
};
Unmounty snapshotů ve vpsAdminu
===============================
Kdo jste do VPS připojovali snapshot, asi jste si všimli, že často nešel
odpojit. Snapshoty do OpenVZ VPS se připojují tak, že se na backuperu
snapshot naklonuje přes zfs clone a vytvořený filesystem se exportuje
přes NFS. Na nodu se pak mountne do VPS. Při odpojování se nejdříve
provede unmount ve VPS a potom se vpsAdmin pokouší odstranit naklonovaný
snapshot na backuperu. No a tady to vázne. Z nějakého důvodu je buď
mountpoint nebo dataset busy, takže se toho nedá zbavit. To mělo za
následek, že operace odpojení snapshotu ve vpsAdminu selhávala a mount
se vracel do původního stavu -- opět se připojil.
Na podpoře jsem všem doporučoval mount "vypnout" (disable), vpsAdmin se
ho pak pravidelně snaží odpojovat, až jednou uspěje. Bohužel než se
takhle "zaseklý" dataset umoudří mohlo trvat několik dní nebo i týdnů.
Nově se klony snapshotů mažou na pozadí a na mounty ve VPS to nemá vliv.
Problémy nám to bude dělat stále, ale aspoň už ty mounty ve vpsAdminu
nejsou vidět.
Zamyšlení na konec
==================
První commit ve vpsAdminOS vznikl před dvěma lety, 3. listopadu 2017.
Asi nikdo nečekal, že s tím bude tolik práce. Pohledem zpět to tehdy ani
fungovat nemohlo, hlavně protože až v posledních verzích kernelu se
objevují funkce, bez kterých se neobejdeme, ala NFS klient v user
namespace. Ani s nejnovějším kernelem, LXC, atd., však bez vlastních
úprav nejde dělat systémové kontejnery na úrovni OpenVZ před 10 lety.
Menší a větší patche máme v kernelu, ZFS, LXC i LXCFS a nemohli bychom
bez nich fungovat.
Pro provoz OpenVZ jsme naopak dlouho žádné vlastní úpravy nepotřebovali,
nebyl problém používat to co bylo k dispozici. Poslední cca 4 roky už se
však OpenVZ (Legacy) nevyvíjí a rozjet tam aktuální distribuce je čím
dál tím obtížnější. O dnes moderních aplikačních kontejnerech ala docker
ani nemluvím. Aby vůbec fungovalo Ubuntu 18.04, museli jsme si připravit
vlastní kernel s chybějícím syscallem. Cesta je stále trnitá, ale už se
na vpsAdminOS v produkci těšíme.
[1] https://lists.vpsfree.cz/pipermail/community-list/2019-June/010062.html
[2] https://man.vpsadminos.org/osctl-exportfs/man8/osctl-exportfs.8.html
[3] https://docs.docker.com/storage/storagedriver/select-storage-driver/
[4] https://github.com/zfsonlinux/zfs/pull/9414
[5]
https://github.com/docker/docker-ce/blob/master/components/engine/daemon/gr…
[6] https://github.com/vpsfreecz/vpsfree-cz-configuration
Jakub
Ahojte,
na některých vps mi nyní nejde aktualizovat sudo a mount.. Dpkg hlásí např.
/usr/bin/sudo device or resource busy. Podobné u mountu. Ostatní
aktualizace jedou, ale tohle tam nějak zůstává. Zkoušel jsem pohledat a nic
moc kloudného jsem nenašel (možná restart pomůže).
Stalo se vám to také?
--
S pozdravem,
Zdeněk
Web: www.pripravto.cz
Nezkousel jste nekdo rozchodit na VPS Dropbox? (dropboxd + python script na jeho cli-management (https://www.dropbox.com/install-linux <https://www.dropbox.com/install-linux>)). Me to kdysi davno fungovalo, dneska jsem to chtel oprasit a porad mi to psalo Syncing paused. No netrvalo dlouho a nasel jsem relevantni clanek a zaroven vzpomel neco o ukonceni podpory ext3 (a dalsich) a byl jsem hned doma.
Nevite jak s tim pohnout a jestli by to vubec bylo mozne?
Dropbox ocividne neni jedinna moznost, ale nabizela se pro muj usecase jako nejjednodussi.
Abych ho priblizil - rozchodil jsem si Jekyll a chtel jsem jej pak nechat bezet v build rezimu nad Dropbox synchronizovanou slozkou, kde bych si hazel nejake .md poznamky ktere by jekyll pri zmene hned prechroustal do statickych html stranek a apache by se postaral opak o zbytek. Tim, ze dropbox pouzivam na backup poznamek i z Joplinu (MD poznamky) chtel jsem si selektivne tam vhodit i nejake "poznamky online". A na synchronizaci pres Dropbox jsem ted zmrzl.
Napada vas nejaky zpusob, jak Dropbox rozchodit, eventualne nejaky workaround? Mozna nejake cli pro synch s GDrive? Cestou nejakeho dalsiho klienta, nebo manualni synchronizace (scp/rsync) mi prijde takova moc omezena....
Diky za rady!
S pozdravem
Jan Pleva
Cau,
treba bude mit nekdo zkusenost..
Experimentuju s freebsd, resp. freenas kterej defaultne spolkne celej
systemovej disk at je sebevetsi a upravovat instalacni skript aby umel
pouzivat partitiony (jako bsd) nechtej.
Resim jestli a jak ten boot pool co to vytvori pres celej disk zmensit.
Rady na netu zni:
1) ze to nejde
2) zazalohovat soubory a udelat novej mensi pool
3) udelat snapshot a poslat ho do novyho mensiho poolu
Nikde ale nepisou, jestli to jde udelat s poolem ze kteryho se bootuje a
na kterym je nainstalovanej system (samozrejme ne za behu) ) a nic to
nerozbije. Jestli jde nejak sikovne udelat novej pool tak, aby prevzal
vsechny parametry toho puvodniho, jen mensi..
Nez propalim dalsi hodiny a dny - zkousim to tady, diky.
/p
Ahoj, jen pro info, kdyby se na tom někdo zasekal jako já.
Včera jsem se snažil upgradovat svůj vetchý Debian 8 Jessie na 9 Stretch
(kvůli Dockeru, který při instalaci podle návodu
<https://docs.docker.com/install/linux/docker-ce/debian/> suše oznámí,
že nezná balíček docker-ce-cli, což je kódové označení pro "máš starej
Debian, nahoď si aspoň Debian 9").
Upgrade šel podle plánu
<https://linuxconfig.org/how-to-upgrade-debian-8-jessie-to-debian-9-stretch>,
až na jednu drobnost a to že jsem se k virtuálu přes ssh už nepřipojil...
Nejdřív jsem se točil v kolečku backup - try & crash - restore přes
VPSAdmin <https://vpsadmin.vpsfree.cz/>, potom jsem si zprovoznil
vpsfreectl <https://kb.vpsfree.cz/navody/vps/konzole> a tepve díky téhle
konzoli, která přežije i problémy se sítí, jsem se ze screeny při
bootování dozvěděl, že nenaběhl /networking/.
Pak už stačilo dát /systemctl status networking.service/, což mi
oznámilo, že nemám /ifconfig/. Google napráskal, že Debian 9 už
/ifconfig/ v sobě v základu nemá
<https://linuxconfig.org/how-to-install-missing-ifconfig-command-on-debian-l…>,
protože je deprecated a místo něj mám používat utilitu /ip/, takže jsem
ho ručně doinstaloval přes /apt-get install net-tools/ a otočil servisu
/service networking restart/. Problem solved.
Nevím, co přesně v mém Debianu vyžaduje ifconfig, asi to budu muset
rozklíčovat, než se pustím do Debianu 10.
Tož tak.
Jarda
Ahoj,
pokud aktualizujete libssl1.1 na OpenVZ VPS s Debian 10, bude potřeba
restartovat VPS. Nějaká změna chování způsobila, že přestal fungovat
RNG, což má vliv na služby, které openssl používají, např. openssh.
Po restartu VPS se změní nafingovaná verze kernelu, podle které openssl
pozná, že se má chovat jinak a RNG opět funguje...
Jakub
Zdravím,
rád bych se zeptal, jestli je možné na vpsFree použít některý z DNS pluginů
pro Certbot (viz: https://certbot.eff.org/docs/using.html#dns-plugins) pro
automatic certificate renewal, abych to nemusel každé tři měsíce dělat
manuálně. Na KB jsem o Let's Encrypt nic nenašel. Certifikáty řeším prvně,
tak pokud funguje jiný způsob, než pomocí certbota, nechám se navést.
Díky,
Jakub
Ahoj. No mam na vpsfree server s Debianem a certbot si aktualizuje
certifikáty sám. Akorát sem si musel opravit v nginxu přesměrování z http na
https aby to fungovalo, přesměrovávat location well-done.
Taky sem to dělal poprvé, loni a od té doby ti jede.
Petr Bolf
---------- Původní zpráva ----------
Od: Jakub Podlaha
Datum: 2. 10. 2019 v 10:59:44
Předmět: [vpsFree.cz: community-list] certbot renewal
Zdravím,
rád bych se zeptal, jestli je možné na vpsFree použít některý z DNS pluginů
pro Certbot (viz: https://certbot.eff.org/docs/using.html#dns-plugins
(https://certbot.eff.org/docs/using.html#dns-plugins)) pro automatic
certificate renewal, abych to nemusel každé tři měsíce dělat manuálně. Na KB
jsem o Let's Encrypt nic nenašel. Certifikáty řeším prvně, tak pokud funguje
jiný způsob, než pomocí certbota, nechám se navést.
Díky,
Jakub
hoj,
snažim se rozjet na *Staging* VPSce nixos-containers (v podstatě wrapper nad systemd-nspawn) a kontejnery mi nestartujou:
```
-- Unit container(a)test.service has begun starting up.
Aug 28 23:31:01 nhost systemd[1]: Requested transaction contradicts existing jobs: Transaction for container(a)test.service/stop is destructive (container(a)test.service has 'start' job queued, >
Aug 28 23:31:01 nhost systemd-machined[428]: Failed to stop machine scope: Transaction for container(a)test.service/stop is destructive (container(a)test.service has 'start' job queued, but 'sto>
Aug 28 23:31:01 nhost systemd-machined[428]: Failed to drop reference to machine scope, ignoring: Unit has not been referenced yet.
Aug 28 23:31:01 nhost nscd[433]: 433 monitoring file `/etc/passwd` (1)
Aug 28 23:31:01 nhost nscd[433]: 433 monitoring directory `/etc` (2)
Aug 28 23:31:01 nhost nscd[433]: 433 monitoring file `/etc/group` (3)
Aug 28 23:31:01 nhost nscd[433]: 433 monitoring directory `/etc` (2)
Aug 28 23:31:01 nhost nscd[433]: 433 monitoring file `/etc/resolv.conf` (5)
Aug 28 23:31:01 nhost nscd[433]: 433 monitoring directory `/etc` (2)
Aug 28 23:31:01 nhost container test[21148]: Spawning container test on /var/lib/containers/test.
Aug 28 23:31:01 nhost container test[21148]: Press ^] three times within 1s to kill container.
Aug 28 23:31:01 nhost container test[21148]: /etc/localtime does not point into /usr/share/zoneinfo/, not updating container timezone.
Aug 28 23:31:01 nhost container test[21148]: Failed to mount sysfs (type sysfs) on /sys/full (MS_RDONLY|MS_NOSUID|MS_NODEV|MS_NOEXEC ""): No such file or directory
Aug 28 23:31:01 nhost container test[21148]: Failed to add new veth interfaces (ve-test:host0): No such process
Aug 28 23:31:01 nhost systemd[1]: container(a)test.service: Main process exited, code=exited, status=1/FAILURE
Aug 28 23:31:01 nhost systemd[1]: container(a)test.service: Failed with result 'exit-code'.
Aug 28 23:31:01 nhost systemd[1]: Failed to start Container 'test'.
-- Subject: Unit container(a)test.service has failed
-- Defined-By: systemd
-- Support: https://lists.freedesktop.org/mailman/listinfo/systemd-devel
--
-- Unit container(a)test.service has failed.
--
-- The result is RESULT.
```
Z toho mi připadají relevantní řádky
```
Failed to mount sysfs (type sysfs) on /sys/full (MS_RDONLY|MS_NOSUID|MS_NODEV|MS_NOEXEC ""): No such file or directory
Failed to add new veth interfaces (ve-test:host0): No such process
```
ale nejsem z toho nijak zvlášť chytrej.
Dovolil bych si z patra odhadnout, že to bude nějakej problém s nested containerama, ale do tohohle moc nevidim.
Zkoušel jste někdo rozjet něco podobnýho?
-miky.
--
Jakub Fišer
Linux | DevOps | Security
+420-603 797 487
Ahoj,
dneska sem po nejake dobe updatnul ubnutu na vpsce a po rebootu me nenabehla ani jedna VPNka, bylo treba "potunit" systemd aka:
https://askubuntu.com/questions/747023/systemd-fails-to-start-openvpn-in-lx…
tzn
- systemctl edit openvpn@
- vlozit
[Service]
LimitNPROC=infinity
- ulozit / zavrit editor
- systemctl daemon-reload
... a jedeme ...
Treba to nekomu pomuze... Pekny den. JD
Pěkný den,
úplně to nesouvisí s vpsFree, ale tato komunita je asi nejvíc provázaná
s Linuxem co jsem schopen oslovit.
Hledám kolegu.
Nejsem personalista, ale Linux admin v interním IT. Jsme centrála ve
větší firmě a provozujeme spoustu vlastních i OS systémů. Snažíme se
optimalizovat. Vidět do toho, jak věci fungují a firma to podporuje. Je
to hodně kreativní práce ve fázi investigace technologie, nastavení,
pochopení a tato fáze směřuje k tomu, aby jsme danou technologii mohli
standardizovaně používat. Takže procesy jako change management,
dev-test-prod prostředí atd. ano, to nám dává smysl. Jedeme spíš na
zodpovědnost, než mít ticket na každé pohnutí na infrastruktuře.
Ty by ses "hrabal" v nasazených Linuxech a zkoumal možnosti, jak bychom
mohli dělat věci jednodušeji, bezpečněji, jaké postupy a nástroje používat.
Je to u nás technologicky opravdu zajímavé. Jestli jsem vzbudil Tvou
zvědavost, velmi rád ti prozradím detaily a podrobnosti.
Budu rád za zkušeného admina, ale i junior, který doposud dělal s
Linuxem jako hobby a chtěl by se stát profíkem, je dobrá volba.
Předávání zkušeností je základ našeho fungování.
A buď prosím někde z Brna a okolí.
Díky. A omluva těm, co vás to nezajímá.
Petr Baláži
Email: petr.balazi(a)rws.com
Dobrý den, ahoj všem,
v principu pokračuju ve vláknu "Sirka pasma" (původně začlo v
https://lists.vpsfree.cz/pipermail/community-list/2019-July/010081.html)
a pokračovalo legálností a tak.
Mám otázku: vidím na své vpsce nějaké neslušné aktivity, scany, asi
hádání hesel a tak. Máte zájem to řešit nějak společně? Případně se
můžete vyjádřit, že vás to zrovna nezajímá :-)
Teoreticky bych mohl někomu posílat seznam třeba zajímavých událostí s
četností více než 10 výskytů za den. Pokud by to bylo třeba u třetiny
členů, mělo by to větší vypovídající hodnotu.
Překvapilo mne, že mam cca 19.000 výskytů v přístupu na ssh za den,
fail2ban nic, v iptables cca v řádu vteřin, ale nejsem si jistý, co to
bylo za aplikační provoz. Čili jestli to není něco nového, 25. 7. cca v
8:27 SELČ to skončilo.
Pokud už něco takového je, můžete dát vědět.
S pozdravem
Vencour
Hello fellow VPSers,
after recent upgrade to Debian Buster, pihole stopped working and from the
output of diagnostics `pihole -d` I can see the error:
*** [ DIAGNOSING ]: contents of /dev/shm
/dev/shm does not exist.
ls: cannot access '/dev/shm': Too many levels of symbolic links
Which is because of that:
trendy@vps:[~]$ls -la /dev/shm
lrwxrwxrwx 1 root root 8 Ιουν 29 04:49 /dev/shm -> /run/shm
trendy@vps:[~]$ls -la /run/shm
lrwxrwxrwx 1 root root 8 Ιουλ 21 11:18 /run/shm -> /dev/shm
I believe this is not normal; does anyone know where they should point to?
Thank you,
--
-p
Ahoj,
tady https://lists.vpsfree.cz/pipermail/news-list/2014-August/000064.html <https://lists.vpsfree.cz/pipermail/news-list/2014-August/000064.html> (2014) se mluvi o tom, ze se zavadi omezeni sirky pasma pro jednotlive VPS a ze v budoucnu se se zvysenim kapacity linky ven ten bandwidth zvysi. Ubehlo vic nez 5 let a porad je to na 300 Mbps, je v planu zmena? :) Vlastne vubec nevim, jake linky a kam ted vpsFree ma, mozna jen spatne hledam (a ne, ze by to bylo dulezite pro me jako uzivatele VPS, tam budu verit tomu, ze krome nejakych edge-casu se budu moct dostat na tech 300 Mbps, spis me to zajima jako clena).
A proc to resim? Tech 5 let zpatky melo UPC nejdrazsi tarif 240/20, dneska neni pro koncaka problem sehnat na optice Gbit. Se svym 500/50 doma vytizim linku jedny vps s prstem v nose a jeste mi zbyde bandwidth na dve tretiny dalsi vpsky.
Doufam, ze community-list je spravne misto pro tohle :D
Michal
Ahoj,
chtěl jsem vyzkoušet terraform a nemůžu najít seznam templates, které
vpsadmin akceptuje. V příkladu [1] je nastavené ubuntu:
# OS template name, see vpsfreectl os_template list -o name
os_template = "ubuntu-18.04-x86_64-vpsfree"
snažil jsem se to změnit na nixos, něco jako
nixos-unstable-x86_64-vpsfree, ale netrefil jsem správný název. Příkaz
`os_template list -o name` vrátí chybu `parameter 'name' does not
exist`, dostupné atributy jsou jen id a label. Dá se ten seznam někde
získat i se jménem šablony?
zdravím
Tomáš Kuča
[1] https://github.com/vpsfreecz/terraform-provider-vpsadmin/blob/master/exampl…