Ve vpsAdmin vidím v sekci "DNS resolver (/etc/resolv.conf)" možnost výběru lokálních DNS:
ns{1,2}.prg.vpsfree.cz
Když ale zkouším jakou mají IP adresu, tak dostávám status: NXDOMAIN, ani zvenku to moc není vidět:
https://mxtoolbox.com/SuperTool.aspx?action=dns%3ans1.prg.vpsfree.cz&run=to…
Možná má být: ns{1,2}.vpsfree.cz
--
Kamil
Zdravim,
mam Debian 9 na VPSku a pri instalacii autofs mi sluzba padne s:
Oct 02 12:45:08 vps systemd[1]: Starting Automounts filesystems on demand...
Oct 02 12:45:08 vps automount[24837]: /usr/sbin/automount: test mount
forbidden or incorrect kernel protocol version, kernel protocol version
5.00 or above required.
Oct 02 12:45:08 vps systemd[1]: autofs.service: Control process exited,
code=exited status=1
Oct 02 12:45:08 vps systemd[1]: Failed to start Automounts filesystems
on demand.
uname -a
Linux nevilleweb.freevps.cz 3.16.6-042stab131.42 #1 SMP Tue Jun 26
21:15:19 CEST 2018 x86_64 GNU/Linux
Pozeram lsmod
Module Size Used by
ale je prazdne, co je novinka pre mna :) Predpokladam bude to kvoli
tech. realizaii VPS architektury.
Vo vpsAdmin mam povolene FUSE, nevidim automount :(
Bolo by fajn to rozchodit. Chcem s nim mountovat sshfs.
Ahoj všem, o víkendu jedeme jako tradičně na LinuxDays, máte možnost nás
tam potkat, popovídat si na stánku, podpořit vpsFree.cz a poslechnout si
nějaké přednášky. Vstup je zdarma, stačí se zaregistrovat a přinést
transparent „vpsFree.cz je nejlepší!“ :-)
https://www.linuxdays.cz/2018/
--
Petr Krčmář
vpsFree.cz
Dne 27. 09. 18 v 9:19 Vojtěch Havlíček napsal(a):
> Ahoj muzu s letackem pomoc
Díky všem za rychlé odpovědi, domluvím se zatím s Vojtou napřímo. Mějte
hezký prodloužený víkend.
--
Petr Krčmář
vpsFree.cz
Ahoj všem, sháním grafika, který by pro vpsFree udělal malý letáček,
který se bude rozdávat na konferencích. Podklady mám, potřeboval bych
jen někoho, kdo je schopen z toho udělat něco rozumného k vytištění.
Pomůžete, prosím, někdo? Díky
--
Petr Krčmář
vpsFree.cz
Ahoj,
nemáte tu prosím někdo praktické zkušenosti s CouchDB? Možná si
vzpomínáte, že jsem tu před časem psal ohledně pokladního software. Po
zvážení všech odpovědí jsem dospěl k názoru, že největší problém pro mne
je udržovat synchronizovaná data mezi pokladnami a serverem. Jak věřím,
tak CouchDB by pro mne tyto věci dokázala ohlídat, trochu se ale potýkám
s nedostatkem informací. Kromě oficiálního manuálu se mi nepodařilo
najít příliš stránek, které by o nasazení CouchDB v praxi psaly.
Nejsem si jist, zda jsem zcela správně pochopil vnik a řešení konfliktů
v CouchDB. Aktuálně řeším problém skladů a skladových položek - myslel
jsem, že bych vytvořil dokument "produkt", který by jako jednu z položek
měl pole s dvojicemi "sklad":"počet ks". Každá z pokladen by pak
odečítala ze svého řádku "sklad":"počet ks".
Jestli jsem to však z manuálu pochopil správně, tak každá změna vyvolá
změnu celého dokumentu. A v případě, že dojde k výpadku jedné z
pokladen, dojde k vytvoření velkého množství konfliktů, které se budou
muset řešit ručně. Nebo se mýlím?
Napadlo mne to vyřešit tak, že bych vytvořil dokument "sklad" a v něm
bych udržoval dvojice "produkt_id":"počet ks". Kvůli nedostatku
informačních zdrojů si však nejsem jist, zda je tohle správný přístup k
problému.
Mohl by mi prosím někdo zkušenější poradit?
Díky, Honza
--
Jan B. Kolář
Zažeň nudu
Hodolanská 17, 779 00 Olomouc
e-mail:janbivoj.kolar@zazen-nudu.cz
www.zazen-nudu.cz
Ahoj,
pokud jste na stagingu zkoušeli Docker a při startu kontejnerů jste
narazili na chyby ala permission denied při nějakém mountu, bylo to
kvůli AppArmoru. Prošli jsme logy z AppArmoru a povolili několik
zakázaných mountů, což by vám mělo pomoci. Pokud by stále někomu něco
nešlo, napište prosím na podporu nebo IRC. Potřebujeme vědět: chybovou
hlášku, ID VPS a jak to reprodukovat.
Důležitým posunem vpřed je je podpora pro AppArmor namespaces. Každé VPS
nyní běží ve svém AppArmor namespace, kde si může spravovat vlastní
profily, ale stále je omezeno nadřazeným profilem z nodu, ze kterého
nemůže utéct. To nám umožnilo zprovoznit snap [1] a už není potřeba
upravovat službu pro Docker [2]. Aby všechno fungovalo, bylo potřeba do
našeho kernelu doplnit patche pro AppArmor, které se zatím nedostaly do
upstreamu [3]. Návod na instalaci snapu v Ubuntu viz KB:
https://kb.vpsfree.cz/navody/vps/vpsadminos/snap
snap ve VPS vyžaduje squashfuse, což je možné díky tomu, že jsme
aktualizovali na Linux 4.18, který podporuje FUSE v user namespace. Tím
pádem fungují i další souborové systémy využívající FUSE, např. sshfs.
Linux 4.18 přinesl změnu v chování `mknod` v user namespace. Do verze
4.18 `mknod` v user namespace nebyl povolen, takže se všechny zařízení v
`/dev` ve VPS musely bind-mountovat z nodu. Linux 4.18 `mknod` v user
namespace povoluje, ale trochu zvláštně [4]. `mknod` je povolen nad
souborovými systémy, které patří do user namespace volajícího procesu
(např. když si mountnete tmpfs), ale pak s těmi zařízeními nejde
pracovat, a to vůbec. `open()` skončí s "permission denied". Je to
zpětně nekompatibilní změna, která rozbíjí userspace [5, 6]. Nemohli
jsme to takto nasadit, protože by přestaly fungovat systemd služby
využívající `PrivateDevices`. Rozhodli jsme se `mknod` ve VPS povolit
[7] na libovolném souborovém systému a současně umožnit s takto
vytvořenými zařízeními pracovat. Můžeme si to dovolit, protože přistup k
zařízením ve všech VPS hlídá `devices` cgroupa. Teď jsme dosáhli
stejného chování jako na OpenVZ: vytvořit jde jakékoli zařízení,
používat lze jen ty, u kterých to node povolí. Takže např. není problém
ve VPS rozbalit nebo vytvořit libovolný archiv nějakého systému
obsahující jakékoli zařízení, to do teď nebylo možné.
vpsAdminOS dostal runlevely [8], zatím máme dva: `default` a `single`. V
`default` naskočí všechny služby a startují VPS, v `single` se spustí
jen getty pro login. Výchozí runlevel se vybere buď při sestavení OS,
nebo při bootu v zavaděči. Runlevel `single` bude důležitý zejména při
řešení problémů a manuálním zásahům na nodech.
No a nakonec jsem pracoval na několika potřebných optimalizacích při
bootu OS. Na OpenVZ nodech jsou v bootovacím procesu následující
problémy: při importu ZFS poolů a připojování datasetů se nejde do
systému přihlásit a neukazuje se žádný postup. VPS se začnou startovat
až když jsou všechny datasety připojeny, což na velkém a delším dobu
používaném poolu může trvat 5, 10 nebo i 15 minut. Během této doby
nemáte tušení, jestli se pool importuje, datasety připojují, nebo jestli
se to na něčem zaseklo a nic se neděje... Reboot do single user režimu,
kde si pool importneme svépomocí, pak zbytečně prodlužuje dobu výpadku.
Ve vpsAdminOS to řešíme mnohem lépe. Za prvé, ZFS pooly se importují
paralelně se spouštěním ostatních služeb a neblokují tak přihlášení do
systému. Na konzoli se jde přihlásit hned a spustí se i SSH. Postup
importu a připojování datasetů pak jde sledovat v syslogu [9], takže
admin má přehled co se děje a jak dlouho to ještě může trvat. Za druhé,
nepřipojujeme všechny datasety najednou, ale postupně až když jsou
potřeba pro start VPS. VPS se startují hned po importu poolu a každé pak
čeká jen na připojení svého vlastního datasetu a ne na datasety všech
ostatních VPS na nodu. Tyto změny nám mohou ušetřit až desítky minut při
výpadcích.
[1] https://snapcraft.io
[2]
https://kb.vpsfree.cz/navody/vps/vpsadminos/docker?do=diff&rev2[0]=15287438…
[3] https://gitlab.com/apparmor/apparmor/tree/master/kernel-patches
[4] https://patchwork.kernel.org/patch/10422495/
[5] https://patchwork.kernel.org/patch/10509655/
[6] https://github.com/systemd/systemd/pull/9483
[7]
https://github.com/vpsfreecz/vpsadminos/blob/master/os/packages/linux/patch…
[8] https://vpsadminos.org/os/runlevels/
[9] https://vpsadminos.org/os/pools/#monitoring-import-progress
Jakub
zdravím,
nechci na vpsfree řešit maily. Používám vpsfree na webový server, na git
repozitáře, na databáze, ale maily řešit enchci a rád bych to přenechal
nějaké službě. Měl jsem to doteď na hostingu, ale ten hodlám zrušit (nač
hosting, když mám vpsfree :-) ). Uvažoval jsem o přesun mailů na profi
seznam mail, ale narazil jsem na to, že nepodporují vnořené složky, tedy
klasickou stromovou strukturu adresářů. Mají jen něco, čemu říkají
"vlastní složky" a mohou být jen v kořenovém adresáři malilů.
Hledám tedy dobrý mailbox hosting. Jak to řešíte Vy? Provozujete na
vpsfree weby a máte maily někde jinde? Kde?
díky
Petr Bolf
Ahoj lidi,
hraju si s nastavováním firewallu na VPS, a pokouším se o přechod ze
Shorewall na FirewallD. U toho druhého mám ale problém se startem,
kdy vyhodí následující chybu a neuplatní žádná pravidla:
> ERROR: Failed to read file
> "/proc/sys/net/netfilter/nf_conntrack_helper":
> [Errno 2] No such file or directory:
> '/proc/sys/net/netfilter/nf_conntrack_helper'
Tahle chyba ve mě budí podezření, že mi se stávajícím jádrem (a potažmo
tedy pod OpenVZ) firewalld nepojede, protože je jádro moc staré.
Dá se s tím něco dělat, nebo musím počkat na vpsAdminOS?
Díky za rady,
Khardix
Ahoj,
zatim jsme vyuzivali sluzeb Abacusu, ale ted jsem zjistil, ze Supermicro
ma i vlastni. Nevite, kdo to pro ne u nas zajistuje? A jake jsou s tim
zkusenosti?
Libor Boldan
Ahoj,
do kb som pridal navod pre pouzitie NixOps na vpsFree -
https://kb.vpsfree.cz/navody/vps/vpsadminos/nixops
Pomocou NixOps je mozne spravovat NixOS virtualy podobne ako
Ansible/salt a vsak s mnohymi vyhodami (atomicke update-y, rollbacky).
NixOps je teraz mozne testovat oproti vpsFree VPSkam - idealne nahodit
NixOS VPS na staging node a skusat.
Navod odkazuje na vzorovy deployment, ktory obsahuje priklady
konfiguracie nginx a php-fpm:
https://github.com/vpsfreecz/example-nixops-deployment/
- machines/hello.nix obsahuje priklad statickej konfiguaracie nginx
- machines/world.nix pouziva nginx a fgci spolu s php-fpm poolom
definovanym v modules/phpfpm.nix
Pokial narazite na problemy alebo mate otazky nevahajte sa opytat
(mailom sem alebo 'srk' na IRC kanaloch).
--
Richard Marko
Zdravím,
tak jsem se dokopal k zaměření se na nginx a to způsobem úplného odstranění
apache a jetí pouze na nginx. Každopádně by mě zajímalo, zda někdo z Vás u
sebe hostuje weby na nginx s php-fpm jakou používáte konfiguraci? Dost by
mi to pomohlo, kdyby se někdo podělil.
Díky moc a open-source zdar!
S pozdravem,
*Martin Myška*
Ahoj,
rad bych udelal maly patch pro https://vpsadmin.vpsfree.cz/, ale nejsem
schopen nikde najit prislusny repozitar, proti kteremu by se to dalo
udelat.
Na github jsem koukal, ale nenasel :/
Mohl by mne nekdo postrcit spravnym smerem?
Diky,
W.
--
There are only two hard things in Computer Science:
cache invalidation, naming things and off-by-one errors.
Ahoj,
během prázdnin jsme pracovali na spoustě zajímavých věcí, které bychom
vám chtěli ukázat.
I když je vpsAdminOS primárně live systém, občas se hodí možnost
nainstalovat systém na disk, např. když ho chcete provozovat na jednom
serveru a nemáte PXE. Instalace probíhá stejně jako byste instalovali
NixOS: naformátujete disky, vygenerujete config, upravíte ho a spustíte
instalační program, viz dokumentace [1]. Jako zavaděč je podporován grub
a snadno lze integrovat i SSH v initrd pro odemykání šifrovaných disků,
stejně jako v NixOS.
Pro aktualizování běžícího nebo nainstalovaného systému jsme připravili
dva nástroje: os-rebuild [2] (ala nixos-rebuild) a nixops [3, 4] (fork,
který přidává podporu pro vpsAdminOS). os-rebuild se dá použít přímo z
nainstalovaného systému, ale dá se tím aktualizovat i jiný stroj přes
SSH. nixops pak řeší správu větší sítě serverů, asi něco jako
terraform+ansible v jednom pro NixOS. S naší verzí nixops je možné
spravovat v jedné síti NixOS i vpsAdminOS stroje.
Pro migraci dat při aktualizaci OS jsme vytvořili nástroj zvaný osup
[5]. vpsAdminOS se při aktualizaci "přeplácne" novou verzí a níc víc se
řešit nemusí, nicméně o konfiguraci a data kontejnerů na ZFS poolech je
nutné se starat. Ne vše se podaří dobře navrhnout hned na začátku a
změny mohou vyžadovat reorganizaci datasetů, adresářů, atd. [6]. osup
umožňuje takové změny provádět automatizovaně, spouští se spolu s
aktualizací systému, ať už přes os-rebuild nebo nixops. Změny provádějí
migrační skripty, kterými se pool buď aktualizuje na vyšší verzi, nebo
se vrátí na verzi starší.
Už jsem se tu zmiňoval o nutnosti předělat správu IP adres ve vpsAdminu,
OS už teď k tomu umí vše potřebné. K síťovým rozhraním VPS se nyní dají
zvlášť přidělovat routované adresy a adresy přiřazené na rozhraní, ala
ip addr/route add. Takže je např. možné routovat síť /64 a na rozhraní
přidělit jen vybrané adresy z dané sítě. Spojovací adresy nadále nebudou
muset být na prvním místě, což komplikovalo nastavení sítě v dockeru a
obecně maškarádu. Integrace do vpsAdminu je rozdělaná, ale je to poměrně
složité a ještě to bude chvíli trvat.
[1] https://vpsadminos.org/os/installation/
[2] https://vpsadminos.org/os/updates/
[3] https://vpsadminos.org/os/deployment/
[4] https://nixos.org/nixops/
[5] https://man.vpsadminos.org/osup/man8/osup.8.html
[6] https://vpsadminos.org/containers/administration/#pools
Jakub
Ahojte,
jak asi vite, s Intelovskym hardware to vypada bidne.
Od zacatku roku to mame uz nejmin 5 kritickych bezpecnostnich chyb,
kvuli kterym se mi hodne spatne spi.
To mame spectre, meltdown, ruzny varianty, ted L1TF jako posledni
zabijak...
Abychom nase systemy patchnuli, nezbyde nam, nez vypnout hyperthreading
(HT).
To znamena prijit o cca 30% vykonu.
Aktualni myslenka, kterou mame, je vyhodit vsechny 6ti jadrovy procesory
a nakoupit bazarovy Ivy Bridge E5-2670v2, co je 10 jader @ 2.5 GHz za
150 EUR kus.
To by nam melo umoznit vypnout HT.
Nejvetsi otazkou je, jak dlouho bude jeste Intel vydavat opravy
mikrokodu pro Ivy - zatim to vypada, ze bude + nektery opravy tech chyb
od komunity mikrokody nepotrebuji a fungujou lip (napr. retpolines proti
spectre, pokud to neni na nejnovejsich Intelech).
My mame majoritu systemu jeste Sandy Bridge, vykonem by nam dostacovaly,
pokud bychom nebyli nuceni vypnout HT.
Financne je to jednou z mala funkcnich variant, co mne napada, jak se
proti tomuhle branit a neco s tim delat.
Co si o tom myslite, nemate nekdo lepsi napad?
Bohuzel kupovat novy systemy s AMD ma dve downsides:
1. za chvili je tu EPYC2, takze to bude hned outdated;
2. DDR4 a teda novy pameti obecne jsou aktualne skoro preplaceny zlatem,
jak je jich malo.
Vitam jakykoliv komentare a otazky na tohle tema ;)
Osobne to vidim na upgrade na 2x 10core Ivy Bridge ve vsech masinach
(SNB a IVB maji stejne desky, nastesti) a vypnuti HT.
Otazka je, jaka dalsi spekulace prijde dal a jestli nam to nahodou plan
s Ivy nepolozi...
/snajpa
Ahoj,
(English version below)
aktuálně na všech nodech k provozu VPS používáme kontejnerovou
virtualizaci OpenVZ Legacy. Protože už dosluhuje, vývoj skončil a nové
distribuce jej přestávají podporovat, řešíme přechod na novější řešení
v podobě vpsAdminOS [1,2]. Jedná se o distribuci založenou na NixOS [3]
a not-os [4], která bude na nodech sloužit jako hypervizor pro provoz VPS.
Pro správu VPS (kontejnerů) jsme vytvořili vlastní utilitu `osctl`,
která se funkcemi vyrovná `vzctl` z OpenVZ, popř. LXD [5]. Řeší hlavně
nastavení user namespaces [6] pro správnou izolaci VPS a cgroups pro
limity paměti, CPU, atd. Ke spouštění kontejnerů se používá LXC [5].
vpsAdminOS není omezen jen na infrastrukturu vpsFree.cz. Pokud někde
provozujete OpenVZ Legacy a nevíte co dál, můžete zvážit vpsAdminOS,
který je na migraci kontejnerů z OpenVZ připraven [7].
Na vpsAdminOS pracujeme zhruba od podzimu 2017 a nyní si všichni členové
mohou vyzkoušet, jak VPS nad novým systémem fungují. Naším cílem je, aby
migrace VPS z OpenVZ na vpsAdminOS proběhly bezpovšimnutí, nicméně
záleží na tom, co ve VPS provozujete. Doporučujeme všem, aby si novou
VPS vyzkoušeli a hlásili nám případné problémy a nedostatky. Než
přistoupíme k migraci produkčních VPS, je potřeba ten OS a integraci
s vpsAdminem vyladit.
V podstatě máte k dispozici další playground VPS, podmínky jsou podobné.
Jen to může být trochu divočejší -- nehlášené výpadky, restarty když
budeme potřebovat něco aktualizovat, atd. Ve vpsAdminu ve formuláři na
vytvoření VPS vyberte lokaci *Staging*. K dispozici jsou zatím tyto
distribuce: Alpine, Arch, CentOS, Debian, Fedora, Gentoo, NixOS, Ubuntu.
Časem budou přibývat další.
Na testování a hlášení chyb máte cca několik týdnů až měsíců, podle toho
jak nám to půjde. Více informací o změnách v OS, vpsAdminu a plánu
přechodu viz KB:
https://kb.vpsfree.cz/navody/vps/vpsadminos
ENGLISH:
We're currently using container virtualization OpenVZ Legacy to run VPS.
Since it's slowly dying, isn't developed anymore and modern
distributions stopped supporting it, we're going to upgrade to a newer
solution we've called vpsAdminOS [1,2]. It's a Linux distribution based
on NixOS [3] and not-os [4], which will serve as a hypervisor for VPS
on our nodes.
VPS are managed using our own utility called `osctl`, which is
comparable to `vzctl` from OpenVZ or LXD [5]. It's main purpose
is to set up user namespaces [8] to isolate VPS and to configure cgroups
for resource management, such as CPU or memory. Under the hood,
it's using LXC [5] to start containers. vpsAdminOS is not limited
to vpsFree.cz, it's designed to be independent of the specifics of our
infrastructure. If you're using OpenVZ Legacy on some servers
and you're looking for a replacement, you can consider vpsAdminOS.
We've also made a tool [7] which can convert containers from OpenVZ into
vpsAdminOS.
We've been working on vpsAdminOS since the fall of 2017 and now all
members can finally give it a try and test VPS on the new system. Our
goal is to make the transition from OpenVZ to vpsAdminOS as seamless
as possible, but it depends on what programs and configuration
you're using. That's why we're giving everyone the opportunity to try
out a VPS on the new system and report issues. Before we can start
migrating production VPS, we need to implement missing functions
and iron it out.
Essentialy, what you get is another playground VPS, the terms of use
are very similar. It can be a bit rougher though, there may be
unexpected reboots and outages when we need to fix issues and deploy new
system versions. To create a VPS on vpsAdminOS, select location
*Staging* in the form for VPS creation. The following distributions
are supported: Alpine, Arch, CentOS, Debian, Fedora, Gentoo, NixOS,
Ubuntu. More will be added in the future.
The staging environment will remain open for several weeks or months,
depending on how many issues we'll discover. You can read more
information about changes in the OS and vpsAdmin in KB:
https://kb.vpsfree.org/manuals/vps/vpsadminos
[1] https://vpsadminos.org
[2] https://github.com/vpsfreecz/vpsadminos
[3] https://nixos.org
[4] https://github.com/cleverca22/not-os
[5] https://linuxcontainers.org
[6] https://kb.vpsfree.cz/navody/vps/vpsadminos#user_namespaces
[7] https://vpsadminos.org/migration-paths/openvz-legacy/
[8] https://kb.vpsfree.org/manuals/vps/vpsadminos#user_namespaces
Jakub
Ahoj,
chci si vyzkoušet Mailcow, abych si na něm případně postavil mailový
server.
https://mailcow.email
Mám tedy spuštěný testovací vps s vpsAdminOs a nainstaloval si docker
podle návodu na KB.
Pak jdu podle návodu
https://mailcow.github.io/mailcow-dockerized-docs/install/
Když ale se dostanu do stavu, kdy mám spustit mailcow docker-compose up
-d tak skončím s chybou.
ERROR: for mailcowdockerized_unbound-mailcow_1 Cannot start service
unbound-mailcow: OCI runtime create failed: container_linux.go:348:
starting container process caused "process_linux.go:402: container init
caused \"rootfs_linux.go:58: mounting
\\\"/opt/mailcow-dockerized/data/conf/unbound/unbound.conf\\\" to rootfs
\\\"/var/lib/docker/vfs/dir/d85669b549311cb1226b821c4140f764db94e9da9fd6fefa409eacce016d5b46\\\"
at \\\"/Creating mailcowdockerized_dockerapi-mailcow_1 ... error
46/etc/unbound/unbound.conf\\\" caused \\\"permission denied\\\"\"": unknown
Je to pro každou službu, co tam mám spustit. Skončí to stejně.
A teď slušně prosím o případné vysvětlení, co by mohl být problém. Pokud
by někdo tušil. Zatím jsem se googlením moc k ničemu nedostal. :-(
Dělá to jak u Ubuntu 18.04 tak i Debian 9 (tam to je teď). Na localu na
pc jsem na ubuntu 18.04
Tomáš
Ahoj všem, za pár dnů končí možnost přihlásit témata na LinuxDays. Máte
co říct? Přihlaste přednášku nebo workshop na téma, kterým se zabýváte:
https://www.linuxdays.cz/2018/cfp/
Jako obvykle bude mít vpsFree na konferenci stánek a rádi vás tam potkáme.
--
Petr Krčmář
vpsFree.cz
Ahoj,
pouzival jsem drive https://dmarcian.com/ , ale pak me to prestalo bavit :)
Andrei Toupinets
Dne 16/08/2018 v 13:28 community-list-request(a)lists.vpsfree.cz napsal(a):
> Send Community-list mailing list submissions to
> community-list(a)lists.vpsfree.cz
>
> To subscribe or unsubscribe via the World Wide Web, visit
> http://lists.vpsfree.cz/listinfo/community-list
> or, via email, send a message with subject or body 'help' to
> community-list-request(a)lists.vpsfree.cz
>
> You can reach the person managing the list at
> community-list-owner(a)lists.vpsfree.cz
>
> When replying, please edit your Subject line so it is more specific
> than "Re: Contents of Community-list digest..."
>
>
> Today's Topics:
>
> 1. Zpracování DMARC reportů (Matěj Koudelka)
> 2. Re: Zpracování DMARC reportů (Vaclav Dusek)
> 3. Re: Zpracování DMARC reportů (Matěj Koudelka)
> 4. Re: Blacklist (Jiri Vesely)
>
>
> ----------------------------------------------------------------------
>
> Message: 1
> Date: Thu, 16 Aug 2018 12:35:50 +0200
> From: Matěj Koudelka <matej(a)hxpro.cz>
> To: "vpsFree.cz" <Community-list(a)lists.vpsfree.cz>
> Subject: [vpsFree.cz: community-list] Zpracování DMARC reportů
> Message-ID:
> <CA+jsTBKq5DqbiY4R9TpkEMuiSr5+k6uZ_08tUtn-aME50x7EZg(a)mail.gmail.com>
> Content-Type: text/plain; charset="utf-8"
>
> Zdravím borci,
> rád bych se zeptal jestli máte někdo nějaké tipy na automatizované
> zpracování DMARC reportů. Zavedl jsem to teprve nedávno, takže to ručně
> stahuju z emailu a pak to importuju do django-dmarc.
> Co používáte vy?
>
Ahoj,
podle rozcestníku Kam psát jsem usoudil, že poděkování pravděpodobně
nepatří na podporu. A tak bych zde na community-listu chtěl poděkovat
vpsFree za podporu.
Jsou to bezmála tři roky, kdy jsme pro Trinity Desktop Environment (TDE)
jako sponzorský dar dostali jednu VPS. Postupně na této VPS zabydlujeme
další a další služby, díky kterým je pro projekt velkým přínosem. Proto
je v Release Notes pro nedávno vydanou verzi TDE R14.0.5 oficiální
poděkování vpsFree za tuto podporu.
Děkuji!
--
Slávek
Ahoj,
v "Blacklist" vlákně jsem si toho nikde nevšiml, proto bych se chtěl
zeptat: Chodí vám z vpsek maily na seznam.cz? Na mém mailserveru s tím
celé roky nebyl problém, ale teď se asi něco stalo, protože maily chodit
přestaly. A vzhledem k procentu českých uživatelů, kteří mají maily na
seznamu, je to docela zásadní problém.
Průběh je přitom dost zvláštní - přijímací smtp server seznamu mail
přijme, žádné zamítnutí, mail je na jejich straně "queued for delivery
in session", ale v cílové schránce se zpráva neobjeví, ani v inboxu, ani
ve složce spam, prostě nikde. Mail se u nich zkrátka někde ztratí, ani
odesílatel, ani příjemce se o tom nedozví. Řeším to s jejich helpdeskem,
ale už pár dnů čekám na odpověď a nic.
Na mailserveru mám 4 IP adresy, zkoušel jsem všechny, a mail se úspěšně
nedoručil ani z jedné. Proto mě napadlo se zeptat, jestli se to neděje
ještě někomu z vpsfree. Jinak SPF/DKIM bych měl mít OK, resp. doteď s
tím problém nebyl a ostatní mailservery mi problém nedělají (až na
Microsoft, o tom už tu byla řeč).
Díky!
Standa
Ahoj,
pred mnoha lety se mi tady tento problem stal. Ale neslo o napadeni
serveru, jednomu zakaznikovi (spis jen jednomu cloveku s jednim mailem z
jedne domeny z mnoha bezich ze serveru) se asi zaviroval PC a utocnik se
dostal k jeho heslu (treba keyloggerem) a zacal pres server "legalne"
odesilat maily. Zmena hesla/upozorneni a nasledne zadosti na blacklisty.
Pak mi kamarad na server napsal nejaky script, ktery mi posle mail,
pokud se zvetsi fronta. Pak musim rucne v logu zjistit, kdo to je a
zmenit heslo. Od te doby jsem se na blacklist nedostal, ale stalo se to
asi jen 2x a vzdy jsem byl "v dosahu", takze jsem to stihl.
Sel by napsat nejaky script, ktery by zautomatizoval i ten zbytek a jak
pres nejakou adresu odejde vic jak treba 100 mailu za hodinu, tak ho to
primo zjisti a zmeni mu to heslo za me? A me jen oznami, ze se to stalo
a ja to s dotycnym vyresim?
Libor Boldan
Zdravím borci,
rád bych se zeptal jestli máte někdo nějaké tipy na automatizované
zpracování DMARC reportů. Zavedl jsem to teprve nedávno, takže to ručně
stahuju z emailu a pak to importuju do django-dmarc.
Co používáte vy?
--
*Matěj Koudelka*
+420 604 266 933
Ahoj,
na serveru mam ispCP Omega a zakaznika, ktery pouziva 1 mail
info(a)domena.cz na 3 PC pres IMAP, vse v Thunderbirdu. Pry se mu pred
nedavnem stalo, ze se mu zacal po tydnu vysypavat kos. Sleduje to uz pry
par dni a mizi to presne po dnech, takze to neni tim, ze by jeden z nich
omylem vysypal kos. V Thunderbirdu vidim jen nastaveni "Pri ukonceni
vysypat kos", ale nastaveni, aby to delal po x dnech jsem nenasel.
Nenapada nekoho, kde by to mohlo byt?
Dik Libor Boldan
Ahoj,
koukam na https://kb.vpsfree.cz/navody/vps/api
Pro spravu Amazonu pouzivam v praci Terraform, skvely nastroj pro
managovani cloudovych resourcu.
Viz
- https://www.terraform.io/docs/providers/aws/index.html
- https://www.terraform.io/
Uvazovali jste nad vytvoreni providera pro vpsfree?
Ja okamzite jak jsem vpsfree uvidel :)
Otazky:
a) mel bys zajem pouzivat Terraform pro managovani vpsfree?
-> Napis mi jake resources (API) byste chteli implementovat jako prvni
b) byl bys ochotny prispivat do opensource repa na github pokud se o
featuru ukaze zajem?
-> staci rict ANO :)
c) na koho se mam obratit v pripade ze zkusim udelat prototyp a narazim na
problemy s API?
Diky za odpovedi/feedback
Ondra
PS: Zatim se ptam jestli o featuru by byl zajem, neslibuju, ze neco udelam.
Ale snad to prijde :)
--
Ondřej Plátek
Ahojte,
chtěl jsem se zeptat jestli dnes vypadla celá konektivita jak v Praze tak v
Brně kolem 13:50 až 14:30? Máte někdo bližší informace? Procházel jsem
munin a je tam u některých node prázdné okno a nestat u velkého množství
spojení ukazuje failed. Plánujeme totiž začít používat DNS Made easy a
jaksi se dnes ukázalo, že to stačit pro failover nebude i když jsou to jiné
lokality.
--
S pozdravem,
Zdeněk Dlauhý
Web: www.pripravto.cz
Ahojte,
rozsiril se nam tu takovy nesvar - nove prichozi clen prijde, vyrobi si
VPSky, kde jen muze; tam naspousti minery a kdyz mu to vypneme, strasne
se takovy dotycny divi, ze to preci nebylo nikde napsane...
Tak ted uz to bohuzel napsane je:
https://kb.vpsfree.cz/informace/co_nedelat#co_na_vps_nedelat
Vsichni, co vpsFree delame kazdy den, bytostne nenavidime zakazy. Ale
jestli neco nesnasime vic, je to ocividny zneuzivani dobry vule :(
Diky moc za pochopeni.
/snajpa
PS.:
... abych sem taky propasoval neco pozitivniho...
Kdo mate zajem osahat si Debian na 64bit ARMu, se kterym pujdeme kreslit
system, napiste, dam pristup do kontejneru ;)
Mam zatim rozbehane LXC nad 4.9.111 jadrem a vypada to slibne, Wordpress
v defaultu to chrousta za 42ms :)
Cortex A72 @ 1.8 GHz + DDR4 Unregistered ECC @ 2100MHz, aneb prvni ARM
co nepovazuju za hracku :))
Díky všem za jejich reakci a omlouvám se za moje poněkud delší odezvy. Sedím
zrovna za pultem a zatím co odpovídám, tak ještě obsluhuji zákazníky :-D
V podstatě se mi zdá jako nejjednodušší řešení to, co míše Martin. Můj problém
ale je, že úplně přesně nevím, jak bych to měl v PHP implementovat. Tedy
první, co mě napadlo je, že bych použil dvě databáze - vzdálenou přes SSH
tunel a lokální. Standardně bych pracoval se vzdálenou databází a pokud by se
PHP nepodařilo ke vzdálené databázi připojit, tak by začalo pracovat s lokální
databází a ukládalo si účtenky, které vystavilo pro pozdější synchronizaci.
Jakmile by se spojení obnovilo, tak by se appka pokusila všechno z lokální
databáze nahrát do vzdálené databáze na server.
Hned první, co mě ale napadá je, jak appka pozná, že je spojení přerušeno/
navázáno? Tedy pokud budu při každém požadavku čekat na timeout vzdálené
databáze, tak se ta aplikace asi brutálně zpomalí, ikdyž tam dám třeba jen 1s
timeout.
Čím si však vůbec nejsem jistý, jakým způsobem bych měl řešit tu cache
produktů? To mám třeba co hodinu stahovat celou produktovou tabulku ze
vzdálené databáze a ukládat ji lokálně? Jde sice jen o cca. 2 tisíce produktů
a dvě pokladny, ale přesto...
Neviděl jste někdo nějakou implementaci takového problému, že bych se mohl
podívat na kód?
Dne pondělí 2. července 2018 13:18:36 CEST jste napsal(a):
> Dne 2.7.2018 v 11:26 Jan B. Kolář napsal(a):
> > Začal jsem si tedy pohrávat s myšlenkou, že bych aplikaci přesunul na
> > každou pokladnu zvlášť (tzn. na pokladně by běžel nginx, PHP a mysql) a
> > na server si dělal jen replikaci databází, abych pak mohl dělat z
> > pokladen výkazy, aniž by byly v běhu.
>
> Nebylo by jednodušší používat lokální databázi na pokladnách jen jako
> cache produktů a buffer účtenek? Databáze na serveru bude hlavní.
> Pokladny si z ní v definovaných intervalech budou aktualizovat cache
> produktů a průběžně do ní budou zapisovat nové účtenky, které se
> serverem Ministerstva vyřídí samy. Když ale selže spojení s hlavní
> databází, účtenka se zapíše do bufferu a na server se uloží až
> dodatečně, až se spojení zase obnoví.
>
> S pozdravem,
> Maritn Doucha
--
Jan B. Kolář
Zažeň nudu
Hodolanská 17, 779 00 Olomouc
tel: +420 605 800 859
e-mail: janbivoj.kolar(a)zazen-nudu.cz
www.zazen-nudu.cz
Ahoj,
chtěl jsem Vás poprosit o radu s jedním problémem, který teď řeším.
Když byl loni blázinec kolem EET, rozhodl jsem se jít vlastní cestou a pro
svoje prodejny nasadil pokladní software v PHP (v PHP umím programovat, takže
jsem si byl schopen do programu udělat implementaci EET). Celá věc mi běží na
serveru a pokladny se tam připojují pomocí SSH tunelu.
Co mi však začalo dělat starosti jsou výpadky připojení. Za celý rok jich
bylo jen pár, přesto bych však nechtěl dostat pokutu za to, že v době výpadku
nedávám lístky.
Začal jsem si tedy pohrávat s myšlenkou, že bych aplikaci přesunul na každou
pokladnu zvlášť (tzn. na pokladně by běžel nginx, PHP a mysql) a na server si
dělal jen replikaci databází, abych pak mohl dělat z pokladen výkazy, aniž by
byly v běhu.
Až po sem myšlenka dobrá, jenže dnes mi došlo, že budu potřebovat některá data
sdílet mezi pokladnami - například seznam produktů. Ten potřebuji mít
přístupný lokálně, aby šlo produkty účtovat v případě výpadku, ale zároveň ho
také potřebuji synchronizovat, aby se produkt do seznamu nemusel přidávat na
každé pokladně zvlášť. No a tady nevím, jak k tomu mám přistoupit :-(
Neřešil jste někdo podobný problém? Napadlo mě, zda nemít pro sdílená data
druhou databázi, která by byla na serveru a replikovala se na pokladny.
Přiznám se ale, že nevím, jak bych v tomto případě řešil zápisy do master
databáze na serveru a čtení z lokální slave databáze na pokladně.
Ocením jakoukoliv radu nebo odkaz.
Všechny zdraví
Honza
--
Jan B. Kolář
Zažeň nudu
Hodolanská 17, 779 00 Olomouc
tel: +420 605 800 859
e-mail: janbivoj.kolar(a)zazen-nudu.cz
www.zazen-nudu.cz
Hello all,
has anyone managed to make quagga work in a vps?
I am interested in ospf mostly, but bgp will also do if there is no other
way. The problem I am getting so far is that zebra cannot be started and is
a dependency for ospfd.
Ιουν 13 16:08:28 vps systemd[24880]: zebra.service: Failed to set up kernel
keyring: Permission denied
Ιουν 13 16:08:28 vps systemd[24880]: zebra.service: Failed at step KEYRING
spawning /sbin/ip: Permission denied
-- Subject: Process /sbin/ip could not be executed
-- Defined-By: systemd
-- Support: https://www.debian.org/support
--
-- The process /sbin/ip could not be executed and failed.
--
-- The error number returned by this process is 13.
Ιουν 13 16:08:28 vps systemd[1]: zebra.service: Control process exited,
code=exited status=237
Ιουν 13 16:08:28 vps systemd[1]: zebra.service: Failed with result
'exit-code'.
Ιουν 13 16:08:28 vps systemd[1]: Failed to start GNU Zebra routing manager.
-- Subject: Unit zebra.service has failed
-- Defined-By: systemd
-- Support: https://www.debian.org/support
--
-- Unit zebra.service has failed.
--
-- The result is RESULT.
Ιουν 13 16:08:28 vps systemd[1]: Dependency failed for OSPF routing daemon.
-- Subject: Unit ospfd.service has failed
-- Defined-By: systemd
-- Support: https://www.debian.org/support
--
-- Unit ospfd.service has failed.
Thank you!
--
-p
Cauves vsichni,
zaciname (ehm, vcelku vcas) resit letosni rocnik OpenAltu a jelikoz jako
vpsFree pomahame tuhle brnenskou akci poradat a ja absolutne nestiham
byt klukum jakkoliv uzitecny, hledam za sebe nahradu.
Hledam nekoho, kdo by byl ochotny pomoct OpenAltakum s nasledujicim:
- obvolani/omailovani partneru/sponzoru a komunikace s nimi (tj. nekdo,
koho bavi mluvit s lidma a delat obchod, na tomhle se to fajne da cvicit
"na necisto", protoze vcelku o "prd" jde)
- komunikace se stankari (ktere dodaji prave partneri)
- a obecne proste vypomoct na podobny organizacni veci
Jak rikam, jelikoz to vpsFree pomaha poradat a ja nestiham, udelejme to
letos tak, ze dejme brigadku nekomu ze clenu, kdo by to ocenil.
Pojdme se dohodnout na rozumny ukolovy/hodinovy odmene a pojdme do
toho.
Potrebuju idealne 2-3 lidi, casova narocnost na tak 15h/tyden.
Prosim prosim :)
Kdyztak preposlete dal.
/snajpa
Zdravím,
* při vytváření VPS ve Staging, nelze přiřadit Private IPv4. Budou Private IPv4 podporovány pro produkční VPS? Případně lze je nyní na žádost k VPS Staging přidělit?
* v editaci VPS (Staging), nelze přidat IPv6 z nabízených IPv6 adres, hodí to chybu "Cannot add an interconnecting IP". IPv6 lze přidat pouze při vytváření VPS.
* u VPS (Staging), která má pouze IPv6, nechodí překlad názvů DNS. Tedy pokud neznám konkrétní IPv6 adresu, na domény se po IPv6 nedostanu. V nastavení VPS mám IPv6 DNS zvolen.
* No a když při vytváření VPS (Staging) nepřiřadím při vytváření public IPv4 ani IPv6, VPS se vytvoří s IPv4 v rámci spojovací sítě, ale bez konektivity do internetu. Bylo by také fajn, kdyby spojovací IPv4 na sebe viděli v rámci jednoho účtu na vpsfree.cz, pokud tedy nebudou Private IPv4 podporován.
Renda
______________________________________________________________
> Od: Jakub Skokan <jakub.skokan(a)vpsfree.cz>
> Komu: news-list(a)lists.vpsfree.cz,
> Datum: 21.05.2018 09:41
> Předmět: [vpsFree.cz: community-list] Přechod z OpenVZ na v
>
Ahoj,
(English version below)
aktuálně na všech nodech k provozu VPS používáme kontejnerovou
virtualizaci OpenVZ Legacy. Protože už dosluhuje, vývoj skončil a nové
distribuce jej přestávají podporovat, řešíme přechod na novější řešení
v podobě vpsAdminOS [1,2]. Jedná se o distribuci založenou na NixOS [3]
a not-os [4], která bude na nodech sloužit jako hypervizor pro provoz VPS.
Pro správu VPS (kontejnerů) jsme vytvořili vlastní utilitu `osctl`,
která se funkcemi vyrovná `vzctl` z OpenVZ, popř. LXD [5]. Řeší hlavně
nastavení user namespaces [6] pro správnou izolaci VPS a cgroups pro
limity paměti, CPU, atd. Ke spouštění kontejnerů se používá LXC [5].
vpsAdminOS není omezen jen na infrastrukturu vpsFree.cz. Pokud někde
provozujete OpenVZ Legacy a nevíte co dál, můžete zvážit vpsAdminOS,
který je na migraci kontejnerů z OpenVZ připraven [7].
Na vpsAdminOS pracujeme zhruba od podzimu 2017 a nyní si všichni členové
mohou vyzkoušet, jak VPS nad novým systémem fungují. Naším cílem je, aby
migrace VPS z OpenVZ na vpsAdminOS proběhly bezpovšimnutí, nicméně
záleží na tom, co ve VPS provozujete. Doporučujeme všem, aby si novou
VPS vyzkoušeli a hlásili nám případné problémy a nedostatky. Než
přistoupíme k migraci produkčních VPS, je potřeba ten OS a integraci
s vpsAdminem vyladit.
V podstatě máte k dispozici další playground VPS, podmínky jsou podobné.
Jen to může být trochu divočejší -- nehlášené výpadky, restarty když
budeme potřebovat něco aktualizovat, atd. Ve vpsAdminu ve formuláři na
vytvoření VPS vyberte lokaci *Staging*. K dispozici jsou zatím tyto
distribuce: Alpine, Arch, CentOS, Debian, Fedora, Gentoo, NixOS, Ubuntu.
Časem budou přibývat další.
Na testování a hlášení chyb máte cca několik týdnů až měsíců, podle toho
jak nám to půjde. Více informací o změnách v OS, vpsAdminu a plánu
přechodu viz KB:
https://kb.vpsfree.cz/navody/vps/vpsadminos <https://kb.vpsfree.cz/navody/vps/vpsadminos>
ENGLISH:
We're currently using container virtualization OpenVZ Legacy to run VPS.
Since it's slowly dying, isn't developed anymore and modern
distributions stopped supporting it, we're going to upgrade to a newer
solution we've called vpsAdminOS [1,2]. It's a Linux distribution based
on NixOS [3] and not-os [4], which will serve as a hypervisor for VPS
on our nodes.
VPS are managed using our own utility called `osctl`, which is
comparable to `vzctl` from OpenVZ or LXD [5]. It's main purpose
is to set up user namespaces [8] to isolate VPS and to configure cgroups
for resource management, such as CPU or memory. Under the hood,
it's using LXC [5] to start containers. vpsAdminOS is not limited
to vpsFree.cz, it's designed to be independent of the specifics of our
infrastructure. If you're using OpenVZ Legacy on some servers
and you're looking for a replacement, you can consider vpsAdminOS.
We've also made a tool [7] which can convert containers from OpenVZ into
vpsAdminOS.
We've been working on vpsAdminOS since the fall of 2017 and now all
members can finally give it a try and test VPS on the new system. Our
goal is to make the transition from OpenVZ to vpsAdminOS as seamless
as possible, but it depends on what programs and configuration
you're using. That's why we're giving everyone the opportunity to try
out a VPS on the new system and report issues. Before we can start
migrating production VPS, we need to implement missing functions
and iron it out.
Essentialy, what you get is another playground VPS, the terms of use
are very similar. It can be a bit rougher though, there may be
unexpected reboots and outages when we need to fix issues and deploy new
system versions. To create a VPS on vpsAdminOS, select location
*Staging* in the form for VPS creation. The following distributions
are supported: Alpine, Arch, CentOS, Debian, Fedora, Gentoo, NixOS,
Ubuntu. More will be added in the future.
The staging environment will remain open for several weeks or months,
depending on how many issues we'll discover. You can read more
information about changes in the OS and vpsAdmin in KB:
https://kb.vpsfree.org/manuals/vps/vpsadminos <https://kb.vpsfree.org/manuals/vps/vpsadminos>
[1] https://vpsadminos.org <https://vpsadminos.org>
[2] https://github.com/vpsfreecz/vpsadminos <https://github.com/vpsfreecz/vpsadminos>
[3] https://nixos.org <https://nixos.org>
[4] https://github.com/cleverca22/not-os <https://github.com/cleverca22/not-os>
[5] https://linuxcontainers.org <https://linuxcontainers.org>
[6] https://kb.vpsfree.cz/navody/vps/vpsadminos#user_namespaces <https://kb.vpsfree.cz/navody/vps/vpsadminos#user_namespaces>
[7] https://vpsadminos.org/migration-paths/openvz-legacy/ <https://vpsadminos.org/migration-paths/openvz-legacy/>
[8] https://kb.vpsfree.org/manuals/vps/vpsadminos#user_namespaces <https://kb.vpsfree.org/manuals/vps/vpsadminos#user_namespaces>
Jakub
_______________________________________________
Community-list mailing list
Community-list(a)lists.vpsfree.cz
http://lists.vpsfree.cz/listinfo/community-list <http://lists.vpsfree.cz/listinfo/community-list>
Ahojte,
po zapracovani pripominek vypada navrh na nas Organizacni rad takhle:
https://github.com/vpsfreecz/oficialni-dokumenty/blob/gdpr/organizacni_rad.…
Projdete si to prosim;
ja k tomu jenom dodam, ze veci ohledne detailniho auditovani pristupu a
la "kdo z nas kdy vykonal jaky prikazy s jakym vysledkem" apod. - budeme
resit certifikaci ISO 27001 nekdy v pristim roce.
Takze zatim je Organizacni rad krome logu "co se deje s disky"
neupravuje.
pls pls komentujte, je "pet minut po dvanacte", jestli vas neco napada,
sem s tim.
Diky :)
/snajpa
Ahoj, pro zajímavost co máš za konfigurace? Zhruba - kategorie, deska,
chipset, procesor, ramka atd...
A nějaký dodavatel, který by stál za doporučení?
P
Dne po 7. 5. 2018 18:22 uživatel Jaroslav Skrivan <skrivy(a)skrivy.net>
napsal:
> Proslo mi rukama kolem 200 supermicer (ted jich mame v provozu asi 100) a
> odhad umrtnosti je za 10 let cca 3-4%. Nemuzu rict, ze nikdy nic neumrelo,
> ale bylo toho s ohledem na mnozstvi malo.
>
> Jarda
> ------------------------------
> From: Stepan Liska <stepan(a)comlinks.cz>
> Sent: 5/7/2018 5:46 PM
> To: vpsFree.cz Community list <community-list(a)lists.vpsfree.cz>
> Subject: Re: [vpsFree.cz: community-list] Supermicro, zkušenosti?
>
> Ahoj,
>
> spravoval jsem a spravuji několik SuperMicro serverů (a "serverů"). Šlo
> spíše o nižší třídu serverů, dokonce jsem měl pár let pod palcem i několik
> kousků s Atomem. Bylo jich celkem asi 8 a z toho jen jeden měl nějaké
> problémy s hardwarem a to ještě až po několika letech provozu. Pro mě zatím
> z hlediska spolehlivosti a za danou cenu s vybavením IPMI 2.0 s iKVM jasná
> volba pro cokoliv co potřebuji (SOHO + SmallBusiness). NBD záruky sice
> vezmou něco navíc, ale mají několik různých levelů včetně onsite a ceny mi
> přišly vcelku adekvátní ceně serverů, nicméně se mi zdálo, že se to vyplatí
> spíš u těch dražších. U levnějších jsem se spíš snažil o stejný nebo
> podobný typ a měl jsem jeden ve skříni navíc.
>
> Nicméně masivní nasazení jako vpsFree jsem nikdy nezažil a taky to co
> nasazuje vpsFree je o nějaký ten level výš.
>
> Štěpán.
>
> Dne 7.5.2018 v 09:27 Pavel Hruška napsal(a):
>
> Díky, jde mi o to, jaké jsou dlouhodobé zkušenosti, hlavně co se
> spolehlivosti týče. Rád bych měl nějakou alternativu k serverům HP apod.,
> tedy mít možnost udělat si vlastní server a nebýt úplně vázán vendor
> specific komponentami, především u řešení, kde je kladen důraz na rozpočet.
>
> Ještě (možná hloupý) dotaz, ale když mám teda E3-12x0, tedy bez int. VGA,
> musím ještě koupit nějakou grafiku k té desce? Uvažoval jsem spíš o
> E3-1245, tedy s integrovanou grafikou. Pro, proti?
>
> Díky,
> P.
>
> Dne 7. května 2018 9:08 Miroslav Šedivý <sedivy(a)kvetakov.net> napsal(a):
>
>> Tuhle desku máme, funguje to jako router společně s E3-1240 v6. nevím co
>> k tomu říct, prostě to funguje :-)
>>
>> *S pozdravem*
>>
>> *Ing. Miroslav Šedivý*
>>
>> Dne 6. května 2018 19:30 Pavel Hruška <mrpear(a)mrpear.net> napsal(a):
>>
>>> Ahojte, stručně a jasně, jaké máte zkušenosti se Supermicro? Mám v merku
>>> jejich desku, konkrétně X11SSH-F. Díky za názory.
>>> _______________________________________________
>>> Community-list mailing list
>>> Community-list(a)lists.vpsfree.cz
>>> http://lists.vpsfree.cz/listinfo/community-list
>>>
>>>
>>
>> _______________________________________________
>> Community-list mailing list
>> Community-list(a)lists.vpsfree.cz
>> http://lists.vpsfree.cz/listinfo/community-list
>>
>>
>
>
> --
> Ing. Pavel Hruška
> http://www.mrpear.net
> mrpear(a)mrpear.net
>
> web, webdesign, web-aplikace:
> http://www.pearfect.cz
>
>
> _______________________________________________
> Community-list mailing listCommunity-list@lists.vpsfree.czhttp://lists.vpsfree.cz/listinfo/community-list
>
>
> _______________________________________________
> Community-list mailing list
> Community-list(a)lists.vpsfree.cz
> http://lists.vpsfree.cz/listinfo/community-list
>
Ahoj,
chtěl bych se zeptat, jestli někdo nenarazil na problém se sítí ve VPS
s nějakou distribucí s aktuálními verzemi balíčků. Mně se to stalo po
upgradu na Fedoru 27, ale předpokládám, že takový Arch by mohl mít
podobný problém.
Po upgradu mi nefunguje síť, protože se nevytvořilo síťové rozhraní
venet0. No a na základě toho selžou následně další věci závisející na
funkčním síťovém rozhraní.
Taky bych se chtěl zeptat, jak to vypadá s řešením postaveným na LXC.
Přijde mi, že provozovat moderní distribuci na OpenVZ je běh čím dál
hustějším minovým polem. Už teď musím mít v systému docela dost
obezliček, aby na OpenVZ běžel. Pokud by byl nějaký early access, tak
bych se hlásil jako dobrovolník. Počítám, že by mi to hodně problémů
vyřešilo.
Jirka
Zdarec vsichni,
posledni dobou si hraju s miningem altcoinu a docela se dari, tak zase
pro jednou, kdyz resim neco pro sebe, proc to nezresit skupinoveji :)
Naskytla se moznost umistit az 10kW HW do prostor u vodni elektrarny,
takze energie s prehledem rovnou pod 2 Kc;
premyslim o modelu, ze bychom poresili mining rigy ve vetsim a vy byste
pak meli moznost poslat nam jenom svoje karty. Ty by pak byly pres
klasicky chain vpsAdmin-OpenVZ zpristupnene do QEMU pod vasi rezii,
takze na tech kartach muzete pocitat, co chcete.
S konektivitou bude asi kapku problem, takze pocitam s tvrdym
QoS/shapovanim, dostatecnym pro mining a SSH, ale zatim nevim o moznosti
sehnat tam lepsi linku na cokoliv narocnejsiho.
Kdo byste mel zajem a jak velky? :)
/snajpa
(Pavel Snajdr)
(Predseda vpsFree.cz)
(+420 720 107 791)
Ahojte,
snajpovi se podařilo vyřešit problém s nefunkčními distribucemi se
systemd a glibc >= 2.26. Chyběl nám v kernelu prlimit syscall, který
systemd využívá.
Nody s kernelem 042stab127.46 už mají prlimit backportovaný a díky tomu
tam spustíte i Ubuntu 18.04. Dneska v noci to snajpa nasadil na
node1.pgnd a ještě ho máme na node2.brq. Ostatní nody by měly být
aktualizovány někdy o víkendu.
Takže na playgroundu můžete nové ubuntu a další distra s glibc>=2.26
zkoušet už teď, v produkci snad po víkendu. Do té doby produkční VPS s
Ubuntu na 18.04 neaktualizujte, nebo budete muset systém obnovovat ze
zálohy.
Zkoušel jsem na playgroundu i plně aktualizovaný Arch a taky funguje.
Akorát jsme řešili nastavení sítě, po aktualizaci na nejnovější systemd
to přestalo fungovat a musel se upravovat skript ve vzctl, aby generoval
trochu jiný config pro netctl. Pokud to budete zkoušet, nezapomeňte v
/etc/pacman.conf zakomentovat IgnorePkg.
Jakub
Ahoj,
setkali jste už někdy s často padajícím Sidekiq v GitLab? Používám
verzi 10.7.1 sestavenou ze zdrojáků. Omnibus je ještě víc nenažraný a
4 GB RAM je málo. Navíc nepoužívám Postgress, jen MariaDB V logu mi
vypíše tuny výpis pádu. Deebugovat v C a v Ruby vůbec neumím.
Co jsem vypozoroval, padá při spuštění pipeline po commitu nebo při
merge MR a háže 502 nebo chybu 503
Nemá v tom psty staré jádro a dosloužilé openVZ?
Díky moc za rady.
Petr
Ahojte,
platnost GDPR se nam blizi, takze je na case zresit nejakou konkretnejsi
implementaci pro nas.
Z toho, co jsem se kde byl poradit, jsem zatim stvoril tenhle commit do
Provozniho radu:
https://github.com/vpsfreecz/oficialni-dokumenty/commit/3a09c71eb992293fe2d…
Jeste bod cislo 3 prijde k rozpracovani, hlavne ve smyslu co maji ti
kteri odpovedni clenove delat k ochrane (treba jako vyhnout se pouzivani
3rd party infrastruktury mailu, takze pa-pa Gmaily,
zaheslovane/zasifrovane mobilni zarizeni, zakazane zobrazeni textu bez
odemceni atd.).
Uvital bych komentare, co jsem zapomnel, co bych mel predefinovat, apod.
Diky moc,
/snajpa
Ahojte,
od zacatku roku bojujeme spolu se vsemi ostatnimi, co chteji sdilet
vykonne masiny, se zranitelnostmi procesoru.
Blizici se GDPR (na ktere uz konecne pripravujeme smernici, btw) a
celkove stav kyberprostoru myslim pro ty z nas, co si ceni soukromi vic,
znamena neklidny spanek.
Spectre a Meltdown mame softwarove workaroundnute, po par mesicich boje,
uff.
Branchscope? Zatim ani naznak reseni, to zas pristane do upstreamu jeden
fajny patch a pak budeme vymyslet backporty na vsechno mozne, ze...
No. Jake to ma reseni?
Pokud nemuzu pro citliva data v RAM v kazdy moment 100.0% verit, ze se
na ne nemuze divat nekdo jiny, nepomuze ani sifrovani, protoze staci
najit v dumpu sifrovaci klice a je to.
Resenim je tedy mit svoji RAM pod kontrolou.
Jak na to?
Virtualizace? Kde ze, napr. Spectrem prolezete i pres ni.
Jediny, co mne napadlo, je dat clenum moznost mit ciste svoji RAM pro
sebe, pro citliva data.
Tedy, kdo mate potrebu realne chranit nejake zaznamy, dostanete moznost
mit tu ci onu databazi na samostatnem pocitaci, na ktery nema primy
pristup nikdo jiny.
Jak?
Zaciname varit hardware, ktery bude fungovat jako podpurny management
pro jednodeskove pocitace, ktere si:
- donesete sami a my je umistime do datacentra
- nakoupime spolecne hromadne
Ja mam vysoke standardy a tak muzu rict, ze mi Rasberry Pi stacit
nebude, ani trojka (za mne moc pomale, no).
Cortex-A53 s 1 GB LPDDR2 RAM mi prijde OK tak pro testovani a hrani si s
takovou "secure enklavou", nebo pro uplne nekriticke pouziti; ja bych
osobne uvital vykonnejsi desky s vice RAM.
Moje uvaha je, ze kdyz budu mit kombo CPU a RAM pro sebe, mam vcelku pod
kontrolou, jestli se mi z te moji enklavy da vyladovat data nejakou
zranitelnosti v CPU.
Ale nechtel bych behat do datacentra menit SD karty - bohuzel, vetsina
desek bootovat ze site naprimo neumi; u nekterych se PXE-bootovat da
pomoci chainloadu z u-bootu z SD karty, ale taky ne u vsech.
Ja bych chtel mit storage zalohovany a na nejakem solidnejsim ulozisti,
nez je SD karta. Proto v Base48 startujeme projekt HW emulatoru SD karty
& managementu SBCs (napisu mail behem par dni, o co jde). S tim se taky
sveze podpora power on/off, resetu a serioveho portu pro remote consoli.
Zaroven s tim jeste resime sifrovani remote konzole, protoze pokud mam
mit data na cizim ulozisti, budu je sifrovat - a nejak musim v pripade
rebootu/vypadku napajeni dodat klic k tomu pocitaci tak, abych te ceste
mohl verit. Pravdepodobne to bude obnaset fyzickou navstevu v nekterem z
hackerspaces po republice, abyste zanesli nejaky svuj klic/heslo na
hardwarovy token, ktery bude pouzivan k sifrovane komunikaci s
management deskou - aby nebylo mozne precist klic k sifrovanym diskum po
ceste, kdyz ho do toho pocitace budete zadavat.
Chteli bychom management "secure enklav" zaintegrovat do vpsAdminu, aby
se dalo:
- tomu systemu pristoupit na konzoli pri odrezani se
- zapnout/vypnout "natvrdo"
- ale taky vymenit "virtualni SD kartu"
- udelat snapshot, obnovit ze zalohy
- pripadne SD kartu zpristupnit do nektereho z kontejneru na x86
infrastrukture a oddebugovat si to pod QEMU
Co se tyce "BYOD", tedy "dones si svoje zarizeni", pozadavky budou:
- rozumna spotreba a rozmery (5V napajeni, rozmery max okolo rozmeru
3.5" pevneho disku)
- microSD/SD slot z ktereho se bootuje (pripadne boot ze site bez
potreby SD karty je taky v poho)
- 1/2 ethernety (1000/100/10M)
No a co se tyce hromadnejsiho sehnani HW:
- chtel bych, abychom meli aspon par desek RISC-V a mohli to zpristupnit
tem, kteri na tom potrebuji odladit open-source balicek a podobne
-> kdo budete chtit RISC-V pro sebe, muzete se pridat
- potom bych chtel rozumne ARMv8 (64bit) desky s aspon 4 GB RAM (zatim
je muj favorit SoC RK3399)
- nejaky pool Raspberrycek asi taky neuskodi
A co mne laka uplne nejvic, cela open-source komunita by tak mela
moznost si umistit nekam HW, ktery muze delat dokola automatizovane
testovani software na tech deskach, protoze:
1. reset
2. remote storage
3. remote console
4. remote GPIO
5. to cele vzdalene pres API/CLI
Predstavy o clenskych prispevcich jeste uplne nemam, ale cilim to tak,
ze jedna deska by znamenala maximalne cca standardni clensky prispevek
(tj. 300/mes) a budto v tom bude nejakej defaultni Rasp Pi a XYZ GB
storage, nebo si prinesete svoji desku a budete k tomu pak mit storage o
ABC GB navic oproti prvni variante.
Kdo jste docetl az sem a koho to zaujalo, prosim?
Ozvete se s feedbackem. Hodil by se lepsi nazev, nez "secure enclave",
protoze to uz ma hodne dlouho moc jablecny zavan :)
Diky za reakce,
/snajpa
Ahojte,
četl jsem si ve znalostní bázi o infrastruktuře vpsfree.cz (
https://kb.vpsfree.cz/informace/infrastruktura), můj dotaz jestli je
popsaný stav aktuální?
Jsem u vpsfree.cz přes dva roky a řeším teď infrastrukturu ve firmě, tedy
v menším měřítku (3 fyzické servery) a také díky vpsfree.cz se začínám
zajímat více o (opensource) linuxovou virtualizaci a především ZFS.
Dozvědět se více o tom, jak funguje infrastruktura vpsfree.cz by byla
skvělá inspirace, např. zkušenosti se servery, jak přesněji je řešeno
úložiště, co výpadky nodů (jestli jsou a jak se to případně řeší) atp. Nedá
někde zjistit více, nebude nějaká konference, přednáška, ...?
Díky,
Pavel
Ahojte,
potreboval bych z Prazskeho datacentra (Vrsovice) prevezt nekolik 10Gbit
kabelu do Brna,
nejedete nahodou nekdo zitra smer Brno?
Kdyztak bych to nechal poslat kuryrem, ale pokud jezdite nekdo
pravidelne, nemusel bych s tim otravovat nekoho, kdo netusi poradne, co
je datacentrum...
Dik za pomoc :)
/snajpa
PS. kabely pujdou na instalaci 10Gbit patere do Brna, tam s 10Gbity
zacneme v novem racku (presuneme stavajici HW ze sdileneho racku,
pristanou tam 10Gbit switche a casem tam prijde i NAS).
Ahoj,
napadá Vás někoho co může za následující chování? Dělají to jen ty na
debianu založené kontejnery. Alpine (8-jre-alpine) funguje v pohodě.
[root@vps ~]# docker run openjdk:9-jre java --version
Unable to find image 'openjdk:9-jre' locally
Trying to pull repository docker.io/library/openjdk ...
9-jre: Pulling from docker.io/library/openjdk
2115d46e7396: Already exists
daa734ed5aa0: Already exists
801e6e5516c1: Already exists
404c3612208c: Already exists
258506b48a3e: Already exists
b8ae0883616a: Already exists
a9b93d536da3: Already exists
Digest: sha256:aea139f395628bcc1ec57ecba8b319ee395d31158a47754f56286afe09220700
Status: Downloaded newer image for docker.io/openjdk:9-jre
#
# A fatal error has been detected by the Java Runtime Environment:
#
# SIGSEGV (0xb) at pc=0x00007f3bf98f1324, pid=1, tid=12
#
# JRE version: OpenJDK Runtime Environment (9.0+12) (build 9.0.4+12-Debian-2)
# Java VM: OpenJDK 64-Bit Server VM (9.0.4+12-Debian-2, mixed mode,
tiered, compressed oops, g1 gc, linux-amd64)
# Problematic frame:
# C [libc.so.6+0x36324] abort+0x244
#
# Core dump will be written. Default location: //core.1 (may not exist)
#
# An error report file with more information is saved as:
# //hs_err_pid1.log
library initialization failed - unable to get max # of allocated fds
#
# If you would like to submit a bug report, please visit:
# http://bugreport.java.com/bugreport/crash.jsp
# The crash happened outside the Java Virtual Machine in native code.
# See problematic frame for where to report the bug.
#
Díky
Martin Sivák
Ahoj, zdá se mi to, nebo po aplikaci posledního patche klesla celkem o dost
zátěž serverů? Jak jsem zjistil ve vlastních sledováních na mém VPS, kde
zátěž klesla tak o polovinu, tak i ve VPS adminu vidím, že servery jsou
mnohem méně vytížené než dříve, tedy alespoň podle údaje o CPU. U mě kleslo
zatížení jader i RAM, a to celkem o dost. Tak nevím, jestli za to může ten
patch, nebo nějaká jiná aktualizace, ale zajímá mě to. :)
S přátelským pozdravem Caesar
Ahoj, nechával jsem si přes podporu VPS free přidat
reverzní DNS záznam 77.93.223.244 -> mail.jaroslavtyc.com a
2a01:430:17:1::ffff:169 -> mail.jaroslavtyc.com
Jenže od té doby požadavky na jakoukoli doménu na této IP adrese skončí
na mail.jaroslavtyc.com
ping drdplus.info
PING drdplus.info (77.93.223.244) 56(84) bytes of data
64 bytes from mail.jaroslavtyc.com (77.93.223.244): icmp_seq=1 ttl=56
time=3.48 ms
Měl jsem za to, že PTR ovlivňuje *pouze* e-mail, respektive že servery
přijímající poštu ode mě si přes PTR ověří, že odesílatel není podvod?
Poraďte mi prosím, co jsem nedomyslel, díky, Jarda
Ahoj vespolek,
kdo provozujete Drupal, udelejte si pristi tyden ve stredu vecer cas...
vyslo upozorneni na budouci bezpecnostni zaplatu vysoce kriticke chyby...
Jirka Volf
---------- Forwarded message ----------
From: <security-news(a)drupal.org>
Date: 2018-03-21 20:41 GMT+01:00
Subject: [Security-news] Drupal 7 and 8 core critical release on March
28th, 2018 PSA-2018-001
To: security-news(a)drupal.org
View online: https://www.drupal.org/psa-2018-001
* Advisory ID: DRUPAL-PSA-2018-001
* Project: Drupal Core
* Version: 7.x, 8.x
* Date: 2018-March-21
-------- DESCRIPTION
---------------------------------------------------------
There will be a security release of *Drupal 7.x, 8.3.x, 8.4.x, and 8.5.x on
March 28th 2018 between 18:00 - 19:30 UTC*, one week from the publication of
this document, that will fix a highly critical security vulnerability. The
Drupal Security Team urges you to reserve time for core updates at that time
because exploits /might/ be developed within hours or days. Security release
announcements will appear on the Drupal.org security advisory page [1].
While Drupal 8.3.x and 8.4.x are no longer supported and we don't normally
provide security releases for unsupported minor releases [2], given the
potential severity of this issue, we /are/ providing 8.3.x and 8.4.x
releases
that includes the fix for sites which have not yet had a chance to update to
8.5.0. The Drupal security team strongly recommends the following:
* Sites on 8.3.x should immediately update to the 8.3.x release that
willbe
provided in the advisory, and then plan to update to the latest 8.5.x
security release in the next month.
* Sites on 8.4.x should immediately update to the 8.4.x release that
willbe
provided in the advisory, and then plan to update to the latest 8.5.x
security release in the next month.
* Sites on 7.x or 8.5.x can immediately update when the advisory
isreleased
using the normal procedure.
The security advisory will list the appropriate version numbers for all
three
Drupal 8 branches. Your site's update report page will recommend the 8.5.x
release even if you are on 8.3.x or 8.4.x, but temporarily updating to the
provided backport for your site's current version will ensure you can update
quickly without the possible side effects of a minor version update.
The Security Team or any other party is not able to release any more
information about this vulnerability until the announcement is made. The
announcement will be made public at www.drupal.org/security [3], over
Twitter, and in email for those who have subscribed to our email list. To
subscribe to the email list: log in on drupal.org, go to your user profile
page and subscribe to the security newsletter on the Edit » My newsletters
tab.
Journalists interested in covering the story are encouraged to email
security-press(a)drupal.org to be sure they will get a copy of the
journalist-focused release. The Security Team will release a
journalist-focused summary email at the same time as the new code release
and
advisory.
If you find a security issue, please report it at
https://www.drupal.org/security-team/report-issue [4].
[1] https://www.drupal.org/security
[2] https://www.drupal.org/core/release-cycle-overview
[3] www.drupal.org/security
[4] https://www.drupal.org/security-team/report-issue
_______________________________________________
Security-news mailing list
Security-news(a)drupal.org
Unsubscribe at https://lists.drupal.org/mailman/listinfo/security-news
ahoj,
poradíte, mám od někoho koupenou domenu a u nich nastavene presmerovani
na vpsfree na moji IP adresu (A a AAA záznamy). Kdybych chtěl nastavovat
přímo nameserver, musel bych na svém vps provozovat vlastní nameserver
(dns), nebo můžu použít něco jaklo ns1.brq.vpsfree.cz?
díky
Petr Bolf