[vpsFree.cz: community-list] Prosba - nefunkncni virt-manager
Richard Korinek
richard.korinek at gmail.com
Fri Oct 6 17:07:25 CEST 2017
Zdravím,
snažím se rozchodit KVM a chtěl bych použít virt-manager. Zkoušel jsem
ArchLinux 3.6 i Centos 7.3 ale zatím bez úspěchu.
Naistaluju qemu, dokonce i spustím image pomocí konfiguračního souboru.
Když ale zkouším virt-amanger (po nainstalování všech dependencies, pro
Centos viz KB KVM / Centos), tak virt-manager padá s nic neříkající chybou.
Kompletní debug:
[root at majestatix log]# virt-manager --debug
[Pá, 06 říj 2017 16:47:38 virt-manager 943] DEBUG (cli:261) Launched with
command line: /usr/share/virt-manager/virt-manager --debug
[Pá, 06 říj 2017 16:47:38 virt-manager 943] DEBUG (virt-manager:183)
virt-manager version: 1.4.1
[Pá, 06 říj 2017 16:47:38 virt-manager 943] DEBUG (virt-manager:184)
virtManager import: <module 'virtManager' from
'/usr/share/virt-manager/virtManager/__init__.pyc'>
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (virt-manager:214)
PyGObject version: 3.22.0
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (virt-manager:218) GTK
version: 3.22.10
Gtk-Message: Failed to load module "canberra-gtk-module"
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (engine:496) libguestfs
inspection support: False
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (systray:156) Showing
systray: False
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (engine:1037) processing
cli command uri= show_window= domain=
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (engine:1039) No cli
action requested, launching default window
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (manager:203) Showing
manager
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (engine:401) window
counter incremented to 1
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (engine:161) Loading
stored URIs:
qemu:///system
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (engine:140) Initial
gtkapplication activated
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:571)
conn=qemu:///system changed to state=Connecting
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:989)
Scheduling background open thread for qemu:///system
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:1039) libvirt
version=3002000
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:1041) daemon
version=3002000
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:1042) conn
version=1005003
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:1044)
qemu:///system capabilities:
<capabilities>
<host>
<uuid>4e56d8c3-7406-4b81-9a01-39d12aae0b60</uuid>
<cpu>
<arch>x86_64</arch>
<pages unit="KiB" size="4"/>
</cpu>
<power_management/>
<migration_features>
<live/>
<uri_transports>
<uri_transport>tcp</uri_transport>
<uri_transport>rdma</uri_transport>
</uri_transports>
</migration_features>
<secmodel>
<model>none</model>
<doi>0</doi>
</secmodel>
<secmodel>
<model>dac</model>
<doi>0</doi>
<baselabel type="kvm">+107:+107</baselabel>
<baselabel type="qemu">+107:+107</baselabel>
</secmodel>
</host>
<guest>
<os_type>hvm</os_type>
<arch name="i686">
<wordsize>32</wordsize>
<emulator>/usr/libexec/qemu-kvm</emulator>
<machine maxCpus="240">pc-i440fx-rhel7.0.0</machine>
<machine canonical="pc-i440fx-rhel7.0.0" maxCpus="240">pc</machine>
<machine maxCpus="240">rhel6.0.0</machine>
<machine maxCpus="240">rhel6.1.0</machine>
<machine maxCpus="240">rhel6.2.0</machine>
<machine maxCpus="240">rhel6.3.0</machine>
<machine maxCpus="240">rhel6.4.0</machine>
<machine maxCpus="240">rhel6.5.0</machine>
<machine maxCpus="240">rhel6.6.0</machine>
<domain type="qemu">
<emulator>/usr/libexec/qemu-kvm</emulator>
</domain>
<domain type="kvm">
<emulator>/usr/libexec/qemu-kvm</emulator>
</domain>
</arch>
<features>
<cpuselection/>
<deviceboot/>
<disksnapshot default="off" toggle="no"/>
<acpi default="on" toggle="yes"/>
<apic default="on" toggle="no"/>
<pae/>
<nonpae/>
</features>
</guest>
<guest>
<os_type>hvm</os_type>
<arch name="x86_64">
<wordsize>64</wordsize>
<emulator>/usr/libexec/qemu-kvm</emulator>
<machine maxCpus="240">pc-i440fx-rhel7.0.0</machine>
<machine canonical="pc-i440fx-rhel7.0.0" maxCpus="240">pc</machine>
<machine maxCpus="240">rhel6.0.0</machine>
<machine maxCpus="240">rhel6.1.0</machine>
<machine maxCpus="240">rhel6.2.0</machine>
<machine maxCpus="240">rhel6.3.0</machine>
<machine maxCpus="240">rhel6.4.0</machine>
<machine maxCpus="240">rhel6.5.0</machine>
<machine maxCpus="240">rhel6.6.0</machine>
<domain type="qemu">
<emulator>/usr/libexec/qemu-kvm</emulator>
</domain>
<domain type="kvm">
<emulator>/usr/libexec/qemu-kvm</emulator>
</domain>
</arch>
<features>
<cpuselection/>
<deviceboot/>
<disksnapshot default="off" toggle="no"/>
<acpi default="on" toggle="yes"/>
<apic default="on" toggle="no"/>
</features>
</guest>
</capabilities>
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:845) Using
domain events
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:882) Using
network events
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:902) Using
storage pool events
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:921) Using
node device events
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:1426) Error
polling connection qemu:///system
Traceback (most recent call last):
File "/usr/share/virt-manager/virtManager/connection.py", line 1404, in
tick_from_engine
self._tick(*args, **kwargs)
File "/usr/share/virt-manager/virtManager/connection.py", line 1294, in
_tick
self._hostinfo = self._backend.getInfo()
File "/usr/lib64/python2.7/site-packages/libvirt.py", line 3739, in
getInfo
if ret is None: raise libvirtError ('virNodeGetInfo() failed',
conn=self)
libvirtError: An error occurred, but the cause is unknown
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:1436) An
error occurred, but the cause is unknown
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:937)
conn.close() uri=qemu:///system
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:571)
conn=qemu:///system changed to state=Disconnected
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (error:99) error dialog
message:
summary=Error polling connection 'qemu:///system': An error occurred, but
the cause is unknown
details=Traceback (most recent call last):
File "/usr/share/virt-manager/virtManager/engine.py", line 385, in
_handle_tick_queue
conn.tick_from_engine(**kwargs)
File "/usr/share/virt-manager/virtManager/connection.py", line 1437, in
tick_from_engine
raise e # pylint: disable=raising-bad-type
libvirtError: An error occurred, but the cause is unknown
[Pá, 06 říj 2017 16:47:44 virt-manager 943] DEBUG (manager:214) Closing
manager
[Pá, 06 říj 2017 16:47:44 virt-manager 943] DEBUG (engine:405) window
counter decremented to 0
[Pá, 06 říj 2017 16:47:44 virt-manager 943] DEBUG (engine:467) No windows
found, requesting app exit
[Pá, 06 říj 2017 16:47:44 virt-manager 943] DEBUG (engine:491) Exiting app
normally.
Vypadá to, že na něco nedostane odpověď "ret is None" .... ale netuším na
co.
Jak v ArchLinuxu tak i v Centosu jsem našel tythle hlášky:
Oct 6 17:04:35 majestatix libvirtd: 2017-10-06 15:04:35.371+0000: 1420:
warning : virNumaGetNodeCPUs:276 : NUMA topology for cell 0 is not
available, ignoring
Oct 6 17:04:35 majestatix libvirtd: 2017-10-06 15:04:35.372+0000: 1420:
warning : virQEMUCapsInit:1138 : Failed to get host CPU
Na Centosu si potom ještě stěžuje KSMTUNED
Oct 6 16:57:56 majestatix ksmtuned: /usr/sbin/ksmtuned: line 61:
/sys/kernel/mm/ksm/run: No such file or directory
Oct 6 16:58:06 majestatix /usr/sbin/irqbalance: WARNING, didn't collect
load info for all cpus, balancing is broken
Ale netuším, jestli to s tím souvisí. Nemáte někdo nějakou radu co dál
prosím? Vzhledem k tomu, že jsem ke stejnému výsledku dospěl jak na Centos
tak i na Arch LInux, tak myslím že problém bude někde v nastavení VPSky?
Nebo se pletu?
Díky za tipy jak dál.
R.
--
Richard Kořínek
^^^^^^^^^^^^^^
email: richard.korinek at gmail.com
phone: +420 604 777 044
-------------- next part --------------
An HTML attachment was scrubbed...
URL: <http://lists.vpsfree.cz/pipermail/community-list/attachments/20171006/64fc010e/attachment-0002.html>
More information about the Community-list
mailing list