[vpsFree.cz: community-list] Prosba - nefunkncni virt-manager

Richard Korinek richard.korinek at gmail.com
Fri Oct 6 17:07:25 CEST 2017


Zdravím,

snažím se rozchodit KVM a chtěl bych použít virt-manager. Zkoušel jsem
ArchLinux 3.6 i Centos 7.3 ale zatím bez úspěchu.

Naistaluju qemu, dokonce i spustím image pomocí konfiguračního souboru.
Když ale zkouším virt-amanger (po nainstalování všech dependencies, pro
Centos viz KB KVM / Centos), tak virt-manager padá s nic neříkající chybou.
Kompletní debug:


[root at majestatix log]# virt-manager --debug
[Pá, 06 říj 2017 16:47:38 virt-manager 943] DEBUG (cli:261) Launched with
command line: /usr/share/virt-manager/virt-manager --debug
[Pá, 06 říj 2017 16:47:38 virt-manager 943] DEBUG (virt-manager:183)
virt-manager version: 1.4.1
[Pá, 06 říj 2017 16:47:38 virt-manager 943] DEBUG (virt-manager:184)
virtManager import: <module 'virtManager' from
'/usr/share/virt-manager/virtManager/__init__.pyc'>
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (virt-manager:214)
PyGObject version: 3.22.0
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (virt-manager:218) GTK
version: 3.22.10
Gtk-Message: Failed to load module "canberra-gtk-module"
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (engine:496) libguestfs
inspection support: False
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (systray:156) Showing
systray: False
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (engine:1037) processing
cli command uri= show_window= domain=
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (engine:1039) No cli
action requested, launching default window
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (manager:203) Showing
manager
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (engine:401) window
counter incremented to 1
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (engine:161) Loading
stored URIs:
qemu:///system
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (engine:140) Initial
gtkapplication activated
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:571)
conn=qemu:///system changed to state=Connecting
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:989)
Scheduling background open thread for qemu:///system
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:1039) libvirt
version=3002000
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:1041) daemon
version=3002000
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:1042) conn
version=1005003
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:1044)
qemu:///system capabilities:
<capabilities>

  <host>
    <uuid>4e56d8c3-7406-4b81-9a01-39d12aae0b60</uuid>
    <cpu>
      <arch>x86_64</arch>
      <pages unit="KiB" size="4"/>
    </cpu>
    <power_management/>
    <migration_features>
      <live/>
      <uri_transports>
        <uri_transport>tcp</uri_transport>
        <uri_transport>rdma</uri_transport>
      </uri_transports>
    </migration_features>
    <secmodel>
      <model>none</model>
      <doi>0</doi>
    </secmodel>
    <secmodel>
      <model>dac</model>
      <doi>0</doi>
      <baselabel type="kvm">+107:+107</baselabel>
      <baselabel type="qemu">+107:+107</baselabel>
    </secmodel>
  </host>

  <guest>
    <os_type>hvm</os_type>
    <arch name="i686">
      <wordsize>32</wordsize>
      <emulator>/usr/libexec/qemu-kvm</emulator>
      <machine maxCpus="240">pc-i440fx-rhel7.0.0</machine>
      <machine canonical="pc-i440fx-rhel7.0.0" maxCpus="240">pc</machine>
      <machine maxCpus="240">rhel6.0.0</machine>
      <machine maxCpus="240">rhel6.1.0</machine>
      <machine maxCpus="240">rhel6.2.0</machine>
      <machine maxCpus="240">rhel6.3.0</machine>
      <machine maxCpus="240">rhel6.4.0</machine>
      <machine maxCpus="240">rhel6.5.0</machine>
      <machine maxCpus="240">rhel6.6.0</machine>
      <domain type="qemu">
        <emulator>/usr/libexec/qemu-kvm</emulator>
      </domain>
      <domain type="kvm">
        <emulator>/usr/libexec/qemu-kvm</emulator>
      </domain>
    </arch>
    <features>
      <cpuselection/>
      <deviceboot/>
      <disksnapshot default="off" toggle="no"/>
      <acpi default="on" toggle="yes"/>
      <apic default="on" toggle="no"/>
      <pae/>
      <nonpae/>
    </features>
  </guest>

  <guest>
    <os_type>hvm</os_type>
    <arch name="x86_64">
      <wordsize>64</wordsize>
      <emulator>/usr/libexec/qemu-kvm</emulator>
      <machine maxCpus="240">pc-i440fx-rhel7.0.0</machine>
      <machine canonical="pc-i440fx-rhel7.0.0" maxCpus="240">pc</machine>
      <machine maxCpus="240">rhel6.0.0</machine>
      <machine maxCpus="240">rhel6.1.0</machine>
      <machine maxCpus="240">rhel6.2.0</machine>
      <machine maxCpus="240">rhel6.3.0</machine>
      <machine maxCpus="240">rhel6.4.0</machine>
      <machine maxCpus="240">rhel6.5.0</machine>
      <machine maxCpus="240">rhel6.6.0</machine>
      <domain type="qemu">
        <emulator>/usr/libexec/qemu-kvm</emulator>
      </domain>
      <domain type="kvm">
        <emulator>/usr/libexec/qemu-kvm</emulator>
      </domain>
    </arch>
    <features>
      <cpuselection/>
      <deviceboot/>
      <disksnapshot default="off" toggle="no"/>
      <acpi default="on" toggle="yes"/>
      <apic default="on" toggle="no"/>
    </features>
  </guest>

</capabilities>

[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:845) Using
domain events
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:882) Using
network events
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:902) Using
storage pool events
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:921) Using
node device events
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:1426) Error
polling connection qemu:///system
Traceback (most recent call last):
  File "/usr/share/virt-manager/virtManager/connection.py", line 1404, in
tick_from_engine
    self._tick(*args, **kwargs)
  File "/usr/share/virt-manager/virtManager/connection.py", line 1294, in
_tick
    self._hostinfo = self._backend.getInfo()
  File "/usr/lib64/python2.7/site-packages/libvirt.py", line 3739, in
getInfo
    if ret is None: raise libvirtError ('virNodeGetInfo() failed',
conn=self)
libvirtError: An error occurred, but the cause is unknown
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:1436) An
error occurred, but the cause is unknown
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:937)
conn.close() uri=qemu:///system
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (connection:571)
conn=qemu:///system changed to state=Disconnected
[Pá, 06 říj 2017 16:47:39 virt-manager 943] DEBUG (error:99) error dialog
message:
summary=Error polling connection 'qemu:///system': An error occurred, but
the cause is unknown
details=Traceback (most recent call last):
  File "/usr/share/virt-manager/virtManager/engine.py", line 385, in
_handle_tick_queue
    conn.tick_from_engine(**kwargs)
  File "/usr/share/virt-manager/virtManager/connection.py", line 1437, in
tick_from_engine
    raise e  # pylint: disable=raising-bad-type
libvirtError: An error occurred, but the cause is unknown

[Pá, 06 říj 2017 16:47:44 virt-manager 943] DEBUG (manager:214) Closing
manager
[Pá, 06 říj 2017 16:47:44 virt-manager 943] DEBUG (engine:405) window
counter decremented to 0
[Pá, 06 říj 2017 16:47:44 virt-manager 943] DEBUG (engine:467) No windows
found, requesting app exit
[Pá, 06 říj 2017 16:47:44 virt-manager 943] DEBUG (engine:491) Exiting app
normally.


Vypadá to, že na něco nedostane odpověď "ret is None" .... ale netuším na
co.

Jak v ArchLinuxu tak i v Centosu jsem našel tythle hlášky:

Oct  6 17:04:35 majestatix libvirtd: 2017-10-06 15:04:35.371+0000: 1420:
warning : virNumaGetNodeCPUs:276 : NUMA topology for cell 0 is not
available, ignoring
Oct  6 17:04:35 majestatix libvirtd: 2017-10-06 15:04:35.372+0000: 1420:
warning : virQEMUCapsInit:1138 : Failed to get host CPU


Na Centosu si  potom ještě stěžuje KSMTUNED

Oct  6 16:57:56 majestatix ksmtuned: /usr/sbin/ksmtuned: line 61:
/sys/kernel/mm/ksm/run: No such file or directory
Oct  6 16:58:06 majestatix /usr/sbin/irqbalance: WARNING, didn't collect
load info for all cpus, balancing is broken

Ale netuším, jestli to s tím souvisí. Nemáte někdo nějakou radu co dál
prosím? Vzhledem k tomu, že jsem ke stejnému výsledku dospěl jak na Centos
tak i na Arch LInux, tak myslím že problém bude někde v nastavení VPSky?
Nebo se pletu?

Díky za tipy jak dál.



R.


-- 
Richard Kořínek
^^^^^^^^^^^^^^
email: richard.korinek at gmail.com
phone: +420 604 777 044
-------------- next part --------------
An HTML attachment was scrubbed...
URL: <http://lists.vpsfree.cz/pipermail/community-list/attachments/20171006/64fc010e/attachment-0002.html>


More information about the Community-list mailing list