Proxmox VE 3.x

Allikas: Kuutõrvaja
Redaktsioon seisuga 2. jaanuar 2014, kell 16:08 kasutajalt Aus (arutelu | kaastöö) (Install)
                                        Roheline.jpg Toores. Ehk seda pala võib täiendada.

Sissejuhatus

Proxmox on firma mis arendab Debianil ja vabavaral baseeruvaid serverilahendusi. Proxmox VE on Debianile loodud KVM ja OpenVZ tehnikale baseeruvate virtuaalserverite haldusplatform ehk alusdistro. Proxmox kuulub GPL litsentsi alla.

Proxmox VEs sisalduvad võimalused:

  • Virtuaalmasinate võrgu boodi tugi gPXE abil http://www.etherboot.org/wiki/pxechaining
  • Lihtne kuid võimas veebiliides kus saab kõik põhilised seadistamised tehtud
  • Klusterdamise tugi
  • Virtuaalserverite mugav install ja kasutamine üle java konsooli

Võrreldes varasema 1.x versiooniga on kasutajaliides põhjalikult ümber kirjutatud-disainitud. Juurde on tulnud järgmised võimalused:

  • Kõik clustri noded on VÕRDSED. Pole enam master-slave tüüpi clustrit.
  • Backup-restore haldusliidesest lihtsam
  • haila-vaila (HA), ehk kui üks masin jukerdab starditakse virtuaalmasinat automaatselt teisel.
  • kasutajate haldus, võimalik luua erinevate ligipääsuõigustega kasutajaid
  • rrdtooliga genereeritud koormusgraafikud iga virtuaalmasina kohta
  • Proxmoxi API virtuaalmasinate/kasutajate loomiseks eemalt nt veebiliidesest.

Install

Installimiseks on kaks võimalust. Esimene (ja soovituslik) on tõmmata ametlik ISO fail ning paigaldada Proxmox selleabil. Juhend ja ISO tõmbamise lingid asuvad aadressil http://pve.proxmox.com/wiki/Installation

Kui mingil põhjusel ametlikult plaadilt installimine ebaõnnestub. Näiteks ei tundnud minul seal leiduv Debian ära võrgukaarte ühe teatud kerneli bugi tõttu. Saab paigaldada käsitsi kõige uuema Debiani 64bitise versiooni, sest 32 bitil kahjuks rakendus ei tööta, ning sinna omakorda Proxmoxi paketi. Selleks esimese sammuna tuleks paigaldada tavaline Debian distro ja järgida edasi juhendit http://pve.proxmox.com/wiki/Installation

/etc/hosts failis tuleb defineerida masina väline IP-aadress.

Avame /etc/apt/sources.list ja lisame sinna rea

# PVE packages provided by proxmox.com
deb http://download.proxmox.com/debian wheezy pve

Lisame Proxmox VE repository key:

# wget -O- "http://download.proxmox.com/debian/key.asc" | apt-key add -

Uuendame süsteemi

# aptitude update

Ja paigaldame proxmoxi

# aptitude install pve-firmware proxmox-ve-2.6.32 ntp ssh lvm2

Mis installib nii kerneli kui vajalikud utiliidid.

Üleliigne kernel maha, et ei hakkaks segama.

# apt-get remove linux-image-amd64 linux-image-3.2.0-4-amd64

Saadaolevaid versioone saab näha http://download.proxmox.com/debian/ saidilt.

Kui Proxmox teatab "KVM module not loaded. Maybe you need to enable Intel VT / AMD-V support in the BIOS." Siis on tõenäoliselt virtualiseerimise tugi BIOSist keelatud või üldse arvutist puuduv.

Lisainfot paigaldatud versioonide kohta saab käsuga:

# pveversion 
pve-manager/2.2/3089a616

Või veelgi täpsema versiooniinfo saamiseks

# pveversion -v
pve-manager: 2.2-32 (pve-manager/2.2/3089a616)
running kernel: 2.6.32-17-pve
proxmox-ve-2.6.32: 2.2-83
pve-kernel-2.6.32-16-pve: 2.6.32-82
pve-kernel-2.6.32-17-pve: 2.6.32-83
lvm2: 2.02.95-1pve2
clvm: 2.02.95-1pve2
corosync-pve: 1.4.4-1
openais-pve: 1.1.4-2
libqb: 0.10.1-2
redhat-cluster-pve: 3.1.93-2
resource-agents-pve: 3.9.2-3
fence-agents-pve: 3.1.9-1
pve-cluster: 1.0-34
qemu-server: 2.0-72
pve-firmware: 1.0-21
libpve-common-perl: 1.0-41
libpve-access-control: 1.0-25
libpve-storage-perl: 2.0-36
vncterm: 1.0-3
vzctl: 4.0-1pve2
vzprocps: not correctly installed
vzquota: 3.1-1
pve-qemu-kvm: 1.3-10
ksm-control-daemon: not correctly installed

Paigaldada võib veel:

# aptitude install postfix ksm-control-daemon vzprocps

Vajadusel sertifikaadi paigaldamine

cp server.key /etc/pve/pve-www.pem
cp server.key /etc/pve/local/pve-ssl.key
cp server.pem /etc/pve/local/pve-ssl.pem
cp ca.crt     /etc/pve/pve-root-ca.pem

Paigaldatud kerneli versioon toetab lisaks ka KSM nimelist tehnoloogiat mälukasutuse vähendamiseks virtuaalmasinatel http://pve.proxmox.com/wiki/Dynamic_Memory_Management

Nimetatud funktsioonist leiab veel juttu kerneli uuenduste loetelu juures http://kernelnewbies.org/Linux_2_6_32#head-d3f32e41df508090810388a57efce73f52660ccb

Miks soovitatakse kasutada 32-bitiseid virtuaalmasinaid mitte 64 bitiseid ? 64 bitine masin sobib vaid sellisel juhtudel kui vajad rohkem mälu kui 4GB. Samas 32bitine virtuaalmasin kasutab teatud situatsioonides vähem mälu. Näiteks standartselt paigaldatud apache2 kasutab 64 bitises opsüsteemis rohkem mälu kui ta teeks seda 32bitises.

PS: Peale proxmoxi paigaldust võib testida enda süsteemi kiirust kaasapandud utiliidi abil pveperf

# pveperf
CPU BOGOMIPS:      127992.00
REGEX/SECOND:      1026892
HD SIZE:           9.17 GB (/dev/sda5)
BUFFERED READS:    106.64 MB/sec
AVERAGE SEEK TIME: 6.47 ms
FSYNCS/SECOND:     2806.00
DNS EXT:           64.95 ms
DNS INT:           0.96 ms (eenet.ee)

NB! Süsteemi uuendamisel on soovitatav kasutada alati apt-get upgrade asemel käsku apt-get dist-upgrade, sest muidu uuendatakse ainult paketid aga mitte nende sõltuvusi ja mõni teek (library) võib jääda vanema versiooni peale ning hakata tekitama hiljem probleeme.

Tähelepanekuid debiani uuendamisest: apt-get upgrade tundub, et ei taha väga julgelt pakette uuendada. Näiteks proxmox 3.0 pealt selle käsu abil ei saa 3.1 versioonile minna. Vaja selleks sisestada käsud

# aptitude update
# aptitude full-upgrade

Veebiliides

Pöördudes http://192.168.0.1 aadressile peaks avanema veebiaken kus saab virtuaalseid masinaid luua ja hallata. Veebiliidese administraatori kasutajaks on "root" ja parooliks sama mis süsteemsel root kasutajal.

Kui virtuaalmasinas (KVM) kasutatav operatsioonisüsteem seda toetab siis tasub kasutada võimalikult palju virtio seamdmeid (võrk, ketas), nendepoolt tekitatud väiksema overheadi tõttu sest siis pole vaja virtuaalserveril emuleerida mingit konkreetset rauda.

Guesti seadistusfaili kasutamine

Seadistusfailid asuvad kaustas /etc/qemu-server/

Näiteks virtuaalmasina 101 konf asub failis /etc/qemu-server/101.conf ja näeb välja järgnev:

name: testikas
bootdisk: ide0
vlan1: rtl8139=42:D5:BD:2C:EC:79
ostype: other
memory: 2024
sockets: 1
ide0: disk1:0.0.0.scsi-14945540000000000ebaf87d4e8aadc8f7c7cbd9b9b75a514

Vahel kui ei õnnestu virtuaalmasinat kustutada tuleb talt enne eemaldada kettad. näiteks esineb see probleem iscsi külgehaagitud seadmetega.

iSCSI kasutamine

iSCSI kasutamiseks tuleb installida pakett open-iscsi

# apt-get install open-iscsi

Ja seejärel tuleb teenused taaskäivitada

# /etc/init.d/open-iscsi start
# /etc/init.d/pvedaemon restart
# /etc/init.d/apache2 restart

Iscsi targeteid saab edaspidi külge haakida juba otse veebiliidesest.

Kui iSCSI server mingil põhjusel enam ei suhtle siis veebiliidese kaudu iscsi kettaid lahti haakida pole võimalik. Sellisel juhul tuleb logida käsureale ja kustutada need manuaalselt failist /etc/pve/storage.cfg

Masina initatori nime näeb failist /etc/iscsi/initiatorname.iscsi

Võrgu seadistus

Probleem, meil on serveril üks võrgukaart ning tahame omistada sellele avaliku IP aadressi (192.168.0.1), lisaks aga ka teha üle selle virtuaalsete serveriteni bridge (silla) millekaudu pääsevad võrku ka kõik serveris resideeruvad virtuaalmasinad.

Võrgu ehitust iseloomustab järgmine skeem

Vmb.jpg

(pildil viga, peaks olema KVM)

Sellejaoks avame faili /etc/network/interfaces

auto vmbr0
iface vmbr0 inet static
        address  192.168.0.1
        netmask  255.255.255.0
        gateway  192.168.0.254
        bridge_ports eth0 
        bridge_stp off
        bridge_fd 0

Ja ongi valmis. Server on ligipääsetav ip aadressilt 192.168.0.1 ning KVM virtuaalmasinate network kaardid võib siduda vmbr0 sillaga. Virtuaalmasinate sees võib tekkinud võrguseadmele omistada koheselt sama võrgu ip aadresse või DHCP teenuse olemasolu korral küsida IP aadresse.

Soovides teha vmbr1 täiendavalt ilma igasuguse IP aadressita tuleb kirjutada see järgnevalt (kasutades võtit manual):

auto vmbr1
iface vmbr1 inet manual
        bridge_ports eth1
        bridge_stp off 
        bridge_fd 0

Käsureal näeb jaotust

# brctl show
bridge name     bridge id               STP enabled     interfaces
vmbr0           8000.0026b93dea0b       no              eth1
                                                        vmtab102i0
                                                        vmtab103i0
                                                        vmtab104i0
                                                        vmtab105i0
vmbr1           8000.0026b93dea0a       no              eth0
                                                        vmtab102i1
                                                        vmtab103i1
                                                        vmtab104i1
                                                        vmtab105i1
                                                        vmtab106i1

Tähele tasub panna, et vmbr0 tuleb külge linuxitele esimese võrguseadme, ehk eth0ina, vmbr1 järgnevalt eth1na jne..

Peale võrguseadistuse muutmist tuleb teha kas restart või käivitada käsk:

/etc/init.d/network restart

Tulemüüri ehitamisel tuleb silmas pidada, et vaja on proxmoxi kasutamiseks hoida lahti järgnevad pordid.

  1. Veebiliidese kasutamiseks: 443
  2. VNC veebikonsoolile: 5900-5999
  3. SSH ligipääsuks: 22

Cluster

Meil on kaks masinat 10.40.0.6 ja 10.40.0.7 ning tahame nad panna koos tööle. PS: Manual soovitab veidra käitumise vältimiseks kasutada vähemalt 3me nodet, kuid on võimalik panna tööle ka 2 masinat clustris. Lähemalt http://pve.proxmox.com/wiki/Two-Node_High_Availability_Cluster

NB! Proxmox Ve 2.x kasutab clustrisiseseks komunikatsiooniks corosync cluster engine nimelist tarkvara ja sqlite tarkvara andmebaasi pidamiseks. Nodede vahel jagatud failisüsteem ühendatakse üle fuse /etc/pve harusse.

Hosts fail oleks soovitatav ära defineerida /etc/hosts

10.40.0.6  esimene.zoo.tartu.ee esimene pvelocalhost
10.40.0.7 teine.zoo.tartu.ee teine

Logime üle SSH esimesse clustri nodesse (10.0.0.6) ja anname käsu

# pvecm create YOUR-CLUSTER-NAME

To check the state of cluster:

# pvecm status

Seejärel logime teise clustri nodesse (10.40.0.7) ja anname seal käsu

# pvecm add 10.0.0.6
copy corosync auth key
stopping pve-cluster service
Stopping pve cluster filesystem: pve-cluster.
backup old database
Starting pve cluster filesystem : pve-cluster.
Starting cluster:
   Checking if cluster has been disabled at boot... [  OK  ]
   Checking Network Manager... [  OK  ]
   Global setup... [  OK  ]
   Loading kernel modules... [  OK  ]
   Mounting configfs... [  OK  ]
   Starting cman... [  OK  ]
   Waiting for quorum... [  OK  ]
   Starting fenced... [  OK  ]
   Starting dlm_controld... [  OK  ]
   Unfencing self... [  OK  ]
waiting for quorum...OK
generating node certificates
merge known_hosts file
restart services
Restarting PVE Daemon: pvedaemon.
Restarting web server: apache2 ... waiting .
successfully added node 'jagaja' to cluster.

Konfiguratsioon /etc/pve/cluster.conf

<?xml version="1.0"?>
<cluster config_version="3" name="hailavaila">
  <cman keyfile="/var/lib/pve-cluster/corosync.authkey"/>
  <clusternodes>
    <clusternode name="koguja" nodeid="1" votes="1"/>
    <clusternode name="jagaja" nodeid="2" votes="1"/>
  </clusternodes>
</cluster>

To be able to create and manage a two-node cluster, edit the cman configuration part to include this:

<cman two_node="1" expected_votes="1"> </cman>

Now, add the available fencing devices to the config files by adding this lines (it is ok right after </clusternodes>):

<fencedevices>
        <fencedevice agent="fence_ilo" hostname="nodeA.your.domain" login="hpilologin"  name="fenceNodeA" passwd="hpilopword"/>
        <fencedevice agent="fence_ilo" hostname="nodeB.your.domain" login="hpilologin"  name="fenceNodeB" passwd="hpilologin"/>
</fencedevices>

Näiteks sedamoodi

<?xml version="1.0"?>
<cluster config_version="4" name="hailavaila">
  <cman keyfile="/var/lib/pve-cluster/corosync.authkey" two_node="1" expected_votes="1"/>

  <clusternodes>
    <clusternode name="koguja" nodeid="1" votes="1"/>
    <clusternode name="jagaja" nodeid="2" votes="1"/>
  </clusternodes>
  <rm>
    <pvevm autostart="1" vmid="104"/>
  </rm>

<fencedevices>
        <fencedevice agent="fence_ilo" hostname="10.0.1.6" login="admin"  name="jagaja"  passwd="parool"/>
        <fencedevice agent="fence_ilo" hostname="10.0.1.7" login="admin"  name="koguja"  passwd="parool"/>
</fencedevices>

</cluster>

order to get fencing active, you also need to join each node to the fencing domain. To the following on all your cluster nodes. Enable fencing in /etc/default/redhat-cluster-pve (Just uncomment the last line, see below):

/etc/default/redhat-cluster-pve

# CLUSTERNAME=""
# NODENAME=""
# USE_CCS="yes"
# CLUSTER_JOIN_TIMEOUT=300
# CLUSTER_JOIN_OPTIONS=""
# CLUSTER_SHUTDOWN_TIMEOUT=60
# RGMGR_OPTIONS=""
FENCE_JOIN="yes"

Lisaks tuleb mõlemas nodes käivitada käsk:

# fence_tool join

Staatust saab vaadata:

# fence_tool ls
fence domain
member count  2
victim count  0
victim now    0
master nodeid 2
wait state    none
members       1 2 

"config_version" numbrit tuleb suurendada igakord, kui on tehtud mingi seadistuste muudatus. See number annab sisemisele mehaanikale märku võtta kasutusele uued seadistused.

Clustri node hooldus

If you need to reboot a node, e.g. because of a kernel update you need to stop rgmanager. By doing this, all resources are stopped and moved to other nodes. All KVM guests will get a ACPI shutdown request (if this does not work due to VM internal setting just a 'stop'). You can stop the rgmanager service via GUI or just run:

#/etc/init.d/rgmanager stop

Kui midagi läs ikkagi viltu siis saab kõigi nodede konfiguratsiooni nullida ära järgmiste käskudega

service cman stop
killall -9 corosync cman dlm_controld fenced
service pve-cluster stop
rm /etc/cluster/cluster.conf
rm -rf /var/lib/pve-cluster/* /var/lib/pve-cluster/.*
rm /var/lib/cluster/*

Ja seejärel on mõistlik teha reboot (vahel võivad mõned clustri teenused jääda rippuma)

  • permission denied - invalid ticket (401)
# pvecm updatecerts --force

Kui migreerimine annab veidraid veateateid ja logis teated:

Feb  5 12:43:45 koguja corosync[3329]:   [TOTEM ] Received message has invalid digest... ignoring.
Feb  5 12:43:45 koguja corosync[3329]:   [TOTEM ] Invalid packet data

Siis võib oletada, et võrgus on mingi clustri node, mis pole seotud clustriga kuid, mis saadab multicast aadressile "halbu signaale" Peale node cman teenuse peatamist veidrad veateated kadusid.

Probleemid Proxmox 2.0-2.1 versioonil fence kasutamisega

Päris bugivaba see uus proxmox pole. HA optsiooni lisamisega läks miskipärast katki võimalus migreerida omatahtmist mööda virtuaalmasinaid

Executing HA migrate for VM 109 to node jagaja
Trying to migrate pvevm:109 to jagaja...Target node dead / nonexistent
TASK ERROR: command 'clusvcadm -M pvevm:109 -m jagaja' failed: exit code 244

Paistab teistelgi sarnaseid jamasid

KSM (Kernel Samepage Merging) ja KVM

KSM (Kernel SamePage Mergin) on hiljutine linux kerneli funktsioon, mis kombineerib erinevate protsesside idetsed mälulehed (memory pages) üheks mälus asuvaks koopiaks.

Redhat väidab, et KSMi testides olid nad võimelised vedama 600 virtuaalmasinat 48 tuuma ja 256GB mäluga.

Ksm.png

Kerneli seadistus juhul kui tegemist enda loodud kernelgia:

Processor type and features --->
    [*] Enable KSM for page merging

Kui eksisteerib kaust /sys/kernel/mm/ksm siis on KSM kerneli tugi olemas.

KSM käivitamiseks

# echo 1 > /sys/kernel/mm/ksm/run

Lisaks võib tõsta mälu skaneerimise intervalli, et CPU poleks selle tööga liiga ülekoormatud.

# echo 200 > /sys/kernel/mm/ksm/sleep_millisecs

KSM töötamise kontrollimiseks:

# cat /sys/kernel/mm/ksm/pages_sharing
169978

Kui väärtus on nullist suurem (nagu hetkel on) siis KSM toimib.

#  for ii in /sys/kernel/mm/ksm/* ; do echo -n "$ii: " ; cat $ii ; done
/sys/kernel/mm/ksm/full_scans: 0
/sys/kernel/mm/ksm/pages_shared: 0
/sys/kernel/mm/ksm/pages_sharing: 0
/sys/kernel/mm/ksm/pages_to_scan: 100
/sys/kernel/mm/ksm/pages_unshared: 0
/sys/kernel/mm/ksm/pages_volatile: 130200
/sys/kernel/mm/ksm/run: 0

Lisaks on olemas pakett Ksmtuned, mis tegeleb KSMi funktsioonis sisee-välja lülituse ja haldusega. Ksmtuned paketi jaoks vaja paigaldada:

# apt-get install ksm-control-daemon

Ksmtuned deemoni saab käivitada:

# /etc/init.d/ksmtuned startˇ

NB! Vaikimisi ei käivita ksmtuned enne KSMi kui mälukasutus pole üle 50% ja pisema mälukoormuse korral lülitab ta KSMi välja. Tarkvara seadistusfaili leiab /etc/ksmtuned.conf

/sys/kernel/mm/ksm/sleep_millisecs: 300

http://www.linux-kvm.com/content/using-ksm-kernel-samepage-merging-kvm

http://pve.proxmox.com/wiki/KSM

http://www.linux-kvm.com/content/using-ksm-kernel-samepage-merging-kvm

http://docs.redhat.com/docs/en-US/Red_Hat_Enterprise_Linux/6/html/Virtualization_Administration_Guide/chap-KSM.html

Storage

800px-Screen-add-storage.png

  • LVM grupid - pve arendajate poolt soovituslik

Using LVM groups provides the best manageability. Logical volumes can easily be created/deleted/moved between physical storage devices. If the base storage for the LVM group is accessible on all Proxmox VE nodes (e.g. an iSCSI LUN) or replicated (with DRBD) then all nodes have access to VM images, and live-migration is possible.

  • iSCSI LUNide otsekasutus

Ehk siis haakida iSCSI LUNid proxmoxi haldusest külge ja jagada otse virtuaalmasinatele edasi. Ka võimalik aga arendajate poolt mitte soovitatud.

Note: Currently iSCSI LUN´s are not protected from the Proxmox VE management tools. This means if you use a iSCSI LUN directly it still shows up as available and if you use the same LUN a second time you will loose all data on the LUN.

  • Proxmox DRBD cluster

DRDB peamiseks miinuseks, et drdb clustrisse saab seadistada vaid kaks serverit mis toimivad mirrorina.

Soovitatav on, et kettal või partitsioonil, kus virtuaalmasinad resideeruvad oleks eelnevalt seadistatud LVM

Clustri arhidektuur

TODO

Proxmox Cluster file system (pmxcfs) on mõeldud konfiguratsioonifailide salvestamiseks ja replikeerimiseks masinate vahel kasutades Corosynci.

Corosync koosneb mitmetest teenustest

  • cpg - Closed Process Group
  • sam - Simple Availability Manager
  • confdb - Configuration and Statistics database
  • quorum - Provides notifications of gain or loss of quorum

failid on mounditud kausta /etc/pve

Olulisimaks failiks cluster.conf mis sisaldab corosync/cman seadistusi

nodes/${NAME}/pve-ssl.pem                 => public ssl key fo apache
nodes/${NAME}/priv/pve-ssl.key            => private ssl key
nodes/${NAME}/qemu-server/${VMID}.conf    => VM configuration data for KVM VMs
nodes/${NAME}/openvz/${VMID}.conf         => VM configuratin data for OpenVZ containers

pmxcfs andmebaasifail asub /var/lib/pve-cluster/config.db

Probleemide korral mõne nodega võib selle kopeerida töötavast masinast ümber probleemsesse hosti.

CMAN is a symmetric, general-purpose, kernel-based cluster manager. It has two parts. Connection Manager (cnxman) handles membership, messaging, quorum, event notification and transitions. Service Manager (sm) handles "service groups" which are a general way of representing and managing instances of external systems that require cluster management. The CMAN cluster manager is the foundational system upon which DLM, GFS, CLVM, and Fence all depend. The CMAN API in the kernel and userspace is general and available for other programs to use.

# ccs_tool lsnode

Cluster name: hailavaila1, config_version: 3

Nodename                        Votes Nodeid Fencetype
koguja                             1    1    
jagaja                             1    2    
rabaja                             1    3    


Kui corosync on kasutatud cmani keskkonnas siis corosync.conf faili ei kasutata.

http://linux.die.net/man/5/cman

http://linux-ha.org/wiki/Cluster_Concepts

Probleemid

Probleemide korral kontrollida kas /etc/hosts failis on mõlemas masinas info korrektne, on proxmoxi versioon identne ning kellaajad süngis.

Proxmoxi konsoolipilt videoks

Mul on pidevalt see häda, et Proxmoxi buutimise veateated kaovad ekraani serva taha ära ja kerida ei lase, et neid lugeda. Nüüd avastasin, et Proxmoxi kasutatav TightVNC lubab (kui Java lubab) ekraanistriimi salvestada faili RFB formaadis ja on proge nimega RFBProxy, mis suudab seda lugeda.

Ekraanipildi salvestamiseks tuleb Proxmoxi konsooliaknas vajutada nuppu "Record", määrata failinimi, kuhu salvestada ja siis jälle "Record".

Edasi sikutada programm RFBProxy: http://sourceforge.net/projects/rfbproxy Kompileerida ja siis lasta järgmine käsk käima

$ rfbproxy -x vncsession.fbs.001| ffmpeg -r 60 -f image2pipe -vcodec ppm \
-i - -vcodec libx264 -vpre ultrafast -crf 20 -threads 0 -bf 0 -y vncsession.mp4
  • -x võtmega sülitab rfbproxy sessiooni PPM formaadis stdouti ja ffmpegiga saab selle kenasti MP4 videoks keerata.

Oma veateate sain igatahes ära lugeda.

PS. Kui faili suurus on oluline, siis selle -crf võtme väärtust võib suurendada. Kuni 35 tundus veel tekst loetav olevat.

Kui switch ei toeta multicasti

Selline olukord poleks sugugi ebatavaline, mida siis teha? tuleb lülitada cluster ümber unicastile. Selleks on vaja clustri konfis teha muudatus real

<cman keyfile="/var/lib/pve-cluster/corosync.authkey">

Muutes selle järgnevaks

<Cman keyfile = "/var/lib/pve-cluster/corosync.authkey" transport="udpu">

Ja unustada ei tohiks ka muuta real:

<cluster name="clustername" config_version="2">

config_version parameetrit.

http://pve.proxmox.com/wiki/Multicast_notes

NO QUORUM

Kui midagi läks valesti, nt teatatakse veateade "NO QUORUM" ja oleks vaja node read-onlyst kirjutatavaks teha (st tahame teha muudatusi /etc/pve/cluster.conf failis)

# pvecm e 1

(The read-only gets turned on in an orphaned cluster node for safety.)

Ubuntus java paikaseadmine

Java on vajalik selleks, et näha üle browseri virtuaalmasina konsoolipilti.

Juhul kui konsoolipilt ei taha ilmuda või hangub on võimalik, et kasutusel on vale java versioon.

How to switch Firefox Java plugin to Sun Java on Ubuntu Linux

Open Synaptic and go to Settings -> Repositories -> Other Software and activate the Canonical partner repo. Now close Synaptic, fire up a terminal and run the following commands in order, selecting Sun Java (java-6-sun) where appropriate:

# sudo apt-get update
# sudo apt-get install sun-java6-bin sun-java6-fonts sun-java6-jdk sun-java6-plugin
# sudo update-alternatives --config java

The tricky part is: even when you have Sun's Java runtime installed, Firefox will still default to the open source IcedTea plugin, unless you tell it not to. Run the following command and select Sun's Java web browser plugin:

# sudo update-alternatives --config mozilla-javaplugin.so