По подразбиране когато си инсталирате Munin в Cpanel липсват няколко благи конфига които трябва да си ги направим на ръка. За мен един от тях е мониторинга на температурата  на дисковете.

В общи линии конфигурацията е тривиална

1. Трябва да определим типа на нашите дискове – той може да бъде един от следните : ata, scsi, sat[,auto][,N][+TYPE], usbcypress[,X], usbjmicron[,x][,N], usbsunplus, marvell, areca,N/E, 3ware,N, hpt,L/M/N, megaraid,N, cciss,N, auto, test. Най лесният начин за това е чрез cat на „/proc/ide“ или „/proc/scsi“. При мен:


# cat /proc/scsi/scsi
Attached devices:
Host: scsi0 Channel: 00 Id: 00 Lun: 00
  Vendor: ATA      Model: WDC WD1003FBYZ-0 Rev: 01.0
  Type:   Direct-Access                    ANSI  SCSI revision: 05
Host: scsi1 Channel: 00 Id: 00 Lun: 00
  Vendor: ATA      Model: WDC WD1003FBYX-0 Rev: 01.0
  Type:   Direct-Access                    ANSI  SCSI revision: 05
Host: scsi4 Channel: 00 Id: 00 Lun: 00
  Vendor: ATA      Model: TOSHIBA DT01ACA1 Rev: MS2O
  Type:   Direct-Access                    ANSI  SCSI revision: 05

 

 

Както се вижда имам 3 диска тип ATA.

2. За да почнем да следим температурата трябва да опишем в munin node дисковете ни. В файла /etc/munin/plugin-conf.d/hddtemp_smartctl добавяте записи от следният тип


# cat /etc/munin/plugin-conf.d/hddtemp_smartctl
[hddtemp_smartctl]
user root
env.drives sda sdb
env.args_sda -d ata
env.args_sdb -d ata

 

Можем да ударим тест на нашият бъдещ конфиг по следният начин


# env drives="sda sdb sdc" args_sda="-d ata" args_sdb="-d ata" args_sdc="-d ata"  /etc/munin/plugins/hddtemp_smartctl
sda.value 32
sdb.value 33
sdc.value 33

 

Ако получите стойности значи всичко е ок. Ако получите грешка трябва да проверите дали всичко правилно описано. Следва да рестартирате munin nod-а ви и да изчакте 10-15 мин да се популират малко данни и да почне да се чертае графика. Можете да проверите /var/log/munin/munin-node.log за грешки и по лесното им отстраняване.

Ако искате да получавате email при критична температура на дисковете трябва да добавите описание за критична такава:

[example.com]
    address 127.0.0.1
    use_node_name yes
    hddtemp_smartctl.sda.critical 55
    hddtemp_smartctl.sdb.critical 55

Днес реших да направя няколко теста върху чиста Cpanel инсталация за която имах необходимост от няколко потребителя. Тъй като не исках да натоварвам работещите сървъри с пакетиране архивиране и трансфер на файловете използвах архивите от предишната вечер. Трансферирах си всички архиви в /home и установих че Cpanel не предлага възстановяването на повече 1 акаунт едновременно както през GUI така и през CLI. През GUI тъй като нямаше как да се получи номера реших да се изхитря с cli скрипта restorepkg. Използването му е безкрайно просто

/scripts/restorepkg username.tar.gz

Като действието се повтаря за всеки потребител по отделно. При опит да използвам * вместо името на потребителя скрипта деректно ме отряза затова трябва да се подходи малко по елегантно –


archives=$(ls /home/ | grep tar.gz)

for archive in $archives

do

/scripts/restorepkg --force $archive

done

Сега бързо обяснение. Правим си списък с всички архиви и го блъскаме в променливата archives след това обхождаме списъка елемент по елемент като стартираме разпакетирането за всеки архив по отделно. Нищо кой знае колко сложно интересно защо пичовете от Cpanel не са изплзвали подобно решение за множество файлове.

Да приемем следната ситуация правили сте нещо и сте и си смазали MBR записа. И след това въобще нямате или просто получавате съобщение за грешка в GRUB. Възстановяването си е тривиална операция от където и да се погледне

1. Направете си Live CD/DVD/USB каквото имате под ръка с каквото и да било дистро

2. Преминаване в chroot на старта ви OS така ще си запазите настройките и ще използвате версията на grub с която те си били при мен и имам доста неща описани в CMD-то на Grub

mount /dev/sda1 /mnt
mount --bind /dev /mnt/dev
mount --bind /proc /mnt/proc
mount --bind /sys /mnt/sys
chroot /mnt

3. Вече сме chroot на вашето дистро остана само да се преинсталира груб и да се ъпдейтне (за всеки случай)

grub-install /dev/sda
update-grub

Воала рестартираме и сме готови да работи както преди и всичко е непокътнато ни лук яли ни лук мирисали  😉 Възстановяване на GRUB

От време на време ми се налага да ползва Bitcoin URI и когато ми се наложи клиента ми не се е асоциирал е дразнещо, че трянва да правя всичко на ръка. Продцедурата е изключително тривиална по въпросната асоциация. Може да бъде синтезирана в следните 5 точки

  1. Отворете в адрес бара си about:config
  2. Създайте нов ключ от тип boolean (клис с десен бутон на мишката -> new -> boolean)
  3. Въведете име: network.protocol-handler.expose.bitcoin
  4. Изберете стойност false
  5. Следващият път когато кликнете на Bitcoin URI ще бъдете попитани за избор път до Bitcoin клиента си. Бъдете сигурни че е с изпълними права.

Аз лично използвам MultiBit клиента който е има всичката необходима фунционалност и е достатъчно пъргавичък

Миграцията от RAID1 до RAID5 се оказа многократно по лесна от колкото си мислех 🙄 В общи линии са 5 прости стъпки малко чакане и 1 една бира за кураж.

При мен системата има създаден RAID масив md0 в който участват 2 диска sda и sdb. Ще добавя към тях 3-ти sdc за да създам RAID5 от 3 диска. Като цяло тая акробатика е с научна цел на виртуалка още не съм я тествал в реална среда, но не очаквам драми и на реална машина като му дойде времето.

  1. Създаваме същото оформление файловата система като на другите ни дискове – sfdisk -d /dev/sdb | sfdisk /dev/sdc
  2. Надграждаме настоящият ни масив на RAID5 – mdadm –grow /dev/md0 –level=5
  3. Добавяме новия диск към масива – mdadm –manage /dev/md0 –add /dev/sdc . Тука идва тънкия момент че масива все още продължава да си RAID1 и няма да започне се синхронизира понеже новия диск ни е spare
  4. Най важният момент sdc става активен и започва синхронизацията – mdadm –grow /dev/md0 –raid-devices=3 . Добър момент да си отворите бирата ако не е направено 😉 Не прекъсвайте процеса при никакъв случай!!!
  5. След като приключи синхронизацията остана да преоразмери дяла понеже загубата на пространство при RAID1 e 1/n а при RAID5 e 1-1/n

Най големият бонус е че не се налага рестартиране на системата или вадене и правене на допълнителни масиви.

sfdisk -d /dev/sdb | sfdisk /dev/sdc
mdadm --grow /dev/md0 --level=5
mdadm --manage /dev/md0 --add /dev/sdc
mdadm --grow /dev/md0 --raid-devices=3
resize2fs /dev/md0

Лека вечер 😛