blog billet machine
This commit is contained in:
parent
f987c028e2
commit
c9492ade3f
|
@ -0,0 +1,90 @@
|
|||
---
|
||||
pagename: La machine collective
|
||||
title: La machine collective
|
||||
subtitle: Contribution consciente ou inconsciente
|
||||
date: 2021-12-09
|
||||
author: tierce
|
||||
---
|
||||
|
||||
Du feu est venu le contrôle.
|
||||
Du contrôle est venu l'esclavage.
|
||||
|
||||
De l'esclavage est venue la richesse matérielle.
|
||||
De la richesse matérielle est venue la pauvreté de l'esprit.
|
||||
|
||||
C'est collectivement que l'exploitation reigne.
|
||||
C'est individuellement que le choix peut être fait.
|
||||
|
||||
« Sortir du système d'exploitation ? »
|
||||
|
||||
Logiciel libre ou non, un système d'exploitation exploite quelque chose pour quelqu'un·e.
|
||||
|
||||
Dés qu'on a une machine dans les mains, il faut se poser des questions.
|
||||
|
||||
## D'où vient-elle ?
|
||||
|
||||
Du sol à mes mains, par où est-elle passée ?
|
||||
|
||||
## Où ira-t-elle ?
|
||||
|
||||
De mes mains à la poubelle, où donc finira-t-elle ?
|
||||
|
||||
## De quoi a-t-elle besoin ?
|
||||
|
||||
D'électricité ?
|
||||
|
||||
De mon temps ?
|
||||
|
||||
## Comment fonctionne-t-elle ?
|
||||
|
||||
Quel sont ses moyens de communication avec le monde extérieur ?
|
||||
|
||||
Ses capteurs ?
|
||||
|
||||
Ses antennes ?
|
||||
|
||||
Ses réseaux ?
|
||||
|
||||
## Que sait-elle de moi ?
|
||||
|
||||
Quelles sont les données que je lui confie ?
|
||||
|
||||
Quelles sont les données que je consomme à travers elle ?
|
||||
|
||||
Quelles sont les méta-données qui gravitent autour de mes interractions avec elle ?
|
||||
|
||||
Que sait-elle de mes relations ?
|
||||
|
||||
## Qui exploite qui ?
|
||||
|
||||
Quel est son système d'exploitation ?
|
||||
|
||||
Qui a conçu ce système d'exploitation ?
|
||||
|
||||
Que puis-je savoir sur son fonctionnement ?
|
||||
|
||||
Qui a écrit les logiciels que j'installe ou que j'utilise ?
|
||||
|
||||
Comment puis-je savoir ce que font ces logiciels ?
|
||||
|
||||
## De quoi ou de qui suis-je dépendant·e ?
|
||||
|
||||
Si les logiciels ne sont pas libres ?
|
||||
|
||||
Si les logiciels sont libres ?
|
||||
|
||||
## Qui a le choix ?
|
||||
|
||||
Est-ce que je peux m'en passer ?
|
||||
|
||||
Est-ce que mes ami·e·s peuvent s'en passer ?
|
||||
|
||||
Est-ce que les entreprises peuvent s'en passer ?
|
||||
|
||||
Est-ce que les services publiques peuvent s'en passer ?
|
||||
|
||||
Est-ce que les États, les hopitaux, les cabinets d'avocats, les écoles, etc peuvent s'en passer ?
|
||||
|
||||
Si non, pourquoi est-ce que ce sont les GAFAM qui équipent presque toute la planète ?
|
||||
|
||||
Et si tout ce qui touche à la machine devenait libre et commun ?
|
|
@ -1,10 +0,0 @@
|
|||
---
|
||||
Title: Un projet collectif
|
||||
ShortTitle: Collectif
|
||||
Date: 2021-07-01
|
||||
Modified: 2021-07-04
|
||||
---
|
||||
|
||||
C'est ensemble, ou ce n'est pas.
|
||||
|
||||
Sieste, recherche et développement.
|
|
@ -1,6 +0,0 @@
|
|||
Title: Le projet GNUragistes
|
||||
ShortTitle: Projet
|
||||
Date: 2021-07-01
|
||||
Modified: 2021-07-04
|
||||
|
||||
Le plus chouette projet de tout les temps !
|
|
@ -0,0 +1,572 @@
|
|||
---
|
||||
pagename: RAID5 mdadm
|
||||
title: Prendre soin d'un raid5 de trois disques.
|
||||
subtitle: Remplacer un disque qui montre des signes de faiblesse
|
||||
date: 2021-11-03
|
||||
author: tierce
|
||||
---
|
||||
|
||||
Nous avons dans une cave, un serveur Proxmox avec un RAID5.
|
||||
|
||||
Un des disques est entrain de se dégrader, il serait bon de le remplacer.
|
||||
|
||||
## Des erreurs ?
|
||||
|
||||
On voit dans l'interface web de Proxmox > Jimmy > Disks qu'il y a le sdc avec un statut S.M.A.R.T. FAILED !
|
||||
|
||||
On voit en ssh qu'il y a des erreurs avec la commande `dmesg | grep sdc`.
|
||||
|
||||
On voit aussi des erreurs sur l'écran de sortie du serveur lorsqu'on en branche un.
|
||||
|
||||
## En détail
|
||||
|
||||
La commande `smartctl -a /dev/sdc` sortira le rapport suivant.
|
||||
|
||||
```
|
||||
smartctl 7.2 2020-12-30 r5155 [x86_64-linux-5.11.22-4-pve] (local build)
|
||||
Copyright (C) 2002-20, Bruce Allen, Christian Franke, www.smartmontools.org
|
||||
|
||||
=== START OF INFORMATION SECTION ===
|
||||
Model Family: SAMSUNG SpinPoint F3
|
||||
Device Model: SAMSUNG HD103SJ
|
||||
Serial Number: 62823C741A03QO L<>
|
||||
LU WWN Device Id: 5 0000f0 01acbb003
|
||||
Firmware Version: 1AJ10001
|
||||
User Capacity: 1.000.203.804.160 bytes [1,00 TB]
|
||||
Sector Size: 512 bytes logical/physical
|
||||
Rotation Rate: 7200 rpm
|
||||
Form Factor: 3.5 inches
|
||||
Device is: In smartctl database [for details use: -P show]
|
||||
ATA Version is: ATA8-ACS T13/1699-D revision 6
|
||||
SATA Version is: SATA 2.6, 3.0 Gb/s
|
||||
Local Time is: Wed Nov 3 07:55:46 2021 CET
|
||||
SMART support is: Available - device has SMART capability.
|
||||
SMART support is: Enabled
|
||||
|
||||
=== START OF READ SMART DATA SECTION ===
|
||||
SMART overall-health self-assessment test result: FAILED!
|
||||
Drive failure expected in less than 24 hours. SAVE ALL DATA.
|
||||
See vendor-specific Attribute list for failed Attributes.
|
||||
|
||||
General SMART Values:
|
||||
Offline data collection status: (0x00) Offline data collection activity
|
||||
was never started.
|
||||
Auto Offline Data Collection: Disabled.
|
||||
Self-test execution status: ( 0) The previous self-test routine completed
|
||||
without error or no self-test has ever
|
||||
been run.
|
||||
Total time to complete Offline
|
||||
data collection: ( 9300) seconds.
|
||||
Offline data collection
|
||||
capabilities: (0x5b) SMART execute Offline immediate.
|
||||
Auto Offline data collection on/off support.
|
||||
Suspend Offline collection upon new
|
||||
command.
|
||||
Offline surface scan supported.
|
||||
Self-test supported.
|
||||
No Conveyance Self-test supported.
|
||||
Selective Self-test supported.
|
||||
SMART capabilities: (0x0003) Saves SMART data before entering
|
||||
power-saving mode.
|
||||
Supports SMART auto save timer.
|
||||
Error logging capability: (0x01) Error logging supported.
|
||||
General Purpose Logging supported.
|
||||
Short self-test routine
|
||||
recommended polling time: ( 2) minutes.
|
||||
Extended self-test routine
|
||||
recommended polling time: ( 155) minutes.
|
||||
SCT capabilities: (0x003f) SCT Status supported.
|
||||
SCT Error Recovery Control supported.
|
||||
SCT Feature Control supported.
|
||||
SCT Data Table supported.
|
||||
|
||||
SMART Attributes Data Structure revision number: 16
|
||||
Vendor Specific SMART Attributes with Thresholds:
|
||||
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
|
||||
1 Raw_Read_Error_Rate 0x002f 001 001 051 Pre-fail Always FAILING_NOW 35051
|
||||
2 Throughput_Performance 0x0026 252 252 000 Old_age Always - 0
|
||||
3 Spin_Up_Time 0x0023 074 069 025 Pre-fail Always - 7880
|
||||
4 Start_Stop_Count 0x0032 100 100 000 Old_age Always - 187
|
||||
5 Reallocated_Sector_Ct 0x0033 252 252 010 Pre-fail Always - 0
|
||||
7 Seek_Error_Rate 0x002e 252 252 051 Old_age Always - 0
|
||||
8 Seek_Time_Performance 0x0024 252 252 015 Old_age Offline - 0
|
||||
9 Power_On_Hours 0x0032 100 100 000 Old_age Always - 44630
|
||||
10 Spin_Retry_Count 0x0032 252 252 051 Old_age Always - 0
|
||||
11 Calibration_Retry_Count 0x0032 252 252 000 Old_age Always - 0
|
||||
12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 160
|
||||
191 G-Sense_Error_Rate 0x0022 100 100 000 Old_age Always - 2
|
||||
192 Power-Off_Retract_Count 0x0022 252 252 000 Old_age Always - 0
|
||||
194 Temperature_Celsius 0x0002 064 054 000 Old_age Always - 21 (Min/Max 13/46)
|
||||
195 Hardware_ECC_Recovered 0x003a 100 100 000 Old_age Always - 0
|
||||
196 Reallocated_Event_Count 0x0032 252 252 000 Old_age Always - 0
|
||||
197 Current_Pending_Sector 0x0032 100 100 000 Old_age Always - 22
|
||||
198 Offline_Uncorrectable 0x0030 252 252 000 Old_age Offline - 0
|
||||
199 UDMA_CRC_Error_Count 0x0036 200 200 000 Old_age Always - 0
|
||||
200 Multi_Zone_Error_Rate 0x002a 100 100 000 Old_age Always - 38
|
||||
223 Load_Retry_Count 0x0032 252 252 000 Old_age Always - 0
|
||||
225 Load_Cycle_Count 0x0032 100 100 000 Old_age Always - 204
|
||||
|
||||
SMART Error Log Version: 1
|
||||
ATA Error Count: 344 (device log contains only the most recent five errors)
|
||||
CR = Command Register [HEX]
|
||||
FR = Features Register [HEX]
|
||||
SC = Sector Count Register [HEX]
|
||||
SN = Sector Number Register [HEX]
|
||||
CL = Cylinder Low Register [HEX]
|
||||
CH = Cylinder High Register [HEX]
|
||||
DH = Device/Head Register [HEX]
|
||||
DC = Device Command Register [HEX]
|
||||
ER = Error register [HEX]
|
||||
ST = Status register [HEX]
|
||||
Powered_Up_Time is measured from power on, and printed as
|
||||
DDd+hh:mm:SS.sss where DD=days, hh=hours, mm=minutes,
|
||||
SS=sec, and sss=millisec. It "wraps" after 49.710 days.
|
||||
|
||||
Error 344 occurred at disk power-on lifetime: 37597 hours (1566 days + 13 hours)
|
||||
When the command that caused the error occurred, the device was active or idle.
|
||||
|
||||
After command completion occurred, registers were:
|
||||
ER ST SC SN CL CH DH
|
||||
-- -- -- -- -- -- --
|
||||
40 51 07 79 db 4b e6 Error: UNC 7 sectors at LBA = 0x064bdb79 = 105634681
|
||||
|
||||
Commands leading to the command that caused the error were:
|
||||
CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name
|
||||
-- -- -- -- -- -- -- -- ---------------- --------------------
|
||||
c8 00 08 78 db 4b e6 08 00:51:37.254 READ DMA
|
||||
ca 00 01 08 08 00 e0 08 00:51:37.254 WRITE DMA
|
||||
ea 00 00 77 db 4b e0 08 00:51:37.254 FLUSH CACHE EXT
|
||||
c8 00 08 70 db 4b e6 08 00:51:37.254 READ DMA
|
||||
c8 00 08 68 db 4b e6 08 00:51:37.254 READ DMA
|
||||
|
||||
Error 343 occurred at disk power-on lifetime: 37597 hours (1566 days + 13 hours)
|
||||
When the command that caused the error occurred, the device was active or idle.
|
||||
|
||||
After command completion occurred, registers were:
|
||||
ER ST SC SN CL CH DH
|
||||
-- -- -- -- -- -- --
|
||||
40 51 27 79 da 4b e6 Error: UNC 39 sectors at LBA = 0x064bda79 = 105634425
|
||||
|
||||
Commands leading to the command that caused the error were:
|
||||
CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name
|
||||
-- -- -- -- -- -- -- -- ---------------- --------------------
|
||||
c8 00 f0 b0 da 4b e6 08 00:51:37.252 READ DMA
|
||||
c8 00 08 a0 db 4b e6 08 00:51:37.252 READ DMA
|
||||
c8 00 08 a8 da 4b e6 08 00:51:37.252 READ DMA
|
||||
c8 00 08 d0 5c 6d e6 08 00:51:37.252 READ DMA
|
||||
c8 00 08 48 3f 5e e6 08 00:51:37.252 READ DMA
|
||||
|
||||
Error 342 occurred at disk power-on lifetime: 37407 hours (1558 days + 15 hours)
|
||||
When the command that caused the error occurred, the device was active or idle.
|
||||
|
||||
After command completion occurred, registers were:
|
||||
ER ST SC SN CL CH DH
|
||||
-- -- -- -- -- -- --
|
||||
40 51 07 79 db 4b e6 Error: UNC 7 sectors at LBA = 0x064bdb79 = 105634681
|
||||
|
||||
Commands leading to the command that caused the error were:
|
||||
CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name
|
||||
-- -- -- -- -- -- -- -- ---------------- --------------------
|
||||
c8 00 08 78 db 4b e6 08 00:40:13.464 READ DMA
|
||||
27 00 00 00 00 00 e0 08 00:40:13.464 READ NATIVE MAX ADDRESS EXT [OBS-ACS-3]
|
||||
ec 00 00 00 00 00 a0 08 00:40:13.464 IDENTIFY DEVICE
|
||||
ef 03 46 00 00 00 a0 08 00:40:13.464 SET FEATURES [Set transfer mode]
|
||||
27 00 00 00 00 00 e0 08 00:40:13.464 READ NATIVE MAX ADDRESS EXT [OBS-ACS-3]
|
||||
|
||||
Error 341 occurred at disk power-on lifetime: 37407 hours (1558 days + 15 hours)
|
||||
When the command that caused the error occurred, the device was active or idle.
|
||||
|
||||
After command completion occurred, registers were:
|
||||
ER ST SC SN CL CH DH
|
||||
-- -- -- -- -- -- --
|
||||
40 51 0d 7b db 4b e6 Error: UNC 13 sectors at LBA = 0x064bdb7b = 105634683
|
||||
|
||||
Commands leading to the command that caused the error were:
|
||||
CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name
|
||||
-- -- -- -- -- -- -- -- ---------------- --------------------
|
||||
c8 00 18 70 db 4b e6 08 00:40:13.462 READ DMA
|
||||
c8 00 18 b8 75 53 e6 08 00:40:13.462 READ DMA
|
||||
c8 00 20 c0 4d bd e7 08 00:40:13.462 READ DMA
|
||||
c8 00 20 a0 4d bd e7 08 00:40:13.462 READ DMA
|
||||
c8 00 20 a0 75 53 e6 08 00:40:13.462 READ DMA
|
||||
|
||||
Error 340 occurred at disk power-on lifetime: 37237 hours (1551 days + 13 hours)
|
||||
When the command that caused the error occurred, the device was active or idle.
|
||||
|
||||
After command completion occurred, registers were:
|
||||
ER ST SC SN CL CH DH
|
||||
-- -- -- -- -- -- --
|
||||
40 51 2f 79 db 4b e6 Error: UNC 47 sectors at LBA = 0x064bdb79 = 105634681
|
||||
|
||||
Commands leading to the command that caused the error were:
|
||||
CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name
|
||||
-- -- -- -- -- -- -- -- ---------------- --------------------
|
||||
c8 00 38 70 db 4b e6 08 00:30:01.851 READ DMA
|
||||
ca 00 20 c0 e4 12 e9 08 00:30:01.851 WRITE DMA
|
||||
ca 00 20 c0 e4 12 e9 08 00:30:01.851 WRITE DMA
|
||||
c8 00 20 40 26 14 e9 08 00:30:01.851 READ DMA
|
||||
ca 00 20 c0 e4 12 e9 08 00:30:01.851 WRITE DMA
|
||||
|
||||
SMART Self-test log structure revision number 1
|
||||
No self-tests have been logged. [To run self-tests, use: smartctl -t]
|
||||
|
||||
SMART Selective self-test log data structure revision number 0
|
||||
Note: revision number not 1 implies that no selective self-test has ever been run
|
||||
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
|
||||
1 0 0 Completed [00% left] (0-65535)
|
||||
2 0 0 Not_testing
|
||||
3 0 0 Not_testing
|
||||
4 0 0 Not_testing
|
||||
5 0 0 Not_testing
|
||||
Selective self-test flags (0x0):
|
||||
After scanning selected spans, do NOT read-scan remainder of disk.
|
||||
If Selective self-test is pending on power-up, resume after 0 minute delay.
|
||||
```
|
||||
|
||||
## On a quoi comme disques ?
|
||||
|
||||
```
|
||||
# lsblk
|
||||
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
|
||||
sda 8:0 0 74,5G 0 disk
|
||||
├─sda1 8:1 0 953M 0 part
|
||||
│ └─md0 9:0 0 952M 0 raid1 /boot
|
||||
├─sda2 8:2 0 66,1G 0 part
|
||||
│ └─md1 9:1 0 66,1G 0 raid1 /
|
||||
└─sda3 8:3 0 7,5G 0 part [SWAP]
|
||||
sdb 8:16 0 74,5G 0 disk
|
||||
├─sdb1 8:17 0 953M 0 part
|
||||
│ └─md0 9:0 0 952M 0 raid1 /boot
|
||||
├─sdb2 8:18 0 66,1G 0 part
|
||||
│ └─md1 9:1 0 66,1G 0 raid1 /
|
||||
└─sdb3 8:19 0 7,5G 0 part [SWAP]
|
||||
sdc 8:32 0 931,5G 0 disk
|
||||
└─md127 9:127 0 1,8T 0 raid5 /var/lib/pve-raid
|
||||
sdd 8:48 0 931,5G 0 disk
|
||||
└─md127 9:127 0 1,8T 0 raid5 /var/lib/pve-raid
|
||||
sde 8:64 0 931,5G 0 disk
|
||||
└─md127 9:127 0 1,8T 0 raid5 /var/lib/pve-raid
|
||||
sdf 8:80 0 5,5T 0 disk
|
||||
└─sdf1 8:81 0 5,5T 0 part
|
||||
```
|
||||
|
||||
## Dans quel état est le RAID5 ?
|
||||
|
||||
```
|
||||
# mdadm --detail /dev/md127
|
||||
/dev/md127:
|
||||
Version : 1.2
|
||||
Creation Time : Wed Sep 1 11:07:03 2021
|
||||
Raid Level : raid5
|
||||
Array Size : 1953258496 (1862.77 GiB 2000.14 GB)
|
||||
Used Dev Size : 976629248 (931.39 GiB 1000.07 GB)
|
||||
Raid Devices : 3
|
||||
Total Devices : 3
|
||||
Persistence : Superblock is persistent
|
||||
|
||||
Intent Bitmap : Internal
|
||||
|
||||
Update Time : Wed Nov 3 08:13:51 2021
|
||||
State : clean
|
||||
Active Devices : 3
|
||||
Working Devices : 3
|
||||
Failed Devices : 0
|
||||
Spare Devices : 0
|
||||
|
||||
Layout : left-symmetric
|
||||
Chunk Size : 512K
|
||||
|
||||
Consistency Policy : bitmap
|
||||
|
||||
Name : pve:31
|
||||
UUID : 91d5e8bf:b3cc96f6:90b67181:1cf6eae6
|
||||
Events : 11203
|
||||
|
||||
Number Major Minor RaidDevice State
|
||||
0 8 32 0 active sync /dev/sdc
|
||||
1 8 48 1 active sync /dev/sdd
|
||||
3 8 64 2 active sync /dev/sde
|
||||
```
|
||||
|
||||
Le disque `sdc` est entrain de faillir mais il n'est pas encore sorti du RAID.
|
||||
|
||||
## Enlever le disque du RAID
|
||||
|
||||
Même si le disque sdc semble encore actif et fonctionnel du point de vue du RAID, ça vaut la peine de le remplacer avant qu'il ne cause des problèmes.
|
||||
|
||||
```
|
||||
mdadm --manage /dev/md127 --set-faulty /dev/sdc
|
||||
mdadm --manage /dev/md127 --remove /dev/sdc
|
||||
```
|
||||
|
||||
## Vérifier l'état du RAID
|
||||
|
||||
```
|
||||
/dev/md127:
|
||||
Version : 1.2
|
||||
Creation Time : Wed Sep 1 11:07:03 2021
|
||||
Raid Level : raid5
|
||||
Array Size : 1953258496 (1862.77 GiB 2000.14 GB)
|
||||
Used Dev Size : 976629248 (931.39 GiB 1000.07 GB)
|
||||
Raid Devices : 3
|
||||
Total Devices : 2
|
||||
Persistence : Superblock is persistent
|
||||
|
||||
Intent Bitmap : Internal
|
||||
|
||||
Update Time : Wed Nov 3 08:45:59 2021
|
||||
State : clean, degraded
|
||||
Active Devices : 2
|
||||
Working Devices : 2
|
||||
Failed Devices : 0
|
||||
Spare Devices : 0
|
||||
|
||||
Layout : left-symmetric
|
||||
Chunk Size : 512K
|
||||
|
||||
Consistency Policy : bitmap
|
||||
|
||||
Name : pve:31
|
||||
UUID : 91d5e8bf:b3cc96f6:90b67181:1cf6eae6
|
||||
Events : 11316
|
||||
|
||||
Number Major Minor RaidDevice State
|
||||
- 0 0 0 removed
|
||||
1 8 48 1 active sync /dev/sdd
|
||||
3 8 64 2 active sync /dev/sde
|
||||
```
|
||||
|
||||
Il est `clean` mais dégradé.
|
||||
|
||||
## Ne pas monter le RAID lors du reboot
|
||||
|
||||
Surtout si on a pas accès physiquement à la machine, il faut commenter dans le `fstab` la ligne du RAID concerné (pve-raid dans ce cas-ci), sans quoi lors du reboot, on aura juste une invite pour se connecter à un terminal sans réseau.
|
||||
|
||||
```
|
||||
# /etc/fstab: static file system information.
|
||||
#
|
||||
# Use 'blkid' to print the universally unique identifier for a
|
||||
# device; this may be used with UUID= as a more robust way to name devices
|
||||
# that works even if disks are added and removed. See fstab(5).
|
||||
#
|
||||
# systemd generates mount units based on this file, see systemd.mount(5).
|
||||
# Please run 'systemctl daemon-reload' after making changes here.
|
||||
#
|
||||
# <file system> <mount point> <type> <options> <dump> <pass>
|
||||
# / was on /dev/md1 during installation
|
||||
UUID=c5cfa061-8479-4753-b2fa-9ebe1a18aa61 / ext4 errors=remount-ro 0 1
|
||||
# /boot was on /dev/md0 during installation
|
||||
UUID=4e9f2a5e-b4cd-4b28-9ad5-cdf3797c8792 /boot ext2 defaults 0 2
|
||||
# swap was on /dev/sda3 during installation
|
||||
UUID=fedb0ed8-bf6d-4ab8-8059-e49e178cba13 none swap sw 0 0
|
||||
# swap was on /dev/sdb3 during installation
|
||||
UUID=12fdf638-e77b-4d70-acf8-a2d8b1921371 none swap sw 0 0
|
||||
# ext4 on raid5
|
||||
#UUID=96a046c8-764a-4712-8d09-d60e42e14f30 /var/lib/pve-raid ext4 defaults 0 3
|
||||
```
|
||||
|
||||
Et on peut éteindre la machine.
|
||||
|
||||
## Remplacement du disque physique
|
||||
|
||||
Ce n'est pas une machine qui supporte le remplacement à chaud des disques durs, et il faut danc l'éteindre avant de changer le disque.
|
||||
|
||||
Au début, la commande `smartctl -a /dev/sdc` nous renseigne la marque, le modèle et le numéro de série du disque.
|
||||
|
||||
```
|
||||
…
|
||||
Model Family: SAMSUNG SpinPoint F3
|
||||
Device Model: SAMSUNG HD103SJ
|
||||
Serial Number: 62823C741A03QO L<>
|
||||
…
|
||||
```
|
||||
|
||||
Ça sera utile pour être certain·e de remplacer le bon disque et pas un autre.
|
||||
|
||||
## Après reboot
|
||||
|
||||
Vérifions la liste de block devices avec `lsblk`
|
||||
|
||||
```root@jimmy:/home/zebras# lsblk
|
||||
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
|
||||
sda 8:0 0 74,5G 0 disk
|
||||
├─sda1 8:1 0 953M 0 part
|
||||
│ └─md0 9:0 0 952M 0 raid1 /boot
|
||||
├─sda2 8:2 0 66,1G 0 part
|
||||
│ └─md1 9:1 0 66,1G 0 raid1 /
|
||||
└─sda3 8:3 0 7,5G 0 part [SWAP]
|
||||
sdb 8:16 0 74,5G 0 disk
|
||||
├─sdb1 8:17 0 953M 0 part
|
||||
│ └─md0 9:0 0 952M 0 raid1 /boot
|
||||
├─sdb2 8:18 0 66,1G 0 part
|
||||
│ └─md1 9:1 0 66,1G 0 raid1 /
|
||||
└─sdb3 8:19 0 7,5G 0 part [SWAP]
|
||||
sdc 8:32 0 931,5G 0 disk
|
||||
sdd 8:48 0 931,5G 0 disk
|
||||
└─md127 9:127 0 1,8T 0 raid5
|
||||
sde 8:64 0 931,5G 0 disk
|
||||
└─md127 9:127 0 1,8T 0 raid5
|
||||
sdf 8:80 0 5,5T 0 disk
|
||||
└─sdf1 8:81 0 5,5T 0 part
|
||||
```
|
||||
|
||||
Pour être certain·e que le disque remplacé soit bien `/dve/sdc` et pas un autre. Ici on voit bien qu'il est « seul » et qu'il n'y a pas de RAID dessus.
|
||||
|
||||
On peut aussi vérifier ça avec `smartctl -a /dev/sdc` pour retrouver la marque, le modèle et autres infos qui doivent correspondre au nouveau disque.
|
||||
|
||||
```
|
||||
# smartctl -a /dev/sdc
|
||||
smartctl 7.2 2020-12-30 r5155 [x86_64-linux-5.11.22-4-pve] (local build)
|
||||
Copyright (C) 2002-20, Bruce Allen, Christian Franke, www.smartmontools.org
|
||||
|
||||
=== START OF INFORMATION SECTION ===
|
||||
Model Family: Western Digital Black
|
||||
Device Model: WDC WD1003FZEX-00K3CA0
|
||||
Serial Number: WD-WCC6Y6PVKFJ5
|
||||
…
|
||||
```
|
||||
|
||||
## Préparer le nouveau disque
|
||||
|
||||
Nous avons l'habitude de travailler avec du matériel de récupération et c'est donc plus prudent de nettoyer un peu avant d'utiliser.
|
||||
|
||||
```
|
||||
# fdisk -l /dev/sdc
|
||||
Disque /dev/sdc : 931,51 GiB, 1000204886016 octets, 1953525168 secteurs
|
||||
Modèle de disque : WDC WD1003FZEX-0
|
||||
Unités : secteur de 1 × 512 = 512 octets
|
||||
Taille de secteur (logique / physique) : 512 octets / 4096 octets
|
||||
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
|
||||
Type d'étiquette de disque : dos
|
||||
Identifiant de disque : 0xeb750b58
|
||||
```
|
||||
|
||||
Bon, il n'y a pas de partition mais tout de même une étiquette « dos ». On va effacer la table de partition avec `wipefs`.
|
||||
|
||||
```
|
||||
# wipefs -a -f /dev/sdc
|
||||
/dev/sdc : 2 octets ont été effacés à l'index 0x000001fe (dos) : 55 aa
|
||||
```
|
||||
|
||||
Maintenant il est tout propre.
|
||||
|
||||
```
|
||||
# fdisk -l /dev/sdc
|
||||
Disque /dev/sdc : 931,51 GiB, 1000204886016 octets, 1953525168 secteurs
|
||||
Modèle de disque : WDC WD1003FZEX-0
|
||||
Unités : secteur de 1 × 512 = 512 octets
|
||||
Taille de secteur (logique / physique) : 512 octets / 4096 octets
|
||||
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
|
||||
```
|
||||
|
||||
## Ajout du nouveau disque dans le RAID
|
||||
|
||||
Maintenant que le disque est propre, qu'en plus il a la même taille que les deux autres membres du RAID et qu'en plus on utilise **tout le disque** sans faire de partition, c'est simple et efficace.
|
||||
|
||||
```
|
||||
# mdadm --manage /dev/md127 --add /dev/sdc
|
||||
mdadm: added /dev/sdc
|
||||
```
|
||||
|
||||
Et on vérifier l'état du md127.
|
||||
|
||||
```
|
||||
# mdadm -D /dev/md127
|
||||
/dev/md127:
|
||||
Version : 1.2
|
||||
Creation Time : Wed Sep 1 11:07:03 2021
|
||||
Raid Level : raid5
|
||||
Array Size : 1953258496 (1862.77 GiB 2000.14 GB)
|
||||
Used Dev Size : 976629248 (931.39 GiB 1000.07 GB)
|
||||
Raid Devices : 3
|
||||
Total Devices : 3
|
||||
Persistence : Superblock is persistent
|
||||
|
||||
Intent Bitmap : Internal
|
||||
|
||||
Update Time : Wed Nov 3 09:54:40 2021
|
||||
State : clean, degraded, recovering
|
||||
Active Devices : 2
|
||||
Working Devices : 3
|
||||
Failed Devices : 0
|
||||
Spare Devices : 1
|
||||
|
||||
Layout : left-symmetric
|
||||
Chunk Size : 512K
|
||||
|
||||
Consistency Policy : bitmap
|
||||
|
||||
Rebuild Status : 0% complete
|
||||
|
||||
Name : pve:31
|
||||
UUID : 91d5e8bf:b3cc96f6:90b67181:1cf6eae6
|
||||
Events : 11545
|
||||
|
||||
Number Major Minor RaidDevice State
|
||||
4 8 32 0 spare rebuilding /dev/sdc
|
||||
1 8 48 1 active sync /dev/sdd
|
||||
3 8 64 2 active sync /dev/sde
|
||||
```
|
||||
|
||||
Et on peut même voir où ça en est en terme de progession…
|
||||
|
||||
```
|
||||
root@jimmy:/home/zebras# cat /proc/mdstat
|
||||
Personalities : [raid1] [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid10]
|
||||
md1 : active raid1 sdb2[1] sda2[0]
|
||||
69269504 blocks super 1.2 [2/2] [UU]
|
||||
|
||||
md0 : active raid1 sda1[0] sdb1[1]
|
||||
974848 blocks super 1.2 [2/2] [UU]
|
||||
|
||||
md127 : active raid5 sdc[4] sdd[1] sde[3]
|
||||
1953258496 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [_UU]
|
||||
[>....................] recovery = 1.1% (11149244/976629248) finish=206.1min speed=78055K/sec
|
||||
bitmap: 5/8 pages [20KB], 65536KB chunk
|
||||
|
||||
unused devices: <none>
|
||||
```
|
||||
|
||||
Plus qu'a attendre quelques heures pour retrouver les performances sur le serveur, avoir à nouveau 3 disques dans le RAID5 et être tranquille jusqu'à la prochaine fois.
|
||||
|
||||
## Décommenter la fstab
|
||||
|
||||
Pour rappel, on avait commenté la ligne du pve-raid dans notre `fstab` et il faut, évidemment, la décommenter.
|
||||
|
||||
```
|
||||
root@jimmy:/home/zebras# cat /etc/fstab
|
||||
# /etc/fstab: static file system information.
|
||||
#
|
||||
# Use 'blkid' to print the universally unique identifier for a
|
||||
# device; this may be used with UUID= as a more robust way to name devices
|
||||
# that works even if disks are added and removed. See fstab(5).
|
||||
#
|
||||
# systemd generates mount units based on this file, see systemd.mount(5).
|
||||
# Please run 'systemctl daemon-reload' after making changes here.
|
||||
#
|
||||
# <file system> <mount point> <type> <options> <dump> <pass>
|
||||
# / was on /dev/md1 during installation
|
||||
UUID=c5cfa061-8479-4753-b2fa-9ebe1a18aa61 / ext4 errors=remount-ro 0 1
|
||||
# /boot was on /dev/md0 during installation
|
||||
UUID=4e9f2a5e-b4cd-4b28-9ad5-cdf3797c8792 /boot ext2 defaults 0 2
|
||||
# swap was on /dev/sda3 during installation
|
||||
UUID=fedb0ed8-bf6d-4ab8-8059-e49e178cba13 none swap sw 0 0
|
||||
# swap was on /dev/sdb3 during installation
|
||||
UUID=12fdf638-e77b-4d70-acf8-a2d8b1921371 none swap sw 0 0
|
||||
# ext4 on raid5
|
||||
UUID=96a046c8-764a-4712-8d09-d60e42e14f30 /var/lib/pve-raid ext4 defaults 0 3
|
||||
```
|
||||
|
||||
## Remonter le raid
|
||||
|
||||
```
|
||||
# mount -a
|
||||
```
|
||||
|
||||
Ben oui, rien de plus.
|
||||
|
||||
## Relancer les VMS
|
||||
|
||||
J'hésite à attendre que le rebuild du raid5 soit terminé avant de relancer les machines virtuelles parce qu'elle seront super lentes, mais en même temps, c'est un chouette stress test.
|
||||
|
||||
Allors, hop ! Un petit tour dans l'interface web de Proxomx pour aller cliquer sur les boutons start des quatre VMS actuellement hébergées sur Jimmy.
|
Loading…
Reference in New Issue