Bonjour,
J'ai reçu un message d'alerte pour mes disques cette nuit, je voulais savoir si je devais resynchroniser ou bien ouvrir un ticket au support ? Je suis sur la release 3 (pas tapé, je compte prendre un nouveau serveur et mettre Debian 8 + Plesk), voici ce que j'ai reçu :
> This is an automatically generated mail message from mdadm
> running on ns......ovh.net
> A Fail event had been detected on md device /dev/md3.
> It could be related to component device /dev/sda3.
> Faithfully yours, etc.
> P.S. The /proc/mdstat file currently contains the following:
> Personalities : linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty]
> md2 : active raid1 sda2[2 sdb21]
> 20478912 blocks [2/1] [_U]
>
> md3 : active raid1 sda3[2 sdb31]
> 1932506048 blocks [2/1] [_U]
>
> unused devices:
et
> This is an automatically generated mail message from mdadm
> running on ns......ovh.net
> A Fail event had been detected on md device /dev/md2.
> It could be related to component device /dev/sda2.
> Faithfully yours, etc.
> P.S. The /proc/mdstat file currently contains the following:
> Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty]
> md2 : active raid1 sda2[2 sdb21]
> 20478912 blocks [2/1] [_U]
>
> md3 : active raid1 sda3[2 sdb3[1]
> 1932506048 blocks [2/1] [_U]
>
> unused devices:
Merci d'avance pour votre aide
Message d'alerte de mdadm
Sujets apparentés
- Port 25 bloqué pour spam à répétition
10402
28.02.2018 13:39
- Spam et IP bloquée
8417
12.12.2016 11:53
- Rkhunter : parametre web_CMD invalide
8196
23.07.2017 15:43
- Mise en place de VM avec IP publique sur Proxmox 6 [RESOLU]
8100
30.04.2020 17:12
- Mise à jour PHP sur Release 3 ovh
8098
11.03.2017 17:43
- Connection smtp qui ne marche plus : connect error 10060
8040
12.04.2019 10:10
- Partition sur le disque de l'OS ESXI
7957
09.05.2017 14:33
- Envoi demail bloqué chez Gmail (550-5.7.26 DMARC)
7714
23.12.2019 08:40
- Meilleure solution pour disposer de plusieurs IP ?
7446
29.07.2018 09:40
- Comment me connecter par SSH en tant que root à mon serveur ?
6933
09.09.2019 14:34
Bonjour,
Faire un smartctl de tes disques
Puis contacter le support si il y a effectivement des erreurs.
Smartctl -a /dev/sda
Idem avec sdb
Merci Buddy de m'avoir répondu, voici ce que j'ai et je ne comprends pas grand chose :
> [root@ns.... ~]# smartctl -a /dev/sda
> smartctl 5.43 2012-06-30 r3573 [x86_64-linux-3.14.32-xxxx-grs-ipv6-64] (local build)
> Copyright (C) 2002-12 by Bruce Allen, http://smartmontools.sourceforge.net
> Vendor: /0:0:0:0
> Product:
> User Capacity: 600 332 565 813 390 450 bytes [600 PB]
> Logical block size: 774843950 bytes
> >> Terminate command early due to bad response to IEC mode page
> A mandatory SMART command failed: exiting. To continue, add one or more '-T permissive' options.
et
> [root@ns.... ~]# smartctl -a /dev/sdb
> smartctl 5.43 2012-06-30 r3573 [x86_64-linux-3.14.32-xxxx-grs-ipv6-64] (local build)
> Copyright (C) 2002-12 by Bruce Allen, http://smartmontools.sourceforge.net
> === START OF INFORMATION SECTION ===
> Model Family: Seagate Barracuda (SATA 3Gb/s, 4K Sectors)
> Device Model: ST2000DM001-1CH164
> Serial Number: Z240ERC4
> LU WWN Device Id: 5 000c50 04ec99267
> Firmware Version: CC24
> User Capacity: 2 000 398 934 016 bytes [2,00 TB]
> Sector Sizes: 512 bytes logical, 4096 bytes physical
> Device is: In smartctl database [for details use: -P show]
> ATA Version is: 8
> ATA Standard is: ATA-8-ACS revision 4
> Local Time is: Mon Feb 27 15:26:02 2017 CET
> SMART support is: Available - device has SMART capability.
> SMART support is: Enabled
> === START OF READ SMART DATA SECTION ===
> SMART overall-health self-assessment test result: PASSED
> General SMART Values:
> Offline data collection status: (0x00) Offline data collection activity
> was never started.
> Auto Offline Data Collection: Disabled.
> Self-test execution status: ( 0) The previous self-test routine completed
> without error or no self-test has ever
> been run.
> Total time to complete Offline
> data collection: ( 609) seconds.
> Offline data collection
> capabilities: (0x73) SMART execute Offline immediate.
> Auto Offline data collection on/off support.
> Suspend Offline collection upon new
> command.
> No Offline surface scan supported.
> Self-test supported.
> Conveyance Self-test supported.
> Selective Self-test supported.
> SMART capabilities: (0x0003) Saves SMART data before entering
> power-saving mode.
> Supports SMART auto save timer.
> Error logging capability: (0x01) Error logging supported.
> General Purpose Logging supported.
> Short self-test routine
> recommended polling time: ( 1) minutes.
> Extended self-test routine
> recommended polling time: ( 260) minutes.
> Conveyance self-test routine
> recommended polling time: ( 2) minutes.
> SCT capabilities: (0x3085) SCT Status supported.
> SMART Attributes Data Structure revision number: 10
> Vendor Specific SMART Attributes with Thresholds:
> ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
> 1 Raw_Read_Error_Rate 0x000f 114 099 006 Pre-fail Always - 78545600
> 3 Spin_Up_Time 0x0003 094 094 000 Pre-fail Always - 0
> 4 Start_Stop_Count 0x0032 100 100 020 Old_age Always - 28
> 5 Reallocated_Sector_Ct 0x0033 100 100 010 Pre-fail Always - 0
> 7 Seek_Error_Rate 0x000f 090 060 030 Pre-fail Always - 964072179
> 9 Power_On_Hours 0x0032 057 057 000 Old_age Always - 37802
> 10 Spin_Retry_Count 0x0013 100 100 097 Pre-fail Always - 0
> 12 Power_Cycle_Count 0x0032 100 100 020 Old_age Always - 28
> 183 Runtime_Bad_Block 0x0032 100 100 000 Old_age Always - 0
> 184 End-to-End_Error 0x0032 100 100 099 Old_age Always - 0
> 187 Reported_Uncorrect 0x0032 099 099 000 Old_age Always - 1
> 188 Command_Timeout 0x0032 100 100 000 Old_age Always - 0
> 189 High_Fly_Writes 0x003a 098 098 000 Old_age Always - 2
> 190 Airflow_Temperature_Cel 0x0022 069 054 045 Old_age Always - 31 (Min/Max 20/46)
> 191 G-Sense_Error_Rate 0x0032 100 100 000 Old_age Always - 0
> 192 Power-Off_Retract_Count 0x0032 100 100 000 Old_age Always - 28
> 193 Load_Cycle_Count 0x0032 100 100 000 Old_age Always - 72
> 194 Temperature_Celsius 0x0022 031 046 000 Old_age Always - 31 (0 17 0 0 0)
> 197 Current_Pending_Sector 0x0012 100 100 000 Old_age Always - 0
> 198 Offline_Uncorrectable 0x0010 100 100 000 Old_age Offline - 0
> 199 UDMA_CRC_Error_Count 0x003e 200 200 000 Old_age Always - 0
> 240 Head_Flying_Hours 0x0000 100 253 000 Old_age Offline - 64171106407329
> 241 Total_LBAs_Written 0x0000 100 253 000 Old_age Offline - 94689070877
> 242 Total_LBAs_Read 0x0000 100 253 000 Old_age Offline - 280526444633
> SMART Error Log Version: 1
> ATA Error Count: 1
> CR = Command Register [HEX]
> FR = Features Register [HEX]
> SC = Sector Count Register [HEX]
> SN = Sector Number Register [HEX]
> CL = Cylinder Low Register [HEX]
> CH = Cylinder High Register [HEX]
> DH = Device/Head Register [HEX]
> DC = Device Command Register [HEX]
> ER = Error register [HEX]
> ST = Status register [HEX]
> Powered_Up_Time is measured from power on, and printed as
> DDd+hh:mm:SS.sss where DD=days, hh=hours, mm=minutes,
> SS=sec, and sss=millisec. It "wraps" after 49.710 days.
> Error 1 occurred at disk power-on lifetime: 34391 hours (1432 days + 23 hours)
> When the command that caused the error occurred, the device was active or idle.
> After command completion occurred, registers were:
> ER ST SC SN CL CH DH
> -- -- -- -- -- -- --
> 40 51 00 ff ff ff 0f Error: UNC at LBA = 0x0fffffff = 268435455
> Commands leading to the command that caused the error were:
> CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name
> -- -- -- -- -- -- -- -- ---------------- --------------------
> 60 00 80 ff ff ff 4f 00 49d+01:57:52.934 READ FPDMA QUEUED
> 60 00 00 ff ff ff 4f 00 49d+01:57:52.934 READ FPDMA QUEUED
> 60 00 00 ff ff ff 4f 00 49d+01:57:52.933 READ FPDMA QUEUED
> 60 00 00 ff ff ff 4f 00 49d+01:57:52.933 READ FPDMA QUEUED
> 61 00 08 80 84 36 41 00 49d+01:57:52.933 WRITE FPDMA QUEUED
> SMART Self-test log structure revision number 1
> Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error
> # 1 Short offline Completed without error 00% 16 -
> # 2 Short offline Completed without error 00% 7 -
> # 3 Short offline Completed without error 00% 7 -
> # 4 Short offline Completed without error 00% 1 -
> SMART Selective self-test log data structure revision number 1
> SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
> 1 0 0 Not_testing
> 2 0 0 Not_testing
> 3 0 0 Not_testing
> 4 0 0 Not_testing
> 5 0 0 Not_testing
> Selective self-test flags (0x0):
> After scanning selected spans, do NOT read-scan remainder of disk.
> If Selective self-test is pending on power-up, resume after 0 minute delay.
Le disque sda semble mort..
Demande le changement au service client puis après le changement il faudra que tu resynchronises car ton raid ne tourne plus que sur sdb.
Ah ok merci
Sinon, il peut tenir 2-3 semaines ou pas ? comme je pense migrer vers un nouveau serveur en fin d'échéance et comme ça, le support n'aura pas à changer un disque pour rien
non ? lol
Sda est complètement mort.
Sdb peut tenir encore 3 ans comme 3 jours ou 3 minutes..
A vous de voir.
Si sdb tombe en panne j'espère que vous avez des backup ailleurs.
Ok merci, bon je vais contacter le support
Bonne journée à toi et encore merci Buddy
Il m'est déjà arriver de perdre les 2 disques d'un serveur en l'espace d'une semaine !
Heureusement que j'avais fais intervenir OVH pour changer le premier disque, puis le resynchroniser...
3 jours après le 2° me lâchait....
A noter que ce scénario ne s'est produit qu'une fois en 10 ans sur plusieurs serveurs en prod...
Mais il suffit d'une fois.... Evidemment avec des backups le risque est plus limité, mais ça fait toujours une rupture de service.
Bah le support me dit qu'il faut changer les deux disques, car le disque sda n'est plus détecté et le sdb est défectueux...
Je suis tenté de prendre un nouveau serveur car ce sera pas dit que tout sera ok après les 2 syncro
:confused:
Si le serveur est vieux, que tu peux avoir mieux pour le même prix change.
Ça te permettra aussi au passage de repartir sur un os à jour. (exemple passer de debian 7 à debian 8, centos 6 à centos 7)
ouais, assures toi d'avoir des backups et change de suite de serveur....
A voir si tu trouves ton bonheur dans les offres actuelles...
Sinon ce serait presque l'occasion de migrer tes services sur un public cloud, puis de faire changer les 2 disques, et de réinstaller proprement....
Mais tout dépend des services que tu héberges.
Je suis sur la Release 3 avec Centos 6, j'hésite entre Debian 8 avec Plesk (version gratuite 30 ndd) ou bien toujours Debian 8 avec Virtualmin..
Qu'est ce qui sera le plus simple pour un ancien utilisateur de la Release 3 ?
Je n'ai pas testé release 3...
Mais je pense que virtualmin est pas mal pour les échos que j'en ai eu.
Plesk je n'aime pas, il a tendance à faire les choses à sa sauce et à pas mal modifier le fonctionnement de base du système...
Parce que le panel c'est bien, mais il faut pouvoir réparer les choses en console quand il y'a un soucis.
Et oui une release 3 il vaut mieux migrer vers quelque chose de plus récent.
Oki, merci à toi Sich...en plus y a pas mal de tuto pour virtualmin sur ce forum https://www.how-to.ovh/viewforum.php?f=2