Bonjour,
J'ai paramétré des alertes sur mon flux de données afin de recevoir un mail en cas d'erreur 500.
Cela a bien fonctionné dans le passé et cela fonctionne bien aujourd'hui donc pas de soucis au niveau du paramétrage.
Le 15/10 entre 8h et 16h UTC j'ai reçu 5000 erreurs 500 dans graylog. Pour autant, notre serveur mail n'a rien reçu.
Comment m'assurer que les alertes fonctionnent correctement ?
Alertes mail graylog non envoyées
Sujets apparentés
- Ssh_init: Host does not exist
10321
13.11.2017 01:40
- Code d’erreur : DLG_FLAGS_SEC_CERT_CN_INVALID ?
10239
14.08.2018 09:32
- Err_too_many_redirects
7437
12.11.2017 15:36
- Trop de redirections suite au HTTPS
6764
14.12.2016 14:30
- Certificat Let's encrypt
6240
21.08.2017 17:44
- Impossible d'activer le certificat SSL pour HTTPS
5905
07.01.2021 02:44
- LetsEncrypt et erreur DNS A / AAAA
5701
16.04.2019 15:34
- Net::err_cert_common_name_invalid
5600
29.05.2017 08:20
- Prise en charge du protocole MQTT
5251
06.04.2017 13:57
- SSL Cloudflare chez OVH
5204
28.04.2017 09:51
Bonjour,
Merci de la réponse rapide.
Il s'agit de ldp-qm-80879.
Bonjour,
Je comprends que des problèmes puissent arriver mais il est tout de même très déplaisant de voir qu'un système d'alerte ne soit pas en capacité d'alerter lorsque celui-ci rencontre un problème...
Comment peut-on suivre automatiquement l'état de ce service ?
Bonjour,
Merci pour la réactivité.
Pour information le Kafka sur lequel les logs sont envoyés par logstash est indisponible depuis ce matin 9h30 UTC. Voici les logs retourné par logstash depuis le manager OVH : http://prntscr.com/l7irtf
Bonjour,
Ce message est trompeur ici, le serveur kafka est bien présent, mais rejette le message. Le plus probable est qu'une partie de vos logs que vous tentez d'envoyer est plus gros qu'une des limites autorisées:
* Taille totale du message supérieur à 1 MBytes.
* Champ supérieur à 4096 Bytes.
* Contenue du champ supérieur à 32766 Bytes.
Nous vous recommandons l'utilisation du filtre logstash truncate pour limiter la taille maximal de vos messages, par exemple:
truncate {
fields => ["message"]
length_bytes => 30000
}
Cordialement,
Bonjour,
Effectivement le problème était dû à la longueur d'un message.
En revanche, tous nos logs étaient bloqués à cause de cela (le reste des logs envoyés à logstash n'étaient pas envoyés à kafka).
Y a t-il un paramétrage que l'on peut modifier pour limiter les tentatives d'envoi ou alors tout de même envoyer les autres logs s'il y en a 1 qui rencontre un problème ?
Bonjour,
Nous vous recommandons dans votre usage de truncate également les champs "json_message" et "response_content_urls", tel que:
truncate {
fields => ["message","json_message","response_content_urls"]
length_bytes => 30000
}
Par défaut logstash recommence à l'infini (1 message en retry ne bloque pas le reste de la queue), mais si trop de messages s'accumulent dans la queue output, elle peut-être saturée et ne plus traiter de message (il faut un dépassement de 1GiB de le queue).
Aujourd'hui nous appliquons la politique par défaut de retry à l'infini quand un problème d'envoi vers kafka est détecté.
Des modifications sont en cours dans le plugin kafka-output https://github.com/logstash-plugins/logstash-output-kafka/pull/194 pour gérer ce cas (quand le message est trop large pour ne pas le renvoyer à l'infini), quand cette modification sera présente upstream, nous l'appliquerons sur la plateforme.
Bonjour,
Nous avons fais la modification, merci du conseil.
Avec le truncate nous devrions avoir plus de mal à atteindre 1Go dans la queue.