Gestion du risque d'avalanche : méthodes d'évaluation et vigilance

Je ne pense pas raisonner correctement à 100%, mais j’essaie le plus possible. Quand je fais une erreur, je fais tout pour ne pas la reproduire. Le but est de s’améliorer non stop.
Mais quand je lis « n’importe qui se serait fait prendre », ça signifie que celui qui dit ça estime que c’est impossible de s’améliorer au delà du niveau de la personne qui s’est fait prendre, et qu’il existe une limite indépassable. Or cette limite aboutit à 30 morts par an en France, dont une bonne part bien avertis sur le risque d’avalanche. Donc si on estime qu’il y a une limite indépassable, c’est qu’on accepte ces 30 morts par an et qu’on n’essaie pas de les diminuer.
Ben désolé, ce n’est pas mon avis. Quand je regarde comment se font prendre ces 30 morts, je ne vois jamais de situation tordue, mais que des situations où le risque est facile à voir, et on pourrait éviter tous ces morts.
Ca signifie pas qu’il y aurait 0 morts pour autant, car il y aurait peut être d’autres types d’accident, dans des situations tordue justement.

Car il y a une interaction entre la prise de risque des pratiquant et les morts. Je constate, mais sans le mesurer précisément (c’était au moins valable pour moi à mes débuts), qu’au cours d’une saison, la prise de risque moyenne parmi les pratiquants augmente progressivement, puis il y a un accident et de nombreuses personnes prennent alors beaucoup moins risque, puis ça augmente progressivement de nouveau, puis un nouvel accident, etc. La prise de risque est en dent de scie, avec des accidents à chaque pointe de dent. La prise de risque s’autorégule de cette façon. Le nb de mort dépend alors de la vitesse d’augmentation de la prise de risque entre chaque accident, et de la réduction de la prise de risque après chaque accident. Ces paramètres dépendent du type de raisonnement fait par les pratiquant pour décider s’ils vont ou non dans (ou sous) une pente. Visiblement, le raisonnement moyen est constant, et aboutit à 30 morts par an de façon assez stable (il y a des variations, mais on a jamais 10 ou 100, c’est toujours autour de 30).
Si les morts étaient cachés, il n’y aurait pas de limite à l’augmentation de la prise de risque, et il y aurait beaucoup plus de morts (mais bon au bout d’un moment ça finirait par se savoir au moins par les potes des victimes de plus en plus nombreuses, et il y aurait une régulation aussi).

Mon idée est de sortir de cette auto régulation débile qui nécessite que certains se sacrifient pour limiter le nb de morts à 30 au lieu de 100 ou 500, tout en aboutissant à un nb de morts beaucoup plus faible (2 ou 3 maxi).
Et pour ça, ben faut augmenter non stop la qualité du raisonnement.
Déjà juste une gestion du risque correcte suffirait. Une bonne gestion du risque est : je ne vais que là où je suis sûr à « 100% » (en fait 99,99%) que ça ne craint pas. Et dans le doute, je n’y vais pas. Bien sûr, pour la plupart des gens, ça implique de renoncer très souvent. Ben oui, et pour renoncer moins souvent, il faut alors augmenter la précision de l’évaluation du risque, permettant d’étendre la zone où l’on estime que ça ne craint pas. Et ça c’est long, ça demande un apprentissage, c’est donc normal de renoncer quand on est débutant alors que d’autres y vont en toute confiance. Par contre une bonne gestion de risque peut s’appliquer immédiatement, que l’on soit débutant ou expert.
Or les raisonnement faits par ceux qui se font prendre se résume tout le temps à « dans le doute, j’y vais ». « Je sais que ça craint, mais pas à 100%, sur un malentendu ça peut passer, je vais tenter le coup. » Pour caricaturer, tant qu’on ne leur a pas prouvé que ça craint à 100%, ils vont tenter le coup. J’ai raisonné de la même façon dans tous les accidents que j’ai eu. Bien sûr, ce n’est pas aussi clair que ça. Mais justement, il faut prendre du recul sur le raisonnement que l’on est en train de faire, pour bien prendre conscience de ce qu’il est. Et si on se rend compte qu’on est en train de raisonner en « dans le doute, j’y vais », on arrête tout et on recommence.

Ben oui, mais tu ne penses pas qu’avec la connaissance très partielle du manteau neigeux qu’on a (vu de dessus et pas de l’intérieur, depuis un seul point à la fois, etc…), il y a nécessairement une limite à la détermination de son comportement (et donc à l’évaluation du risque)?

Ben oui, la limite dépend de la quantité et qualité des infos dont on dispose. Mais le problème d’évaluation du risque est un problème scientifique. Il faut démontrer scientifiquement que la limite était atteinte dans les accidents.
Perso je n’ai jamais vu une telle démonstration, et en attendant de la trouver, je continue à améliorer la précision de mes évaluation du risque.

Si accident il y a, peut-on penser « scientifiquement » que la limite est atteinte?

Oui, mais c’est la limite pour les victimes uniquement, pas la limite absolue. Ca ne signifie en aucun cas que « n’importe qui aurait fait la même erreur ».
Les victimes ont mal évalué le risque, car elles avaient des infos insuffisantes ou trop imprécises. D’autres personnes en auraient eu plus, ou moins, d’où une évaluation du risque différente.
Ensuite, quel que soit l’évaluation du risque obtenue, si on se contente d’aller là où on est sûr à 99,99% que ça ne craint pas, pas de problème. Car dans la plupart des accidents, les victimes avaient bien conscience que ce n’était pas safe, mais elles estimaient que le risque, bien que plus grand que le risque qu’elles prennent d’habitude, restait en dessous du risque acceptable. Sauf que quand on gratte et qu’on regarde de près le raisonnement, on se rend compte que les incertitudes (marge d’erreur) étaient grandes, et qu’en en tenant compte, on dépassait allègrement le risque acceptable. Ou alors c’est leur risque acceptable qui était trop grand, mais là c’est une correction qui aurait dû être faite depuis longtemps (une méthode sécu est de prendre par défaut (quand on débute) un risque acceptable super bas, et de le monter un petit peu si on se rend compte qu’on renonce trop dans des situations qui sont reconnues comme safe, impossible par ce moyen de se retrouver avec un risque acceptable trop haut).

Posté en tant qu’invité par tiery:

En fait ,tu essaies ,comme on l’a tous fait ,de maitriser tous les facteurs nivo,de terrain ,d’orientation etc…avec les situations vécus que tu as en référence .Sauf que les temps changent et que les nivologues (entre autre)avouent maintenant que ce n’est pas possible de maitriser ,car il y a trop de facteurs à prendre en copmte et SURTOUT que les connaissances en termes de nivologie sont insuffisantes.
Donc on doit travailler sur nos comportements pour réduire le bilan tant que l’on ne maitrise pas tout.
Tout le monde est très fort et explique très bien pourquoi c’est parti, mais difficile de dire pourquoi ça ne part pas :c’est parce qu’on ne maitrise pas tout.
Des situations où on se ferait tous baiser ,il y en a beaucoup,tu devrais t’en convaincre.

Franchement non, tu vas trop loin (peut être n’as tu pas raisonné correctement :stuck_out_tongue: ) il reste toujours une part d’imprévu et ce n’est pas qu’une question de raisonnement pour supprimer cet imprévu.
Mais c’est sûr que se faire prendre par risque 4 c’est quasiment toujours une erreur qui était évitable et de la même façon, dans des situations moins radicale,s il y a beaucoup d’accidents qui était évitable par un meilleur raisonnement.

D’où l’importance du comportement de chacun vis à vis des autres pratiquants.

This post was flagged by the community and is temporarily hidden.

J’ai un peu l’impression que pour toi, le fait que ça soit parti implique nécessairement un risque fort… Tu es vraiment sûr de toi?

Parce que lu comme ça, j’ai un peu l’impression que tu te berces d’illusions.
Tu as entendu parler d’Heisenberg, non?
En nivologie, on est un peu devant le même genre de truc, sauf que ce n’est pas à la même échelle… Pour connaîtrres uffisamment le manteau neigeux il faudrait le démonter flocon par flocon et la question de sa stabilité n’aurait alors plus de sens. Mais bon, si tu arrives à faire des publis avec les éléments qui te permettent d’être aussi certain, n’hésite pas à les sortir!

Ca dépend ce qu’on veut maitriser. Ce que je veux maitriser, c’est que quand j’estime que c’est sûr à 99,99% que ça ne craint pas à tel endroit, ce soit effectivement vrai.
Mais par contre, quand j’estime que ça craint à tel endroit, je peux avoir faux les 3/4 du temps, je m’en fout, je n’y vais pas ! Pas besoin de maitriser les xx miliers de km² enneigés en France, il suffit de maitriser la bande de 10m de large sur qq km de long que l’on va parcourir. Ca n’a rien à voir avec les estimations de MF pour faire le BRA, qui tient compte de toute la surface des massifs.

Et bien, faut continuer à étudier, avec des méthodes scientifiques : on conçoit un modèle, on fait des prévisions, et on vérifie par l’expérience, on corrige le modèle, etc. Perso, je n’ai pas vu de démonstration que c’était impossible d’améliorer la précision d’évaluation des risques.
De mon expérience, je vois que j’améliore toujours la précision. C’est en train de saturer, après une période de 10 ans (1999 - 2009) où la précision doublait tous les 6 mois (en partant de très loin il est vrai), mais la précision atteinte est largement suffisante dans la plupart des cas.
Pour le modèle sous-jacent utilisé, rien d’extraordinaire. Jusqu’en 2005 j’utilisais le modèle à surcharge. J’avais atteins les limites du modèle, impossible d’améliorer la précision, qui était insuffisante à mon goût, c’était trop chiant, c’était comme vouloir attraper une bille de mercure, j’avais beau ajouté des infos, ça ne changeait rien à la précision.
Et puis est arrivé le modèle à propagation de rupture de couche fragile. C’était la solution, la précision a immédiatement augmenté, et j’ai pu continuer à progresser au même rythme, ouf.
Pour moi, c’est un modèle suffisant, pas besoin de trouver mieux car il permet déjà d’atteindre une précision suffisante.

Ben si, « l’imprévu » ça s’appelle l’incertitude sur son évaluation du risque. Et ça, ça se mesure facilement.
Par exemple, je suis sur une classique en février, il a neigé la veille, pas trop de vent durant la chute d’après la météo. J’aborde une pente E à 2500m, à 35°. J’évalue le risque d’après ces données et d’après l’étude de la neige fraiche, de la sous couche au bord de la pente, des signes dans le vallon, etc, et je trouve qu’il est plus faible que mon risque acceptable. Soit.
Ensuite, je mesure la marge d’erreur. Je regarde comment j’ai fait pour trouver ce résultat, d’après quelles données. Je creuse et je trouve qu’en fait, j’estime que ça ne craint pas car toutes les fois où j’ai skié une pente à 35° en poudre vierge, ça a toujours tenu.
Ah, et c’est combien « toutes les fois » ? 15 fois. Ah ouais, ben désolé, c’est insuffisant, ça augmente donc la marge d’erreur, et largement au dessus du risque acceptable.
Ou alors, c’est 100 fois. Mais en regardant de prêt, les fois où c’était une pente E à 2500m en février le lendemain de chute, c’était 2 fois. Ben désolé, c’est insuffisant aussi. En fait j’avais inconsciemment mélangé des poires et des carottes, évidemment pour augmenter le nb d’échantillons afin de faire baisser artificiellement le risque, car inconsciemment mon but était de trouver tous les arguments possible pour dire que ça passe, quitte à truquer les infos ou à inventer des théories de toute pièces qui vont à l’encontre du BRA.
Et cette vérification peut être fait par n’importe qui, suffit de regarder exactement comment on raisonne quand on évalue le risque.
Bien sûr quand on le fait tout le temps, on finit par l’intégrer dès le début dans l’évaluation du risque. Mais ça permet de se rendre compte de toutes les erreurs que l’on fait, même quand tout s’est bien passé. Et il ne faut pas avoir peur de remettre en cause certains raisonnements que l’on utilisait depuis 20 ans : avec telles conditions de neige, on faisait des erreurs depuis 20 ans, mais on n’a rien eu car en réalité, on a fait l’erreur que 3 ou 4 fois sans se faire prendre, ce qui est tout à fait possible si le risque est 1/50 (ce qui est quand même trop grand).

[quote=« Nicolas de Grenoble, id: 1276023, post:29, topic:116832 »]J’ai un peu l’impression que pour toi, le fait que ça soit parti implique nécessairement un risque fort… Tu es vraiment sûr de toi?
Parce que lu comme ça, j’ai un peu l’impression que tu te berces d’illusions.
Tu as entendu parler d’Heisenberg, non?[/quote]
Heu, on ne parle pas de particules à l’échelle picométrique, on parle de manteau neigeux étendu sur des dizaines d’hectares et de plaque pesant plusieurs centaines de tonnes ! Le principe d’incertitude d’Heisenberg ne tient pas à cette échelle. Enfin si, mais il dit qu’il est impossible d’avoir une précision supérieur à qq nanomètres. J’estime que ce n’est pas trop grave, les incertitude sur les valeurs mesurées sont largement plus grandes. :slight_smile:

Pour moi, le départ ou non d’une plaque lors de la descente de tel skieur selon telle trajectoire n’est pas aléatoire. Ca signifie que plus on augmente la précision du risque, plus le risque se rapproche de 0 ou 1, et non pas d’un risque intermédiaire de 33 ou 75% comme ça serait le cas si c’était aléatoire. Idéalement, on a uniquement des pentes avec un risque 0 ou 1. Mais comme c’est impossible d’avoir assez d’infos, on a un risque entre 0 et 1, et on se contente d’aller dans les pentes avec un risque plus faible que le risque acceptable.
Cette conception est très pratique. Pour améliorer la précision d’un risque, en partant par exemple d’un risque de 10% sur un ensemble de 100 pentes similaires selon telles paramètres, ce qui m’interdit d’y aller car bien au delà de mon risque acceptable, il suffit de trouver un ou plusieurs paramètres supplémentaires permettant de discriminer l’ensemble en 2 sous ensembles de risque différents : 20 pentes avec un risque de 40% et 80 pentes avec un risque de 2,5% (on a toujours une moyenne à 10% pour les 100 pentes). En allant dans le groupe à 2,5%, on divise le risque par 4. On recommence plein de fois, jusqu’à trouver les pentes avec un risque plus faible que le risque acceptable.
Donc je veux bien que ce soit faux, que le départ des plaques est effectivement aléatoire, mais dans ce cas je devrait être mort depuis longtemps.

[quote=« Bubu, id: 1276042, post:30, topic:116832 »]en si, « l’imprévu » ça s’appelle l’incertitude sur son évaluation du risque. Et ça, ça se mesure facilement

J’évalue le risque…[/quote]
Evaluer n’est pas mesurer, si à la main j’évalue le poids d’une pomme à 150g ça ne veut pas dire que la pomme ne fait pas 140g ou 160g.
En terme d’avalanche tu évalues le risque que la pente parte mais tu ne mesures pas ce risque, tu sais juste que ton évaluation peut être trop optimiste mais de combien ? ça tu ne le sauras jamais.

Euh, j’ai parlé de mesurer l’incertitude sur l’évaluation du risque. En effet, c’est en fait évaluer l’incertitude sur l’évaluation du risque.
Par ailleurs, je ne me contente pas d’évaluer des risques. Il faut bien sûr vérifier tout ça par l’expérience, en faisant des mesures (on compte le nb de fois où un type de pente est partie lors du passage d’un skieur), mesures entachées d’incertitudes, qu’il faut réduire aussi en améliorant la mesure, etc.
C’est sûr qu’au début, c’est tout flou, et ça ne permet pas d’améliorer sa pratique, on reste toujours dans les pentes sûres. Mais progressivement, on améliore la précision. Et lorsque pour un type donné de pente, l’incertitude devient plus faible que le risque acceptable, on peut enfin utiliser les évaluations de risque pour ces pentes, et trouver des pentes avec un risque inférieur au risque acceptable (ou ne pas en trouver si ce jour là il n’y en a pas).

Qu’elle est le rapport avec la nivologie ?

This post was flagged by the community and is temporarily hidden.

Je ne suis pas du tout d’accord parce que même si c’est possible ce dont je doute parce qu’on ne connait jamais tous les facteurs pour définir un type de pente et que le type de pente ne suffit pas, il faut également prendre en compte son histoire météo-nivo dans la saison. Il faudrait donc avoir tout ça quand on fait des mesures mais également au moment de la sortie pour les comparer. C’est franchement impossible.

J’en reviens au point 2.3 de l’article : « On peut estimer un risque et c’est sur cette estimation que doivent s’appuyer nos décisions » : illusoire

Je pense au contraire qu’il faut regarder l’ensemble des principaux facteurs objectifs à risque et prendre une marge pour diminuer la part d’incertitude qu’on n’arrivera jamais à annuler sauf en restant au lit.
La marge que je prends est de dire qu’une seule observation d’un facteur négatif doit me faire prendre les mesures de précautions (espacement, etc…) et éventuellement peut me faire renoncer. 2 facteurs négatif je n’y vais pas.
Les facteurs négatifs sont :

  • Une pente qui n’est pas en adéquation avec le niveau de risque (exemple 35° par risque 4)
  • Une pente signalée comme douteuse dans le BRA en fonction de son orientation, altitude, etc…
  • Une surface de la neige présentant des signes inquiétants (fissures, whoumfs)
  • Une neige profonde ou humide ou une avalanche récente dans une pente similaire
  • Des signes de vent
  • Une couche fragile repérée au sondage

Ben oui, idéalement faut tout prendre en compte. Mais si on ne prend pas tout en compte, ce n’est pas gênant, ça augmente juste l’incertitude.
Pareil, on ne sait jamais précisément les valeurs de chaque paramètre, ce n’est pas grave, ça augmente juste l’incertitude sur le résultat, et donc le risque (car on utilise une évaluation à 10% +/- 5% en surestimant le risque, donc on retient 15%), et ça ne permet peut être pas d’atteindre une précision inférieure au risque acceptable.
Mais en améliorant petit à petit la précision, on peut dans certains cas avoir une précision suffisante. Peut être que dans d’autres cas c’est impossible d’atteindre une précision suffisante. Mais faut essayer pour trouver quels cas ça concerne.

Posté en tant qu’invité par tiery:

Non mais bubu ,arêtes de te faire des noeuds dans la tête.Tu expliques que tu utilisais le modèle de surcharge jusqu’en 2005 et tu en avais atteinds les limites.Mais ce modèle est maintenant faux et archi faux …donc tu avais atteint quoi comme limite???Ensuite tu racontes qu’il faut se filer dans les pentes pour en avoir un retour sur expérience pour améliorer son estimation de l’incertitude de l’estimation possible et statistique avec correction etc…
Je crois que tu constuit ton modèle de prise de décision où le facteur chance est important et dont tu fais abstraction.Regarde bien la réalité en face ;tu es passioné de ski , tu ne veux pas te faire coffrer et tu te persuade qu’il existe un moyen que ça ne t’arrives pas.

Posté en tant qu’invité par bruce:

A chacun son truc…bis repetita :lol: en tous cas que l’on se justifie d’une manière (pseudo-scientifique) ou d’une autre ( primitive,affective et réaliste…)c’est comme sur la route…plus tu fais de km (safe, et de plus en plus safe pour chacun…)et plus tu à de « chances » de décrocher le gros lot… :lol:
On ne peut pas passer son temps à : réclamer la pluie et se plaindre d’etre mouillé un jour :lol:

Posté en tant qu’invité par TDM:

[quote=« Bubu, id: 1276042, post:30, topic:116832 »][/quote]

et donc tu skies avec ton PC portable avec Excel et toutes les données de toutes tes courses depuis que tuskies pour faire tes calculs, c’est ça ? :lol:

Ca revient à dire :
Chaque facteur négatif augmente le risque d’une valeur inférieure mais proche du risque acceptable.
Donc en partant d’un risque initial à 0, si on observe 1 facteur, on est juste en dessous du risque acceptable. Si on observe 2 facteurs ou plus, on est tout le temps au dessus du risque acceptable.
Ta méthode consiste donc bien à évaluer le risque et à le comparer au risque acceptable. Je fais pareil !

Pour la méthode d’Alain Duclos décrite dans le premier message :

  • Le mode de vigilance vert signifie qu’on est au dessous du risque acceptable, avec de la marge. Il y a donc de la marge pour une certaine incertitude sur le risque.
  • Le mode de vigilance jaune signifie qu’on est au dessous du risque acceptable, mais avec peu de marge. Il y a peu de place pour une incertitude sur le risque.
  • Le mode de vigilance rouge signifie qu’on est un peu au dessus du risque acceptable, et on gère ce risque pour qu’il n’augmente pas, mais ça aurait été mieux de renoncer avant.
  • Le mode de vigilance noir signifie qu’on est bien au dessus du risque acceptable, il faut renoncer.

Pour connaitre le mode de vigilance à utiliser (= l’évaluation du risque), on combine les valeurs de plusieurs indicateurs, et un tableau donne le mode de vigilance.
Ca revient bien à utiliser la valeur de différents paramètres pour évaluer le risque, et le comparer au risque acceptable.
Donc je ne vois pas pourquoi il dit que c’est illusoire de prendre une décision sur une estimation du risque, vu que sa méthode ne fait rien d’autre.

Attention, apparemment, dans la méthode d’Alain, le risque en question est le risque de mort par avalanche : le mode de vigilance « Renoncement » est atteint si la probabilité de multivictime et/ou de mort est trop grande.
Alors que je considère toujours le risque de départ de plaque uniquement. J’estime ne pas savoir évaluer le risque de mort une fois qu’on est emporté, je le considère toujours à 100%. Car en fait ce n’est pas 100%, mais c’est souvent largement au delà du risque acceptable, donc en considérant que c’est 100%, je surestime un peu le risque, pas gênant.
En gros, je considère qu’il ne faut pas être emporté, alors qu’Alain différencie les cas où on peut être emporté sans danger (y compris en considérant un ensevelissement mais avec un dégagement rapide par les coéquipiers), de ceux où c’est mortel.
Je considère juste que c’est possible de pouvoir sortir de la plaque après son départ, lorsqu’on est au bord, et pour des cas précis, ce qui permet de déclencher des plaques pour passer, mais c’est rare, c’est après avoir envisagé le renoncement que j’étudie cette option.