LidarHD de l'IGN pour la montagne : test et applications possibles

J’ai testé pour vous : les données LidarHD de l’IGN dans les Alpes.
L’IGN est actuellement en train de scanner toute la France au Lidar Haute Définition (portail : LiDAR HD | Géoservices, article détaillé et chiffres : LiDAR HD : vers une nouvelle cartographie 3D du territoire).
J’ai voulu tester pour la haute montagne et c’est super intéressant, la résolution est presque au caillou près : l’objectif annoncé est de 10 points/m² !
Appliqué à l’alpinisme, je trouve ça super pour préparer une course ou revoir où l’on est passé. Le scan retranscrit parfaitement les pentes de neige, même parfois les rimayes, le moindre rocher apparait, on voit chaque fissure, dièdre, surplomb…
On peut imaginer beaucoup d’utilisations pour la préparation de course, en complément des topos, ou bien pour analyser a posteriori où l’on est passé ! Je vous met des exemples en illustration.
Cela pourra servir aussi à générer des cartes avec un relief bcp plus détaillé : courbes de niveau et ombrage de bien meilleure qualité.

Pour l’instant, il n’y a pas encore d’interface grand public de consultation, pour faire les images présentées ici, il faut être bon bidouilleur si l’on n’est pas géomaticien pour manipuler les fichiers des nuages de points, les convertir en maillage 3d et les visualiser correctement. J’ai travaillé avec le logiciel libre CloudCompare. À terme je pourrais faire un tuto car j’ai désormais trouvé les bons réglages en quelque sorte, pour que chacun puisse faire ça dans son coin. Par contre, pour ce qui serait de créer un site web de consultation de ces sommets en 3D, si quelqu’un veut m’aider ça serait un super projet, mais je ne m’y connais pas assez pour l’instant !

Côté IGN, il y aura bien sûr une nouvelle plateforme de consultation des données brutes de LidarHD, il y aura aussi un nouveau modèle de terrain numérique (MNT) plus détaillé à l’échelle française. Mais je ne sais pas si il y aura un jour une sorte de GoogleEarth Ultra HD où l’on visualise des surfaces 3D, pas des nuages de points bruts. Ces surfaces, pour être générées, nécessitent des traitement de données du nuage spécifique pour chaque environnement : l’avantage avec la haute montagne c’est qu’il n’y a ni végétation ni bâtiments pour brouiller. J’ai voulu essayer pour le Caroux (couvert de forêts), ma méthode de travail serait à revoir car la végétation complexifie énormément la chose.


Pelvoux, Glacier des Violettes, super à manipuler en 3D pour comprendre l’enchaînement des rappels du parcours de la descente


Aiguille du Midi, arête nord, vue en contreplongée de la sortie du téléphérique. en contrebas à droite, l’éperon Frendo. On voit des alpinistes descendant l’arête.


Aiguille du Midi, face nord, éperon Frendo. Noter le câble du téléphérique


Aiguille du Moine, Arête Sud : gendarme en Té et gendarme Diamant. à droite, le labyrinthe de la face sud où passe la voie normale


Aiguille du Moine, face sud complète


Aiguille du Moine : attaque de la face sud. On voit la rimaye un peu ouverte, la plate-forme du dernier rappel, et le début de la vire diagonale pour aller à l’arête sud.


Barre des Écrins face nord à droite, face sud à gauche avec au fond le pic Coolidge.


Vires de l’Ailefroide Orientale. En rouge, le couloir de neige, en vert, le trajet que j’ai fait quand j’y suis allé. En bleu : trajet normal ? je me souviens avoir hésité au milieu de la pente avant de rebrousser chemin.


Le Râteau E arête sud. De droite à gauche : Tête Nord du Replat, Brêche du Râteau, arête S du Rateau E, Râteau E, et à l’extrême gauche, pilier Paquet


Râteau, arête sud vue du sud


Face sud des Rouies, éperon Sud au centre (voie dite Rébuffat)


Grand Capucin et satellites. à droite, pointe Adlphe Rey

24 Likes

C’est dingue ! Merci du partage !

Et aussi une carte des pentes plus précise et sans artefact !
Fini les crêtes étroites apparaissant comme un replat à moins de 30°, ou les faces apparaissant à plus de 45° sur toute leur hauteur alors qu’il n’y a que le quart supérieur qui est aussi raide. Et dans les versants autour de 25-30°, tous les microreliefs à plus de 30° apparaitront.
Par contre il y aura des champs de blocs parasites, qui sont en fait des troupeaux de vaches ou moutons.

1 Like

tu as traité les données avec quoi ? Qgis ? ArcGis ? un autre ?

Excellent ! mais par contre la fréquence de scannage c’est tous les combiens de temps (j’ai pas eu le temps de cliquer sur ton lien où c’est sûrement expliqué)
parce que ce niveau de détail fait que les changements d’ouverture de rimaye, de petites chutes de cailloux modifiant une face (etc…) vont vite ne plus faire correspondre terrain et scan !

Excellentissime ! Et toutes les régions qui m’intéressent ont été scannées. Merci.

1 Like

Il me semble :

1 Like

ça fonctionne comment, le lidar traverse les cailloux ? Les « photos » sont prises avec un angle ?

Magnifique tes rendus !!!
Je vois bien le potentiel pour tracer des itinéraires pour les topos :scream::sunglasses:

2 Likes

Réponse à tous :
Toutes les images sauf celle de la Barre des Écrins ont été obtenues avec comme seul logiciel CloudCompare. La Barre des Écrins, c’est juste une capture d’écran du nuage de points brut ouvert avec QGIS, à laquelle j’ai appliqué une coloration du bleu au blanc en fonction de l’altitude.

Pour comprendre : c’est un chantier de l’IGN sur 5 ans/7000 h de vol. Le lidar est embarqué en avion et scanne avec un certain angle d’ouverture (c’est pas juste ce qu’il y a sous l’avion, d’où la possibilité souvent de rendre ce qu’il se trouve sous les surplomb). Les impulsions sont réfléchies par les surfaces dures (je ne sais pas plus dans le détail, mais en gros c’est réfléchit par le sol, les rochers, la neige, la glace, l’eau, et la végétation.
Gros chantier je sais pas à quel horizon ils comptent rescanner toute la france. L’acquisition des données en est au deux-tiers en gros. L’IGN génère des fichiers de nuage de point, chaque fichier est un carré de 1x1km contenant en moyenne 25 millions de points (sans couleur du sol). Sauf qu’un nuage de points, à beaucoup d’endroits il y a des trous : ce n’est pas une surface constituée de polygones liés entre eux. Donc à certains endroits, dans les surplombs, dans la végétation, dans les recoins, ça devient vite difficilement visualisable (voir les deux captures d’écran).

Actuellement il existe plusieurs solutions de visualisation directe de ces nuages de points bruts (ex : le démonstrateur en ligne de l’IGN, QGIS ou CloudCompare). Mais pour en faire une visualisation de qualité, il faut ensuite générer un maillage, un mesh, de la surface du terrain à partir du nuage (qui contient du bruit, d’ailleurs).

Comment passer des points à une surface ? Il faut d’abord « calculer les normales » : c’est un algorithme qui estime en première approximation l’orientation de la perpendiculaire locale à surface. (détermination d’un plan tangent qui relierait 3 points l’un à côté de l’autre). C’est une étape préliminaire qu’exigent les algorithmes suivant de génération de surface (ou maillage). En gros c’est l’estimation des pentes.

Donc ensuite, pour créer le maillage, il y a plusieurs types d’algorithmes. Pour les utilisations généralistes, le premier type d’algo le plus simple consiste à recouvrir par le haut tout le nuage d’une nappe virtuelle très fine qui envelopperait tout le relief. C’est une projection « 2.5D » : on obtient un quadrillage X-Y et pour chacun de ces points, on a une altitude Z de la surface. Pour un câble de téléphérique par exemple, on obtiendrait un énorme mur vertical très fin !

Mais cette méthode a ses limites aussi : en effet tous les petits surplombs sont effacés, et on obtient des sortes de piliers verticaux qui faussent le relief POUR NOS UTILISATIONS MONTAGNE (pour beaucoup d’autres utilisations ça peut convenir, notamment en plaine).
Donc j’ai utilisé un autre type d’algorithme disponible avec CloudCompare : en gros, ça calcule de proche en proche quelle surface courbée passe au mieux à travers plusieurs points, et ceci dans toutes les directions et orientations. Cela peut donc générer des surfaces qui ne sont pas « connectées verticalement » au sol : des dévers, des ponts, les câbles de téléphérique.

Premier problème : le niveau détails qu’on veut générer et la capacité du CPU, et la taille des fichiers. Le projet global de l’IGN, c’est plusieurs PETAoctets de données déjà ! Une tuile d’1 km de côté, c’est environ 100 Mo le nuage de points, et le maillage généré, pour l’instant c’est 400 Mo en moyenne avec mes méthodes mais j’arrive pas encore à les exporter correctement. Plus on veut rendre de détails, plus les calcul est gros. Mon ordi plante si je demande de traiter directement 1 km² au niveau de détail max. Donc soit je dois diviser la tuile en 4 quarts (ce qui multiplie par 4 le travail ensuite de fusion du maillage ultérieur), soit je lance avec une précision pas tout à fait maximale, soit je choisi de ne rendre que certaines zones à la résolution max, en laissant le reste un peu moins défini.

Ensuite vient le problème des textures : le lidar n’a pas de couleur.
Pour la visualisation, il est pertinent de créer un mode de coloration en fonction de la pente. C’est ce que j’ai fait avec CloudCompare : j’ai créé une palette de dégradés qui colore les pentes faible en blanc pour les glaciers, la neige, puis qui aux fortes pentes passe au marron pour imiter la couleur des rochers. Ça marche pas trop mal. Ambiance hivernale. J’ai fait une variante pour les fichiers moins haute montagne, ambiance plus estivale avec moins de neige.
Une autre possibilité incontournable est de récupérer la vue aérienne (OrthoPhoto) ou vue satellite, et de la projeter à la verticale sur le maillage. Cela marche très bien pour les maillages « 2.5D » vu qu’il n’y a aucun dévers par construction. Pour ma méthode intégrant les surplombs, cela doit être plus compliqué et doit générer des artéfacts. Les algos de projection d’une image sur un maillage courbé doivent péter un plomb, c’est informatiquement très complexe je crois. Donc ça j’ai pas testé encore.

9 Likes

l’acquisition des données se fait sur 2-3 ans je crois, pour tout le territoire.
Après, clairement, l’alpinisme n’est pas l’application principale de ce projet de l’IGN : ils s’en serviront plus pour analyser l’occupation des sol, classer les types de sol, la végétation etc.
En effet, les crevasses des glaciers sont scannées, ce qui est par essence un terrain mouvant.

Dans le milieu de la géomorphologie, la glaciologie, l’aménagement du territoire, les technologies LIDAR sont déjà utilisées depuis longtemps, par exemple pour mesurer avant/après le volume de roche qui s’est effondré suite à un glissement de terrain, ou pour mesurer la perte de volume précise d’un glacier.

4 Likes

Donc beaucoup de boulot, pas forcément faisable par un péquin moyen.

Mais qui devrait beaucoup intéresser les fournisseurs de carto 3d. Par exemple Fatmap.

L’exemple de covid tracker a montré que si les données sont libres, il y aura des personnes compétentes pour les exploiter. Ca peut donner des idées intéressantes pour des projets d’étudiants.

6 Likes

Joli travail !

Je n’ai pas fait de Lidar depuis 9 ans (mémoire de fin de cycle d’ingé à l’ESGT (TFE)), mais quelques remarques qui peut-être pourraient t’aider :

  • D’après ton premier lien, on a accès aux nuages de points classifiés. A voir pour les surplombs, mais normalement ça devrait pouvoir t’aider pour le couvert végétal. En théorie, chaque point du nuage a été classé en fonction de ce qu’il représente (2 = un point du sol, 3, 4 et 5 = végétation, 6 = bâtiment …).

Exemple (tiré de mon TFE) : à gauche, tout les points sont affichés. A droite, que les points du sol.

  • Du coup, je ne comprends pas trop ton problème concernant la création du maillage. T’as ton nuage de points complet, tu gardes que tes points classés en 2, et tu créé ton maillage/MNT à partir de là.
  • A l’époque j’ai beaucoup travaillé avec LAStools. La version gratuite introduit un peu de bruit et des bandes diagonales. Mais ça permet de pas mal jouer avec le nuage de points. Moi je bossais surtout sur la classification du nuage, mais il me semble qu’il dispose s’outils de visualisations lui aussi.
  • Pour la colorisation. Il est possible de superposer une photo aérienne sur le nuage de point, et d’attribuer à chaque point le code de la couleur du pixel qui est derrière lui. Est-ce que ça a été fait, ça je ne sais pas … Si c’est le cas, ça doit être précisé par l’IGN qu’une des colonnes de données du fichier c’est le code couleur.
  • Les impulsions sont en effets réfléchies par tout ce que tu cites et même plus (voitures, mobilier urbains …). Sauf que ton faisceau émis depuis l’avion, arrivé au sol, il va faire 30cm de diamètre environ. Donc pour une impulsion au départ, tu peux avoir plusieurs retours (un en haut d’un bâtiment et un au sol par exemple. Ou 3 dans de la végétation et un au sol …)

Mélange

2 Likes

Et donc ? Quel est le problème ?
Aujourd’hui, les modèles de terrain accessibles ont une précision de 5, 10 ou 30m, et ne sont pas ou très rarement renouvelés.
Donc même si le modèle qui sera issu de ces mesures n’est pas mis à jour pendant 30 ans, ce sera quand même une énorme avancée par rapport à ce qu’on a aujourd’hui.
C’est comme les photos aériennes. Elles sont mises à jour tous les 5 à 10 ans, mais c’est déjà excellent d’y avoir accès.

1 Like

pour info, l’IGN indique que la BDOrtho (= l’imagerie aérienne de référence en france) est mise à jour « actuellement sur un rythme de 3 ou 4 ans » ! :smiley:

On a l’info de la date des photos aériennes sur géoportail en faisant un clic droit en n’importe quel point.
Exemple :

ANNÉE DE LA PRISE DE VUE : 2020

Date de la prise de vue aérienne : 25-06-2020

Résolution : 20 cm

@Melange Merci bcp pour tes conseils. Il faudrait que je me rapproche d’un forum de connaisseurs.

Pour la question des classes de points, la végétation etc. : en fait vu que je ne fais pour l’instant que de la haute montagne, je n’ai pas de problème car tous les points sont du sol exploitable😌. Il y aurait juste à l’aiguille du midi où il y a du câble et deux trois bâtis. Donc je n’avais pas trop passé de temps à faire ce filtrage, qui d’ailleurs n’est pas pratique à faire dans CloudCompare. Dans CC il faut activer certaines cases au chargement, connaître par coeur le chiffre associé à la classe de points, visualiser un chant scalaire associé à la classification, filtrer par couleur… juste pour extraire une classe de points. En tous cas c’est le pipeline que j’ai déduit pour faire ceci ! XD Alors que dans QGis c’est immédiat sous formes de calques étiquetés.

Beaucoup de choses perfectibles, mais en fait je suis très limité au niveau logiciel et matériel :

  • j’ai juste un laptop d’il y a 4 ans pas spécifiquement fait pour faire du calcul
  • du coup QGis fait un retour bureau une fois sur deux rien qu’en essayant d’ouvrir un fichier point cloud… pareil pour lancer des algos, ça bugue et ça quitte tout par surcharge mémoire une fois sur deux.
  • à peu près idem pour CloudCompare qui est un logiciel déjà bcp moins « fini » que QGis.
  • sur mon linux j’ai tjrs des prob pour les bibli Python, du coup LasTools ne marche pas et aussi tout les autres plugin QGis lié aux point cloud.
  • idem pour mon cloud Compare, j’ai pris la version stable qui tourne en flatpack, du coup (voir la Doc des plugins sur le wiki cc) une bonne partie des plugins ne marche pas, bcp sont uniquement windows.
  • NOTAMMENT les algos de projection 2.5D ! Ce qui simplifierait énormément la tâche en effet. Mais en fait, il y a pas mal d’endroits où on est obligés de faire mon algo qui prend en compte les devers. Par exemple au doigt de Dieu ou à la dent du géant. Je ferai des captures d’écran pour que vous compreniez mieux.

Tu peux voir à cette page de mon wiki lidar à quoi ressemble la face sud de la meije doigt de dieu avec un algo qui projette juste verticalement en 2.5d, comparé au nuage de points brut et à une reconstruction full 3d (avantages et inconvénients)

Avec plaisir ! C’est pas grand-chose mais si ça peut aider !

Et oui c’est sur que la limitation logiciel et matériel doit vraiment pas t’aider. Essaye de trouver un forum/reddit de spécialistes pour te filer un coup de main ! Parce que moi là tu m’a déjà largué !

Le mieux que je peux faire encore, c’est te faire parvenir mon TFE. Sauf que je suis en train de me renseigner car à priori il est classé « Secret Défense » car fait dans une boite privé.

En tout cas les rendus sont sympas ! Mais j’avoue que ceux qui me parle le mieux au final c’est le nuage de points … probablement que d’avoir manipulé ça pendant 6 mois ça aide !

Mélange