LidarHD de l'IGN, test et applications possibles/la montagne

Salut,

Quand on regarde le détail des données Lidar HD en Isère il y a 60 pts/m2. Ça dépend du sous-traitant qui a réalisé l’acquisition.

Avec LAStool, il est assez simple de créer des MNT. J’avais fait un algo de classification des données brutes puis réalisations de MNT. Depuis que l’IGN a sorti ces données classifiées, il est beaucoup plus simple de faire des MNT, surtout beaucoup plus rapide.

Pour retirer les bandes, tu découpes en carrés plus petits pour ne pas atteindre la limite du logiciel gratuit. Sur linux, on peut utiliser LAStool avec Wine.

Avec QGIS, on peut réaliser des cartes de pentes à partir d’un MNT, il faut faire attention aux paramètres qu’on rentre.

Pour ma part, j’utilise ces données pour la spéléo en retirant la végétation.

L’IGN est plutôt en retard comparé à nos voisins européens, donc ces données existent pour d’autres pays et cela peut aider à préparer des séjours.

1 Like

C’est énorme, non ?

1 Like

je suis pas allé voir dans le détail cette assertion, mais à mon avis ça peut varier énormément selon le terrain, et selon le mode de calcul :slight_smile:
De base, à peu près tous les projets, produits de l’IGN ont des précisions différentes selon les régions, du fait de la très grande variété des paysages français : littoral, forets, villes, haute montagne, outre-mer etc. Chaque produit (exemple : la RGE ALTI) est un agrégat de plusieurs méthodes d’acquisition, aux précisions donc différentes. Pour l’exemple de la RGE ALTI qui est la base de données de référence pour l’altitude du sol, utilisée dans le BTP, les zones urbaines sont déjà faites par LIDAR et photogrammétrie. Par contre, les zones à forte pente n’avaient pas été traitées comme ça, c’est pour ça qu’on a encore des lignes de niveau un peu pourrave sur nos TOP25. Voir l’ensemble des sources différentes dans la légende ici pour se rendre compte de l’ampleur du travail.

Les 10 pts/m² qui sont annoncés genre en page d’accueil du projet, je pense que c’est une moyenne déjà, et très probablement sur sol plat nu. Si tu as un immeuble avec une immense paroi verticale, ou bien un grand arbre (où le branchage renvoie une partie des ondes lidar mais pas toutes), en projection verticale, tu as immédiatement un mètre carré avec une densité de point bcp plus grande.

Dans les dalles alpines de haute montagne que j’ai pu télécharger, j’ai vu des fichiers d’environ 25 millions de points, sachant que ce sont des dalles d’1km de côté, ça nous fait une moyenne de 25 pt/m².

je continue mon exploration des outils numériques de manipulations de fichiers lidar, et j’ai découvert ce site ULTRA PRATIQUE ET SIMPLE pour ouvrir des fichiers lidar :
https://viewer.copc.io/
-> il suffit de faire glisser son fichier téléchargé depuis l’IGN pour le visualiser, et ce, en local (pas d’upload du fichier), et par dessus un modèle 3D type google earth !

Le site utilise à fond les capacités du format de fichier compressé .LAZ, qui est conçu pour faire du streaming : la gestion de la mémoire est donc optimisée. Le nombre de points affichés en même temps est facilement réglable dans le panneau à gauche.

J’ai pu faire afficher en même temps quasiment toutes les dalles que j’avais téléchargées ans le mont blanc, soit toute la crête des grandes jorasses jusqu’au Géant, la tour ronde, grand capucin, triangle du tacul, aiguille du midi ! On peut tout rajouter à la volée. J’ai rajouté la Pointe Percée des Aravis et l’aiguille du moine sans problème c’est top :slight_smile: Le seul truc c’est qu’il n’y a pas d’algo de calcul des pentes et donc de colorisation en fonction de la pente.

3 Likes

Autre exemple d’application : on peut mesurer précisément les pentes de neige/glace.

Mise en évidence des pentes de neige entre 50 et 55° au dessus de la rimaye de la voie normale du Doigt de Dieu à la Meije.

On voit qu’au dessus de la rimaye, on a clairement du 50°-55°, alors que la fiche camptocamp de la course indique du 45° max ! (le topo constant indique 50°)

3 Likes

AS-tu tenté d’utiliser GRASS ?
Il contient des modules dédiés au Lidar …
C’est ma « to do list » comme on dit en bon français mais je n’ai pas essayé …
Connaissant GRASS, ça doit être pas mal !
Et c’est libre aussi (et couplé à QGIS)

non pas essayé mais à ce que j’avais compris, GRASS était juste un poil moins complet que QGIS.

depuis les derniers posts, j’ai progressé un peu j’ai par exemple pu exporter vers Blender pour faire de meilleurs rendus, et être capable de tracer des itinéraires qui ne font pas saigner les yeux.

Aussi, une autre personne m’a contacté, bien bien plus compétente que moi, et qui a déjà bossé de manière similaire. C’est un chercheur informaticien pro, il a bcp plus de moyens, il m’a montré ce qu’on peut imaginer pour le futur : il a réaliser des scripts pour automatiser tout le travail que je vous présente plus haut, le faire au niveau régional/national etc (tant que les TerraOctets de disque dur sont là), faire un rendu photoréalistique encore mieux que ce que je viens de présenter aujourd’hui sur blender (avec nuages etc), ET pouvoir se balader en volant en temps réel dedans, grâce à l’Unreal Engine pour l’instant. Faudra que je lui demande si je peux publier ça ici car c’est encore en mode work in progress. Mais ça fait rêver !

La trace que je présente ici est l’'arête de Tête de Combe Grosse à Isola 2000, faite en décembre : on a réchappé au couché du soleil. J’ai pu voir au mètre près où l’on est passé, j’ai pu voir tous les rappels qu’on a fait. Le sapin de rappel de réchappe était même visible dans le fichier lidar. Possibilité de confirmer a posteriori des choix d’itinéraires, ou bien de repérer des lignes.

9 Likes

C’est l’inverse
Si tu veux une comparaison qui date un peu chez ESRI, GRASS correspondait à ARC-INFO
Et QGIS au logiciel plus grand public et clique bouton qu’ils vendaient à l’époque (dont j’ai oublié le nom) ou à MapInfo chez un autre éditeur
Maintenant ArcGis a remplacé cette offre chez ESRI

Et pour faire des scripts pour automatiser les procédures, GRASS est génial !
Tu peux en faire aussi avec QGIS mais faut maitriser le python … pas mon cas

Tu peux le voir dans les extensions QGIS : quand ça devient compliqué, tu « soudes » GRASS à QGIS, qui devient une simple interface et le moteur derrière devient GRASS

1 Like

Arcview

1 Like

c’est pratique de n’avoir que 25 ans et demi !!!

1 Like

Me souvient plus du soft de consultation simple qu’ils a avaient sorti arcexplorer ?

quand tu vois que j’avais oublié ArcView … tu imagines bien que je ne peux pas t’aider …
Faut dire que je ne me suis servi de matos payant que pendant ma formation, dès la sortie je suis repassé au libre !

Et du coup est ce que la restitution en relief «efface » le couvert végétal qui pourrait masquer certains details qui intéresse les archéologues par exemple ? Ou alors est ce que ce couvert végétal degrade plus ou moins la restitution du relief en fonction de la densité et hauteur du couvert végétal ?

Oui, ça permet de trouver des temples mayas dans la forêt tropicale.

1 Like

en présence de végétation, chaque rayon envoyé par le lidar percute soit la terre, soit une feuille, en gros. Ensuite, un algorithme groupe tous les points les plus bas et les classe comme étant du « sol ». Ensuite, il reste tous les points plus haut que le sol, on peut en déduire que ce sont des points qui ont touché la végétation. Avec le logiciel de visualisation, on peut ensuite filtrer les points et n’afficher que les points « sol », ou bien afficher tout « sol+végétation ».

À l’IGN, ils ont décidé de sous-catégoriser les points « végétation » en 3 : basse végétation= les point de 0 à 1m du sol, végétation haute = les points au dessus de 5m du sol, et végétation moyenne = entre les deux.
Du coup, dans les zones désertiques, tous les points sont du « sol » car ils sont tous à peu près au même niveau : 100% des rayons dessinent le sol. Dans une zone très boisée, 10% (au pif) des rayons atteignent le sol : il est donc moins bien défini quand même. Mais il est tout à fait possible de voir les fossés, les surfaces des chemins forestiers, les remblais, les terrassements recouverts d’arbres. C’est comme ça, comme le dit @AntoineM que les archéologues découvrent d’anciens vestiges mayas en foret.

D’autres algos de classification déduisent selon les répartition si ça peut être des constructions humaines (toits, murs) ou bien par exemple des ponts.

1 Like

@pasinvite (je te réponds ici pour pas polluer le fil « Avis aux connaisseurs des écrins… » : le projet de l’IGN est de classifier les nuages de points pour toute la France, avec comme catégories :

  • Non classé
  • Sol
  • Végétation basse (0-50 cm)
  • Végétation moyenne (50 cm-1,50 m)
  • Végétation haute (+1,50 m)
  • Bâtiment
  • Eau
  • Tablier de pont
  • Sursol pérenne
  • Artefacts
  • Points virtuels
  • Divers - bâtis

Mais ils ne vont pas aller sur la classification des terrains naturels, ou alors peut-être à très long terme. Leur algo de classification est adapté pour discriminer selon les catégories citées, du coup dans le zones montagneuses et glaciaires il y a des bugs : des falaises sont parfois prises pour les murs ou des construction pérennes, tout comme des séracs etc. Donc ce n’est pas exploitable pour nous.
Mais on pourrait tout à fait imaginer une équipe qui entraine un modèles d’intelligence artificielle spécialisé pour les terrains montagneux, le programme maison qu’ils utilisent est open-source ici.

Concernant la « photo » : non, pas de couleurs enregistrées hélas. Mais dans quelques temps ils vont certainement sortir une sorte de google earth 3d comme on connait déjà. Exemple ici un des chercheurs à l’IGN qui bosse à « industrialiser » ce processus de reconstruction 3d à partir du nuage de point, cette personne s’amuse sur son compte perso à faire ce genre de reconstruction avec texture, c’est à dire qu’à partir du nuage de points lidar, il en fait un maillage 3d, sur lequel il projette par le haut la vue aérienne orthophotographique de géoportail :
https://x.com/i/status/1845127165311869361


Personnellement, je ne me lance pas là dedans, je trouve que l’analyse du terrain et mode non texturé est déjà assez bonne, même parfois plus lisible quand c’est de couleur unie. Ou alors je crée une colorisation artificielle en fonction de la pente comme vous le voyez dans mes illustrations.

PS : une visionneuse « officielle IGN » est désormais accessible ici avec deux exemples, ou alors en cliquant sur l’oeil quand on a séléctionné une dalle sur la carte générale https://diffusion-lidarhd.ign.fr/ image

2 Likes

Ça me dépasse totalement mais ça a l’air assez top :slight_smile:

1 Like

Ça fonctionne en temps réel?! Je peux savoir si y a eu de la neige avec? Ou si la glaçe a fondu? C’est super intéressant!

1 Like

non, les Lidar sont sur un avion, qui ne passe qu’une fois. Un peu comme pour la google car.