LidarHD de l'IGN, test et applications possibles/la montagne

C’est l’inverse
Si tu veux une comparaison qui date un peu chez ESRI, GRASS correspondait à ARC-INFO
Et QGIS au logiciel plus grand public et clique bouton qu’ils vendaient à l’époque (dont j’ai oublié le nom) ou à MapInfo chez un autre éditeur
Maintenant ArcGis a remplacé cette offre chez ESRI

Et pour faire des scripts pour automatiser les procédures, GRASS est génial !
Tu peux en faire aussi avec QGIS mais faut maitriser le python … pas mon cas

Tu peux le voir dans les extensions QGIS : quand ça devient compliqué, tu « soudes » GRASS à QGIS, qui devient une simple interface et le moteur derrière devient GRASS

1 Like

Arcview

1 Like

c’est pratique de n’avoir que 25 ans et demi !!!

1 Like

Me souvient plus du soft de consultation simple qu’ils a avaient sorti arcexplorer ?

quand tu vois que j’avais oublié ArcView … tu imagines bien que je ne peux pas t’aider …
Faut dire que je ne me suis servi de matos payant que pendant ma formation, dès la sortie je suis repassé au libre !

Et du coup est ce que la restitution en relief «efface » le couvert végétal qui pourrait masquer certains details qui intéresse les archéologues par exemple ? Ou alors est ce que ce couvert végétal degrade plus ou moins la restitution du relief en fonction de la densité et hauteur du couvert végétal ?

Oui, ça permet de trouver des temples mayas dans la forêt tropicale.

1 Like

en présence de végétation, chaque rayon envoyé par le lidar percute soit la terre, soit une feuille, en gros. Ensuite, un algorithme groupe tous les points les plus bas et les classe comme étant du « sol ». Ensuite, il reste tous les points plus haut que le sol, on peut en déduire que ce sont des points qui ont touché la végétation. Avec le logiciel de visualisation, on peut ensuite filtrer les points et n’afficher que les points « sol », ou bien afficher tout « sol+végétation ».

À l’IGN, ils ont décidé de sous-catégoriser les points « végétation » en 3 : basse végétation= les point de 0 à 1m du sol, végétation haute = les points au dessus de 5m du sol, et végétation moyenne = entre les deux.
Du coup, dans les zones désertiques, tous les points sont du « sol » car ils sont tous à peu près au même niveau : 100% des rayons dessinent le sol. Dans une zone très boisée, 10% (au pif) des rayons atteignent le sol : il est donc moins bien défini quand même. Mais il est tout à fait possible de voir les fossés, les surfaces des chemins forestiers, les remblais, les terrassements recouverts d’arbres. C’est comme ça, comme le dit @AntoineM que les archéologues découvrent d’anciens vestiges mayas en foret.

D’autres algos de classification déduisent selon les répartition si ça peut être des constructions humaines (toits, murs) ou bien par exemple des ponts.

2 Likes

@pasinvite (je te réponds ici pour pas polluer le fil « Avis aux connaisseurs des écrins… » : le projet de l’IGN est de classifier les nuages de points pour toute la France, avec comme catégories :

  • Non classé
  • Sol
  • Végétation basse (0-50 cm)
  • Végétation moyenne (50 cm-1,50 m)
  • Végétation haute (+1,50 m)
  • Bâtiment
  • Eau
  • Tablier de pont
  • Sursol pérenne
  • Artefacts
  • Points virtuels
  • Divers - bâtis

Mais ils ne vont pas aller sur la classification des terrains naturels, ou alors peut-être à très long terme. Leur algo de classification est adapté pour discriminer selon les catégories citées, du coup dans le zones montagneuses et glaciaires il y a des bugs : des falaises sont parfois prises pour les murs ou des construction pérennes, tout comme des séracs etc. Donc ce n’est pas exploitable pour nous.
Mais on pourrait tout à fait imaginer une équipe qui entraine un modèles d’intelligence artificielle spécialisé pour les terrains montagneux, le programme maison qu’ils utilisent est open-source ici.

Concernant la « photo » : non, pas de couleurs enregistrées hélas. Mais dans quelques temps ils vont certainement sortir une sorte de google earth 3d comme on connait déjà. Exemple ici un des chercheurs à l’IGN qui bosse à « industrialiser » ce processus de reconstruction 3d à partir du nuage de point, cette personne s’amuse sur son compte perso à faire ce genre de reconstruction avec texture, c’est à dire qu’à partir du nuage de points lidar, il en fait un maillage 3d, sur lequel il projette par le haut la vue aérienne orthophotographique de géoportail :
https://x.com/i/status/1845127165311869361


Personnellement, je ne me lance pas là dedans, je trouve que l’analyse du terrain et mode non texturé est déjà assez bonne, même parfois plus lisible quand c’est de couleur unie. Ou alors je crée une colorisation artificielle en fonction de la pente comme vous le voyez dans mes illustrations.

PS : une visionneuse « officielle IGN » est désormais accessible ici avec deux exemples, ou alors en cliquant sur l’oeil quand on a séléctionné une dalle sur la carte générale https://diffusion-lidarhd.ign.fr/ image

2 Likes

Ça me dépasse totalement mais ça a l’air assez top :slight_smile:

1 Like

Ça fonctionne en temps réel?! Je peux savoir si y a eu de la neige avec? Ou si la glaçe a fondu? C’est super intéressant!

1 Like

non, les Lidar sont sur un avion, qui ne passe qu’une fois. Un peu comme pour la google car.

Sur ton post plus haut tu as expliqué la manip sur qgis pour réaliser les rendu des sommets. Pourrais tu expliquer comment tu arrives a exporter ton lidar vers blender et de quelle manière tu arrives a insérer un petit cordon en 3d?
Le rendu est vraiment top! J’ai découvert le lidar il y a peu et je voudrais faire plus ou moins le même rendu pour mes sorties VTT, mais je suis bloqué a l’étape de l’export vers Blender
Merci par avance si tu me réponds

pour la génération de maillage 3D (conversion d’un nuage de points en une surface dans l’espace 3D), au début j’utilisais le logiciel libre CloudCompare (méthode que je te conseille par rapport à la seconde, beaucoup plus compliquée), qui comporte des fonctions pour faire ça (chercher « Poisson reconstruction »). Je les exporte au format .ply.
Une autre méthode que j’ai utilisé, plus élaborée mais plus qualitative, mais qui nécessite des compétences informatiques certaines, est l’utilisation de ce dépôt GitHub : https://github.com/oscarpilote/LidarTerrainMesh. C’est une chaîne de traitement semi automatisée créée par un programmeur indépendant, qui télécharge les fichiers, lance un algorithme de reconstruction de la surface 3D et génère le fichier .PLY.

Ensuite sous blender, on peut importer directement le fichier .PLY et éventuellement appliquer des shaders ou textures. Pour créer le « ruban » de l’itinéraire, j’ai utilisé la fonction « courbe », en ayant auparavant configuré le pointeur pour qu’à chaque clic dans la fenêtre de visualisation, le point posé se mette sur le maillage lui-même, et non « dans le vide » en avant plan. Ainsi, pas besoin de décaler en xyz chaque point manuellement pour que tous les points de la courbe soient proche de la surface. Ensuite il y a une option pour ajouter un « diamètre » à la courbe et ainsi créer un objet 3d et non un objet filiforme. Pareil, je lui applique ensuite un shader avec un peu d’émission de lumière pour qu’il ressorte bien, par exemple.

2 Likes

Merci de ta réponse, en cherchant je suis tombé sur ton tuto sur github. Celui qui passe par Cloudcompare mais même celui ci j’y suis pas arrivé. Quand j’ouvre le .PLY sur CC l’écran est vide.
Dans mon cas je dois de toute façon passer par QGIS pour filtrer la végétation (qui n’existe pas en haute montagne ^^) je pense que le rendu serait horrible si je les arbes. En tout cas je vais me pencher sur ton message, je vais gratter pour voir si j’y arrive.

en fait CloudCompare est fait pour traiter avec les fichiers « nuages de points » c’est à dire ceux au format .laz ou .las. Avec ce logiciel tu pourras filtrer les couches de végétation et créer un maillage à base de triangles qui lui pourra être enregistré en .ply.
cette vidéo montre la logique générale : https://www.youtube.com/watch?v=m43usERF33M

Mais oui, c’est compliqué ^^
D’ici encore quelques temps on aura probablement un fond de carte IGN avec un ombrage du relief haute définition comme pour la suisse. le territoire est à peu près tout scanné sauf encore la bourgogne.

Si tu veux passes en MP si tu as d’autres questions.

Bonjour, c’est rigolo de voir qu’on est pas tout seul à faire des essais ! Je suis artiste et passionné de montagne et je manipule les données lidar depuis 2023 moi aussi. Je ne suis pas adepte de la conversion en mesh et j’incorpore une valeur RGB à chaque point grâce à la technique énoncée plus haut: Je plaque la couche BD Ortho sur le nuage. C’est pas parfait mais pour mon usage c’est suffisant.

Comme j’ai commencé à avoir quelques images, j’ai voulu les montrer sur mon site web mais c’était compliqué pour les utilisateurs d’appréhender les échelles, de comprendre ce qu’ils regardent. Avec Claude (IA) j’ai donc construit un nouveau site, en cours de construction, qui reprend le système des navigateurs de cartes (google maps, Geoportail). L’utilisateur peut maintenant appréhender le global et le détail en quelques coups de zoom !
Voilà l’adresse temporaire : http://lidar.tiphainebuccino.com/

J’ai un compte Instagram sur lequel je poste mon travail et j’ai commencé à réaliser des animations 3D des ces environnements à la manière d’un drone qui survole le paysage. Je voulais en mettre une ici, mais je n’arrive pas à la mettre directement sur la page.

1 Like

super joli ! bravo :slight_smile: la page a un concept intéressant !
Super la chaine des Aravis.

de mon côté ça avance doucement mais ça reste encore une utilisation perso car je n’arrive pas à me forcer à bosser sur l’interface utilisateur, il y a bcp de points annexes sous le capot qui prennent un temps infini aussi… du coup je ne communique pas trop dessus mais je devrais probablement quand même.

De mon côté j’ai mis en place un niveau de détail du coup on peut télécharger des maillages à une résolution plus basse mais toujours très intéressante, et ça le rend accessible à la majorité des appareils.
J’ai bien amélioré l’apparence avec un travail sur les shaders.
L’intégralité du massif du MOnt-Blanc est disponible.
Une bonne partie des écrins, les 2/3 de Belledonne. Un peur du Mercantour.
Bosse de sialouze et le Pelvoux

Faces nord de la chaine de l’aiguille verte
image

2 Likes

Les shaders sont top oui @Robou ! Tu travailles avec quel logiciel pour cette partie ? C’est tout basé sur des critères ? Par exemple: si pente est supérieure à x et altitude supérieure à x alors neige ?

c’est un shader brut three.js en GLSL qui colorise en temps réel dans l’appli 3d.
je ne travaille pas (encore ?) avec un logiciel ou une appli pour créer le shader, je me suis juste bcp bcp aidé de claude.ia pour le coder. j’avais fait des essais sous Blender où avec l’interface avancée à base de « nodes » j’avais pu trouver le moyen de mettre plus de neige dans les goulottes, mais je n’ai pas encore réussi à refaire ça en three.js car je n’ai pas encore trouvé de bon moyen pour encoder dans le mesh l’occlusion ambiante (comprenne qui pourra hihi)
C’est en effet basé sur des critères :

  • si pente inférieure à x degrés -> blanc neige, sinon marron roche. angle réglable. rocher pour tous les dévers.
  • distance de transition neige/roche réglable
  • sur une base de shader PBS qui gère donc les réflexions de la lumière
  • j’ai aussi simulé une couche d’épaisseur de neige qui décale les points enneigés vers le haut jusqu’à 1.5m, c’est rigolo parfois vu de près mais le rendu n’apporte pas grand chose non plus.
  • pas encore de colorisation suivant l’altitude mais en effet ça pourrait être sympa.
  • sur le même principe, j’ai fait l’affichage des pentes avalancheuses >30° en jaune-orange-rouge etc comme l’IGN, ainsi qu’en vert fluo les replats à bivouac où la pente est <5°.
1 Like