Delphine Queste |
V ERS UN P ROCESSUS A UTOMATIQUE DE M ODELISATION DU P ATRIMOINE A RCHITECTURAL AU M OYEN DE D ONNEES
L ASERGRAMMETRIQUES
Le savoir architectural comme principale source d’information
Société d’accueil : Laboratoire MAP PAGE
PFE présenté par : Delphine Queste
Directeur (directrice) du PFE : M. GRUSSENMEYER
Correcteurs : M. GRUSSENMEYER et M. KOEHL
Problématique
La modélisation du patrimoine culturel représente un thème de plus en plus sensible depuis ces vingt dernières années ; que ce soit au niveau de l’acquisition ou du traitement des données, de nombreuses questions se posent, sans pour autant toujours aboutir à des réponses généralisées.
Ainsi, les techniques de levé à distances (sans contact avec l’objet), comme la photogrammétrie ou la lasergrammétrie, se sont très vite imposées du fait, essentiellement de leur facilité de mise en œuvre et de la possibilité d’acquisition d’un grand nombre de données en un temps relativement restreint. Ces nouvelles techniques présentent cependant des inconvénients ; pour un levé laser, par exemple, nous sommes souvent confrontés à des difficultés lors du traitement des données, ce qui se traduit le plus souvent par des temps très longs. Le temps économisé lors de l’acquisition des données est alors largement perdu lors du traitement.
L’objectif de cette étude est de rechercher un moyen de faciliter, et ainsi diminuer les temps de traitement de données laser ; le résultat devant permettre de réduire considérablement l’interaction de l’utilisateur tout en exploitant au mieux la haute densité d’informations issues d’une acquisition au scanner laser.
Notre travail s’intéressant à la modélisation du patrimoine culturel, nous proposons une approche se basant sur la connaissance architecturale comme principale source d’information. Ainsi, notre approche va consister à mettre en place une méthodologie prenant en compte la description de l’objet d’étude avant la mesure.
Les règles topologiques, ainsi que l’information sémantique propre au bâtiment seront alors exploitées dans l’optique d’une semi automatisation du processus de reconstruction. Les données dimensionnelles issues du levé laser devront être exploitées au mieux, en prenant en compte toute l’information disponible (nuage de points très dense) afin d’en extraire les éléments pertinents et utiles à la modélisation.
En outre, considérer le savoir architectural comme principale source d’aide à la modélisation nécessite d’introduire un niveau de détail de modélisation en analogie avec la phase de conception architecturale. Ainsi, notre travail devrait permettre à l’utilisateur de choisir un niveau de détail de modélisation selon ses besoins.
Dans un second temps, il sera intéressant de chercher à comparer le modèle final créé au moyen de données laser avec le même modèle se basant sur le savoir architectural et des données photogrammétriques. Ceci nécessite donc d’introduire un critère de précision tenant compte de la précision des mesures effectuées.
Méthodologie et implémentation
Notre travail va exploiter la connaissance « a priori » de l’objet d’étude sous la forme de la réalisation d’un modèle « relationnel ». Ce modèle correspond à un découpage d’éléments simples (des plans, dans notre étude), assurant une certaine cohérence selon le niveau de détail choisi. Le découpage sous forme de plans a été choisi dans le but d’exploiter le plus d’informations disponibles issues des données laser.
Ainsi, le modèle « relationnel » servira, dans un premier temps, de guide à la segmentation du nuage de points laser, laquelle sera traitée dans l’optique d’en extraire des plans moyens. Ces plans moyens permettront ensuite de calculer les sommets les plus probables du modèle final (intersection de plans).
Au vu des types de traitements, il est nécessaire que les divers protocoles à mettre en place se fassent sur un modeleur permettant une bonne visualisation des données, mais également présentant des possibilités de développements.
Le logiciel devant en outre être connu et maîtrisé par un large public, et plus particulièrement des architectes, AutoCAD a semblé être un bon compromis. En effet, ce logiciel est polyvalent, et possède deux langages associés : lisp et Visual Basic pour Application. AutoCAD et VBA avaient été préalablement choisis par le doctorant du laboratoire (dont la thèse traite d’un sujet similaire), ce qui n’a fait que confirmer ce choix.
Il est en effet possible de manipuler la géométrie de manière autonome, et VBA permet l’accès à d’autres applications, telles que MS Access.
La possibilité de manipuler des bases de données s’avère être très intéressante pour notre travail, puisque cela nous permettra d’enregistrer les informations topologiques et sémantiques utiles propres à notre modèle « relationnel ».
En ce qui concerne le logiciel de gestion de base de données, notre choix s’est arrêté sur MS Access puisque c’est un logiciel aisé à se procurer, et de ce fait détenu par un large public.
D’une manière concrète, notre méthodologie suit les étapes suivantes :
Etape 1 : Création d’un modèle « relationnel » issu de la connaissance « a priori » de l’objet d’étude. Ce modèle peut être réalisé sur un modeleur quelconque qui permette néanmoins un export .dxf. Il doit pouvoir être décomposable en un ensemble de faces 3D, générées selon le niveau de détails souhaité. Il est dépourvu de dimensions, et nécessite uniquement que les faces soient positionnées correctement les unes par rapport aux autres.
Etape 2 : Segmentation du nuage, guidée par le modèle relationnel, en points représentant les plans remarquables. Dénomination de chaque découpage par la sémantique correspondant au plan caractéristique. Réalisée sur le logiciel Realworks Survey, il est possible de nommer les différents découpages, puis de les exporter sur AutoCAD. Les dénominations de ces nuages de points segmentés apparaissent alors sous forme de calques.
Etape 3 : Traitement de cette segmentation par calcul de plans moyens. Ces plans sont calculés par compensation selon le principe des moindres carrés. Il est possible d’utiliser l’équation suivante :
Z = a.X+b.Y+c
On obtient alors un ensemble de plans labellisés entachés d’une précision de modélisation, cette précision étant calculée en considérant les distances des points au plan modélisé (écarts apparents).
Etape 4 : Mise en correspondance des labels des plans avec les différentes faces du modèle « relationnel ». Elle est réalisée par des routines VBA permettant de détecter toutes les faces coplanaires, et ainsi de les attribuer à un calque.
Etape 5 : Extraction et enregistrement des données topologiques et sémantiques du modèle
« relationnel » dans une base de données. Au moyen de requêtes SQL réalisées sous VBA, il est possible de gérer une base de données sous Access par exemple.
Etape 6 : Calcul automatique des sommets du modèle par intersection de plans issus de la segmentation du nuage de points laser. Ce calcul est guidé à l’aide des informations enregistrées préalablement dans la base de données et de requêtes. Pour les sommets appartenant à plus de trois plans, une compensation par les moindres carrés est mise en œuvre, permettant ainsi d’obtenir une précision sur ces points. Un calcul de sensibilités a été réalisé pour les points intersection de trois plans.
Etape 7 : Génération automatique des faces du modèle aux bonnes dimensions → obtention d’un modèle 3D surfacique entaché d’une précision de modélisation.
Figure 1 : Méthodologie
Résultats
Les différents essais menés ont donné lieu à la création de modèle 3D, essentiellement constitué de faces planes 3D.
Les modèles générés possèdent les caractéristiques suivantes :
- une sémantique est associée à chacun des éléments les constituant ;
- un critère de qualité en rapport avec la précision de modélisation de chacun de leurs sommets leur est affecté ;
- leurs réalisations correspondent à un certain niveau de détail déterminé par l’utilisateur.
Bâtiment A Niveau 1 | Bâtiment A Niveau 2 | Bâtiment B Niveau 1 | Bâtiment B Niveau 2 | |
Nombre de points du nuage |
730 405 |
1 955 861 |
446 823 |
967 423 |
Nombre de plans à calculer |
7 |
35 |
7 |
22 |
Précision moyenne |
0.02 m |
0.04 m |
0.02 m |
0.04 m |
Temps de traitement moyens |
3 min 31 |
17 min 22 |
2 min 51 |
5 min 57 |
Tableau 1 : Estimation de la précision et des temps de traitement des modèles de deux bâtiments selon les deux premiers niveaux de détail1
Conclusion et perspectives
Cette approche sur la modélisation du patrimoine architectural est très intéressante, puisqu’elle utilise
les informations sémantiques, topologiques et géométriques de l’objet, mais aussi un niveau de détails spécifié par l’utilisateur ; ce qui au final, permet l’obtention d’un modèle complet, utilisable pour un éventuel système d’information et cohérent selon l’utilisation souhaitée.
Il serait intéressant par la suite, de chercher à intégrer, de la même manière, les informations propres à l’intérieur de l’objet ; l’information sémantique, et ainsi le modèle seraient de ce fait plus complets. Un mode d’acquisition des données intérieures serait alors mis en place dans le but de minimiser les temps de travail (levé d’intérieur au ruban, au distancemètre laser, au tachéomètre, au scanner laser, etc.), tout en assurant une précision correcte et en adéquation avec la précision obtenue à l’extérieur.
1 les temps ne prennent pas en compte la réalisation du modèle « relationnel », ni la segmentation. Les calculs ont été réalisés sur un PC de processeur de 2.7 GHz