Messmethoden der Photogrammetrie und der praktische Nutzen ...

28
FH Aachen Fachbereich Medizintechnik und Technomathematik Studiengang Scientific Programming Seminararbeit Messmethoden der Photogrammetrie und der praktische Nutzen f ¨ ur die indurad GmbH von Maximilian Racke Matr.-Nr.: 3034191 1. Pr ¨ ufer: Prof. Dr. rer. nat. Alexander Voß 2. Pr ¨ ufer: Dipl. Inf.(FH) und M. Eng. David Meiners 13. Dezember 2018

Transcript of Messmethoden der Photogrammetrie und der praktische Nutzen ...

Page 1: Messmethoden der Photogrammetrie und der praktische Nutzen ...

FH Aachen

Fachbereich

Medizintechnik und Technomathematik

Studiengang Scientific Programming

Seminararbeit

Messmethoden der Photogrammetrie und der praktische

Nutzen fur die indurad GmbH

von Maximilian Racke

Matr.-Nr.: 3034191

1. Prufer: Prof. Dr. rer. nat. Alexander Voß

2. Prufer: Dipl. Inf.(FH) und M. Eng. David Meiners

13. Dezember 2018

Page 2: Messmethoden der Photogrammetrie und der praktische Nutzen ...
Page 3: Messmethoden der Photogrammetrie und der praktische Nutzen ...

Inhalt

Inhalt

1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

1.1 Themenstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

1.2 Vorgehensweise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

2 Messmethoden der Photogrammetrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

2.1 Allgemeine Photogrammetrie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

2.1.1 Satellitenphotogrammetrie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

2.1.2 Aerophotogrammetrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

2.1.3 Terrestrische Photogrammetrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

2.2 Methoden der terrestrischen Photogrammetrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

2.2.1 Stereoskopisches Messen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

2.2.1.1 Methodik. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

2.2.1.2 Eigenschaften einer DisparityMap und Disparity . . . . . . . . . . . . . . . . . . . . . . . . . . 7

2.2.1.3 Erzeugen einer DisparityMap mit OpenCV .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

2.2.1.4 Kamera-Kalibrierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

2.2.1.5 Erzeugen einer Punktwolke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

2.2.2 Rekonstruieren von 3D-Objekten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

2.2.2.1 Methodik. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

2.2.2.2 Keypoint Detection. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

2.2.2.3 Programme fur das Rekonstruieren von 3D-Objekten . . . . . . . . . . . . . . . . . . . . 13

2.2.2.4 Vergleich der Programme .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

2.2.2.5 Anwenden der Rekonstruktionsfunktion von ReCap Photo . . . . . . . . . . . . . . 18

2.3 Auswertung und Vergleich von Messmethoden der terrestrischen Photogrammetrie . . . . . 19

2.4 Nutzen und Anwendungsmoglichkeiten der Methoden fur die indurad GmbH.. . . . . . . . . . . . 21

2.4.1 Stereoskopisches Messen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

2.4.2 Rekonstruieren von 3D-Objekten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

3 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

Quellenverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

3

Page 4: Messmethoden der Photogrammetrie und der praktische Nutzen ...

1 Einleitung

1 Einleitung

1.1 Themenstellung

Thema dieser Arbeit ist es, Messmethoden der Photogrammetrie auszuarbeiten, zu vergleichen und

experimentell umzusetzen. Außerdem ist der praktische Nutzen dieser Methoden fur die indurad

GmbH zu bewerten.

indurad ist ein mittelstandisches Unternehmen, welches aus einem wissenschaftlichen Projekt des

”Institute for Advanced Mining Technologies“ der RWTH Aachen gewachsen ist.

indurad bietet technische Losungen an, unter anderem fur Firmen der Bergbauindustrie, welche die

Effizienz und die Sicherheit bei Abbau-, Beladungs- oder Transportvorgangen steigern. Dazu werden

Maschinen wie Schaufelradbagger, Shiploader oder Zugbeladungsanlagen mit Sensoren ausgestat-

tet. Diese Sensoren basieren auf verschiedenen Technologien, wie z.B. Radar ( indurad: industrial

Radar Company), GPS oder einer weiterentwickelten Form von RFID. Die auf Basis dieser Technolo-

gien umgesetzten Projekte zielen darauf ab, die Position von Objekten oder Personen zu bestimmen

bzw. die Distanzen zwischen Objekten oder Personen zu berechnen. Mit den gemessenen Distanzen

und den im Raum bestimmten Positionen, konnen das Abbauen von Erzen oder das Transportieren

von Waren effizienter gestaltet, Anlagen automatisiert oder die Sicherheit von Arbeitern gewahrleistet

werden.

1.2 Vorgehensweise

Im Rahmen dieser Arbeit werden zwei Methoden des raumlichen Messens mittels Bildauswertung

naher untersucht. Dabei werden Objekte bzw. Strukturen zum einen durch stereoskopische Bilder

und zum anderen mit Hilfe von Software rekonstruierten 3D-Objekten vermessen. Beide Methoden

werden im Folgenden theoretisch aufgearbeitet und praktisch umgesetzt. Im Falle des stereoskopi-

schen Messens wurde mit Hilfe von externen Bibliotheken Software selbst programmiert.

Fur das Rekonstruieren von 3D-Objekten aus Fotos gibt es professionelle Programme, die diese Auf-

gabe ubernehmen. Dafur wurde in dieser Arbeit das Programm ReCap Photo der Firma Autodesk

verwendet.

Anschließend werden beide Methoden miteinander verglichen, wobei die einzelnen Vor- und Nach-

teile gegenubergestellt werden.

Abschließend wird der theoretische und praktische Nutzen der Methoden fur indurad dargelegt.

4

Page 5: Messmethoden der Photogrammetrie und der praktische Nutzen ...

2 Messmethoden der Photogrammetrie

2 Messmethoden der Photogrammetrie

2.1 Allgemeine Photogrammetrie

Photogrammetrie umfasst eine Gruppe von Messmethoden und Verfahren, welche zur Erzeugung

und Verarbeitung von geometrischen Informationen (Form, Große, Position ) von Objekten und Struk-

turen anhand von Bildern verwendet werden [1].

Dabei ist zunachst nicht definiert, woher diese Bilder stammen oder wie sie erzeugt worden sind.

Die Photogrammetrie umfasst sowohl das Erkennen von Oberflachenstrukturen der Erdoberflache

anhand von Satellitenbildern als auch das Scannen von kleineren Objekten mit Hilfe von normalen

Digitalkameras. Es werden im Folgenden drei Gebiete beschrieben, in die die Photogrammetrie auf

Grund von unterschiedlichen Herangehensweisen und Zielen aufgeteilt werden kann. Dabei sind die

Abgrenzungen nicht genau definiert.

2.1.1 Satellitenphotogrammetrie

Satellitenphotogrammetrie bezeichnet die Verfahren zum Analysieren von Satelliten- bzw. Raum-

schiffbildern.

Hier werden Bilder von der Erdoberflache oder Oberflachen anderer Himmelskorper ausgewertet,

um beispielsweise topografische Karten zu erzeugen (”Hohenkarten“).

Diese Techniken sind auf Grund der großen Entfernungen zu dem fotografierten Objekt sehr begrenzt

in ihrer Genauigkeit. Der Bildmaßstab kann zwischen ca. 1:200000 und 1:3000000 liegen, woraus

eine Genauigkeit der Objektlage von ± 2 m bis ± 20 m resultiert [2].

2.1.2 Aerophotogrammetrie

Aerophotogrammetrie verwendet im Gegensatz zur Satellitenphotogrammetrie Bilder, die von flie-

genden Objekten aus erzeugt wurden, die sich deutlich naher an der Erdoberflache befinden als

Satelliten. In der Regel liegt die Aufnahmehohe zwischen 200 m und 10 km.

Oft werden diese Bilder aus Flugzeugen heraus gemacht. Aber auch von Drohnen aufgenommene

Bilder sind keine Seltenheit mehr.

Es werden viele Bilder erzeugt, deren Uberschneidung moglichst groß sein sollte. So konnen ganze

Stadte aber auch einzelne Gebaude oder andere Strukturen als dreidimensionales Objekt rekonstru-

iert werden. Auf Grund von kleineren Bildmaßstaben von ca. 1:3000 bis 1:50000 ist es moglich, die

Form und Position von Objekten zentimetergenau zu bestimmen [2].

5

Page 6: Messmethoden der Photogrammetrie und der praktische Nutzen ...

2 Messmethoden der Photogrammetrie

2.1.3 Terrestrische Photogrammetrie

Terrestrische Photogrammetrie beschaftigt sich mit dem Auswerten von Bildern, welche aus einer

Hohe von bis zu 200 m, aber auch flach uber dem Boden aufgenommen werden. Dies ist die Form

der Photogrammetrie mit der hochsten Genauigkeit, aber auch dem kleinsten zu erfassenden Be-

reich. Fotos konnen beispielsweise mit einfachen digitalen Kameras aufgenommen werden. Drohnen

konnen auch hier wieder verwendet werden.

Die mogliche erzielbare Auflosung der aus diesen Bildern erzeugten dreidimensionalen Objekte kann

weniger als einen Millimeter betragen, siehe Tabelle 1 [2].

Die terrestrische Photogrammetrie ist das Gebiet der Photogrammetrie, das in dieser Arbeit behan-

delt wird.

Tabelle 1: Unterteilung und Genauigkeit der drei Gebiete der Photogrammetrie [2]

2.2 Methoden der terrestrischen Photogrammetrie

2.2.1 Stereoskopisches Messen

2.2.1.1 Methodik

Eine Messmethode der terrestrischen Photogrammetrie ist das stereoskopische Messen. Durch Er-

zeugen von stereoskopischen Bildern konnen Großen, Formen und Positionen eines Objektes ge-

messen werden. Ein stereoskopisches Bild ist ein Paar von Bildern, welches von zwei Kameras

aufgenommen wurde. Dabei ist es wichtig, dass die Kameras das gleiche Ziel jedoch von unter-

schiedlichen Positionen aus fotografieren. Die Aufnahmeachsen der Kameras sollten dabei nahezu

parallel sein und die Bilder das gleiche Format haben [3]. Die so entstandenen Bilder konnen nun mit

entsprechender Software bearbeitet und metrisch ausgewertet werden.

6

Page 7: Messmethoden der Photogrammetrie und der praktische Nutzen ...

2 Messmethoden der Photogrammetrie

2.2.1.2 Eigenschaften einer DisparityMap und Disparity

In der hier angewandten Vorgehensweise zum Messen von Abstanden wird zunachst aus den jewei-

ligen Bildpaaren eine DisparityMap erzeugt. Eine DisparityMap ist ein zweidimensionales Array, das

auch als Bild visualisiert werden kann. Dabei wird jedem Pixel von einem der beiden Stereobilder

die Abweichung (Disparity) zu dem Pixel des anderen Bildes zugeordnet, das den gleichen Inhalt hat

oder das Gleiche zeigt. Abb. 1a und 1b zeigen die zwei Bilder eines Stereobildes und Abb. 1c die

dazu gehorige DisparityMap.

(a) Aufnahme der linken Kamera [4] (b) Aufnahme der rechten Kamera[4]

(c) Selbst erzeugte DisparityMap

Abbildung 1: Stereoskopische Bilder und die dazugehorige DisparityMap

Die Berechnung der Disparitat ’x’ zweier Punkte kann mit folgender Funktion beschrieben werden

[5]:

x =U −U ′ =B ∗ fz

=Disparity

• U und U‘ sind die X-Koordinaten der beiden zu betrachtenden Punkte

• B ist der X-Abstand zwischen den beiden fotografierenden Kameras

• f ist die Brennweite der Kamera, also der Abstand zwischen der Hauptebene der Linse und

dem Brennpunkt.

• z ist die tatsachliche Entfernung von dem zu dem Punkt gehorigen Objekt und dem Brennpunkt

Z ist jedoch nicht bekannt und ist die Information, die es letztendlich zu ermitteln gilt. Also muss die

Disparitat uber U – U‘ berechnet werden. Dafur mussen die zusammengehorigen Punkte der beiden

Bilder algorithmisch gefunden werden.

Die DisparityMap (Abb. 1c) ist so zu interpretieren, dass hellere Pixel eine großere horizontale Di-

stanz zwischen zwei gleichen Pixeln des linken und rechten Bildes bedeuten. Daraus lasst sich

schließen, dass hellere Pixel zu Objekten gehoren, die sich naher an den Kameras befinden als

Objekte, die durch dunklere Pixel dargestellt werden. Die Lampe ist naher an der aufnehmenden

7

Page 8: Messmethoden der Photogrammetrie und der praktische Nutzen ...

2 Messmethoden der Photogrammetrie

Kamera als die Buste, welche wiederum naher an der Kamera steht als die Videokamera im Hinter-

grund.

2.2.1.3 Erzeugen einer DisparityMap mit OpenCV

Das Erzeugen einer DisparitMap ist mit verschiedenen Bibliotheken oder Programmen moglich. Hier

wird OpenCV verwendet, da diese Bibliothek bereits im indurad eigenen Framework integriert ist und

dementsprechend Vorkenntnisse bestehen.

Die Bilder der Abb. 1a und 1b sind von OpenCV bereitgestellte Beispielbilder. OpenCV ist eine kos-

tenlose open-source Bildbearbeitungs Bibliothek, die sowohl in Python, als auch in C++ implementiert

ist [6]. Die Herangehensweise, welche OpenCV hier verwendet, nennt sich Blockmatching. Es gibt

verschiedene Blockmatching-Algorithmen, welche alle dem gleichen Prinzip folgen. Der Standard-

Anwendungsfall von Blockmatching-Algorithmen liegt in dem Vorhersagen von Bewegungen oder

dem Verfolgen von Objekten in Bilderfolgen oder Videos. Das Fotografieren von sich bewegenden

Objekten ist vergleichbar mit dem Fotografieren einer Szene aus verschiedenen Ansichten, was dem

Anwendungsfall von stereoskopischem Fotografieren entspricht. In Blockmatching-Algorithmen wird

versucht, Blocke einer bestimmten Große aus einem Bild in einem anderen Bild wiederzufinden.

Kleinere Blocke fuhren zu einem genaueren Ergebnis, sind aber auch schwieriger in anderen Bil-

der wiederzufinden. Außerdem steigt der Rechenaufwand des Algorithmus mit kleiner werdenden

Blocken [7]. Dabei werden nur Pixel betrachtet, die sich in der Region Of Interest (ROI) befinden.

Die ROI beinhaltet in diesem Fall alle Pixel, die in beiden Bildern gemeinsam vorhanden sind. Wird

ein Block in einem anderen Bild wiedergefunden, lasst sich daraus die Disparitat berechnen ( U –

U‘). Aus der Disparitat kann wiederum die Entfernung zu dem Objekt innerhalb des Blocks berechnet

werden.

Z =B ∗ fU −U ′

Damit sind alle drei Freiheitsgrade (X, Y, Z) eines Punktes des Bildes bekannt und konnen dreidi-

mensional dargestellt werden.

2.2.1.4 Kamera-Kalibrierung

Um die Qualitat selbst erstellter Stereobilder zu verbessern, mussen die Kameras vorher kalibriert

werden. Ziel des Kalibrierens von Kameras ist es, die Parameter einer speziellen Kamera (Kame-

ra + Objektiv) zu ermitteln. Jede Kamera unterscheidet sich, wenn auch nur in Nuancen, selbst bei

baugleichen Modellen. Dies fuhrt dazu, dass Bilder von exakt gleichen Szenen leicht unterschiedlich

sind, wenn sie mit unterschiedlichen Kameras aufgenommen wurden. Dieser Effekt nennt sich ”dis-

8

Page 9: Messmethoden der Photogrammetrie und der praktische Nutzen ...

2 Messmethoden der Photogrammetrie

tortion“ also ”Verzerrung“ und ist in Abb. 2 dargestellt.

Abbildung 2: Verschiedene Arten von Bildverzerrungen (distortions) [9]

Jedes Bild ist bei seiner Erzeugung leicht verzerrt. Das Kalibrieren einer Kamera bedeutet daher, die

Verzerrung der von dieser Kamera erzeugten Bilder zu korrigieren.

Es gibt verschiedene Methoden, eine Kamera zu kalibrieren. Manche Kameras konnen sich selbst ka-

librieren. Allerdings ist diese Methode nicht sehr genau. Herkommlicher Weise wird zum Kalibrieren

entweder ein 2D-Schachfeld oder ein 3D-Schachfeld (ein geknicktes 2D-Schachfeld) aus verschie-

denen Winkeln und Perspektiven fotografiert [8]. Anschließend wird dieses Schachfeld algorithmisch

erkannt und jedes Feld wird markiert. Diese Markierungen sollten im Idealfall gerade Linien ergeben

[10]. Ist das nicht der Fall, liegt eine Verzerrung vor, wie in Abb. 2 dargestellt. Das rechte und mittlere

Bild sind verzerrt und werden in das linke Bild transformiert. Hierfur bietet OpenCV ebenfalls Algorith-

men, die aus moglichst vielen Bildern desselben Schachbretts die Parameter einer Kamera ermitteln.

Die Genauigkeit der Parameter steigt mit der Anzahl der Bilder. Aus besagten Algorithmen OpenCVs

werden Matrizen erzeugt, die das verzerrte Bild in ein verzerrungsfreies Bild transformieren.

Um den Aufwand und die Komplexitat dieses Prozesses zu prufen, wurde eine Kamera-Kalibrierung

im Rahmen dieser Arbeit experimentell nachgestellt. Das in diesem Prozess enthaltene Erkennen

eines Schachfelds wurde in Abb. 3a und 3b visualisiert. Das in Abb. 3a gezeigte Schachfeld wurde

mit der zu kalibrierenden Kamera fotografiert. Abb. 3b zeigt das unkalibrierte und markierte Schach-

feld. Die dadurch erzeugte Matrix kann spater zum Entzerren von Bildern dieser Kamera verwendet

werden.

9

Page 10: Messmethoden der Photogrammetrie und der praktische Nutzen ...

2 Messmethoden der Photogrammetrie

(a) Foto eines Schachfeldes mit unkalibrierter Ka-mera

(b) Visualisierung des von OpenCV erkanntenSchachfeldes

Abbildung 3: Visualisierte Schachfelderkennung

2.2.1.5 Erzeugen einer Punktwolke

Die DisparityMap aus Abb. 1c wurde experimentell im Rahmen dieser Arbeit mit der Python Imple-

mentierung von OpenCV erzeugt. Diese wurde verwendet, da mit Python aus meiner Sicht leichter

und schneller experimentiert werden kann als mit C++. Python muss nicht kompiliert werden und ist

nicht Typsicher.

Mit der in Abb. 1c dargestellten DisparityMap ist es nun moglich, neben den klar sichtbaren Hohen-

und Breitenkoordinaten auch Informationen uber die Tiefe eines Punktes zu errechnen und somit

eine dreidimensionale Punktwolke zu erzeugen. Dafur bietet OpenCV ebenfalls einen Algorithmus

an. Dieser projiziert die Punkte der DisparityMap mit Hilfe einer 4x4 Transformationsmatrix in den

dreidimensionalen Raum. Die Transformationsmatrix ist abhangig von den verwendeten Kameras

und berucksichtigt unter anderem die Brennweite der Kameralinse und das Format des Bildes. Die

Transformationsmatrix und andere kameraspezifische Informationen erhalt man auch hier durch das

Kalibrieren der Kameras.

Da fur stereoskopische Bilder zwei Kameras benotigt werden, mussen zunachst beide Kameras ein-

zeln kalibriert werden. Dies wird in Kapitel ”Kamera Kalibrierung“ naher beschrieben. Anschließend,

konnen die Kameras zueinander kalibriert werden. Dieser Vorgang nennt sich StereoCalibration.

Einem von OpenCV bereitgestellten Algorithmus werden die aus den vorherigen Kalibrierungen ge-

sammelten Kameradaten ubergeben [11]. Der Algorithmus ermittelt daraus das Verhaltnis beider

Kameras zueinander. Werden die Positionen der Kameras als fix betrachtet, werden eine dreidi-

mensionale Rotationsmatrix und ein Translationsvektor berechnet. Anhand dieser beiden Parameter

10

Page 11: Messmethoden der Photogrammetrie und der praktische Nutzen ...

2 Messmethoden der Photogrammetrie

konnen nun Punkte, die mit einer Kamera aufgenommen worden sind, von ihrem ursprunglichen,

zweidimensionalen Koordinatensystem in ein dreidimensionales Koordinatensystem projiziert wer-

den.

Sind alle Punkte des Bildes in den 3D-Raum projiziert, kann die so entstandene Punktwolke mit

einem Programm, wie z.B. Meshlab, visualisiert werden (siehe Abb. 4). Anschließend ist eine Be-

stimmung der Positionen und Ausmaße von Objekten moglich.

Abbildung 4: Visualisierte 3D-Punktwolke

2.2.2 Rekonstruieren von 3D-Objekten

Bei der vorher beschriebenen Methode war stets die Perspektive zwischen den einzelnen Bildern

konstant. Somit konnten Pixel des Bildes anhand der gleich bleibenden Kameradaten im Raum plat-

ziert werden.

Die Vorgehensweise, 3D-Objekte aus Bildern zu rekonstruieren, ohne gleichbleibende Perspektive

der Kamera, ist deutlich komplexer als das Messen anhand von stereoskopischen Bildern. Jedoch ist

das Potenzial der daraus entstehenden 3D-Objekte im Hinblick auf Große und Genauigkeit deutlich

hoher [12].

11

Page 12: Messmethoden der Photogrammetrie und der praktische Nutzen ...

2 Messmethoden der Photogrammetrie

2.2.2.1 Methodik

Durch die nicht limitierte Anzahl der verwendeten Bilder und die frei wahlbaren Perspektiven der ein-

zelnen Bilder kann das zu rekonstruierende Objekt von allen Seiten fotografiert werden. Dies fuhrt

dazu, dass unabhangig von der Große des Objektes alle Seiten aufgenommen werden konnen.

Wie auch beim Messen anhand von stereoskopischen Bildern mussen zusammengehorende Punk-

te in verschiedenen Bildern gefunden werden (Keypoint Detection). Auf Grund der unterschiedli-

chen Perspektiven sind jedoch die vorher beschriebenen Blockmatching-Algorithmen nicht mehr

verwendbar. Gleiche Punkte konnen in unterschiedlichen Bildern nun nicht mehr nur eine andere

X-Koordinate haben, sondern im Vergleich zu ihrem ”Match“ in einem anderen Bild, naher an der

Kamera, verdreht oder auch nach oben oder unten verschoben sein. Außerdem ist es moglich, dass

Punkte sich in einigen Bildern uberhaupt nicht wiederfinden lassen, wenn sich zum Beispiel der

Blickwinkel der Kamera zwischen den Bildern stark unterscheidet oder Punkte von anderen Objek-

ten verdeckt werden [13].

Trotzdem mussen Punkte in Bildern wiedergefunden werden, um Objekte zu rekonstruieren. Dabei

ist es nicht notig, jeden Punkt in jedem Bild wiederzufinden. Dies bedeutet aber nicht, dass vollig un-

abhangige Bilder verwendet werden konnen. In der Regel sollte die Uberlappung von zwei raumlich

nebeneinander erzeugten Bildern mindestens 50%-60% betragen, damit sich genug gleiche Punk-

te in diesen Bildern befinden. Wird nun ein weiteres Bild der Sammlung hinzugefugt, muss dieses

jedoch nicht mit allen anderen Bildern uberlappen, sondern lediglich um 50%-60% mit einem der be-

reits vorhandenen Bilder. So kann sich die Position der Kamera um ein Objekt bewegen und jedem

Bild kann eine Position im Raum zugeordnet werden [14].

2.2.2.2 Keypoint Detection

Keypoint Detection umfasst Techniken, welche fur das Wiedererkennen von Merkmalen innerhalb

von Bildern verwendet werden. Hierfur wird in der Regel eine Form des ”SIFT“ Algorithmus verwen-

det [13]. SIFT steht fur Scale-Invariant Feature Transform [15]. Er ist ein Algorithmus zur Detektion

von Merkmalen in Bildern. Dabei funktioniert der Algorithmus unabhangig davon, ob das gesuchte

Merkmal großer oder kleiner abgebildet oder verschwommen ist.

SIFT sucht Merkmale innerhalb eines Bildes anhand von Kantenerkennungs-Algorithmen und

Gaussfiltern. Anschließend wird fur die erkannten Merkmale anhand von Gradienten der Kontras-

te ein Muster generiert. Der SIFT-Algorithmus wurde 1999 von David G. Lowe veroffentlicht und ist

derzeit noch fur die University of British Columbia patentiert [16]. Die Grundlagen des Algorithmus

wurden jedoch in vielen anderen Algorithmen verarbeitet. Welche Abwandlung von SIFT in Program-

men verwendet wird, ist nicht ermittelbar.

12

Page 13: Messmethoden der Photogrammetrie und der praktische Nutzen ...

2 Messmethoden der Photogrammetrie

Eine detailliertere Erlauterung des SIFT-Algorithmus ist im Rahmen dieser Arbeit nicht vorgesehen.

2.2.2.3 Programme fur das Rekonstruieren von 3D-Objekten

Fur das Matchen, Positionieren und anschließende Rekonstruieren von 3D-Modellen gibt es eine

Vielzahl von professionellen Programmen, die diesen Prozess automatisieren. Dabei hat jedes die-

ser Programme Starken und Schwachen. Folgende Eigenschaften sind dabei von besonderer Be-

deutung:

• Qualitat der Rekonstruktion

• Betriebssysteme, fur die die Software bereitgestellt wird

• Anbindung an Programmiersprachen

• Geschwindigkeit der Rekonstruktion (Unterstutzung von mehreren GPUs)

• Preis

• Andere markante Eigenschaften.

Alle nachfolgend vorgestellten Programme sind in der Lage, rekonstruierte Objekte zu vermessen.

Autodesk ReCap Photo

ReCap Photo ist ein von Autodesk bereitgestellter kostenpflichtiger CloudService, der aus Bildern

sehr prazise 3D-Punktwolken und Meshes berechnet. Dieser existiert seit Dezember 2017 und war

vorher unter dem Namen ReMake bekannt.

Qualitat der Rekonstruktion:

ReCap Photo bietet in der Benutzeroberflache zwei Moglichkeiten zum Rekonstruieren von 3D-

Objekten: ”Objekt“ und ”Aerial“. ”Objekt“ ist besser geeignet fur das Rekonstruieren von kleineren

Objekten, also Objekten, die sich in Raumen befinden. ”Aerial“ ist dementsprechend besser geeig-

net, um große Objekte oder Gebiete zu rekonstruieren.

Betriebssystem:

Windows only.

Anbindung an Programmiersprachen:

Keine Anbindung vorhanden.

Geschwindigkeit der Rekonstruktion:

Nachteilig ist, dass das letztendliche Verarbeiten und Auswerten der Bilder nicht auf lokalen, eigenen

13

Page 14: Messmethoden der Photogrammetrie und der praktische Nutzen ...

2 Messmethoden der Photogrammetrie

Computern moglich ist. Die Bilder werden in eine Cloud hochgeladen und anschließend kann das

fertige Mesh bzw. die fertige Punktwolke heruntergeladen werden.

Preis:

Fur das Hochladen von Bildern werden CloudCredits benotigt. Diese verursachen neben den mo-

natlichen Gebuhren von 50 C ebenfalls Kosten. Je mehr Bilder hochgeladen werden, umso mehr

CloudCredits werden verbraucht.

Andere markante Eigenschaften:

Die Software bietet die Moglichkeit, nahezu unbegrenzt viele Fotos zu verarbeiten. Hier ist es uner-

heblich, ob die Fotos mit Smartphones, Kameras oder Drohnen aufgenommen wurden. Die einzige

offensichtliche Vorgabe, die ReCap an die eingereichten Fotos hat, ist eine Uberdeckung von min-

destens 60% zwischen einzelnen Bildern [14]. Wurde ein Objekt aus Bildern erfolgreich rekonstruiert,

bietet das Programm Moglichkeiten, das erzeugte Mesh zu bearbeiten oder zu vermessen. Außer-

dem kann es aus ReCap exportiert werden und in anderen Anwendungen verwendet werden. Ein

weiterer Pluspunkt von ReCap ist, dass es auch Laserscans in Verbindung mit Photogrammetrie

auswerten kann.

ReCap Pro ist ein Programm, welches im Rahmen dieser Arbeit getestet wurde. Die dargelegten

Informationen stammen insoweit großtenteils aus eigenen Erfahrungen.

Pix4D Mapper

Pix4D Mapper erschien 2011 und wird von der gleichnamigen Firma PIX4D betrieben und weiterent-

wickelt.

Qualitat der Rekonstruktion:

Pix4D gibt an, anhand von Drohnenbildern die Außenwelt nach Industrie-Survey Standard-Qualitat

nachstellen zu konnen [18].

Betriebssystem:

Windows, Mac und Linux

Anbindung an Programmiersprachen:

Keine Anbindung moglich.

Geschwindigkeit der Rekonstruktion:

Keine Informationen.

Preis:

Pix4D kostet entweder einmalig 3990 C und enthalt dann eine ”Floating License“ und ein Jahr

personlichen Support, der aber gegen einen Aufpreis verlangert werden kann. Die andere Moglichkeit,

Zugriff auf Pix4D zu bekommen, ist durch ein monatlich/jahrlich zu zahlendes Abonnement. Dies kos-

14

Page 15: Messmethoden der Photogrammetrie und der praktische Nutzen ...

2 Messmethoden der Photogrammetrie

tet, wenn auf einmal fur ein ganzes Jahr gezahlt wird, 217 C pro Monat, also 2604 C. Wird monatlich

gezahlt, betragt der Preis 260 C pro Monat, also 3120 C pro Jahr [17].

Andere markante Eigenschaften:

Rekonstruierte Objekte konnen bearbeitet werden.

3DF Zephyr

3DF Zephyr existiert seit 2014 und wird von der italienischen Firma 3DFlow stetig weiterentwickelt

[19]. Das Programm wird in vier verschiedenen Versionen angeboten: Free, Lite, Pro und Aerial

Qualitat der Rekonstruktion:

3DFlow gibt an, dass die Aerial-Version fur Surveys, also Industrie standardisierte Vermessungen

von Objekten geeignet ist.

Betriebssystem:

Windows only.

Anbindung an Programmiersprachen:

Keine Anbindung moglich.

Geschwindigkeit der Rekonstruktion:

Die Free-Version rechnet mit nur einer GPU. Die Lite-Version benutzt bis zu zwei GPUs und die

Pro/Aerial Version unterstutzt eine beliebige Anzahl an Grafikkarten.

Preis:

Die vier Versionen kosten jeweils einmalig, 0 $, 150 $, 3200 $ und 4200 $.

Andere markante Eigenschaften:

Die Pro und Aerial Version unterstutzen Laserscans. Die Anzahl der verwendeten Bilder ist bei der

Free-Version auf 50 limitiert. Die Lite-Version kann mit 500 Bildern arbeiten. Pro und Aerial sind in

dieser Hinsicht nur durch die verarbeitende Hardware limitiert [20]. Sowohl die Pro-, als auch die

Aerial-Version bieten die Moglichkeit, die rekonstruierten Objekte zu bearbeiten. Außerdem konnen

die Meshes bzw. Punktwolken exportiert werden [20].

Agisoft PhotoScan

Die erste Fassung von PhotoScan wurde 2010 von Agisoft LLC veroffentlicht und existiert in zwei

Versionen: Standard und Professional.

Qualitat der Rekonstruktion:

Keine genaueren Informationen.

Betriebssystem:

Windows, MacOS, Linux

15

Page 16: Messmethoden der Photogrammetrie und der praktische Nutzen ...

2 Messmethoden der Photogrammetrie

Anbindung an Programmiersprachen:

Es existiert eine Python-Anbindung, die es ermoglicht, Skripte aus dem Programm heraus zu starten.

Außerdem besteht die Moglichkeit Befehle des Programms in Skripten auszufuhren.

Geschwindigkeit der Rekonstruktion:

Es ist sowohl moglich, die Punktwolken lokal auf dem eigenen Rechner zu erzeugen, als auch den

Rechenaufwand von einem Server ubernehmen zu lassen.

Preis:

Die beiden Versionen kosten einmalig entweder 179 $ oder 3499 $ [21].

Andere markante Eigenschaften:

Mit beiden Versionen ist es moglich, Punktwolken und Meshes zu erstellen. Jedoch ist das Vermes-

sen der Punktwolken nur mit der Professional-Version moglich [22].

Reality Capture

Reality Capture existiert seit 2016 und wird von Capturing Reality entwickelt.

Qualitat der Rekonstruktion:

Capturing Reality wirbt damit, dass Reality Capture fur industrielle Surveys verwendet werden kann

[23].

Betriebssystem:

Windows only.

Anbindung an Programmiersprachen:

Anbindung an Batch.

Geschwindigkeit der Rekonstruktion:

Tests haben ergeben, dass Reality Capture durch die Unterstutzung von mehreren GPUs beim Be-

rechnen der Modelle uberdurchschnittlich schnell arbeitet.

Preis:

Die Vollversion kostet einmalig 15000 C und kann fur 7500 C noch um ein Command Line Interface

erweitert werden.

Andere markante Eigenschaften:

Reality Capture kann sowohl mit Bildern, als auch mit Laser Scans gleichzeitig arbeiten und 3D-

Modelle rekonstruieren. Dabei ist die Anzahl der verwendeten Bilder unbegrenzt.

Neben den hier erwahnten Programmen, gibt es auch vereinzelte OpenSource oder zumindest kos-

tenlose Programme wie z.B. VisualSFM. VisualSFM basiert auf der vorher bereits erwahnten Open-

Source C++/Python Bibliothek OpenCV. Aus Testberichten lasst sich jedoch entnehmen, dass fur pro-

16

Page 17: Messmethoden der Photogrammetrie und der praktische Nutzen ...

2 Messmethoden der Photogrammetrie

fessionelle Projekte aus Qualitatsgrunden auch professionelle Photogrammetrie-Software benotigt

wird. Der Programmieranspruch hinter dieser Rekonstruktionsmethode ist daher als sehr hoch und

aufwandig zu bewerten [24] und kann im Rahmen dieser Arbeit nicht geleistet werden.

2.2.2.4 Vergleich der Programme

Alle in Kapitel 2.2.2.3 beschriebenen Programme haben Vor- und Nachteile. Beispielsweise ist das

nicht vorhandene lokale Prozessieren der Bilder in ReCap Photo ein Argument, das stark gegen den

Kauf dieses Produktes spricht. Die Abhangigkeit vom Betriebssystem ist ein weiterer, durchaus nega-

tiv zu bewertender Aspekt, aber letztlich nicht ausschlaggebend, da es fur Unternehmen moglich ist,

verschiedene Betriebssysteme zu verwenden. Dafur ist ReCap Photo mit ca. 390 C pro Jahr deutlich

gunstiger als konkurrierende Produkte.

Preislich liegen 3DF Zephyr, Agisoft PhotoScan und Pix4D Mapper auf einem Niveau. Einzig Reality

Capture ist mit insgesamt 22500 C deutlich teurer.

Alle Programme geben an, in der Lage zu sein, Surveys auf dem Niveau des Industrie-Standards

durchfuhren zu konnen. Ebenfalls das anschließende Vermessen und Exportieren der erzeugten

Meshes ist mit allen Programmen moglich.

Da sich in der Theorie die Performance der einzelnen Programme nicht unterscheidet und sich die

Handhabung und letztendlich Ergebnisse nicht bewerten lassen, ohne alle Programme selber zu tes-

ten, konnen Vorteile einzelner Programme gegenuber anderen nur durch Nuancen, wie z.B. Linux

Kompatibilitat, ausgemacht werden.

Hier sticht PhotoScan von Agisoft besonders hervor, da es sowohl fur Linux implementiert ist als

auch eine Pythonanbindung integriert hat. Dies konnte das Einbinden in den alltaglichen Workflow

deutlich vereinfachen. Daruber hinaus konnen Berechnungen optional auf Server Agisofts ausgela-

gert werden. Gegen die Verwendung von PhotoScan spricht, dass es nicht moglich ist, Messungen

durch LaserScans in die durch Photogrammetrie erzeugten Punktwolken einzubinden. Dies ist mit

RealityCapture, ReCap Photo und 3DF Zephyr moglich. Pix4D Mapper bietet dies zwar nicht stan-

dardmaßig an, ermoglicht es jedoch, externe Punktwolken zu integrieren.

Wie die einzelnen positiven und negativen Aspekte zu bewerten sind, ist jedoch vom Anspruch und

den Anforderungen des Anwenders abhangig und daher nicht objektiv bestimmbar. Außerdem sollte

vor dem Kauf eines Programms von der in der Regel angebotenen Probezeit Gebrauch gemacht

werden.

17

Page 18: Messmethoden der Photogrammetrie und der praktische Nutzen ...

2 Messmethoden der Photogrammetrie

2.2.2.5 Anwenden der Rekonstruktionsfunktion von ReCap Photo

Im Rahmen dieser Arbeit wurden mit ReCap Photo unterschiedliche Objekte unterschiedlicher Große

rekonstruiert. Unter anderem wurden ein USB-Netzteil und die ersten zwei Etagen des indurad

Burogebaudes rekonstruiert.

Hier wurde ReCap Photo verwendet, da es eine kostenlose Educational-License fur Studenten, un-

abhangig von der Hochschule, anbietet. Es stellte sich jedoch heraus, dass die Rechenkapazitat, die

der Anbieter Autodesk fur Educational-Licenses bereitstellt, sehr beschrankt ist. Dies machte ein pro-

duktives Arbeiten unmoglich. Da der Umgang mit ReCap dadurch aber bereits bekannt war, wurde

ein kostenpflichtiges Abonnement fur einen Monat abgeschlossen. Die bezahlte Version stellt deut-

lich mehr Rechenkapazitat bereit.

Nach Aufnahme der Fotos war es mit wenig Aufwand moglich, 3D-Objekte zu rekonstruieren. In Abb.

5a ist das rekonstruierte USB-Netzteil zu sehen und Abb. 5b zeigt das indurad Burogebaude. Die

zum Rekonstruieren verwendeten Bilder wurden alle ohne Stativ und mit der Kamera eines Iphone 7

aufgenommen. An beiden Objekten ließen sich genaue Distanzen messen.

Die Qualitat und der Erfolg der Rekonstruktion wurden jedoch durch außere Faktoren negativ beein-

flusst. Bewegungen des zu fotografierenden Objektes scheinen zu Fehlberechnungen zu fuhren. So

konnte z.B. die Vorderseite des indurad Burogebaudes nicht erfolgreich rekonstruiert werden, da eine

Person wahrend des Fotografierens aus dem Gebaude trat. Das Prozessieren innerhalb der Cloud

dauerte ca. 40-50 Minuten pro Objekt.

Insgesamt ließ sich jedoch die Praxistauglichkeit von ReCap Photo nachweisen. Es ist anzunehmen,

dass durch besseres Aufnahme-Equipment die Qualitat der rekonstruierten Objekte gesteigert wer-

den kann.

(a) Rekonstruiertes 3D USB-Netzteil (b) Rekonstruiertes indurad Burogebaude (Ruckseite)

Abbildung 5: Rekonstruierte 3D-Objekte

18

Page 19: Messmethoden der Photogrammetrie und der praktische Nutzen ...

2 Messmethoden der Photogrammetrie

2.3 Auswertung und Vergleich von Messmethoden der terrestrischen Photogrammetrie

Im Folgenden werden die Vor- und Nachteile des stereoskopischen Messens sowie des Vermessens

von rekonstruierten dreidimensionalen Objekten bewertet und verglichen.

Messen von Distanzen durch das Auswerten stereoskopischer Bilder ist eine relativ schnelle und kos-

tengunstige Variante. Die Qualitat der Vermessung ist abhangig von der Genauigkeit der Blockmatching-

Algorithmen, der Kameraqualitat und der Kalibrierung der einzelnen Kameras. Das Potential dieser

Methode ist aber beschrankt, da die Kameras starr und parallel angeordnet sind. Dadurch konnen

nur kleinere Objekte in hoher Genauigkeit erfasst werden. Des Weiteren werden nur zwei Bilder

mit einer endlichen Pixel-Anzahl erzeugt, wodurch die Genauigkeit der erzeugten Punktwolke und

dementsprechend auch die Messgenauigkeit beschrankt sind.

Hochwertige Kameras haben bis zu 50 Megapixel. Daraus resultiert eine maximale Bildauflosung

von 8165 x 6124 Pixeln bei einem Bildformat von 4:3. Unterstellt man eine unendlich große Wand,

die mit dieser Kamera von einer bestimmten Entfernung aus fotografiert wird, lasst sich durch die

Auflosung der Kamera und den Bildwinkel ( der Winkel der Aufnahme ) die maximal erfasste X- und

Y-Distanz des Bildes berechnen.

Die maximale X-Distanz wird wie folgt berechnet:

Xmax = (tan(a2) ∗ s) ∗ 2

a = Bildwinkel der Kamera

d = Distanz der Kamera zur Wand.

Bei einem Winkel von 120° und einer 10 m entfernten Wand betragt Xmax 34,6 m. Dementsprechend

deckt ein Pixel 34,6 m / 8165 = 4.2 mm der Wand ab. Wird die Distanz zur Wand auf 100 m erhoht,

deckt ein Pixel schon 42 mm der Wand ab. Damit nimmt die maximale Genauigkeit mit zunehmender

Entfernung vom Objekt stetig ab.

Ein Vorteil dieser Methode besteht darin, dass schneller und dynamischer auf sich andernde Objekte

reagiert werden kann. Zwar sind die Kameras starr angeordnet, jedoch konnen die zu vermessenden

Objekte jederzeit ausgetauscht werden und mit geringerem Rechenaufwand analysiert werden.

Die Methode des Rekonstruierens von 3D-Objekten hat den Vorteil, dass die Kameraposition varia-

bel sein kann. Dies ermoglicht das Fotografieren aus verschiedenen Blickwinkeln. Außerdem ist da-

durch im Vergleich zum stereoskopischen Messen die Anzahl der verwendbaren Bilder theoretisch

19

Page 20: Messmethoden der Photogrammetrie und der praktische Nutzen ...

2 Messmethoden der Photogrammetrie

unbegrenzt. Dies fuhrt zu einer hoheren Pixeldichte und damit zu einer dichteren und genaueren

Punktwolke, wodurch eine genauere dreidimensionale Rekonstruktion von Objekten bzw. Gebilden

moglich ist. Diese Methode scheint fur das Vermessen von starren Objekten vorteilhaft zu sein.

Jedoch ist es nicht moglich, auf Anderungen an dem zu rekonstruierenden Objekt zu reagieren. Wur-

den die Fotos einmal erzeugt und das Objekt andert sich oder wird ausgetauscht, muss der komplette

Rekonstruktionsprozess erneut durchlaufen werden. Dies ist fur sich andernde Objekte als Nachteil

zu bewerten.

Soll 3D-Rekonstruktion verwendet werden, muss zunachst die Entscheidung uber die Wahl des Pro-

grammes getroffen werden. Es muss Hardware gekauft werden, mit der die Fotos aufgenommen wer-

den. Das beinhaltet neben den Kameras ggf. auch Drohnen. Mitarbeiter mussen geschult werden im

Umgang mit der neuen Hardware und bezuglich der technischen Anforderungen beim Erzeugen der

Fotos. Geschulte Mitarbeiter sollten dann in der Lage sein, ohne großere Probleme die Aufnahmen

fachgerecht durchzufuhren.

Nach dem Einpflegen der erzeugten Fotos in das Programm, kann dieses ein 3D-Objekt rekon-

struieren. Ist dies aus den Bildern erfolgreich gelungen, konnen nun alle erforderlichen Distanzen

gemessen werden. Nicht nur das Erzeugen der Bilder ist zunachst deutlich aufwandiger, auch der

Rechenaufwand fur den Computer ist wesentlich hoher als beim stereoskopischen Messen. Die Ver-

arbeitungsdauer der Bilder durch den Computer ist dabei abhangig von der Anzahl der Bilder, der

Bildauflosung und der Leistungsstarke des Computers. Sollte das Generieren eines Objektes nicht

gelingen, also das Programm kein Ergebnis liefern, muss ggf. das Fotografieren wiederholt werden.

Dies ist jedoch in Abhangigkeit von den ortlichen Gegebenheiten nicht immer moglich und wurde ein

Scheitern des Rekonstruierens bedeuten.

20

Page 21: Messmethoden der Photogrammetrie und der praktische Nutzen ...

2 Messmethoden der Photogrammetrie

2.4 Nutzen und Anwendungsmoglichkeiten der Methoden fur die indurad GmbH

2.4.1 Stereoskopisches Messen

Die Methode des stereoskopischen Messens kann fur indurad von großem Nutzen sein. Mogliche

Anwendungsfalle sind:

• Verifizierung eigener durch Radar erzeugter Messungen

• Bessere Interpretationsmoglichkeiten von Radar-Punktwolken

• Visualisierung von Distanzen fur Kunden. Wird der Prozess des Messens anhand von ste-

reoskopischen Kamerabildern vollstandig automatisiert und in das indurad System integriert,

bietet sich außerdem die Moglichkeit, die gemessenen Distanzen in den Bildern zu visuali-

sieren und an den Kunden weiterzuleiten. Oft haben Kunden bereits Bildschirme, welche die

von indurad gemessenen/berechneten Metriken visuell darstellen. Mit dieser Methode kann die

Qualitat der Visualisierung jedoch deutlich erhoht werden. Es ist aber zu beachten, dass die

bei den Kundensystemen installierten Systeme indurads nicht uber die Rechenleistung eines

herkommlichen Computers verfugen. Die verwendeten Microcontroller sind zwar teilweise mit

leistungsstarken CPUs jedoch in der Regel nicht mit GPUs ausgestattet. Werden nun dyna-

misch und oft Berechnungen anhand von hochauflosenden Bildern durchgefuhrt, muss darauf

geachtet werden, dass andere Systeme - moglicherweise kritische Systeme wie ”Collision Avoi-

dance Systems“ - nicht ausfallen oder beeintrachtigt werden.

Bei dem Einsatz dieser Methode sind die Kosten nicht zu vernachlassigen. Hochwertige Kameras

sind hier besonders wichtig und konnen mehrere tausend Euro kosten. Das Kalibrieren der Kameras

sollte durch einen geschulten indurad Mitarbeiter geschehen. Dementsprechend sollten die Kameras

erst nach der Kalibrierung installiert werden.

2.4.2 Rekonstruieren von 3D-Objekten

Werden Objekte oder Strukturen erfolgreich rekonstruiert, kann das daraus entstandene 3D-Objekt

fur unterschiedliche Anwendungsfalle bei indurad genutzt werden:

• Ersetzen von extern angefertigten Surveys. Ist das rekonstruierte 3D-Objekt ausreichend prazise,

kann es vermessen werden und damit das Anfertigen von Surveys durch externe Firmen erset-

zen. Ein Survey ist eine prazise dreidimensionale Vermessung von Objekten oder Strukturen.

Ziel dabei ist es, in der Regel das geometrische Verhaltnis zwischen einzelnen Elementen eines

Objektes zu ermitteln. Ein haufiger Anwendungsfall fur Surveys bei indurad ist z.B. das Vermes-

sen von Schaufelradbaggern. Hierzu gehoren: Die Lage der Drehachse des Baggerarms, die

21

Page 22: Messmethoden der Photogrammetrie und der praktische Nutzen ...

2 Messmethoden der Photogrammetrie

Lange des Baggerarms und die Große bzw. Lage des Schaufelrads. Sind diese Informationen

gegeben, kann die Position des Schaufelrads anhand des jeweils aktuellen Drehwinkels des

Baggerarms berechnet werden.

• Exportieren des rekonstruierten 3D-Objektes. Das 3D-Objekt kann exportiert und anschließend

in andere Anwendungen indurads integriert werden. Wie auch schon bei der Methode des ste-

reoskopischen Messens beschrieben, kann dies fur die Visualisierung von Metriken genutzt

werden. Derzeit werden bei indurad 3D-Objekte mit Programmen wie ”Blender“ selber desi-

gned, was ein langwieriger und in der Genauigkeit begrenzter Prozess ist.

Das Ersetzen der extern angefertigten Surveys ist moglicherweise der relevanteste Nutzen dieses

Verfahrens fur indurad. Surveys haben nicht immer die benotigte Genauigkeit oder es lassen sich gar

keine Aussagen uber die Genauigkeit treffen. Des Weiteren kann das Vermessen dann geschehen,

wenn es benotigt wird und nicht dann, wenn externe Firmen Zeit haben, das Survey durchzufuhren.

Insgesamt ist die Methode des Vermessens von rekonstruierten 3D-Objekten sehr aufwandig, was

es schwierig macht abzuschatzen, ob der Nutzen die Kosten uberwiegt. Das theoretische Potenzial

ist jedoch sehr groß und konnte viele indurad interne Prozesse beschleunigen bzw. optimieren.

22

Page 23: Messmethoden der Photogrammetrie und der praktische Nutzen ...

3 Zusammenfassung

3 Zusammenfassung

In der vorliegenden Arbeit wurden Messmethoden der Photogrammetrie vorgestellt. Photogramme-

trie dient der Erzeugung und Verarbeitung von geometrischen Informationen (Form, Große, Position)

von Objekten und Strukturen anhand von Bildern. Von den drei beschriebenen Gebieten der Photo-

grammetrie werden zwei Messmethoden der terrestrischen Photogrammetrie in dieser Arbeit naher

diskutiert, das Messen durch stereoskopische Bilder und das Vermessen von rekonstruierten 3D-

Objekten.

Beim stereoskopischen Messen wird ein Paar von Bildern mit Hilfe von zwei starr angeordneten Ka-

meras erzeugt. Die Aufnahmeachsen der Kameras sollten dabei nahezu parallel sein und die Bilder

das gleiche Format haben. Aus diesen beiden Bildern kann nun mit Blockmatching-Algorithmen eine

DisparityMap erstellt werden. Dies ist ein zweidimensionales Array, bei dem jedem Pixel von einem

der beiden Stereobilder die Abweichung (Disparity) zu dem Pixel gleichen Inhalts des anderen Bildes

zugeordnet wird. Aus einer DisparityMap lassen sich Ruckschlusse zu der Distanz zwischen dem fo-

tografierten Objekt und der fotografierenden Kamera ziehen.

Das Erzeugen einer DisparityMap wurde mit Hilfe der open source Python/C++ Bibliothek OpenCV

und von dieser Bibliothek bereitgestellten stereoskopischen Bildern experimentell durchgefuhrt. Vor-

aussetzung zum Erstellen stereoskopischer Bilder ist eine Kalibrierung der verwendeten Kameras.

Beim Kalibrieren wird die Verzerrung der von diesen Kameras erzeugten Bilder korrigiert. Hierfur bie-

tet OpenCV ebenfalls Algorithmen an.

Mit Hilfe der DisparityMap ist es nun moglich, neben den klar sichtbaren Hohen- und Breitenkoordi-

naten auch Informationen uber die Tiefe eines Punktes zu errechnen und somit eine dreidimensio-

nale Punktwolke zu erzeugen. Dies wurde im Rahmen dieser Arbeit wieder mit Hilfe von OpenCV-

Algorithmen durchgefuhrt. Aus dieser Punktwolke ließen sich Informationen uber Lage und Große

der fotografierten Objekte extrahieren.

Fur das Rekonstruieren von 3D-Objekten aus Bildern mussen die Blickwinkel der einzelnen Bilder

nicht parallel sein. Die verwendeten Bilder werden mit Hilfe von Keypoint-Detection-Algorithmen im

dreidimensionalen Raum positioniert. In der Regel sollte die Uberlappung von zwei raumlich neben-

einander erzeugten Bildern mindestens 50%-60% betragen, damit genug gleiche Punkte durch die

Keypoint-Detection-Algorithmen gefunden werden konnen. Kommen weitere Bilder hinzu, ist lediglich

eine Uberlappung von 50%-60% mit einem der bereits vorhandenen Bilder erforderlich.

23

Page 24: Messmethoden der Photogrammetrie und der praktische Nutzen ...

3 Zusammenfassung

Zur Rekonstruktion von 3D-Objekten aus Bildern werden einige Programme angboten. Folgende

Programme wurden miteinander verglichen: Autodesk ReCap Photo, Pix4D Mapper, 3DF Zephyr,

Agisoft PhotoScan und Reality Capture. Jedes dieser Programme hat Vor- und Nachteile. ReCap

Photo ist z.B. das gunstigste dieser Programme, bietet aber keine Moglichkeit, 3D-Objekte auf eige-

nen Computern erzeugen zu lassen. PhotoScan wird fur Linux Systeme angeboten und beinhaltet

eine Anbindung an die Programmiersprache Python. Jedoch ist es nicht moglich, LaserScans in die

durch Photogrammetrie erzeugen 3D-Objekte zu integrieren. Dies ist jedoch mit allen andern aufge-

listeten Programmen moglich. Wie die einzelnen positiven und negativen Aspekte zu bewerten sind,

ist jedoch vom Anspruch und den Anforderungen des Anwenders abhangig und daher nicht objektiv

bestimmbar.

Experimentell wurden mit ReCap Photo ein paar Objekte dreidimensional rekonstruiert und die Ob-

jekte anschließend vermessen.

Beim Vergleich beider Methoden wurde das stereoskopische Messen als relativ schnelle und kos-

tengunstige Variante bewertet. Die Qualitat der Vermessung ist jedoch durch Faktoren wie die Bild-

auflosung beschrankt. Aufgrund des geringeren Rechenaufwandes des stereoskopischen Messens

konnte diese Methode fur dynamische Messungen in indurad Systeme eingebaut werden. Diese

Messungen konnen dann visualisiert an den Kunden weitergeleitet werden oder zum Verifizieren von

Radar-Messungen und zum besseren Interpretieren der Radarpunktwolken verwendet werden.

Die Methode des Vermessens von rekonstruierten 3D-Objekten scheint speziell fur das Vermessen

von starren Objekten vorteilhaft zu sein. Jedoch ist es nicht moglich, wie beim stereoskopischen

Messen, auf Anderungen an dem zu rekonstruierenden Objekt zu reagieren. Außerdem ist das Re-

konstruieren von 3D-Objekten deutlich zeitintensiver, als das Erzeugen einer Punktwolke durch ste-

reoskopische Bilder.

Das Vermessen von rekonstruierten 3D-Objekten ist nicht so flexibel einsetzbar wie das stereoskopi-

sche Messen. Durch die hohe Genauigkeit der rekonstruierten Objekte konnte diese Methode jedoch

von indurad dafur genutzt werden, selber Surveys zu erstellen und damit nicht mehr auf die Zuarbeit

externen Firmen angewiesen zu sein. Außerdem konnen die erstellten 3D-Objekte, wie auch schon

bei der Methode des stereoskopischen Messens, zum Visualisieren von Metriken verwendet werden.

Abschließend kann festgesellt werden, dass sowohl die Methode des stereoskopischen Messens als

24

Page 25: Messmethoden der Photogrammetrie und der praktische Nutzen ...

3 Zusammenfassung

auch das Vermessen von rekonstruierten 3D-Objekten praxisfahige Methoden zum Vermessen von

Objekten und Strukturen darstellen.

25

Page 26: Messmethoden der Photogrammetrie und der praktische Nutzen ...

Quellenverzeichnis

Quellenverzeichnis

[1] WIKIPEDIA: Photogrammetrie. https://de.wikipedia.org/wiki/Photogrammetrie.

Version: 2018.11.06. – abgerufen am: 22.11.2018

[2] SPEKTRUM.DE: Photogrammetrie. https:

//www.spektrum.de/lexikon/geowissenschaften/\\photogrammetrie/12220.

Version: 2014.04.12. – abgerufen am: 22.11.2018

[3] SPEKTRUM.DE: Stereoskopisches Messen. https://www.spektrum.de/lexikon/

geowissenschaften/stereoskopisches-messen/15674. Version: 2014.04.12. –

abgerufen am: 15.11.2018

[4] TOHOJO, GITHUB: image-processing.

https://github.com/tohojo/image-processing/tree/master/test-images/

middlebury-stereo-pairs/tsukuba. Version: 2012.06.06. – abgerufen am: 15.11.2018

[5] OPENCV: Depth Map from Stereo Images. https://docs.opencv.org/3.0-beta/doc/

py_tutorials/py_calib3d/py_depthmap/py_depthmap.html\#py-depthmap.

Version: 2018.12.11. – abgerufen am: 15.11.2018

[6] OPENCV: About. https://opencv.org/about.html. Version: 2018.11.28. – abgerufen

am: 17.11.2018

[7] RAZALI YAAKOB, ALIHOSSEIN ARYANFAR, ALFIAN ABDUL HALIN, NASIR SULAIMAN: A

Comparison of Different Block Matching Algorithms for Motion Estimation. https:

//ac.els-cdn.com/S2212017313003356/1-s2.0-S2212017313003356-main.pdf?

_tid=c52b8b06-c63e-4052-a2ff-b7fcb44fe5db&acdnat=1544047772_

7588f20f2d8ff27b63564fa2a45760a0. Version: 2013. – abgerufen am: 17.11.2018

[8] DANIEL LEE: Building and calibrating a stereo camera with OpenCV. https://erget.

wordpress.com/2014/02/01/calibrating-a-stereo-camera-with-opencv/.

Version: 2014.02.01. – abgerufen am: 29.10.2018

[9] OPENCV: Camera calibration and 3D Reconstruction. https://docs.opencv.org/2.4/

modules/calib3d/doc/camera_calibration_and_3d_reconstruction.html.

Version: 2018.11.12. – abgerufen am: 29.10.2018

[10] OPENCV: Draw ChessboardCorners. https://docs.opencv.org/2.4/modules/

26

Page 27: Messmethoden der Photogrammetrie und der praktische Nutzen ...

Quellenverzeichnis

calib3d/doc/camera_calibration_and_3d_reconstruction.html.

Version: 2018.11.12. – abgerufen am: 29.10.2018

[11] OPENCV: Stereo Calibration. https://docs.opencv.org/2.4/modules/calib3d/

doc/camera_calibration_and_3d_reconstruction.html#

doublestereoCalibrate(InputArrayOfArraysobjectPoints,

InputArrayOfArraysimagePoints1,InputArrayOfArraysimagePoints2,

InputOutputArraycameraMatrix1,InputOutputArraydistCoeffs1,

InputOutputArraycameraMatrix2,InputOutputArraydistCoeffs2,

SizeimageSize,OutputArrayR,OutputArrayT,OutputArrayE,OutputArrayF,

TermCriteriacriteria,intflags). Version: 2018.11.12. – abgerufen am: 29.10.2018

[12] WIKIPEDIA: 3D reconstruction from multiple images.

https://en.wikipedia.org/wiki/3D_reconstruction_from_multiple_images.

Version: 2018.12.01. – abgerufen am: 01.12.2018

[13] SHAWN MCCANN: 3D Reconstruction from Multiple Images.

http://cvgl.stanford.edu/teaching/cs231a_winter1415/prev/projects/

CS231a-FinalReport-sgmccann.pdf. Version: 2015.01.05. – abgerufen am: 01.12.2018

[14] AUTODESK: RecapPhoto.

http://help.autodesk.com.s3.amazonaws.com/sfdcarticles/

kA230000000eVng/ReCap%20Photo-Photogrammetry%20Guide%20V1.pdf.

Version: 2017. – abgerufen am: 06.12.2018

[15] DAVID G. LOWE: Object Recognition from Local Scale-Invariant Features.

https://www.cs.ubc.ca/˜lowe/papers/iccv99.pdf. Version: 1999. – abgerufen am:

06.12.2018

[16] UTKARSH SINHA: SIFT: Theory and Practice. http://aishack.in/tutorials/

sift-scale-invariant-feature-transform-introduction/. Version: -. –

abgerufen am: 29.11.2018

[17] PIX4D: Pix3Dmapper Store. https://cloud.pix4d.com/store/. Version: -. – abgerufen

am: 06.12.2018

[18] PIX4D: Pix3Dmapper.

https://www.pix4d.com/product/pix4dmapper-photogrammetry-software. –

abgerufen am: 06.12.2018

27

Page 28: Messmethoden der Photogrammetrie und der praktische Nutzen ...

Quellenverzeichnis

[19] WIKIPEDIA: 3DF Zephyr. https://en.wikipedia.org/wiki/3DF_Zephyr.

Version: 2018.12.07. – abgerufen am: 06.12.2018

[20] 3DFLOW: 3DF Zephyr.

https://www.3dflow.net/3df-zephyr-pro-3d-models-from-photos/.

Version: 2018. – abgerufen am: 06.12.2018

[21] AGISOFT: PhotoScan Shop. http://www.agisoft.com/buy/online-store/.

Version: 2018. – abgerufen am: 06.12.2018

[22] AGISOFT: PhotoScan Professional.

http://www.agisoft.com/features/professional-edition/. Version: 2018. –

abgerufen am: 06.12.2018

[23] CAPTURINREALITY: RealityCapture. https://www.capturingreality.com/Product.

Version: 2018. – abgerufen am: 06.12.2018

[24] LUCIE GAGET ON SCULPTEO: Top 12 of the best photogrammetry software.

https://www.sculpteo.com/blog/2018/06/12/

top-12-of-the-best-photogrammetry-software/. Version: 2018.06.12. – abgerufen

am: 06.12.2018

28