Messmethoden der Photogrammetrie und der praktische Nutzen ...
Transcript of Messmethoden der Photogrammetrie und der praktische Nutzen ...
FH Aachen
Fachbereich
Medizintechnik und Technomathematik
Studiengang Scientific Programming
Seminararbeit
Messmethoden der Photogrammetrie und der praktische
Nutzen fur die indurad GmbH
von Maximilian Racke
Matr.-Nr.: 3034191
1. Prufer: Prof. Dr. rer. nat. Alexander Voß
2. Prufer: Dipl. Inf.(FH) und M. Eng. David Meiners
13. Dezember 2018
Inhalt
Inhalt
1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1 Themenstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Vorgehensweise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2 Messmethoden der Photogrammetrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.1 Allgemeine Photogrammetrie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.1.1 Satellitenphotogrammetrie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.1.2 Aerophotogrammetrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.1.3 Terrestrische Photogrammetrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.2 Methoden der terrestrischen Photogrammetrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.2.1 Stereoskopisches Messen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.2.1.1 Methodik. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.2.1.2 Eigenschaften einer DisparityMap und Disparity . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2.1.3 Erzeugen einer DisparityMap mit OpenCV .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.2.1.4 Kamera-Kalibrierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.2.1.5 Erzeugen einer Punktwolke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.2.2 Rekonstruieren von 3D-Objekten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2.2.1 Methodik. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.2.2.2 Keypoint Detection. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.2.2.3 Programme fur das Rekonstruieren von 3D-Objekten . . . . . . . . . . . . . . . . . . . . 13
2.2.2.4 Vergleich der Programme .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2.2.5 Anwenden der Rekonstruktionsfunktion von ReCap Photo . . . . . . . . . . . . . . 18
2.3 Auswertung und Vergleich von Messmethoden der terrestrischen Photogrammetrie . . . . . 19
2.4 Nutzen und Anwendungsmoglichkeiten der Methoden fur die indurad GmbH.. . . . . . . . . . . . 21
2.4.1 Stereoskopisches Messen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.4.2 Rekonstruieren von 3D-Objekten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
Quellenverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3
1 Einleitung
1 Einleitung
1.1 Themenstellung
Thema dieser Arbeit ist es, Messmethoden der Photogrammetrie auszuarbeiten, zu vergleichen und
experimentell umzusetzen. Außerdem ist der praktische Nutzen dieser Methoden fur die indurad
GmbH zu bewerten.
indurad ist ein mittelstandisches Unternehmen, welches aus einem wissenschaftlichen Projekt des
”Institute for Advanced Mining Technologies“ der RWTH Aachen gewachsen ist.
indurad bietet technische Losungen an, unter anderem fur Firmen der Bergbauindustrie, welche die
Effizienz und die Sicherheit bei Abbau-, Beladungs- oder Transportvorgangen steigern. Dazu werden
Maschinen wie Schaufelradbagger, Shiploader oder Zugbeladungsanlagen mit Sensoren ausgestat-
tet. Diese Sensoren basieren auf verschiedenen Technologien, wie z.B. Radar ( indurad: industrial
Radar Company), GPS oder einer weiterentwickelten Form von RFID. Die auf Basis dieser Technolo-
gien umgesetzten Projekte zielen darauf ab, die Position von Objekten oder Personen zu bestimmen
bzw. die Distanzen zwischen Objekten oder Personen zu berechnen. Mit den gemessenen Distanzen
und den im Raum bestimmten Positionen, konnen das Abbauen von Erzen oder das Transportieren
von Waren effizienter gestaltet, Anlagen automatisiert oder die Sicherheit von Arbeitern gewahrleistet
werden.
1.2 Vorgehensweise
Im Rahmen dieser Arbeit werden zwei Methoden des raumlichen Messens mittels Bildauswertung
naher untersucht. Dabei werden Objekte bzw. Strukturen zum einen durch stereoskopische Bilder
und zum anderen mit Hilfe von Software rekonstruierten 3D-Objekten vermessen. Beide Methoden
werden im Folgenden theoretisch aufgearbeitet und praktisch umgesetzt. Im Falle des stereoskopi-
schen Messens wurde mit Hilfe von externen Bibliotheken Software selbst programmiert.
Fur das Rekonstruieren von 3D-Objekten aus Fotos gibt es professionelle Programme, die diese Auf-
gabe ubernehmen. Dafur wurde in dieser Arbeit das Programm ReCap Photo der Firma Autodesk
verwendet.
Anschließend werden beide Methoden miteinander verglichen, wobei die einzelnen Vor- und Nach-
teile gegenubergestellt werden.
Abschließend wird der theoretische und praktische Nutzen der Methoden fur indurad dargelegt.
4
2 Messmethoden der Photogrammetrie
2 Messmethoden der Photogrammetrie
2.1 Allgemeine Photogrammetrie
Photogrammetrie umfasst eine Gruppe von Messmethoden und Verfahren, welche zur Erzeugung
und Verarbeitung von geometrischen Informationen (Form, Große, Position ) von Objekten und Struk-
turen anhand von Bildern verwendet werden [1].
Dabei ist zunachst nicht definiert, woher diese Bilder stammen oder wie sie erzeugt worden sind.
Die Photogrammetrie umfasst sowohl das Erkennen von Oberflachenstrukturen der Erdoberflache
anhand von Satellitenbildern als auch das Scannen von kleineren Objekten mit Hilfe von normalen
Digitalkameras. Es werden im Folgenden drei Gebiete beschrieben, in die die Photogrammetrie auf
Grund von unterschiedlichen Herangehensweisen und Zielen aufgeteilt werden kann. Dabei sind die
Abgrenzungen nicht genau definiert.
2.1.1 Satellitenphotogrammetrie
Satellitenphotogrammetrie bezeichnet die Verfahren zum Analysieren von Satelliten- bzw. Raum-
schiffbildern.
Hier werden Bilder von der Erdoberflache oder Oberflachen anderer Himmelskorper ausgewertet,
um beispielsweise topografische Karten zu erzeugen (”Hohenkarten“).
Diese Techniken sind auf Grund der großen Entfernungen zu dem fotografierten Objekt sehr begrenzt
in ihrer Genauigkeit. Der Bildmaßstab kann zwischen ca. 1:200000 und 1:3000000 liegen, woraus
eine Genauigkeit der Objektlage von ± 2 m bis ± 20 m resultiert [2].
2.1.2 Aerophotogrammetrie
Aerophotogrammetrie verwendet im Gegensatz zur Satellitenphotogrammetrie Bilder, die von flie-
genden Objekten aus erzeugt wurden, die sich deutlich naher an der Erdoberflache befinden als
Satelliten. In der Regel liegt die Aufnahmehohe zwischen 200 m und 10 km.
Oft werden diese Bilder aus Flugzeugen heraus gemacht. Aber auch von Drohnen aufgenommene
Bilder sind keine Seltenheit mehr.
Es werden viele Bilder erzeugt, deren Uberschneidung moglichst groß sein sollte. So konnen ganze
Stadte aber auch einzelne Gebaude oder andere Strukturen als dreidimensionales Objekt rekonstru-
iert werden. Auf Grund von kleineren Bildmaßstaben von ca. 1:3000 bis 1:50000 ist es moglich, die
Form und Position von Objekten zentimetergenau zu bestimmen [2].
5
2 Messmethoden der Photogrammetrie
2.1.3 Terrestrische Photogrammetrie
Terrestrische Photogrammetrie beschaftigt sich mit dem Auswerten von Bildern, welche aus einer
Hohe von bis zu 200 m, aber auch flach uber dem Boden aufgenommen werden. Dies ist die Form
der Photogrammetrie mit der hochsten Genauigkeit, aber auch dem kleinsten zu erfassenden Be-
reich. Fotos konnen beispielsweise mit einfachen digitalen Kameras aufgenommen werden. Drohnen
konnen auch hier wieder verwendet werden.
Die mogliche erzielbare Auflosung der aus diesen Bildern erzeugten dreidimensionalen Objekte kann
weniger als einen Millimeter betragen, siehe Tabelle 1 [2].
Die terrestrische Photogrammetrie ist das Gebiet der Photogrammetrie, das in dieser Arbeit behan-
delt wird.
Tabelle 1: Unterteilung und Genauigkeit der drei Gebiete der Photogrammetrie [2]
2.2 Methoden der terrestrischen Photogrammetrie
2.2.1 Stereoskopisches Messen
2.2.1.1 Methodik
Eine Messmethode der terrestrischen Photogrammetrie ist das stereoskopische Messen. Durch Er-
zeugen von stereoskopischen Bildern konnen Großen, Formen und Positionen eines Objektes ge-
messen werden. Ein stereoskopisches Bild ist ein Paar von Bildern, welches von zwei Kameras
aufgenommen wurde. Dabei ist es wichtig, dass die Kameras das gleiche Ziel jedoch von unter-
schiedlichen Positionen aus fotografieren. Die Aufnahmeachsen der Kameras sollten dabei nahezu
parallel sein und die Bilder das gleiche Format haben [3]. Die so entstandenen Bilder konnen nun mit
entsprechender Software bearbeitet und metrisch ausgewertet werden.
6
2 Messmethoden der Photogrammetrie
2.2.1.2 Eigenschaften einer DisparityMap und Disparity
In der hier angewandten Vorgehensweise zum Messen von Abstanden wird zunachst aus den jewei-
ligen Bildpaaren eine DisparityMap erzeugt. Eine DisparityMap ist ein zweidimensionales Array, das
auch als Bild visualisiert werden kann. Dabei wird jedem Pixel von einem der beiden Stereobilder
die Abweichung (Disparity) zu dem Pixel des anderen Bildes zugeordnet, das den gleichen Inhalt hat
oder das Gleiche zeigt. Abb. 1a und 1b zeigen die zwei Bilder eines Stereobildes und Abb. 1c die
dazu gehorige DisparityMap.
(a) Aufnahme der linken Kamera [4] (b) Aufnahme der rechten Kamera[4]
(c) Selbst erzeugte DisparityMap
Abbildung 1: Stereoskopische Bilder und die dazugehorige DisparityMap
Die Berechnung der Disparitat ’x’ zweier Punkte kann mit folgender Funktion beschrieben werden
[5]:
x =U −U ′ =B ∗ fz
=Disparity
• U und U‘ sind die X-Koordinaten der beiden zu betrachtenden Punkte
• B ist der X-Abstand zwischen den beiden fotografierenden Kameras
• f ist die Brennweite der Kamera, also der Abstand zwischen der Hauptebene der Linse und
dem Brennpunkt.
• z ist die tatsachliche Entfernung von dem zu dem Punkt gehorigen Objekt und dem Brennpunkt
Z ist jedoch nicht bekannt und ist die Information, die es letztendlich zu ermitteln gilt. Also muss die
Disparitat uber U – U‘ berechnet werden. Dafur mussen die zusammengehorigen Punkte der beiden
Bilder algorithmisch gefunden werden.
Die DisparityMap (Abb. 1c) ist so zu interpretieren, dass hellere Pixel eine großere horizontale Di-
stanz zwischen zwei gleichen Pixeln des linken und rechten Bildes bedeuten. Daraus lasst sich
schließen, dass hellere Pixel zu Objekten gehoren, die sich naher an den Kameras befinden als
Objekte, die durch dunklere Pixel dargestellt werden. Die Lampe ist naher an der aufnehmenden
7
2 Messmethoden der Photogrammetrie
Kamera als die Buste, welche wiederum naher an der Kamera steht als die Videokamera im Hinter-
grund.
2.2.1.3 Erzeugen einer DisparityMap mit OpenCV
Das Erzeugen einer DisparitMap ist mit verschiedenen Bibliotheken oder Programmen moglich. Hier
wird OpenCV verwendet, da diese Bibliothek bereits im indurad eigenen Framework integriert ist und
dementsprechend Vorkenntnisse bestehen.
Die Bilder der Abb. 1a und 1b sind von OpenCV bereitgestellte Beispielbilder. OpenCV ist eine kos-
tenlose open-source Bildbearbeitungs Bibliothek, die sowohl in Python, als auch in C++ implementiert
ist [6]. Die Herangehensweise, welche OpenCV hier verwendet, nennt sich Blockmatching. Es gibt
verschiedene Blockmatching-Algorithmen, welche alle dem gleichen Prinzip folgen. Der Standard-
Anwendungsfall von Blockmatching-Algorithmen liegt in dem Vorhersagen von Bewegungen oder
dem Verfolgen von Objekten in Bilderfolgen oder Videos. Das Fotografieren von sich bewegenden
Objekten ist vergleichbar mit dem Fotografieren einer Szene aus verschiedenen Ansichten, was dem
Anwendungsfall von stereoskopischem Fotografieren entspricht. In Blockmatching-Algorithmen wird
versucht, Blocke einer bestimmten Große aus einem Bild in einem anderen Bild wiederzufinden.
Kleinere Blocke fuhren zu einem genaueren Ergebnis, sind aber auch schwieriger in anderen Bil-
der wiederzufinden. Außerdem steigt der Rechenaufwand des Algorithmus mit kleiner werdenden
Blocken [7]. Dabei werden nur Pixel betrachtet, die sich in der Region Of Interest (ROI) befinden.
Die ROI beinhaltet in diesem Fall alle Pixel, die in beiden Bildern gemeinsam vorhanden sind. Wird
ein Block in einem anderen Bild wiedergefunden, lasst sich daraus die Disparitat berechnen ( U –
U‘). Aus der Disparitat kann wiederum die Entfernung zu dem Objekt innerhalb des Blocks berechnet
werden.
Z =B ∗ fU −U ′
Damit sind alle drei Freiheitsgrade (X, Y, Z) eines Punktes des Bildes bekannt und konnen dreidi-
mensional dargestellt werden.
2.2.1.4 Kamera-Kalibrierung
Um die Qualitat selbst erstellter Stereobilder zu verbessern, mussen die Kameras vorher kalibriert
werden. Ziel des Kalibrierens von Kameras ist es, die Parameter einer speziellen Kamera (Kame-
ra + Objektiv) zu ermitteln. Jede Kamera unterscheidet sich, wenn auch nur in Nuancen, selbst bei
baugleichen Modellen. Dies fuhrt dazu, dass Bilder von exakt gleichen Szenen leicht unterschiedlich
sind, wenn sie mit unterschiedlichen Kameras aufgenommen wurden. Dieser Effekt nennt sich ”dis-
8
2 Messmethoden der Photogrammetrie
tortion“ also ”Verzerrung“ und ist in Abb. 2 dargestellt.
Abbildung 2: Verschiedene Arten von Bildverzerrungen (distortions) [9]
Jedes Bild ist bei seiner Erzeugung leicht verzerrt. Das Kalibrieren einer Kamera bedeutet daher, die
Verzerrung der von dieser Kamera erzeugten Bilder zu korrigieren.
Es gibt verschiedene Methoden, eine Kamera zu kalibrieren. Manche Kameras konnen sich selbst ka-
librieren. Allerdings ist diese Methode nicht sehr genau. Herkommlicher Weise wird zum Kalibrieren
entweder ein 2D-Schachfeld oder ein 3D-Schachfeld (ein geknicktes 2D-Schachfeld) aus verschie-
denen Winkeln und Perspektiven fotografiert [8]. Anschließend wird dieses Schachfeld algorithmisch
erkannt und jedes Feld wird markiert. Diese Markierungen sollten im Idealfall gerade Linien ergeben
[10]. Ist das nicht der Fall, liegt eine Verzerrung vor, wie in Abb. 2 dargestellt. Das rechte und mittlere
Bild sind verzerrt und werden in das linke Bild transformiert. Hierfur bietet OpenCV ebenfalls Algorith-
men, die aus moglichst vielen Bildern desselben Schachbretts die Parameter einer Kamera ermitteln.
Die Genauigkeit der Parameter steigt mit der Anzahl der Bilder. Aus besagten Algorithmen OpenCVs
werden Matrizen erzeugt, die das verzerrte Bild in ein verzerrungsfreies Bild transformieren.
Um den Aufwand und die Komplexitat dieses Prozesses zu prufen, wurde eine Kamera-Kalibrierung
im Rahmen dieser Arbeit experimentell nachgestellt. Das in diesem Prozess enthaltene Erkennen
eines Schachfelds wurde in Abb. 3a und 3b visualisiert. Das in Abb. 3a gezeigte Schachfeld wurde
mit der zu kalibrierenden Kamera fotografiert. Abb. 3b zeigt das unkalibrierte und markierte Schach-
feld. Die dadurch erzeugte Matrix kann spater zum Entzerren von Bildern dieser Kamera verwendet
werden.
9
2 Messmethoden der Photogrammetrie
(a) Foto eines Schachfeldes mit unkalibrierter Ka-mera
(b) Visualisierung des von OpenCV erkanntenSchachfeldes
Abbildung 3: Visualisierte Schachfelderkennung
2.2.1.5 Erzeugen einer Punktwolke
Die DisparityMap aus Abb. 1c wurde experimentell im Rahmen dieser Arbeit mit der Python Imple-
mentierung von OpenCV erzeugt. Diese wurde verwendet, da mit Python aus meiner Sicht leichter
und schneller experimentiert werden kann als mit C++. Python muss nicht kompiliert werden und ist
nicht Typsicher.
Mit der in Abb. 1c dargestellten DisparityMap ist es nun moglich, neben den klar sichtbaren Hohen-
und Breitenkoordinaten auch Informationen uber die Tiefe eines Punktes zu errechnen und somit
eine dreidimensionale Punktwolke zu erzeugen. Dafur bietet OpenCV ebenfalls einen Algorithmus
an. Dieser projiziert die Punkte der DisparityMap mit Hilfe einer 4x4 Transformationsmatrix in den
dreidimensionalen Raum. Die Transformationsmatrix ist abhangig von den verwendeten Kameras
und berucksichtigt unter anderem die Brennweite der Kameralinse und das Format des Bildes. Die
Transformationsmatrix und andere kameraspezifische Informationen erhalt man auch hier durch das
Kalibrieren der Kameras.
Da fur stereoskopische Bilder zwei Kameras benotigt werden, mussen zunachst beide Kameras ein-
zeln kalibriert werden. Dies wird in Kapitel ”Kamera Kalibrierung“ naher beschrieben. Anschließend,
konnen die Kameras zueinander kalibriert werden. Dieser Vorgang nennt sich StereoCalibration.
Einem von OpenCV bereitgestellten Algorithmus werden die aus den vorherigen Kalibrierungen ge-
sammelten Kameradaten ubergeben [11]. Der Algorithmus ermittelt daraus das Verhaltnis beider
Kameras zueinander. Werden die Positionen der Kameras als fix betrachtet, werden eine dreidi-
mensionale Rotationsmatrix und ein Translationsvektor berechnet. Anhand dieser beiden Parameter
10
2 Messmethoden der Photogrammetrie
konnen nun Punkte, die mit einer Kamera aufgenommen worden sind, von ihrem ursprunglichen,
zweidimensionalen Koordinatensystem in ein dreidimensionales Koordinatensystem projiziert wer-
den.
Sind alle Punkte des Bildes in den 3D-Raum projiziert, kann die so entstandene Punktwolke mit
einem Programm, wie z.B. Meshlab, visualisiert werden (siehe Abb. 4). Anschließend ist eine Be-
stimmung der Positionen und Ausmaße von Objekten moglich.
Abbildung 4: Visualisierte 3D-Punktwolke
2.2.2 Rekonstruieren von 3D-Objekten
Bei der vorher beschriebenen Methode war stets die Perspektive zwischen den einzelnen Bildern
konstant. Somit konnten Pixel des Bildes anhand der gleich bleibenden Kameradaten im Raum plat-
ziert werden.
Die Vorgehensweise, 3D-Objekte aus Bildern zu rekonstruieren, ohne gleichbleibende Perspektive
der Kamera, ist deutlich komplexer als das Messen anhand von stereoskopischen Bildern. Jedoch ist
das Potenzial der daraus entstehenden 3D-Objekte im Hinblick auf Große und Genauigkeit deutlich
hoher [12].
11
2 Messmethoden der Photogrammetrie
2.2.2.1 Methodik
Durch die nicht limitierte Anzahl der verwendeten Bilder und die frei wahlbaren Perspektiven der ein-
zelnen Bilder kann das zu rekonstruierende Objekt von allen Seiten fotografiert werden. Dies fuhrt
dazu, dass unabhangig von der Große des Objektes alle Seiten aufgenommen werden konnen.
Wie auch beim Messen anhand von stereoskopischen Bildern mussen zusammengehorende Punk-
te in verschiedenen Bildern gefunden werden (Keypoint Detection). Auf Grund der unterschiedli-
chen Perspektiven sind jedoch die vorher beschriebenen Blockmatching-Algorithmen nicht mehr
verwendbar. Gleiche Punkte konnen in unterschiedlichen Bildern nun nicht mehr nur eine andere
X-Koordinate haben, sondern im Vergleich zu ihrem ”Match“ in einem anderen Bild, naher an der
Kamera, verdreht oder auch nach oben oder unten verschoben sein. Außerdem ist es moglich, dass
Punkte sich in einigen Bildern uberhaupt nicht wiederfinden lassen, wenn sich zum Beispiel der
Blickwinkel der Kamera zwischen den Bildern stark unterscheidet oder Punkte von anderen Objek-
ten verdeckt werden [13].
Trotzdem mussen Punkte in Bildern wiedergefunden werden, um Objekte zu rekonstruieren. Dabei
ist es nicht notig, jeden Punkt in jedem Bild wiederzufinden. Dies bedeutet aber nicht, dass vollig un-
abhangige Bilder verwendet werden konnen. In der Regel sollte die Uberlappung von zwei raumlich
nebeneinander erzeugten Bildern mindestens 50%-60% betragen, damit sich genug gleiche Punk-
te in diesen Bildern befinden. Wird nun ein weiteres Bild der Sammlung hinzugefugt, muss dieses
jedoch nicht mit allen anderen Bildern uberlappen, sondern lediglich um 50%-60% mit einem der be-
reits vorhandenen Bilder. So kann sich die Position der Kamera um ein Objekt bewegen und jedem
Bild kann eine Position im Raum zugeordnet werden [14].
2.2.2.2 Keypoint Detection
Keypoint Detection umfasst Techniken, welche fur das Wiedererkennen von Merkmalen innerhalb
von Bildern verwendet werden. Hierfur wird in der Regel eine Form des ”SIFT“ Algorithmus verwen-
det [13]. SIFT steht fur Scale-Invariant Feature Transform [15]. Er ist ein Algorithmus zur Detektion
von Merkmalen in Bildern. Dabei funktioniert der Algorithmus unabhangig davon, ob das gesuchte
Merkmal großer oder kleiner abgebildet oder verschwommen ist.
SIFT sucht Merkmale innerhalb eines Bildes anhand von Kantenerkennungs-Algorithmen und
Gaussfiltern. Anschließend wird fur die erkannten Merkmale anhand von Gradienten der Kontras-
te ein Muster generiert. Der SIFT-Algorithmus wurde 1999 von David G. Lowe veroffentlicht und ist
derzeit noch fur die University of British Columbia patentiert [16]. Die Grundlagen des Algorithmus
wurden jedoch in vielen anderen Algorithmen verarbeitet. Welche Abwandlung von SIFT in Program-
men verwendet wird, ist nicht ermittelbar.
12
2 Messmethoden der Photogrammetrie
Eine detailliertere Erlauterung des SIFT-Algorithmus ist im Rahmen dieser Arbeit nicht vorgesehen.
2.2.2.3 Programme fur das Rekonstruieren von 3D-Objekten
Fur das Matchen, Positionieren und anschließende Rekonstruieren von 3D-Modellen gibt es eine
Vielzahl von professionellen Programmen, die diesen Prozess automatisieren. Dabei hat jedes die-
ser Programme Starken und Schwachen. Folgende Eigenschaften sind dabei von besonderer Be-
deutung:
• Qualitat der Rekonstruktion
• Betriebssysteme, fur die die Software bereitgestellt wird
• Anbindung an Programmiersprachen
• Geschwindigkeit der Rekonstruktion (Unterstutzung von mehreren GPUs)
• Preis
• Andere markante Eigenschaften.
Alle nachfolgend vorgestellten Programme sind in der Lage, rekonstruierte Objekte zu vermessen.
Autodesk ReCap Photo
ReCap Photo ist ein von Autodesk bereitgestellter kostenpflichtiger CloudService, der aus Bildern
sehr prazise 3D-Punktwolken und Meshes berechnet. Dieser existiert seit Dezember 2017 und war
vorher unter dem Namen ReMake bekannt.
Qualitat der Rekonstruktion:
ReCap Photo bietet in der Benutzeroberflache zwei Moglichkeiten zum Rekonstruieren von 3D-
Objekten: ”Objekt“ und ”Aerial“. ”Objekt“ ist besser geeignet fur das Rekonstruieren von kleineren
Objekten, also Objekten, die sich in Raumen befinden. ”Aerial“ ist dementsprechend besser geeig-
net, um große Objekte oder Gebiete zu rekonstruieren.
Betriebssystem:
Windows only.
Anbindung an Programmiersprachen:
Keine Anbindung vorhanden.
Geschwindigkeit der Rekonstruktion:
Nachteilig ist, dass das letztendliche Verarbeiten und Auswerten der Bilder nicht auf lokalen, eigenen
13
2 Messmethoden der Photogrammetrie
Computern moglich ist. Die Bilder werden in eine Cloud hochgeladen und anschließend kann das
fertige Mesh bzw. die fertige Punktwolke heruntergeladen werden.
Preis:
Fur das Hochladen von Bildern werden CloudCredits benotigt. Diese verursachen neben den mo-
natlichen Gebuhren von 50 C ebenfalls Kosten. Je mehr Bilder hochgeladen werden, umso mehr
CloudCredits werden verbraucht.
Andere markante Eigenschaften:
Die Software bietet die Moglichkeit, nahezu unbegrenzt viele Fotos zu verarbeiten. Hier ist es uner-
heblich, ob die Fotos mit Smartphones, Kameras oder Drohnen aufgenommen wurden. Die einzige
offensichtliche Vorgabe, die ReCap an die eingereichten Fotos hat, ist eine Uberdeckung von min-
destens 60% zwischen einzelnen Bildern [14]. Wurde ein Objekt aus Bildern erfolgreich rekonstruiert,
bietet das Programm Moglichkeiten, das erzeugte Mesh zu bearbeiten oder zu vermessen. Außer-
dem kann es aus ReCap exportiert werden und in anderen Anwendungen verwendet werden. Ein
weiterer Pluspunkt von ReCap ist, dass es auch Laserscans in Verbindung mit Photogrammetrie
auswerten kann.
ReCap Pro ist ein Programm, welches im Rahmen dieser Arbeit getestet wurde. Die dargelegten
Informationen stammen insoweit großtenteils aus eigenen Erfahrungen.
Pix4D Mapper
Pix4D Mapper erschien 2011 und wird von der gleichnamigen Firma PIX4D betrieben und weiterent-
wickelt.
Qualitat der Rekonstruktion:
Pix4D gibt an, anhand von Drohnenbildern die Außenwelt nach Industrie-Survey Standard-Qualitat
nachstellen zu konnen [18].
Betriebssystem:
Windows, Mac und Linux
Anbindung an Programmiersprachen:
Keine Anbindung moglich.
Geschwindigkeit der Rekonstruktion:
Keine Informationen.
Preis:
Pix4D kostet entweder einmalig 3990 C und enthalt dann eine ”Floating License“ und ein Jahr
personlichen Support, der aber gegen einen Aufpreis verlangert werden kann. Die andere Moglichkeit,
Zugriff auf Pix4D zu bekommen, ist durch ein monatlich/jahrlich zu zahlendes Abonnement. Dies kos-
14
2 Messmethoden der Photogrammetrie
tet, wenn auf einmal fur ein ganzes Jahr gezahlt wird, 217 C pro Monat, also 2604 C. Wird monatlich
gezahlt, betragt der Preis 260 C pro Monat, also 3120 C pro Jahr [17].
Andere markante Eigenschaften:
Rekonstruierte Objekte konnen bearbeitet werden.
3DF Zephyr
3DF Zephyr existiert seit 2014 und wird von der italienischen Firma 3DFlow stetig weiterentwickelt
[19]. Das Programm wird in vier verschiedenen Versionen angeboten: Free, Lite, Pro und Aerial
Qualitat der Rekonstruktion:
3DFlow gibt an, dass die Aerial-Version fur Surveys, also Industrie standardisierte Vermessungen
von Objekten geeignet ist.
Betriebssystem:
Windows only.
Anbindung an Programmiersprachen:
Keine Anbindung moglich.
Geschwindigkeit der Rekonstruktion:
Die Free-Version rechnet mit nur einer GPU. Die Lite-Version benutzt bis zu zwei GPUs und die
Pro/Aerial Version unterstutzt eine beliebige Anzahl an Grafikkarten.
Preis:
Die vier Versionen kosten jeweils einmalig, 0 $, 150 $, 3200 $ und 4200 $.
Andere markante Eigenschaften:
Die Pro und Aerial Version unterstutzen Laserscans. Die Anzahl der verwendeten Bilder ist bei der
Free-Version auf 50 limitiert. Die Lite-Version kann mit 500 Bildern arbeiten. Pro und Aerial sind in
dieser Hinsicht nur durch die verarbeitende Hardware limitiert [20]. Sowohl die Pro-, als auch die
Aerial-Version bieten die Moglichkeit, die rekonstruierten Objekte zu bearbeiten. Außerdem konnen
die Meshes bzw. Punktwolken exportiert werden [20].
Agisoft PhotoScan
Die erste Fassung von PhotoScan wurde 2010 von Agisoft LLC veroffentlicht und existiert in zwei
Versionen: Standard und Professional.
Qualitat der Rekonstruktion:
Keine genaueren Informationen.
Betriebssystem:
Windows, MacOS, Linux
15
2 Messmethoden der Photogrammetrie
Anbindung an Programmiersprachen:
Es existiert eine Python-Anbindung, die es ermoglicht, Skripte aus dem Programm heraus zu starten.
Außerdem besteht die Moglichkeit Befehle des Programms in Skripten auszufuhren.
Geschwindigkeit der Rekonstruktion:
Es ist sowohl moglich, die Punktwolken lokal auf dem eigenen Rechner zu erzeugen, als auch den
Rechenaufwand von einem Server ubernehmen zu lassen.
Preis:
Die beiden Versionen kosten einmalig entweder 179 $ oder 3499 $ [21].
Andere markante Eigenschaften:
Mit beiden Versionen ist es moglich, Punktwolken und Meshes zu erstellen. Jedoch ist das Vermes-
sen der Punktwolken nur mit der Professional-Version moglich [22].
Reality Capture
Reality Capture existiert seit 2016 und wird von Capturing Reality entwickelt.
Qualitat der Rekonstruktion:
Capturing Reality wirbt damit, dass Reality Capture fur industrielle Surveys verwendet werden kann
[23].
Betriebssystem:
Windows only.
Anbindung an Programmiersprachen:
Anbindung an Batch.
Geschwindigkeit der Rekonstruktion:
Tests haben ergeben, dass Reality Capture durch die Unterstutzung von mehreren GPUs beim Be-
rechnen der Modelle uberdurchschnittlich schnell arbeitet.
Preis:
Die Vollversion kostet einmalig 15000 C und kann fur 7500 C noch um ein Command Line Interface
erweitert werden.
Andere markante Eigenschaften:
Reality Capture kann sowohl mit Bildern, als auch mit Laser Scans gleichzeitig arbeiten und 3D-
Modelle rekonstruieren. Dabei ist die Anzahl der verwendeten Bilder unbegrenzt.
Neben den hier erwahnten Programmen, gibt es auch vereinzelte OpenSource oder zumindest kos-
tenlose Programme wie z.B. VisualSFM. VisualSFM basiert auf der vorher bereits erwahnten Open-
Source C++/Python Bibliothek OpenCV. Aus Testberichten lasst sich jedoch entnehmen, dass fur pro-
16
2 Messmethoden der Photogrammetrie
fessionelle Projekte aus Qualitatsgrunden auch professionelle Photogrammetrie-Software benotigt
wird. Der Programmieranspruch hinter dieser Rekonstruktionsmethode ist daher als sehr hoch und
aufwandig zu bewerten [24] und kann im Rahmen dieser Arbeit nicht geleistet werden.
2.2.2.4 Vergleich der Programme
Alle in Kapitel 2.2.2.3 beschriebenen Programme haben Vor- und Nachteile. Beispielsweise ist das
nicht vorhandene lokale Prozessieren der Bilder in ReCap Photo ein Argument, das stark gegen den
Kauf dieses Produktes spricht. Die Abhangigkeit vom Betriebssystem ist ein weiterer, durchaus nega-
tiv zu bewertender Aspekt, aber letztlich nicht ausschlaggebend, da es fur Unternehmen moglich ist,
verschiedene Betriebssysteme zu verwenden. Dafur ist ReCap Photo mit ca. 390 C pro Jahr deutlich
gunstiger als konkurrierende Produkte.
Preislich liegen 3DF Zephyr, Agisoft PhotoScan und Pix4D Mapper auf einem Niveau. Einzig Reality
Capture ist mit insgesamt 22500 C deutlich teurer.
Alle Programme geben an, in der Lage zu sein, Surveys auf dem Niveau des Industrie-Standards
durchfuhren zu konnen. Ebenfalls das anschließende Vermessen und Exportieren der erzeugten
Meshes ist mit allen Programmen moglich.
Da sich in der Theorie die Performance der einzelnen Programme nicht unterscheidet und sich die
Handhabung und letztendlich Ergebnisse nicht bewerten lassen, ohne alle Programme selber zu tes-
ten, konnen Vorteile einzelner Programme gegenuber anderen nur durch Nuancen, wie z.B. Linux
Kompatibilitat, ausgemacht werden.
Hier sticht PhotoScan von Agisoft besonders hervor, da es sowohl fur Linux implementiert ist als
auch eine Pythonanbindung integriert hat. Dies konnte das Einbinden in den alltaglichen Workflow
deutlich vereinfachen. Daruber hinaus konnen Berechnungen optional auf Server Agisofts ausgela-
gert werden. Gegen die Verwendung von PhotoScan spricht, dass es nicht moglich ist, Messungen
durch LaserScans in die durch Photogrammetrie erzeugten Punktwolken einzubinden. Dies ist mit
RealityCapture, ReCap Photo und 3DF Zephyr moglich. Pix4D Mapper bietet dies zwar nicht stan-
dardmaßig an, ermoglicht es jedoch, externe Punktwolken zu integrieren.
Wie die einzelnen positiven und negativen Aspekte zu bewerten sind, ist jedoch vom Anspruch und
den Anforderungen des Anwenders abhangig und daher nicht objektiv bestimmbar. Außerdem sollte
vor dem Kauf eines Programms von der in der Regel angebotenen Probezeit Gebrauch gemacht
werden.
17
2 Messmethoden der Photogrammetrie
2.2.2.5 Anwenden der Rekonstruktionsfunktion von ReCap Photo
Im Rahmen dieser Arbeit wurden mit ReCap Photo unterschiedliche Objekte unterschiedlicher Große
rekonstruiert. Unter anderem wurden ein USB-Netzteil und die ersten zwei Etagen des indurad
Burogebaudes rekonstruiert.
Hier wurde ReCap Photo verwendet, da es eine kostenlose Educational-License fur Studenten, un-
abhangig von der Hochschule, anbietet. Es stellte sich jedoch heraus, dass die Rechenkapazitat, die
der Anbieter Autodesk fur Educational-Licenses bereitstellt, sehr beschrankt ist. Dies machte ein pro-
duktives Arbeiten unmoglich. Da der Umgang mit ReCap dadurch aber bereits bekannt war, wurde
ein kostenpflichtiges Abonnement fur einen Monat abgeschlossen. Die bezahlte Version stellt deut-
lich mehr Rechenkapazitat bereit.
Nach Aufnahme der Fotos war es mit wenig Aufwand moglich, 3D-Objekte zu rekonstruieren. In Abb.
5a ist das rekonstruierte USB-Netzteil zu sehen und Abb. 5b zeigt das indurad Burogebaude. Die
zum Rekonstruieren verwendeten Bilder wurden alle ohne Stativ und mit der Kamera eines Iphone 7
aufgenommen. An beiden Objekten ließen sich genaue Distanzen messen.
Die Qualitat und der Erfolg der Rekonstruktion wurden jedoch durch außere Faktoren negativ beein-
flusst. Bewegungen des zu fotografierenden Objektes scheinen zu Fehlberechnungen zu fuhren. So
konnte z.B. die Vorderseite des indurad Burogebaudes nicht erfolgreich rekonstruiert werden, da eine
Person wahrend des Fotografierens aus dem Gebaude trat. Das Prozessieren innerhalb der Cloud
dauerte ca. 40-50 Minuten pro Objekt.
Insgesamt ließ sich jedoch die Praxistauglichkeit von ReCap Photo nachweisen. Es ist anzunehmen,
dass durch besseres Aufnahme-Equipment die Qualitat der rekonstruierten Objekte gesteigert wer-
den kann.
(a) Rekonstruiertes 3D USB-Netzteil (b) Rekonstruiertes indurad Burogebaude (Ruckseite)
Abbildung 5: Rekonstruierte 3D-Objekte
18
2 Messmethoden der Photogrammetrie
2.3 Auswertung und Vergleich von Messmethoden der terrestrischen Photogrammetrie
Im Folgenden werden die Vor- und Nachteile des stereoskopischen Messens sowie des Vermessens
von rekonstruierten dreidimensionalen Objekten bewertet und verglichen.
Messen von Distanzen durch das Auswerten stereoskopischer Bilder ist eine relativ schnelle und kos-
tengunstige Variante. Die Qualitat der Vermessung ist abhangig von der Genauigkeit der Blockmatching-
Algorithmen, der Kameraqualitat und der Kalibrierung der einzelnen Kameras. Das Potential dieser
Methode ist aber beschrankt, da die Kameras starr und parallel angeordnet sind. Dadurch konnen
nur kleinere Objekte in hoher Genauigkeit erfasst werden. Des Weiteren werden nur zwei Bilder
mit einer endlichen Pixel-Anzahl erzeugt, wodurch die Genauigkeit der erzeugten Punktwolke und
dementsprechend auch die Messgenauigkeit beschrankt sind.
Hochwertige Kameras haben bis zu 50 Megapixel. Daraus resultiert eine maximale Bildauflosung
von 8165 x 6124 Pixeln bei einem Bildformat von 4:3. Unterstellt man eine unendlich große Wand,
die mit dieser Kamera von einer bestimmten Entfernung aus fotografiert wird, lasst sich durch die
Auflosung der Kamera und den Bildwinkel ( der Winkel der Aufnahme ) die maximal erfasste X- und
Y-Distanz des Bildes berechnen.
Die maximale X-Distanz wird wie folgt berechnet:
Xmax = (tan(a2) ∗ s) ∗ 2
a = Bildwinkel der Kamera
d = Distanz der Kamera zur Wand.
Bei einem Winkel von 120° und einer 10 m entfernten Wand betragt Xmax 34,6 m. Dementsprechend
deckt ein Pixel 34,6 m / 8165 = 4.2 mm der Wand ab. Wird die Distanz zur Wand auf 100 m erhoht,
deckt ein Pixel schon 42 mm der Wand ab. Damit nimmt die maximale Genauigkeit mit zunehmender
Entfernung vom Objekt stetig ab.
Ein Vorteil dieser Methode besteht darin, dass schneller und dynamischer auf sich andernde Objekte
reagiert werden kann. Zwar sind die Kameras starr angeordnet, jedoch konnen die zu vermessenden
Objekte jederzeit ausgetauscht werden und mit geringerem Rechenaufwand analysiert werden.
Die Methode des Rekonstruierens von 3D-Objekten hat den Vorteil, dass die Kameraposition varia-
bel sein kann. Dies ermoglicht das Fotografieren aus verschiedenen Blickwinkeln. Außerdem ist da-
durch im Vergleich zum stereoskopischen Messen die Anzahl der verwendbaren Bilder theoretisch
19
2 Messmethoden der Photogrammetrie
unbegrenzt. Dies fuhrt zu einer hoheren Pixeldichte und damit zu einer dichteren und genaueren
Punktwolke, wodurch eine genauere dreidimensionale Rekonstruktion von Objekten bzw. Gebilden
moglich ist. Diese Methode scheint fur das Vermessen von starren Objekten vorteilhaft zu sein.
Jedoch ist es nicht moglich, auf Anderungen an dem zu rekonstruierenden Objekt zu reagieren. Wur-
den die Fotos einmal erzeugt und das Objekt andert sich oder wird ausgetauscht, muss der komplette
Rekonstruktionsprozess erneut durchlaufen werden. Dies ist fur sich andernde Objekte als Nachteil
zu bewerten.
Soll 3D-Rekonstruktion verwendet werden, muss zunachst die Entscheidung uber die Wahl des Pro-
grammes getroffen werden. Es muss Hardware gekauft werden, mit der die Fotos aufgenommen wer-
den. Das beinhaltet neben den Kameras ggf. auch Drohnen. Mitarbeiter mussen geschult werden im
Umgang mit der neuen Hardware und bezuglich der technischen Anforderungen beim Erzeugen der
Fotos. Geschulte Mitarbeiter sollten dann in der Lage sein, ohne großere Probleme die Aufnahmen
fachgerecht durchzufuhren.
Nach dem Einpflegen der erzeugten Fotos in das Programm, kann dieses ein 3D-Objekt rekon-
struieren. Ist dies aus den Bildern erfolgreich gelungen, konnen nun alle erforderlichen Distanzen
gemessen werden. Nicht nur das Erzeugen der Bilder ist zunachst deutlich aufwandiger, auch der
Rechenaufwand fur den Computer ist wesentlich hoher als beim stereoskopischen Messen. Die Ver-
arbeitungsdauer der Bilder durch den Computer ist dabei abhangig von der Anzahl der Bilder, der
Bildauflosung und der Leistungsstarke des Computers. Sollte das Generieren eines Objektes nicht
gelingen, also das Programm kein Ergebnis liefern, muss ggf. das Fotografieren wiederholt werden.
Dies ist jedoch in Abhangigkeit von den ortlichen Gegebenheiten nicht immer moglich und wurde ein
Scheitern des Rekonstruierens bedeuten.
20
2 Messmethoden der Photogrammetrie
2.4 Nutzen und Anwendungsmoglichkeiten der Methoden fur die indurad GmbH
2.4.1 Stereoskopisches Messen
Die Methode des stereoskopischen Messens kann fur indurad von großem Nutzen sein. Mogliche
Anwendungsfalle sind:
• Verifizierung eigener durch Radar erzeugter Messungen
• Bessere Interpretationsmoglichkeiten von Radar-Punktwolken
• Visualisierung von Distanzen fur Kunden. Wird der Prozess des Messens anhand von ste-
reoskopischen Kamerabildern vollstandig automatisiert und in das indurad System integriert,
bietet sich außerdem die Moglichkeit, die gemessenen Distanzen in den Bildern zu visuali-
sieren und an den Kunden weiterzuleiten. Oft haben Kunden bereits Bildschirme, welche die
von indurad gemessenen/berechneten Metriken visuell darstellen. Mit dieser Methode kann die
Qualitat der Visualisierung jedoch deutlich erhoht werden. Es ist aber zu beachten, dass die
bei den Kundensystemen installierten Systeme indurads nicht uber die Rechenleistung eines
herkommlichen Computers verfugen. Die verwendeten Microcontroller sind zwar teilweise mit
leistungsstarken CPUs jedoch in der Regel nicht mit GPUs ausgestattet. Werden nun dyna-
misch und oft Berechnungen anhand von hochauflosenden Bildern durchgefuhrt, muss darauf
geachtet werden, dass andere Systeme - moglicherweise kritische Systeme wie ”Collision Avoi-
dance Systems“ - nicht ausfallen oder beeintrachtigt werden.
Bei dem Einsatz dieser Methode sind die Kosten nicht zu vernachlassigen. Hochwertige Kameras
sind hier besonders wichtig und konnen mehrere tausend Euro kosten. Das Kalibrieren der Kameras
sollte durch einen geschulten indurad Mitarbeiter geschehen. Dementsprechend sollten die Kameras
erst nach der Kalibrierung installiert werden.
2.4.2 Rekonstruieren von 3D-Objekten
Werden Objekte oder Strukturen erfolgreich rekonstruiert, kann das daraus entstandene 3D-Objekt
fur unterschiedliche Anwendungsfalle bei indurad genutzt werden:
• Ersetzen von extern angefertigten Surveys. Ist das rekonstruierte 3D-Objekt ausreichend prazise,
kann es vermessen werden und damit das Anfertigen von Surveys durch externe Firmen erset-
zen. Ein Survey ist eine prazise dreidimensionale Vermessung von Objekten oder Strukturen.
Ziel dabei ist es, in der Regel das geometrische Verhaltnis zwischen einzelnen Elementen eines
Objektes zu ermitteln. Ein haufiger Anwendungsfall fur Surveys bei indurad ist z.B. das Vermes-
sen von Schaufelradbaggern. Hierzu gehoren: Die Lage der Drehachse des Baggerarms, die
21
2 Messmethoden der Photogrammetrie
Lange des Baggerarms und die Große bzw. Lage des Schaufelrads. Sind diese Informationen
gegeben, kann die Position des Schaufelrads anhand des jeweils aktuellen Drehwinkels des
Baggerarms berechnet werden.
• Exportieren des rekonstruierten 3D-Objektes. Das 3D-Objekt kann exportiert und anschließend
in andere Anwendungen indurads integriert werden. Wie auch schon bei der Methode des ste-
reoskopischen Messens beschrieben, kann dies fur die Visualisierung von Metriken genutzt
werden. Derzeit werden bei indurad 3D-Objekte mit Programmen wie ”Blender“ selber desi-
gned, was ein langwieriger und in der Genauigkeit begrenzter Prozess ist.
Das Ersetzen der extern angefertigten Surveys ist moglicherweise der relevanteste Nutzen dieses
Verfahrens fur indurad. Surveys haben nicht immer die benotigte Genauigkeit oder es lassen sich gar
keine Aussagen uber die Genauigkeit treffen. Des Weiteren kann das Vermessen dann geschehen,
wenn es benotigt wird und nicht dann, wenn externe Firmen Zeit haben, das Survey durchzufuhren.
Insgesamt ist die Methode des Vermessens von rekonstruierten 3D-Objekten sehr aufwandig, was
es schwierig macht abzuschatzen, ob der Nutzen die Kosten uberwiegt. Das theoretische Potenzial
ist jedoch sehr groß und konnte viele indurad interne Prozesse beschleunigen bzw. optimieren.
22
3 Zusammenfassung
3 Zusammenfassung
In der vorliegenden Arbeit wurden Messmethoden der Photogrammetrie vorgestellt. Photogramme-
trie dient der Erzeugung und Verarbeitung von geometrischen Informationen (Form, Große, Position)
von Objekten und Strukturen anhand von Bildern. Von den drei beschriebenen Gebieten der Photo-
grammetrie werden zwei Messmethoden der terrestrischen Photogrammetrie in dieser Arbeit naher
diskutiert, das Messen durch stereoskopische Bilder und das Vermessen von rekonstruierten 3D-
Objekten.
Beim stereoskopischen Messen wird ein Paar von Bildern mit Hilfe von zwei starr angeordneten Ka-
meras erzeugt. Die Aufnahmeachsen der Kameras sollten dabei nahezu parallel sein und die Bilder
das gleiche Format haben. Aus diesen beiden Bildern kann nun mit Blockmatching-Algorithmen eine
DisparityMap erstellt werden. Dies ist ein zweidimensionales Array, bei dem jedem Pixel von einem
der beiden Stereobilder die Abweichung (Disparity) zu dem Pixel gleichen Inhalts des anderen Bildes
zugeordnet wird. Aus einer DisparityMap lassen sich Ruckschlusse zu der Distanz zwischen dem fo-
tografierten Objekt und der fotografierenden Kamera ziehen.
Das Erzeugen einer DisparityMap wurde mit Hilfe der open source Python/C++ Bibliothek OpenCV
und von dieser Bibliothek bereitgestellten stereoskopischen Bildern experimentell durchgefuhrt. Vor-
aussetzung zum Erstellen stereoskopischer Bilder ist eine Kalibrierung der verwendeten Kameras.
Beim Kalibrieren wird die Verzerrung der von diesen Kameras erzeugten Bilder korrigiert. Hierfur bie-
tet OpenCV ebenfalls Algorithmen an.
Mit Hilfe der DisparityMap ist es nun moglich, neben den klar sichtbaren Hohen- und Breitenkoordi-
naten auch Informationen uber die Tiefe eines Punktes zu errechnen und somit eine dreidimensio-
nale Punktwolke zu erzeugen. Dies wurde im Rahmen dieser Arbeit wieder mit Hilfe von OpenCV-
Algorithmen durchgefuhrt. Aus dieser Punktwolke ließen sich Informationen uber Lage und Große
der fotografierten Objekte extrahieren.
Fur das Rekonstruieren von 3D-Objekten aus Bildern mussen die Blickwinkel der einzelnen Bilder
nicht parallel sein. Die verwendeten Bilder werden mit Hilfe von Keypoint-Detection-Algorithmen im
dreidimensionalen Raum positioniert. In der Regel sollte die Uberlappung von zwei raumlich neben-
einander erzeugten Bildern mindestens 50%-60% betragen, damit genug gleiche Punkte durch die
Keypoint-Detection-Algorithmen gefunden werden konnen. Kommen weitere Bilder hinzu, ist lediglich
eine Uberlappung von 50%-60% mit einem der bereits vorhandenen Bilder erforderlich.
23
3 Zusammenfassung
Zur Rekonstruktion von 3D-Objekten aus Bildern werden einige Programme angboten. Folgende
Programme wurden miteinander verglichen: Autodesk ReCap Photo, Pix4D Mapper, 3DF Zephyr,
Agisoft PhotoScan und Reality Capture. Jedes dieser Programme hat Vor- und Nachteile. ReCap
Photo ist z.B. das gunstigste dieser Programme, bietet aber keine Moglichkeit, 3D-Objekte auf eige-
nen Computern erzeugen zu lassen. PhotoScan wird fur Linux Systeme angeboten und beinhaltet
eine Anbindung an die Programmiersprache Python. Jedoch ist es nicht moglich, LaserScans in die
durch Photogrammetrie erzeugen 3D-Objekte zu integrieren. Dies ist jedoch mit allen andern aufge-
listeten Programmen moglich. Wie die einzelnen positiven und negativen Aspekte zu bewerten sind,
ist jedoch vom Anspruch und den Anforderungen des Anwenders abhangig und daher nicht objektiv
bestimmbar.
Experimentell wurden mit ReCap Photo ein paar Objekte dreidimensional rekonstruiert und die Ob-
jekte anschließend vermessen.
Beim Vergleich beider Methoden wurde das stereoskopische Messen als relativ schnelle und kos-
tengunstige Variante bewertet. Die Qualitat der Vermessung ist jedoch durch Faktoren wie die Bild-
auflosung beschrankt. Aufgrund des geringeren Rechenaufwandes des stereoskopischen Messens
konnte diese Methode fur dynamische Messungen in indurad Systeme eingebaut werden. Diese
Messungen konnen dann visualisiert an den Kunden weitergeleitet werden oder zum Verifizieren von
Radar-Messungen und zum besseren Interpretieren der Radarpunktwolken verwendet werden.
Die Methode des Vermessens von rekonstruierten 3D-Objekten scheint speziell fur das Vermessen
von starren Objekten vorteilhaft zu sein. Jedoch ist es nicht moglich, wie beim stereoskopischen
Messen, auf Anderungen an dem zu rekonstruierenden Objekt zu reagieren. Außerdem ist das Re-
konstruieren von 3D-Objekten deutlich zeitintensiver, als das Erzeugen einer Punktwolke durch ste-
reoskopische Bilder.
Das Vermessen von rekonstruierten 3D-Objekten ist nicht so flexibel einsetzbar wie das stereoskopi-
sche Messen. Durch die hohe Genauigkeit der rekonstruierten Objekte konnte diese Methode jedoch
von indurad dafur genutzt werden, selber Surveys zu erstellen und damit nicht mehr auf die Zuarbeit
externen Firmen angewiesen zu sein. Außerdem konnen die erstellten 3D-Objekte, wie auch schon
bei der Methode des stereoskopischen Messens, zum Visualisieren von Metriken verwendet werden.
Abschließend kann festgesellt werden, dass sowohl die Methode des stereoskopischen Messens als
24
3 Zusammenfassung
auch das Vermessen von rekonstruierten 3D-Objekten praxisfahige Methoden zum Vermessen von
Objekten und Strukturen darstellen.
25
Quellenverzeichnis
Quellenverzeichnis
[1] WIKIPEDIA: Photogrammetrie. https://de.wikipedia.org/wiki/Photogrammetrie.
Version: 2018.11.06. – abgerufen am: 22.11.2018
[2] SPEKTRUM.DE: Photogrammetrie. https:
//www.spektrum.de/lexikon/geowissenschaften/\\photogrammetrie/12220.
Version: 2014.04.12. – abgerufen am: 22.11.2018
[3] SPEKTRUM.DE: Stereoskopisches Messen. https://www.spektrum.de/lexikon/
geowissenschaften/stereoskopisches-messen/15674. Version: 2014.04.12. –
abgerufen am: 15.11.2018
[4] TOHOJO, GITHUB: image-processing.
https://github.com/tohojo/image-processing/tree/master/test-images/
middlebury-stereo-pairs/tsukuba. Version: 2012.06.06. – abgerufen am: 15.11.2018
[5] OPENCV: Depth Map from Stereo Images. https://docs.opencv.org/3.0-beta/doc/
py_tutorials/py_calib3d/py_depthmap/py_depthmap.html\#py-depthmap.
Version: 2018.12.11. – abgerufen am: 15.11.2018
[6] OPENCV: About. https://opencv.org/about.html. Version: 2018.11.28. – abgerufen
am: 17.11.2018
[7] RAZALI YAAKOB, ALIHOSSEIN ARYANFAR, ALFIAN ABDUL HALIN, NASIR SULAIMAN: A
Comparison of Different Block Matching Algorithms for Motion Estimation. https:
//ac.els-cdn.com/S2212017313003356/1-s2.0-S2212017313003356-main.pdf?
_tid=c52b8b06-c63e-4052-a2ff-b7fcb44fe5db&acdnat=1544047772_
7588f20f2d8ff27b63564fa2a45760a0. Version: 2013. – abgerufen am: 17.11.2018
[8] DANIEL LEE: Building and calibrating a stereo camera with OpenCV. https://erget.
wordpress.com/2014/02/01/calibrating-a-stereo-camera-with-opencv/.
Version: 2014.02.01. – abgerufen am: 29.10.2018
[9] OPENCV: Camera calibration and 3D Reconstruction. https://docs.opencv.org/2.4/
modules/calib3d/doc/camera_calibration_and_3d_reconstruction.html.
Version: 2018.11.12. – abgerufen am: 29.10.2018
[10] OPENCV: Draw ChessboardCorners. https://docs.opencv.org/2.4/modules/
26
Quellenverzeichnis
calib3d/doc/camera_calibration_and_3d_reconstruction.html.
Version: 2018.11.12. – abgerufen am: 29.10.2018
[11] OPENCV: Stereo Calibration. https://docs.opencv.org/2.4/modules/calib3d/
doc/camera_calibration_and_3d_reconstruction.html#
doublestereoCalibrate(InputArrayOfArraysobjectPoints,
InputArrayOfArraysimagePoints1,InputArrayOfArraysimagePoints2,
InputOutputArraycameraMatrix1,InputOutputArraydistCoeffs1,
InputOutputArraycameraMatrix2,InputOutputArraydistCoeffs2,
SizeimageSize,OutputArrayR,OutputArrayT,OutputArrayE,OutputArrayF,
TermCriteriacriteria,intflags). Version: 2018.11.12. – abgerufen am: 29.10.2018
[12] WIKIPEDIA: 3D reconstruction from multiple images.
https://en.wikipedia.org/wiki/3D_reconstruction_from_multiple_images.
Version: 2018.12.01. – abgerufen am: 01.12.2018
[13] SHAWN MCCANN: 3D Reconstruction from Multiple Images.
http://cvgl.stanford.edu/teaching/cs231a_winter1415/prev/projects/
CS231a-FinalReport-sgmccann.pdf. Version: 2015.01.05. – abgerufen am: 01.12.2018
[14] AUTODESK: RecapPhoto.
http://help.autodesk.com.s3.amazonaws.com/sfdcarticles/
kA230000000eVng/ReCap%20Photo-Photogrammetry%20Guide%20V1.pdf.
Version: 2017. – abgerufen am: 06.12.2018
[15] DAVID G. LOWE: Object Recognition from Local Scale-Invariant Features.
https://www.cs.ubc.ca/˜lowe/papers/iccv99.pdf. Version: 1999. – abgerufen am:
06.12.2018
[16] UTKARSH SINHA: SIFT: Theory and Practice. http://aishack.in/tutorials/
sift-scale-invariant-feature-transform-introduction/. Version: -. –
abgerufen am: 29.11.2018
[17] PIX4D: Pix3Dmapper Store. https://cloud.pix4d.com/store/. Version: -. – abgerufen
am: 06.12.2018
[18] PIX4D: Pix3Dmapper.
https://www.pix4d.com/product/pix4dmapper-photogrammetry-software. –
abgerufen am: 06.12.2018
27
Quellenverzeichnis
[19] WIKIPEDIA: 3DF Zephyr. https://en.wikipedia.org/wiki/3DF_Zephyr.
Version: 2018.12.07. – abgerufen am: 06.12.2018
[20] 3DFLOW: 3DF Zephyr.
https://www.3dflow.net/3df-zephyr-pro-3d-models-from-photos/.
Version: 2018. – abgerufen am: 06.12.2018
[21] AGISOFT: PhotoScan Shop. http://www.agisoft.com/buy/online-store/.
Version: 2018. – abgerufen am: 06.12.2018
[22] AGISOFT: PhotoScan Professional.
http://www.agisoft.com/features/professional-edition/. Version: 2018. –
abgerufen am: 06.12.2018
[23] CAPTURINREALITY: RealityCapture. https://www.capturingreality.com/Product.
Version: 2018. – abgerufen am: 06.12.2018
[24] LUCIE GAGET ON SCULPTEO: Top 12 of the best photogrammetry software.
https://www.sculpteo.com/blog/2018/06/12/
top-12-of-the-best-photogrammetry-software/. Version: 2018.06.12. – abgerufen
am: 06.12.2018
28