Neue Fototechnik So funktionieren Multi-Objektiv-Kameras

Gute Fotos gelingen nicht nur mit großen Fotoapparaten. Moderne Smartphones und ein neuartiges Kamerasystem kombinieren stattdessen viele kleine Kameramodule, um hochwertige Bilder zu schießen.

Light

Von "Docma"-Autor Michael J. Hußmann


Größe und Gewicht gelten traditionell als unverzichtbar, wenn es um eine hochwertige Kameraausrüstung geht. Nur die Pixel eines großen Sensors sammeln genug Licht für eine optimale Aufnahme, und die Objektive brauchen lange Brennweiten und einen großen Linsendurchmesser, damit auch genügend Licht zum Sensor gelangt.

Wenn aber Sensor und Objektiv in einem Smartphone oder einer Kompaktkamera Platz finden sollen, die man in die Jacken- oder Hosentasche stecken kann, ist der Spielraum beschränkt. Eine Gehäusetiefe von wenigen Millimetern bietet nur Platz für kurze Brennweiten und entsprechend kleine Sensoren. Die miniaturisierten Kameramodule können nur wenig Licht sammeln, was die erreichbare Bildqualität beschränkt.

Ein schon seit 15 Jahren beschrittener Ausweg besteht darin, das Objektiv hochkant oder quer in die Kamera einzubauen und den Strahlengang wie beim Periskop eines U-Boots um 90 Grad zu knicken. Solche "gefalteten" (englisch "folded") Optiken ermöglichten kompakte Kameras, die auch eingeschaltet und in der Tele-Stellung ihres Zoom-Objektivs nicht tiefer als 20 Millimeter waren.

Periskop-Objektive eignen sich auch für den Einbau in die noch flacheren Smartphones, doch wird der knappe Platz in deren Gehäusen vor allem für das Display und den Akku benötigt, sodass weiterhin an der Größe der Kameramodule gespart werden muss.

Anstelle von oder - wie bei der Light L16 - neben herkömmlichen Kameramodulen (r.), deren Brennweite durch die Gehäusetiefe beschränkt ist, lassen sich Module in Periskoptechnik (l.) einbauen, die Teleobjektive oder Zooms verwenden.

Anstelle von oder - wie bei der Light L16 - neben herkömmlichen Kameramodulen (r.), deren Brennweite durch die Gehäusetiefe beschränkt ist, lassen sich Module in Periskoptechnik (l.) einbauen, die Teleobjektive oder Zooms verwenden.

Das zur Umleitung des Strahlengangs nötige Prisma lässt sich zur Bildstabilisierung nutzen, wenn es drehbar gelagert ist und in zwei Richtungen gekippt werden kann. Ein drehbares Prisma benötigt weniger Platz als die sonst verwendete verschiebbare Linsengruppe oder ein beweglicher Sensor.

Ein ungleiches Paar

Wenn ein einziges, miniaturisiertes Kameramodul nicht die gewünschte Bildqualität liefert und für eine größere Kamera kein Platz ist, kann man den Output von zwei oder mehr Modulen zu einem qualitativ besseren Bild verrechnen. Diesen Weg gehen mittlerweile fast alle Hersteller von Smartphones: Von 2015 bis zum Sommer 2017 ist der Anteil verkaufter Smartphones mit dualen Kameramodulen von 0 auf 25 Prozent gestiegen. Dabei werden allerdings ganz unterschiedliche Ansätze verfolgt.

Huawei hat gemeinsam mit Leica Handys entwickelt, deren Kamera einen Farbsensor mit Farbfiltern im Bayer-Muster und einen Schwarz-Weiß-Sensor kombiniert. Durch den Wegfall der Farbfilter ist der Schwarz-Weiß-Sensor etwas mehr als eine Blendenstufe empfindlicher, und da bei diesem Sensor keine Interpolation zwischen benachbarten Pixeln nötig ist, löst er auch besser auf. Die Verrechnung der Bilder beider Sensoren erzeugt daher ein sowohl rauschärmeres als auch detailreicheres Bild.

Das gemeinsam mit Leica entwickelte Huawei P9 kombiniert Bilder einer Kamera mit RGB-Sensor mit jenen einer reinen Schwarz-Weiß-Kamera.
Huawei

Das gemeinsam mit Leica entwickelte Huawei P9 kombiniert Bilder einer Kamera mit RGB-Sensor mit jenen einer reinen Schwarz-Weiß-Kamera.

Andere Hersteller wie beispielsweise Apple haben ein zweites Kameramodul genutzt, um mit zwei verschiedenen Brennweiten arbeiten zu können. Neben dem für Smartphones typischen Weitwinkelmodul gibt es ein Telemodul, dessen Brennweite allerdings eher einer Normalbrennweite entspricht. Damit lässt sich zunächst einmal ein Digitalzoom ohne nennenswerten Auflösungsverlust realisieren.

Bei einem herkömmlichen Digitalzoom wird das vom Sensor gelieferte Bild lediglich hochskaliert, wodurch aber keine feineren Details aufgelöst werden und das Bild mit zunehmendem Zoomfaktor unschärfer erscheint. Bei einer dualen Kamera mit einem zweitem Modul längerer Brennweite liefert das Telemodul ein hochaufgelöstes Bild.

Gefunden in

Die dualen Kameramodule von Corephotonics können nicht nur zwischen den beiden Brennweiten umschalten, sondern beide Bilder für eine verbesserte Auflösung kombinieren: Je weiter man zoomt, desto größer wird der Ausschnitt, in dem das Telemodul für eine hohe Auflösung sorgt, bis die Brennweite des Telemoduls erreicht ist und nur noch dieses das Bild liefert.

Da die beiden Module einer dualen Kamera neben- oder untereinander liegen, gibt es zwischen ihnen eine Parallaxe, und die daraus resultierende Verschiebung der Objekte in den Bildern beider Kameras lässt sich nutzen, um die Entfernung einzelner Bildteile zu bestimmen - je stärker die Verschiebung, desto näher befindet sich das Objekt. Die so gewonnene Tiefeninformation erweist sich als nützlich, wenn ein fokussiertes Motiv vor einem unscharfen Hintergrund freigestellt werden soll. Beide Kameramodule liefern auch im Hintergrund noch relativ scharfe Bilder, aber durch eine tiefenabhängige Weichzeichnung entsteht ein realistischer Unschärfeverlauf.

Rechnerei

Die Fotografie mit zwei oder mehr Kameramodulen ist erst praktikabel, seit es Prozessoren gibt, die bei moderatem Stromverbrauch den Anforderungen gewachsen sind, die sich aus der Verrechnung der Bilder ergeben.

Bevor die Bilder von zwei Kameramodulen kombiniert werden können, müssen zunächst deren unterschiedliche Eigenschaften angepasst werden. Die einzelnen Kameramodule zeigen Unterschiede bei der Verzeichnung, dem Abbildungsmaßstab und der Lage der Bilder. Da diese zum Herstellungszeitpunkt bekannt sind, kann man sie in der Kamera speichern und nach der Aufnahme in einem ersten Schritt herausrechnen.

Für die Feinabstimmung ist es nötig, die Parallaxverschiebung für jedes Bilddetail zu bestimmen und auszugleichen. Erst danach können die Bilder beider Kameramodule miteinander verrechnet werden.

Dabei sind verschiedene Probleme zu lösen. Wenn die beiden Module unterschiedliche Brennweiten haben, bilden sie vor und hinter der fokussierten Entfernung unterschiedlich scharf ab, und der Algorithmus muss sich zwischen einer Übernahme des scharfen oder des unscharfen Bildes entscheiden. Aufgrund der Parallaxverschiebung kann ein Kameramodul möglicherweise Teile eines Objekts sehen, die im Bild des anderen Moduls durch ein weiter vorn liegendes Objekt verdeckt werden. Eine Verrechnung von Details kann aber nur erfolgen, wenn beide Bilder dieses Detail zeigen. Die resultierende Bildqualität hängt letztendlich mehr vom Verrechnungsverfahren als von der Abbildungsqualität der einzelnen Kameramodule ab.

16 Kameras

Die US-Firma Light hat das Konzept, eine große und schwere Kamera durch die Kombination mehrerer kleiner Kameramodule zu ersetzen, auf die Spitze getrieben. Die Light L16 enthält 16 Kameramodule mit 13-Megapixel-Sensoren und Objektiven fester Brennweite: Je fünf haben eine kleinbildäquivalente Brennweite von 28 beziehungsweise 70 Millimetern und sechs eine Brennweite von 150 Millimetern - die realen Brennweiten gibt der Hersteller nicht an. Die Telemodule sind so lang, dass sie sich nur in Periskopbauweise realisieren ließen, und selbst damit ist die L16 noch gut 24 mm tief.

Fünf Weitwinkelmodule (a) der Light L16 sind konventionell orientiert; fünf Module mit umgerechnet 70 mm (b) und sechs Module mit umgerechnet 150 mm (c) sind in Periskopbauweise realisiert.
Light

Fünf Weitwinkelmodule (a) der Light L16 sind konventionell orientiert; fünf Module mit umgerechnet 70 mm (b) und sechs Module mit umgerechnet 150 mm (c) sind in Periskopbauweise realisiert.

Das "optische 28-150 mm Zoom", von dem der Hersteller spricht, ist tatsächlich ein Digitalzoom, das Aufnahmen mit je zwei Brennweiten variabel miteinander verrechnet, um Werte zwischen den drei Festbrennweiten zu simulieren.

Da es von jeder Brennweite fünf beziehungsweise sechs Module gibt, die aufgrund ihrer Ausrichtung und der Parallaxverschiebung unterschiedliche Blickwinkel haben, werden teilweise überlappende 13-Megapixel-Bilder aufgenommen, sodass die Kamera durch eine Fusion von mindestens zehn Aufnahmen ein Bild mit 52 Megapixeln berechnen kann, das im JPEG- und DNG-Format gespeichert wird.

Die L16 nimmt überlappende Ausschnitte auf, die in der Kamera zu einem Bild mit 52 Megapixeln verrechnet werden.
Light

Die L16 nimmt überlappende Ausschnitte auf, die in der Kamera zu einem Bild mit 52 Megapixeln verrechnet werden.

Dem Augenschein zum Trotz ist die L16 kein Smartphone, sondern eine reine Kamera, die nicht das Handy, sondern eine große und schwere Spiegelreflex-Ausrüstung ersetzen soll. Mit der L16 kommt man daher auch nicht direkt ins Internet, um Aufnahmen mit anderen zu teilen, sondern muss sich in einem WLAN anmelden, bevor ein Upload möglich ist.

Instant Brenizer-Effekt

Mit 16 Kameramodulen nutzt die L16 eine Form der von dem Fotografen Ryan Brenizer popularisierten Methode, durch das Stitching überlappender Tele-Aufnahmen einen großen Bildwinkel zu erfassen, dabei aber die geringe Schärfentiefe von Bildern mit langer Brennweite zu erhalten - daher wird das Verfahren auch als Bokehrama bezeichnet.

Die Light L16 in einer Explosionsansicht. Die wesentlichen Komponenten sind die Kameramodule (a), die Elektronik mit einer Snapdragon-CPU (b) und ein 5-Zoll-Touchscreen (c).
Light

Die Light L16 in einer Explosionsansicht. Die wesentlichen Komponenten sind die Kameramodule (a), die Elektronik mit einer Snapdragon-CPU (b) und ein 5-Zoll-Touchscreen (c).

Die Kamera umgeht so den Nachteil kleiner Sensoren und kurzer Brennweiten, Motive nicht vor einem unscharfen Hintergrund freistellen zu können. Noch mehr Hintergrundunschärfe lässt sich künstlich hinzufügen, und zwar auf die gleiche Weise, wie sie Apple und andere Smartphone-Hersteller nutzen. Auf Basis der Parallaxverschiebung, die sich durch die große Zahl gleichzeitig belichteter Aufnahmen besonders präzise bestimmen lässt, erzeugt der Prozessor der L16 eine Tiefenkarte und kann daraus ablesen, wo welches Ausmaß an Unschärfe hinzugefügt werden sollte. Dies ist auch im Nachhinein mit der vom Hersteller mitgelieferten Software möglich.

Mehr Licht

Mit welcher Methode man auch immer versucht, die Bildqualität zu verbessern - ausschlaggebend ist stets die Menge an Licht, die während einer Belichtung eingefangen wird. Für mehr Licht auf dem Sensor können größere Objektive sorgen, aber auch die Kombination mehrerer Objektive und Sensoren bewirkt, dass am Ende mehr Licht zu einem Bild beiträgt.

Bei der L16 lässt sich der Effekt abschätzen, denn die Fusion von zehn Aufnahmen entspricht ungefähr der Wirkung eines Sensors mit dreifacher Diagonale und ebenso viel längeren Objektiven. Damit könnte annähernd das Niveau einer Micro-Four-Thirds-Kamera erreicht werden.

Beispielfoto der Light L16
Light

Beispielfoto der Light L16

Inwieweit die L16 ihr Potential verwirklichen kann, wird sich erst beurteilen lassen, wenn die 2050 Euro teure Kamera für Tests zur Verfügung steht.

Während sich duale Kameramodule in Smartphones weiter durchsetzen und zur Standardausstattung entwickeln werden, sind die Aussichten der Light L16 weniger klar. Schließlich kann sie nicht das ohnehin vorhandene Smartphone ersetzen und ist weniger flexibel und ausbaufähig als eine Systemkamera samt Objektiven - nicht einmal ein Blitzanschluss ist vorgesehen.

Die L16 kann bei vergleichbaren Kosten nur mit ihren geringen Maßen (165 × 84,5 × 24,1 Millimeter) und dem Gewicht von lediglich 435 Gramm punkten. Das Konzept der Fotografie mit multiplen Kameramodulen dürfte aber in jedem Fall eine Zukunft haben.


Sie wollen mehr Foto-Tipps? In dieser Bildstrecke empfehlen wir Ihnen Foto-Apps für etwas andere Bilder:

Fotostrecke

16  Bilder
Kreative Foto-Apps: Mehr als nur Schnappschüsse


insgesamt 5 Beiträge
Alle Kommentare öffnen
Seite 1
Gerdd 27.05.2018
1. Ein Prototyp - eine Feasibility Study
zunächst einmal. Aber derart fundamental hat sich Fotografie seit der Camera Obscura noch nicht in einem Schritt verändert. Es fällt mir schwer, mir vorzustellen, daß diese Entwicklung spurlos an unserer täglichen Fotografie vorbeigleiten soll. Und das heißt, daß sich die Fotografie, wie wir sie kennen, dramatisch verändern wird. Na denn mal los!
redneck 27.05.2018
2.
Phonecams im gegenwaertigen Entwicklungstand sind Dokumentationsgeraete. Diesen Verwendungszweck erfuellen sie herrvorragend. Linsen sind ansich schon ein Notbehelf. mit Spiegelaufbau verlieren Sie noch mehr an Schaerfe und Licht. Materialphysik setzt da enge Grenzen. Schlimmer noch, kleine Linsen sind kaum zu bearbeiten, die Wellenlaenge des sichtbaren Lichts ist kleiner als die Beschichtungsdicke, Streuphotonen beschraenken die praktisch moegliche Schaerfe. Die kleine Sensorgroesse und die vergleichsweise grosse Waermebildung in den Chips und das Teilchenzittern setzen Grenzen in der Bildschaerfe. R und G und B sind im Chip aufeinandergestapelt. G und B kriegen weniger Licht ab. Das muss verstaerkt werden und das ist dem IQ abtraeglich. Obendrauf gibts noch einen AA Filter um Moiree zu vermeiden. Nun wird noch mit DSP Filtern ein zweiter und dritter Chip output ins Bild gemischt. Die sind auch nicht besser. Parallaxenunterschiede der Linesen verschechtern das Resultat. Im Labor und im Idealfall kann so ein zwar ein richtig gutes Bild zusammengefrickelt werden...in der Realitaet aber eben nicht. In den Dxo Tests wird das auch immer wieder gezeigt. 5% mehr IQ mit Riesenaufwand... Einziger Weg ist ein riesiger, einschichtiger, gut gekuehlter BW Sensorchip der CMYK und ein Infrarot Wert gleichzeitig erfassen kann. Die Phone Rueckseite koennte komplett aus Linse und Chip bestehen. Nach der Aufnahme koennte dann entschieden werden welche Linsentyp simuliert werden soll. An der Tiefenschaerfe sollte nicht geschraubt werden.
Profdoc1 27.05.2018
3. Ich stimme Ihnen....
Zitat von redneckPhonecams im gegenwaertigen Entwicklungstand sind Dokumentationsgeraete. Diesen Verwendungszweck erfuellen sie herrvorragend. Linsen sind ansich schon ein Notbehelf. mit Spiegelaufbau verlieren Sie noch mehr an Schaerfe und Licht. Materialphysik setzt da enge Grenzen. Schlimmer noch, kleine Linsen sind kaum zu bearbeiten, die Wellenlaenge des sichtbaren Lichts ist kleiner als die Beschichtungsdicke, Streuphotonen beschraenken die praktisch moegliche Schaerfe. Die kleine Sensorgroesse und die vergleichsweise grosse Waermebildung in den Chips und das Teilchenzittern setzen Grenzen in der Bildschaerfe. R und G und B sind im Chip aufeinandergestapelt. G und B kriegen weniger Licht ab. Das muss verstaerkt werden und das ist dem IQ abtraeglich. Obendrauf gibts noch einen AA Filter um Moiree zu vermeiden. Nun wird noch mit DSP Filtern ein zweiter und dritter Chip output ins Bild gemischt. Die sind auch nicht besser. Parallaxenunterschiede der Linesen verschechtern das Resultat. Im Labor und im Idealfall kann so ein zwar ein richtig gutes Bild zusammengefrickelt werden...in der Realitaet aber eben nicht. In den Dxo Tests wird das auch immer wieder gezeigt. 5% mehr IQ mit Riesenaufwand... Einziger Weg ist ein riesiger, einschichtiger, gut gekuehlter BW Sensorchip der CMYK und ein Infrarot Wert gleichzeitig erfassen kann. Die Phone Rueckseite koennte komplett aus Linse und Chip bestehen. Nach der Aufnahme koennte dann entschieden werden welche Linsentyp simuliert werden soll. An der Tiefenschaerfe sollte nicht geschraubt werden.
umfänglich zu. Ihr am Schluss gemachter Vorschlag hat nur einen Nachteil. Er ist kommerziell nicht durchsetzbar. Die heute verwendeten Chips werden mit einem Bedarf von mehr als einer Mrd. Stück sehr günstig hergestellt. Des Weiteren gibt es nur wenige Werke, die diese Chips produzieren. Ein Chip, der notwendigerweise eine große Fläche besitzen müsste (wesentliche Erhöhung der Pixelfläche), ist technologisch herausfordernd und teuer im Vergleich zur jetzigen Lösung. Da Verbraucher es gewähnt sind so etwas für 'nen 'Appel und 'nen Ei' zu bekommen, wird sich saubere Technologisch, physikalisch begründet, nicht durchsetzen.
KaroXXL 27.05.2018
4.
Wenn ich mir überlege was das kostet und kosten wird - vor allem wo mit meiner (im Vergleich spottbilligen aber auch sehr kompakten) Fuji X-A1 eine bedeutend bessere Bildqualität habe. Und da auch aussuchen kann was ich draufschraube, ob flaches Pancake, teure Teile von Fuji, Zeiss oder Leica oder komplett manuelle Fremdobjektive mit Adaptern. Aber es gilt eben einen draufzusetzen und für irgendwelche Innovationen zu sorgen dass neuere Smartphones auch brav gekauft werden. Für Dokumentationszwecke reicht das was momentan aktuell da ist ja bei Weitem locker aus.
Maverick Maven 28.05.2018
5. Brennweite und Lichtmenge
Zitat: "...und die Objektive brauchen lange Brennweiten und einen großen Linsendurchmesser, damit auch genügend Licht zum Sensor gelangt." Das ist natuerlich Unsinn. Laengere Brennweite bei gleichem Linsendurchmesser bedeutet dass weniger Licht auf den Sensor faellt, da der erfasste Raumwinkel kleiner ist. Brennweite dividiert durch effektiven Linsendurchmesser (Pupillenweite) ist gleich Blende. Je groesser dieser Wert ist, umso *weniger* Licht gelangt zum Sensor.
Alle Kommentare öffnen
Seite 1

© SPIEGEL ONLINE 2018
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der SPIEGELnet GmbH


TOP
Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.