Weniger ist mehr – warum 12 Megapixel besser sind als 48 Megapixel

Wer aktuell nach einem Smartphone sucht, liest immer wieder was von 48 Megapixel, wenn es um die Kamera geht. In Wahrheit sind das aber keine „echten“ Megapixel. Warum am Ende dann popelige 12 Megapixel doch dass bessere Foto machen, erkläre ich hier.




Bei Autos schaut man immer auf die PS bzw. KW Angaben. Mehr ist mehr lautet hier eine ganz einfache Regel. Außerdem ist es unbestritten, dass ein Auto mit 150 PS schneller unterwegs sein kann, als eines mit 75 PS.

Bei den Kameras vieler aktueller Smartphones ist das ein wenig anders und vor allem komplizierter. Hier sind 48 Megapixel zwar auf dem Papier mehr, aber meist nicht besser, sondern eher schlechter.

Wie das zusammenhängt, möchte ich hier mal auf einfache Art und Weise erklären.

Übrigens habe ich hier schon mal ein paar Tipps und Tricks für bessere Fotos mit der Smartphone Kamera zusammengestellt -> Link

Zuerst einmal ist die Kamera eines Smartphones eigentlich ein Sensor. Also eine Platte mit ganz vielen kleinen Pixel. Der bekannteste ist derzeit der IMX 586 Sensor, der in so gut wie allen besseren Smartphones verbaut wird. 

Also egal welcher Hersteller, bei fast allen findet sich dieser Sensor wie z.B. dem Honor View 20 oder dem OnePlus 7 Pro um nur zwei zu nennen.

Honor View 20 günstig bei Amazon kaufen*
Honor View 20 günstig bei Saturn kaufen*

Bayer-Matrix vs. Quad-Bayer-Matrix:

Der Sensor als solches hat eigentlich nur 12 Megapixel und ist wie ein Schachbrett aufgebaut.

Auf der Oberfläche des Sensors verteilen sich (vereinfacht gesagt) 12 Millionen Bildpunkte. Jedes dieser Pixel ist auf eine Farbe spezialisiert, von denen es drei gibt. Blau, Rot und Grün.

Aber nicht zu gleichen Teilen, sondern zu 50 % aus Grünen Pixeln und dann noch jeweils zu 25 % aus Roten und Blauen Pixel. Das liegt darin begründet, weil die Farbe Grün den größten Einfluss auf die Helligkeits- Kontrast- und Schärfe-Wahrnehmung beim menschlichen Auge hat.

Dieses bunte Muster nennt sich Bayer-Matrix.

Der Sony IMX586 arbeitet nach demselben Prinzip, allerdings werden aus den 12 Megapixel direkt einmal 48 gemacht, da jedes Pixel noch einmal in vier Teile zerlegt wird. Bildlich gesprochen. 

Das nennt sich dann Quad-Bayer-Matrix. 

Nun kommt das Wort „Pixel Binning“ ins Spiel, denn diese vier einzelnen Teile schauen beim Pixel nebenan, welche Farbe die so darstellen und „mischen“ sich dann. Also wenn das Pixel selbst rot ist, der Nachbar links aber blau und das rechts daneben grün, denn wird es sich selber zur einer Mischung aus diesen Farben. So in der Art und sehr, sehr vereinfacht erklärt.

Am Ende bleibt aber der Fakt, dass sich durch die Vervierfachung der Anzahl der Pixel das Foto nicht schärfer oder besser wird und sich schon gar nicht die Sensorfläche vergrößert, was wiederum sehr wichtig bei Nachtaufnahmen wäre.

Es geht bei der Teilung der Pixel eher darum, die Farben besser darzustellen, um es einfach auszudrücken.

Das kann man anhand des folgenden Beispiels sehen. Beide Aufnahmen sind kurz nach einem Regenschauer zum gleichen Zeitpunkt mit dem Honor View 20 aufgenommen worden. Links mit der „normalen“ 12 Megapixel Einstellung und rechts mit der 48 Megapixel Einstellung, der sich AI Ultra Clarity-Modus nennt. Bis auf die Tatsache, dass der AI Ultra Clarity-Modus das weiß der Hauswand noch weißer (und unnatürlicher) macht, wird auch der Himmel bläulicher, was er zu diesem Zeitpunkt absolut nicht war.

Zoomt man etwas näher heran, erkennt man, dass das Bild rechts nicht wirklich schärfer oder besser ist, wie man es bei einer Vervierfachung der Pixel erhofft hätte.

Das erklärt auch, warum Aufnahmen bei nicht so prallen Lichtverhältnissen oder Nachts im 48 Megapixel Modus unbrauchbar werden. Denn wie wir jetzt wissen, wird ein einzelnes ohnehin schon kleines Pixel gevierteilt und je kleiner das Pixel, umso weniger Licht kann es aufnehmen. 

Daher arbeiten die speziellen Nachtmodis aktueller Smartphones genau umgekehrt. Da werden vier „normale“ Pixel zu einem Riesen-Pixel zusammengefasst, um noch mehr Licht aufnehmen zu können.




Nicht vergessen darf man dabei, dass natürlich auch viel von der Software und deren Algorithmen abhängt. Es helfen die größten und meisten Pixel nichts, wenn die Software daraus Pixelbrei macht.

Hier balancieren die Hersteller aber auf einem sehr schmalen Grat zwischen Natürlichkeit und Künstlichkeit.

Das kann man sehr gut an folgenden Vergleichsbild sehen, welches mit dem Honor View 20 und dem OnePlus 7 Pro zur gleichen Zeit aufgenommen wurde und ein Detail des Kölner Dom im Ausschnitt vergrößert anzeigt. 

Beide nutzen übrigens den identischen Sony IMX586 Sensor und haben exakt die gleiche Auflösung, aber zeigt recht eindrucksvoll, wie unterschiedlich die System mit einem Foto umgehen.

Schaut man sich beide Fotos auf dem Display ganz normal an, erkennt man eigentlich keinen Unterschied, außer dass der HDR Modus beim OnePlus 7 Pro deutlich krasser zu Werke geht, aber das Bild als solches ist auf beiden wirklich ansehnlich.

Weitere Nachteil dieser 48 Megapixel Einstellung ist, dass spezielle Filter oder Modis bzw. Funktionen wie HDR, der optische Zoom oder Bildstabilisatoren nicht mehr funktionieren.

Das mit den 48 Megapixel ist also eher Marketing als nützlich.

Hier muss man also von Bild zu Bild abwägen, welche Einstellungen für den speziellen Fall die bessere Wahl ist. Für mich persönlich ist es die reguläre Auflösung mit ihren „echten“ 12 Megapixel, bei der ich alle Extras und Möglichkeiten einer Smartphone Kamera ausreizen kann.

Quelle / Quelle

Print Friendly, PDF & Email
Peter W.

1 Kommentar zu „Weniger ist mehr – warum 12 Megapixel besser sind als 48 Megapixel“

  1. Hui, das wird spannend im nächsten Podcast… denn auch wenn die Erklärung in der Theorie stimmen, sehe ich es etwas anders. Freut euch auf Sonntag, dann werden die Boxhandschuhe angezogen 😉

Kommentarfunktion geschlossen.