Noah Korevaar
Noah Korevaar | LinkedIn Tech 20 nov 2018

Night Sight: hoe de Google Pixel 3 zich van de iPhone onderscheidt

Ieder jaar zijn smartphone-fabrikanten in de race voor de beste camera. Apple doet het goed, maar de iPhone moet het dit jaar volgens velen toch afleggen tegen de Google Pixel 3. Een van de belangrijkste functies die het verschil maakt is Night Sight. Volgens Google heb je voor goede foto’s in het donker geen flits meer nodig.

De eerste resultaten van Night Sight zijn erg indrukwekkend. Google weet door een slimme combinatie van optische beeldstabilisatie, detectie van beweging en het toepassen van algoritmes fraaie plaatjes te schieten. Voorbeelden verderop in dit artikel, maar eerst duiken we in hoe Night Sight nou eigenlijk werkt.

Werking Google Night Sight

Google Night Sight is vooral slimme software. Het kan in principe met iedere smartphone-camera werken, maar Google brengt de functie alleen voor zijn Pixel-smartphones uit. Night Sight is een functie die je handmatig aan moet zetten, want het veranderd compleet hoe de camera-app werkt. Normaal toont de camera-app alvast een voorproefje van hoe de foto eruit gaat zien, maar met Night Sight is die preview niet representatief omdat een zeer hoge sluitertijd gehanteerd moet worden.

Daar vormt zich meteen het eerste probleem. Een zeer hoge sluitertijd zorgt bij foto’s uit de losse hand vaak voor vervaging. Om dit te voorkomen, detecteert de Google Pixel of je uit de losse hand schiet, de smartphone tegen een stevig oppervlak zoals een muur houdt, of op een statief plaatst. Bij schieten uit een losse, maar stabiele hand wordt de sluitertijd beperkt tot maximaal 333ms en worden er 15 shots gemaakt. Bij plaatsing op een statief is de sluitertijd maximaal 1 seconde en worden er 6 shots gemaakt. Een foto maken kan dus wel 6 seconden duren.

Night Sight voorbeeld 1
iPhone XS (links) en Google Pixel 3 (rechts) 

Algoritme maakt van meerdere shots één foto

Om de verschillende shots vervolgens te combineren tot één foto die helder is en genoeg detail heeft, past Google een eigen algoritme toe. Daarbij werkt het anders dan de normale HDR-functie die foto’s met verschillende belichtingsstanden combineert. Bij het Night Sight-algoritme gaat de sensor van de camera tussen verschillende shots niet dicht, maar blijft open. De taak van het algoritme is vooral de optimale lichtwaarde per pixel berekenen, maar ook naar het totaalplaatje kijken.

Dat laatste is vooral belangrijk om de kleuren natuurlijk te houden en beweging te verminderen. Er wordt altijd uitgegaan van een ‘master frame’ met de minste beweging en de andere shots worden zo goed mogelijk op dat master frame gelegd. Het algoritme kan vervolgens de optimale lichtwaarde per pixel berekenen en het shot toch stabiel houden. De functie heet niet voor niets Night Sight, want het gaat verder dan onze ogen in het donker kunnen zien. Hieronder nog een voorbeeld.

Google Pixel 3 Night Sight 2
Het HDR-algoritme (links) en Night Sight-algoritme (rechts) 

Night Sight komt als software-update naar de Google Pixel 3, maar ook naar de Pixel 2 en eerste Pixel. De camera’s op deze telefoons zijn echter iets minder geavanceerd, waardoor de sluitertijd wat beperkter is.

Apple’s antwoord op de Google Pixel 3

Hoewel we zelf nog geen Google Pixel 3 hebben voor een vergelijkende test, blijkt uit alle berichten dat Google iets baanbrekends heeft gemaakt. Dit vraagt om een antwoord van Apple. Hopelijk zien we dat -gezien het vooral software is- in 2019 ook in de iPhone.

Reageer op artikel:
Night Sight: hoe de Google Pixel 3 zich van de iPhone onderscheidt
Sluiten