Apple heeft dit jaar drie nieuwe iPhones gelanceerd en alle drie worden aangedreven door de nieuwste A12 Bionic-chipset van het bedrijf. De A12 Bionic-chipset is gebouwd op een 7nm-proces en heeft een next-gen neurale engine die een flink aantal nieuwe functies in de camera-app ontgrendelt.
Apple sprak uitvoerig over de geheel nieuwe Smart HDR-functie die het bedrijf beweert te kunnen leveren "Foto's met een hoog dynamisch bereik en geweldige beelddetails, geavanceerde bokeh-kwaliteit in foto's in portretmodus en dynamische scherptediepte die door de gebruiker kan worden aangepast in de app Foto's."
Dat maakt het misschien niet meteen duidelijk, dus als je je nog steeds afvraagt wat deze Smart HDR precies is, dan ben je hier aan het juiste adres.
Een beetje hulp van neurale netwerken
Simpel gezegd, Smart HDR stelt gebruikers in staat om op betere foto's te klikken die weinig tot geen detailverlies hebben als gevolg van overbelichting of schaduwen - u krijgt geen foto's die er zwart uitzien in de donkere gebieden of een verblindend wit in de goed verlichte gebieden. Om dat mogelijk te maken, klikken de nieuwe iPhones onmiddellijk op verschillende afbeeldingen van het onderwerp in verschillende belichtingen. Dit is nu standaard HDR die al jaren wordt gebruikt. Smart HDR gebruikt machine learning om nog meer frames te maken en combineert ze vervolgens voor het beste uiteindelijke beeld.
Dus het is net als Google HDR+?
Voor het geval dat u bekend voorkomt, wil ik u er dan aan herinneren dat de Google Pixel ook een vergelijkbare functie heeft, maar dat het op een iets andere manier werkt. In plaats van de beste delen van meerdere afbeeldingen te combineren, combineert de implementatie van Google verschillende onderbelichte foto's om de beste afbeelding te leveren. Google gebruikt ook een speciale Pixel Visual Core-co-processor en de algoritmen voor machine learning om in realtime wijzigingen aan te brengen in de uiteindelijke afbeelding. Je kunt het verschil zien met HDR + uit (links) en hieronder aan. Het is enorm en Smart HDR belooft ook vergelijkbare resultaten te leveren.
De Pixel 2 verslaan?
Omdat beide implementaties behoorlijk verschillend zijn, zou het best interessant zijn om te zien hoe de nieuwe iPhones overeenkomen met de Pixel-apparaten. Hoewel de Google Pixel-serie sinds de lancering een dominante kracht is in smartphonecamera's, is de kans groot dat Apple dit jaar de eerste plaats inneemt met zijn nieuwe Smart HDR-functie..
Dieptecontrole
Afgezien van de Smart HDR-functie, zullen de nieuwe iPhones ook iets anders bevatten dat de Pixel-apparaten missen. De iPhones van 2018 hebben dieptecontrole, waarmee gebruikers de scherptediepte van een foto handmatig kunnen aanpassen nadat ze zijn gemaakt, wat kan resulteren in natuurlijkere afbeeldingen. Dit hebben we eerder gezien op sommige Android-apparaten zoals de Samsung Galaxy S9 / S9 + en de onlangs gelanceerde Vivo V11 Pro.