Jaarlijks ontstaat er een debat over wat Apple op zijn conferentie zal updaten en wat niet. Maar sommige aspecten blijven constant, wat betekent dat we het zeker weten nu Apple zijn processors bij elke conferentie bijwerkt. Natuurlijk werkt Apple de camera bij en dit is een evenement waar lang naar uitgekeken wordt vanwege de hevige concurrentie.De dagen dat Apple in staat was om de kwaliteit van de camera te controleren met sterke concurrentie van Google Pixel-apparaten, Samsung-apparaten en zelfs Huawei. Zal Apple dit jaar slagen in de competitie?

IPhone-camera, kan deze concurreren met pixels?


Uitrusting

Misschien zijn we eraan gewend dat de fundamentele Apple-wijziging op het gebied van hardware komt, aangezien Apple onberispelijke hardware produceert, en meestal vinden we ook meer dan één update met betrekking tot de camerahardware, zelfs als je er systeemupdates naast vindt, en dat is waarom Apple's hardware me dit jaar verraste. Het heeft eigenlijk niet veel hardware bijgewerkt, maar wat het heeft vernieuwd is belangrijk, omdat het voor het eerst sinds de iPhone 5s de grootte van de camerasensor heeft vergroot, niet het aantal pixels, maar een 12-megapixelsensor met een grotere pixelgrootte gelijk aan 1.4 micron in plaats van 1.22 micron gebruikt in de i-IPhone X, de pixelgrootte die sinds de iPhone 6s werd gebruikt. Het is ook zeer waarschijnlijk dat Apple de lenseigenschappen heeft aangepast aan de nieuwe pixelgrootte.

Apple zegt ook dat de flitser "helderder" is geworden maar zonder enige aanvullende informatie en dat de camera aan de voorkant geen verandering heeft, behalve een nieuwe video-installatie.


Buiten de camerahardware

We weten wat er nieuw is in de camerahardware, maar de Apple-apparaten van dit jaar schitteren het best in de AI-regio. Aangezien de nieuwe processor met een architectuur van 7 nanometer duidelijk gericht is op de neurale netwerkchip in de telefoon, lijkt het erop dat het meeste werk van Apple erop was gericht, aangezien de neurale netwerkchip nu 8 kernen heeft en vijf biljoen bewerkingen per tweede. Deze vooruitgang is momenteel in het belang van augmented reality en de camera, waarin we weten hoe we kunstmatige intelligentie kunnen inzetten om beelden te verbeteren. En het is niet alleen voor schattige toevoegingen zoals mi-muji. Dus wat hebben we dit jaar gewonnen met de verbeteringen in hardware en systeem?


Slimmere camera

Gewoonlijk maken camera's berekeningen voor de afbeelding om de kenmerken van de gezichten, ogen en andere details te analyseren, zoals de elementen voor en achter in de afbeelding. En ook de elementen waarop gefocust zou moeten worden in vergelijking met de elementen die minder gefocust zouden moeten zijn. Dit is waar de nieuwe iPhone in uitblinkt, aangezien de camera meer informatie heeft om het beeld te begrijpen en te helpen verbeteren, zoals het opheffen van het rode-ogeneffect en het onderscheiden van de grenzen tussen de belangrijke elementen in het beeld. De camera kan het beeld ook beter segmenteren om deze delen te vergelijken en een beter gevoel van beelddiepte te genereren (zelfs bij gewone foto's gaat praten over ons niet alleen over het Bokeh-effect).


Ook Smart HDR

De HDR-functie is al geruime tijd aanwezig in telefooncamera's en het betekent dat de camera meerdere foto's maakt en deze samenvoegt om een ​​beter beeld te krijgen. Vanaf hier begint Apple te bouwen voor dit jaar en enigszins vergelijkbaar met wat Google deed met het Pixel 2-apparaat en de HDR + -modus, aangezien het Google-apparaat veel foto's maakt met verschillende belichting (belichting is de hoeveelheid licht die mag binnenkomen) en kies vervolgens de beste details met behulp van kunstmatige intelligentie, en Pixels in deze technologie leggen meerdere foto's met een lage belichting vast. Wat Apple betreft, het gebruikt afbeeldingen, waarvan sommige worden gekenmerkt door een lage belichting en andere worden gekenmerkt door overbelichting, om de details van de schaduwen beter op te slaan en uit te voeren.


Directe foto's

Apple pocht vaak op de sluitertijd van de camera en de snelheid waarmee hij foto's maakt, maar er is altijd een kleine vertraging. Deze vertraging kunt u opmerken als u verslaafd bent aan het maken van snelle foto's. Als dat zo is, kan je droom dit jaar in vervulling gaan omdat fotografie instant is geworden, omdat de camera de hele tijd foto's maakt, maar het zijn foto's die worden gemaakt en vervolgens de hele tijd direct worden gescand totdat je op de fotoknop drukt. afbeelding wordt niet gewist, maar wordt opgeslagen. Dit is hoe Apple in staat was om de vertraging bij het opslaan van de afbeelding na het indrukken van de knop gelijk te maken aan nul.


Variabele diepte

Apple's camera sinds vorig jaar, die wordt beschouwd als de beste in het effect van diepte of bokeh, en zelfs beter dan pixeltelefoons, omdat de pixel uiteindelijk alleen van het systeem afhangt, terwijl Apple twee afzonderlijke lenzen gebruikt, wat betere resultaten geeft, maar dit jaar besloot Apple, dankzij de nieuwe systeemkenmerken, de fotograaf in staat te stellen de diepte van het beeld en de intensiteit van het effect te veranderen "nadat" het was gemaakt. Hoewel een vergelijkbare functie is gevonden in andere apparaten, zoals Samsung en zelfs sommige iPhone-applicaties, veranderen deze methoden dit alleen als een effect. Wat de iPhone XS betreft, gaven de onderzoekers van de telefoon op de conferentie aan dat ze de diepte van verschillende afmetingen en dat het verandert op verschillende niveaus in Het beeld op een manier die het wijzigen van de werkelijke diepte met behulp van een cameralens simuleert. Uiteraard kunnen we pas een volledige vergelijking maken als het apparaat te koop is en tot die tijd kunnen we moeten wachten.


Betere prestaties bij weinig licht en actiescènes

Doordat de pixels in de camera groter zijn geworden, betekent dit dat ze meer licht opvangen. Dit verbetert de fotografie bij weinig licht aanzienlijk, evenals slimme HDR-technologieën, aanpassingen aan kunstmatige intelligentie en de sluitertijd van de camera, allemaal voor betere en stabielere foto's bij het fotograferen van bewegende onderwerpen.


Hoe zit het met Google Pixel?

Google weet sinds de release van de eerste pixelapparaten dat het toppunt van kunstmatige intelligentie is, ondersteund door zijn gigantische servers, die toegang hebben tot de gegevens van honderden miljoenen gebruikers om zijn systeem te ontwikkelen, en dit is precies wat Google heeft gedaan in de Pixel 2-camera, zoals ondanks de kwaliteit van de camerahardware en de speciale chip, maar de meeste De lof hiervoor komt voort uit de manier waarop de intelligentie van de telefoon de beelden verwerkt om er op de beste manier uit te komen, en dit is wat Apple probeert zich voor dit jaar te ontwikkelen. 2 het is hier om te concurreren met de binnenkort te verwachten Pixel 3. Google heeft vaak gezegd dat zijn systeem onbeperkt is, aangezien het leert door gebruik. Zelfs als Google hetzelfde intelligentiesysteem heeft ontwikkeld als de Pixel 2 die een jaar geleden werd aangekondigd, zou het deze keer beter moeten zijn bij gebruik in de nieuwe telefoon. Google kan natuurlijk ook functies aan de camerahardware toevoegen om de kracht van de aanvullende kunstmatige intelligentie te vergroten en afbeeldingen te produceren die de iPhone kunnen verslaan.

Ten slotte is het Google-ecosysteem sterk in staat om permanent uit te breiden via zijn gigantische servers, toegang tot en studie van gebruikersgegevens om zijn denken te voeden. Wat Apple betreft, het beperkt kunstmatige intelligentie tot zijn eigen privacyvoorwaarden, dus de meeste leer- en verwerkingsprocessen vinden plaats in de telefoon zonder servers, dus het stopt al die energie specifiek voor dit doel in de processors. Kan Apple met deze filosofie Google verslaan? Al snel vergelijken we met onze ogen. Maar vergeet niet dat we binnen een maand ook de Google Pixel 3-telefoon zullen zien.


Wat vind je van wat ik heb gelezen over de nieuwe iPhone XS-camera? Maakt het het een essentiële koopfactor?

Bron:

Apple

Gerelateerde artikelen