Ogni anno, sorge un dibattito su ciò che Apple aggiornerà alla sua conferenza e cosa no. Ma alcuni aspetti rimangono costanti, il che significa che ora sappiamo per certo che Apple aggiorna i suoi processori ad ogni conferenza. Ovviamente, Apple sta aggiornando la fotocamera e questo è un evento molto atteso a causa dell'intensa concorrenza. Sono finiti i giorni in cui Apple era in grado di controllare la qualità della fotocamera con una forte concorrenza da dispositivi Google Pixel, dispositivi Samsung e persino Huawei. Apple avrà successo quest'anno nella competizione?

Fotocamera dell'iPhone, può competere con i pixel?


Ingranaggio

Forse siamo abituati al fatto che la modifica di base di Apple arriva nell'area hardware, poiché Apple produce hardware irreprensibile, e di solito troviamo anche più di un aggiornamento relativo all'hardware della fotocamera, anche se trovi aggiornamenti di sistema accanto ad esso, e questo è perché l'hardware di Apple mi ha sorpreso quest'anno. In realtà non ha aggiornato gran parte dell'hardware, ma ciò che ha rinnovato è importante, poiché, per la prima volta dall'iPhone 5s, ha aumentato le dimensioni del sensore della fotocamera, non il numero di pixel, ma piuttosto è un 12 -sensore megapixel caratterizzato da una dimensione dei pixel maggiore pari a 1.4 micron invece degli 1.22 micron utilizzati nell'iPhone- IPhone X, che era la dimensione dei pixel utilizzata sin dall'iPhone 6s. Inoltre, è molto probabile che Apple abbia modificato le proprietà dell'obiettivo per adattarle alla nuova dimensione dei pixel.

Apple dice anche che il flash è diventato "più luminoso" ma senza alcuna informazione aggiuntiva e la fotocamera anteriore non ha modifiche se non una nuova installazione video.


Oltre l'hardware della fotocamera

Sappiamo cosa c'è di nuovo nell'hardware della fotocamera, ma i dispositivi Apple di quest'anno brillano di più nella regione AI. Poiché il nuovo processore con un'architettura a 7 nanometri si concentra chiaramente sul chip di rete neurale nel telefono, sembra che la maggior parte del lavoro di Apple si sia concentrato su di esso, poiché il chip di rete neurale ora ha 8 core e può eseguire cinque trilioni di operazioni di elaborazione per secondo. Questo progresso è attualmente nell'interesse della realtà aumentata e della fotocamera, in cui sappiamo come sfruttare l'intelligenza artificiale al suo interno per migliorare le immagini. E non è solo per aggiunte carine come mi-muji. Quindi cosa abbiamo guadagnato dai miglioramenti nell'hardware e nel sistema quest'anno?


Fotocamera più intelligente

Di solito le fotocamere eseguono calcoli per l'immagine per analizzare le caratteristiche dei volti, degli occhi e altri dettagli come gli elementi nella parte anteriore dell'immagine e quelli nella parte posteriore. E anche gli elementi su cui concentrarsi rispetto a quelli su cui concentrarsi meno. Questo è ciò in cui eccelle il nuovo iPhone, poiché la fotocamera ha più informazioni per comprendere l'immagine e aiutare a migliorarla, come annullare l'effetto occhi rossi e distinguere i confini tra gli elementi importanti nell'immagine. La fotocamera può anche segmentare meglio l'immagine per confrontare queste parti e generare un migliore senso di profondità dell'immagine (anche nelle foto normali, parlare di noi non riguarda solo l'effetto Bokeh).


Inoltre, Smart HDR

L'HDR è presente nelle fotocamere dei telefoni da un po 'di tempo e significa che la fotocamera scatta diverse foto e le unisce per ottenere un'immagine migliore. E da qui inizia a costruire Apple per quest'anno e in qualche modo simile a quello che ha fatto Google con il dispositivo Pixel 2 e la modalità HDR +, poiché il dispositivo Google scatta molte foto con esposizione diversa (l'esposizione è la quantità di luce consentita di entrare) e quindi sceglie i migliori dettagli utilizzando l'intelligenza artificiale ei pixel in questa tecnologia catturano più foto a bassa esposizione. Per quanto riguarda Apple, utilizza immagini, alcune delle quali sono caratterizzate da una bassa esposizione e altre caratterizzate da sovraesposizione, in modo da salvare meglio i dettagli delle ombre e riprodurle.


Foto istantanee

Apple si è spesso vantata della velocità dell'otturatore della fotocamera e della velocità con cui scatta le foto, ma c'è sempre quel leggero ritardo. Potresti notare questo ritardo se sei dedito a scattare foto veloci. Se lo sei, allora il tuo sogno si è avverato quest'anno perché la fotografia è diventata istantanea, perché la fotocamera scatta foto tutto il tempo, ma sono le foto che vengono scattate e quindi scansionate direttamente tutto il tempo fino a quando non si preme il pulsante di fotografia. l'immagine non viene cancellata, ma piuttosto salvata. In questo modo Apple è riuscita a rendere uguale a zero il ritardo nel salvataggio dell'immagine dopo aver premuto il pulsante.


Profondità variabile

La fotocamera di Apple dallo scorso anno, che è considerata la migliore per effetto di profondità o Bokeh, e anche migliore dei telefoni pixel, perché il pixel alla fine dipende solo dal sistema, mentre Apple utilizza due lenti separate, che danno risultati migliori, ma quest'anno, grazie alle nuove caratteristiche del sistema, Apple ha deciso di consentire al fotografo di modificare la profondità dell'immagine e l'intensità dell'effetto "dopo" che è stata scattata. Sebbene una funzionalità simile sia stata trovata in altri dispositivi come Samsung e persino alcune applicazioni per iPhone, questi metodi la cambiano solo come effetto. Per quanto riguarda l'iPhone XS, gli sperimentatori del telefono alla conferenza hanno comunicato che per cambiare la profondità di diversi dimensioni e che cambia a diversi livelli nell'immagine in un modo che simula il cambiamento della profondità reale utilizzando un obiettivo della fotocamera .. Ovviamente, non saremo in grado di fare un confronto completo fino a quando il dispositivo non sarà disponibile per la vendita e fino a questo momento dobbiamo aspettare.


Meglio con scarsa illuminazione e scene d'azione

Poiché i pixel nella fotocamera sono diventati più grandi, significa che stanno catturando più luce. Ciò migliora significativamente la fotografia in condizioni di scarsa illuminazione, così come le tecnologie HDR intelligenti, le regolazioni dell'intelligenza artificiale e la velocità dell'otturatore della fotocamera consentono foto migliori e più stabili quando si fotografano soggetti in movimento.


Che ne dici di Google Pixel?

Google ha saputo dal suo rilascio dei primi dispositivi pixel che il suo punto di eccellenza è l'intelligenza artificiale supportata dai suoi server giganti, che hanno accesso ai dati di centinaia di milioni di utenti per sviluppare il suo sistema, e questo è esattamente ciò che ha fatto Google nella fotocamera Pixel 2, come nonostante la qualità dell'hardware della fotocamera e del chip speciale, ma soprattutto L'elogio per questo deriva dal modo in cui l'intelligenza del telefono elabora le immagini per uscirne nel migliore dei modi, e questo è ciò che Apple sta cercando di sviluppare per quest'anno, poiché ha messo una potente potenza di elaborazione al servizio del suo sistema di intelligenza artificiale ed è uscito con i risultati di oggi, ma dobbiamo ricordare che l'iPhone XS non sarà paragonato a un dispositivo pixel 2 esso è qui per competere con il presto prevedibile Pixel 3. Google ha spesso affermato che il suo sistema è illimitato man mano che apprende con l'uso. Anche se Google ha sviluppato lo stesso sistema di intelligenza dal Pixel 2 annunciato un anno fa, questa volta dovrebbe essere migliore se utilizzato nel nuovo telefono. Inoltre, Google, ovviamente, potrebbe aggiungere funzionalità all'hardware della fotocamera per aumentare la potenza dell'intelligenza artificiale supplementare e produrre immagini in grado di sconfiggere l'iPhone.

Infine, l'ecosistema di Google è fortemente in grado di espandersi in modo permanente attraverso i suoi server giganti, accedere e studiare i dati degli utenti per alimentare la sua mente pensante. Per quanto riguarda Apple, limita l'intelligenza artificiale ai propri termini di privacy, quindi la maggior parte dei processi di apprendimento ed elaborazione avvengono nel telefono senza server, quindi mette tutta quell'energia nei processori appositamente per questo scopo. Può Apple con questa filosofia battere Google? Presto ci confrontiamo con i nostri occhi. Ma non dimenticare che tra un mese vedremo anche il telefono Google Pixel 3.


Cosa ne pensate di quello che ho letto sulla nuova fotocamera di iPhone XS? Lo rende un fattore di acquisto essenziale?

Fonte:

Apple

Articoli correlati