La modalità cinema è una delle straordinarie funzionalità fornite con IPhone 13 Tuttavia, ogni volta che vedi una recensione del nuovo iPhone, ci sentiamo come se i revisori non sapessero come si sentono riguardo alla nuova funzionalità, è solo un espediente di Apple o una rivoluzione nelle fotocamere portatili, dove Apple è arrivata con il L'idea e come è riuscita a costruirla La funzione e se è effettivamente utile, la risposta arriva da Cayenne Drans, vicepresidente di iPhone Marketing, e Johnny Manzari, che lavora come designer nel team dell'interfaccia utente di Apple.


Modalità Cinema

Apple lavora costantemente alle modifiche telecamera Nell'iPhone, migliorando le lenti e aggiungendo nuove fantastiche funzionalità, l'iPhone 13 non fa eccezione. Una delle funzionalità di visualizzazione aggiunte al nuovo iPhone è nota come Cinema Mode, attraverso la quale la messa a fuoco del video viene regolata in modo intelligente da un oggetto all'altro in base al contesto della scena.


Come funziona la nuova modalità?

La modalità cinema è un insieme di funzioni in una nuova sezione dell'app Fotocamera che utilizza il nuovo chip Apple, la GPU e il motore neurale per i processi di apprendimento automatico, gli accelerometri per il tracciamento e il movimento e un obiettivo grandangolare aggiornato montato sul sensore che può identificare il soggetto, mettere a fuoco il nuovo soggetto e spostare il punto di messa a fuoco su di lui.


Da dove è nata l'idea?

Secondo Drance e Manzari, Apple non ha scelto la modalità cinematografica come caratteristica principale, ma l'idea si è sviluppata naturalmente mentre il team di progettazione di Apple ha esplorato l'arte del cinema.

"Quando guardi al processo di progettazione, iniziamo con un profondo rispetto per l'immagine e il cinema nel corso della storia", afferma Manzari. Siamo incuriositi da domande come quali sono i principi della fotografia e del cinema senza tempo." Così il team di Apple ha parlato con cineasti, operatori di ripresa e altri professionisti del video, e poi si è reso conto che la profondità di messa a fuoco era uno strumento importante per la narrazione in cui il cambiamento di focus attira l'attenzione da un oggetto all'altro e questo è ciò che accade con lo spettatore in cui l'attenzione si concentra sugli elementi che l'artista vuole che gli altri notino, e questa non è la prima volta che Apple ha lanciato una nuova funzionalità che non è stata presa tenendo conto della funzione "Illuminazione verticale", che è diventata disponibile a partire dall'iPhone X, il team di progettazione di Apple ha visitato ritrattisti classici, illustratori e persino professionisti cinesi della pittura a pennello, quindi ha ripetutamente provato la funzione e l'ha sviluppata fino a quando non è apparsa nel forma che conosciamo oggi, dove può creare luminosità ed effetti di luce paragonabili a quelli che fanno gli studi fotografici.


Qual è lo scopo della nuova situazione?

L'obiettivo dell'azienda nell'aggiungere la nuova modalità cinematografica alla famiglia iPhone 13 era trasformare qualcosa che solo i professionisti possono fare e renderlo semplice per l'utente medio, e questo è ciò che Apple padroneggia, prendendo qualcosa di complesso e difficile da imparare e facendo tradizionalmente e trasformandolo poi in qualcosa di automatico e semplice.


Come ha funzionato la nuova situazione?

Non sorprende che il compito di manipolare la profondità di campo si basi molto sul nuovo processore A15 di Apple e sul suo motore neurale per eseguire compiti difficili e noiosi.Ciò significa che avremo bisogno di dati di profondità dell'immagine di qualità superiore affinché la modalità cinematografica funzioni su soggetti, persone , animali domestici e oggetti e abbiamo costantemente bisogno di questi dati di profondità per stare al passo con ogni fotogramma, quindi la visualizzazione di questi cambiamenti AF in tempo reale è un pesante fardello per il dispositivo ed è qui che arriva il nuovo chip Apple e il Neural Engine.

Cosa ne pensi della funzione Modalità Cinema, diccelo nei commenti

Fonte:

TechCrunch

Articoli correlati