Anualmente, surge um debate sobre o que a Apple irá atualizar em sua conferência e o que não. Mas alguns aspectos permanecem constantes, o que significa que sabemos com certeza agora que a Apple atualiza seus processadores a cada conferência. Claro, a Apple está atualizando a câmera e este é um evento muito aguardado devido à intensa competição. Já se foi o tempo em que a Apple era capaz de controlar a qualidade da câmera com forte concorrência de dispositivos Google Pixel, dispositivos Samsung e até Huawei. A Apple terá sucesso este ano na competição?

Engrenagem

Talvez estejamos acostumados a que a mudança básica da Apple venha na área de hardware, já que a Apple fabrica hardware irrepreensível, e normalmente também encontramos mais de uma atualização relacionada ao hardware da câmera, mesmo que você encontre atualizações de sistema ao lado dela, e isso é por que o hardware da Apple me surpreendeu este ano. Na verdade, não atualizou muito o hardware, mas o que foi renovado é importante, pois, pela primeira vez desde o iPhone 5s, aumentou o tamanho do sensor da câmera, não o número de pixels, mas sim um 12 -sensor megapixel caracterizado por um tamanho de pixel maior igual a 1.4 mícrons em vez dos 1.22 mícrons usados no iPhone-IPhone X, que era o tamanho de pixel usado desde o iPhone 6s. Além disso, é mais provável que a Apple tenha alterado as propriedades da lente para se ajustarem ao novo tamanho de pixel.
A Apple também diz que o flash ficou "mais brilhante", mas sem nenhuma informação adicional e a câmera frontal não teve nenhuma alteração, exceto por uma nova instalação de vídeo.
Além do hardware da câmera

Sabemos o que há de novo no hardware da câmera, mas os dispositivos Apple deste ano estão brilhando mais forte na região de IA. Considerando que o novo processador com uma arquitetura de 7 nanômetros claramente se concentra no chip da rede neural do telefone, mas parece que a maior parte do trabalho da Apple foi focado nele, já que o chip de rede neural agora tem 8 núcleos e pode fazer cinco trilhões operações de processamento por segundo. Esse progresso está atualmente no interesse da realidade aumentada e da câmera, na qual sabemos como usar a inteligência artificial para melhorar as imagens. E não é apenas para adições fofas como mi-muji. Então, o que ganhamos com as melhorias no hardware e no sistema este ano?
Câmera mais inteligente

Normalmente, as câmeras fazem cálculos para a imagem para analisar as características dos rostos, olhos e outros detalhes, como os elementos na frente da imagem e os de trás. E também os elementos que devem ser focados em comparação com aqueles que devem ser menos focados. É nisso que o novo iPhone se destaca, pois a câmera tem mais informações para entender a imagem e ajudar a melhorá-la, como cancelar o efeito de olhos vermelhos e distinguir os limites entre os elementos importantes da imagem. A câmera também pode segmentar melhor a imagem para comparar essas partes e gerar um melhor senso de profundidade da imagem (mesmo em fotos comuns, falar sobre nós não é apenas sobre o efeito Bokeh).
Além disso, Smart HDR

O HDR está presente nas câmeras de telefones há bastante tempo, e isso significa que a câmera tira várias fotos e as mescla para obter uma imagem melhor. E a partir daqui começa a construir a Apple para este ano e algo semelhante ao que o Google fez com o dispositivo Pixel 2 e modo HDR +, já que o dispositivo do Google tira muitas fotos com exposições diferentes (a exposição é a quantidade de luz que pode entrar) e depois escolhe os melhores detalhes usando inteligência artificial e os pixels nesta tecnologia capturam várias fotos de baixa exposição. Já a Apple utiliza imagens, algumas das quais caracterizadas por baixa exposição e outras caracterizadas por superexposição, a fim de melhor salvar os detalhes das sombras e gerá-los.
Fotos instantâneas

A Apple sempre se gabou da velocidade do obturador de sua câmera e da velocidade com que ela tira fotos, mas sempre há um pequeno atraso. Você pode notar esse atraso se for viciado em tirar fotos rápidas. Se for, então seu sonho se tornou realidade este ano porque a fotografia se tornou instantânea, porque a câmera tira fotos o tempo todo, mas são as fotos que são tiradas e escaneadas diretamente o tempo todo até que você pressione o botão de fotografia. a imagem não é apagada, mas sim salva. Foi assim que a Apple conseguiu fazer com que o atraso no salvamento da imagem após pressionar o botão fosse igual a zero.
Profundidade variável

Câmera da Apple desde o ano passado, que é considerada a melhor no efeito de profundidade ou Bokeh, e ainda melhor do que os telefones pixel, porque o pixel no final depende apenas do sistema, enquanto a Apple usa duas lentes separadas, o que dá melhores resultados, mas este ano, graças às novas características do sistema, a Apple decidiu permitir ao fotógrafo alterar a profundidade da imagem e a intensidade do efeito "depois" de ter sido tirada. Embora um recurso semelhante tenha sido encontrado em outros dispositivos como Samsung e até mesmo em alguns aplicativos do iPhone, esses métodos mudam-no apenas como um efeito. Quanto ao iPhone XS, os experimentadores do telefone na conferência transmitiram que para alterar a profundidade de vários dimensões e que muda em diferentes níveis na imagem de uma forma que simula a mudança da profundidade real usando uma lente de câmera. Claro, não poderemos fazer uma comparação completa até que o dispositivo esteja disponível para venda e até agora nós temos que esperar.
Melhor com pouca luz e cenas de ação

Como os pixels da câmera ficaram maiores, isso significa que eles estão capturando mais luz. Isso melhora significativamente a fotografia em condições de pouca luz, bem como tecnologias HDR inteligentes, ajustes de inteligência artificial e a velocidade do obturador da câmera permitem fotos melhores e mais estáveis ao fotografar assuntos em movimento.

Que tal o Google Pixel?
![]()
O Google sabe desde o lançamento dos primeiros dispositivos de pixel que seu ponto de excelência é a inteligência artificial suportada por seus servidores gigantes, que têm acesso aos dados de centenas de milhões de usuários para desenvolver seu sistema, e é exatamente isso que o Google fez na câmera do Pixel 2, pois apesar da qualidade do hardware da câmera e do chip especial, mas mais. O elogio para isso vem da forma como a inteligência do telefone processa as imagens para sair da melhor maneira, e é isso que a Apple está tentando desenvolver para este ano, pois colocou um poderoso poder de processamento a serviço de seu sistema de inteligência artificial e saiu com os resultados de hoje, mas devemos lembrar que o iPhone XS não será comparado a um dispositivo de pixel 2 ele está aqui para competir com o logo esperado Pixel 3. O Google frequentemente afirma que seu sistema é ilimitado, pois aprende com o uso. Mesmo que o Google desenvolvesse o mesmo sistema de inteligência do Pixel 2 anunciado há um ano, deve ser melhor desta vez quando usado no novo telefone. Além disso, o Google, é claro, pode adicionar recursos ao hardware da câmera para aumentar o poder da inteligência artificial suplementar e produzir imagens capazes de derrotar o iPhone.
Finalmente, o ecossistema do Google é fortemente capaz de se expandir permanentemente por meio de seus servidores gigantes, acessar dados do usuário e estudá-los para alimentar sua mente pensante. Quanto à Apple, ela restringe a inteligência artificial aos seus próprios termos de privacidade, de forma que a maior parte dos processos de aprendizagem e processamento ocorrem no telefone sem servidores, portanto, ela coloca toda a energia nos processadores especificamente para esse propósito. A Apple com essa filosofia pode vencer o Google? Logo estamos comparando com nossos olhos. Mas não se esqueça que dentro de um mês também veremos o telefone Google Pixel 3.
O que você acha do que li sobre a nova câmera do iPhone XS? Isso o torna um fator de compra essencial?
Fonte:



56 resenhas