Co niezwykłe, Apple wypuściło pierwszą wersję beta iOS 13.1 i iPadOS 13.1, które zostały niespodziewanie wydane na początku zeszłego tygodnia, ponieważ Apple pośrednio ujawniło w nich zaawansowane funkcje edycji zdjęć i wideo, które znasz.

W informacjach o wersji beta iOS 13.1 ukryto nowy dodatek, nową funkcję, która koncentruje się na tak zwanym kodowaniu wideo. W szczególności wersje iOS i iPadOS będą oferować kodowanie wideo HEVC z obsługą kanału alfa. Kodowanie HEVC jest skrótem od High Efficiency Video Coding i jest symbolizowane przez H.265, co oznacza kompresję obrazu do minimum bez wpływu na jego jakość i jest to technologia i alternatywny system transmisji w stosunku do systemu MPEG-2/4 znane w systemach wideo, które są obecnie wykorzystywane w wielu programach telewizyjnych. kanały satelitarne.
W przypadku kanału alfa jest to składnik koloru, który reprezentuje stopień przezroczystości lub krycia koloru (czyli kanałów czerwonego, zielonego i niebieskiego). Służy do określenia, jak piksel jest prezentowany po zmieszaniu z innym.
Ta wtyczka może nie wyglądać ekscytująco sama w sobie, ale jej małe możliwości są niesamowicie interesujące.
Edycja wideo w czasie rzeczywistym
Kanał alfa to, najprościej mówiąc, składnik koloru, który reprezentuje stopień przezroczystości lub krycia obrazu, jak wspomniano wcześniej. Korzystając z tego kanału, części obrazu lub wideo można uczynić niewidocznymi lub przezroczystymi, a nawet w łatwy sposób usunąć podczas kręcenia na żywo. Dlatego dodanie tego kodera, który obsługuje kanały alfa, może umożliwić przyszłym iPhone'om edycję filmów lub zdjęć na wiele sposobów bezpośrednio podczas filmowania.
Przykładem tego jest również to, że użytkownik będzie mógł zmodyfikować obraz tła i zastąpić go zupełnie innym. Możesz na przykład zmienić tło z lasem deszczowym lub dżunglą Afryki.
Apple może łączyć tę technologię z obecną technologią trybu portretowego. Użytkownik nie będzie musiał wybierać części obrazu jako tapety; IPhone może sprawnie wykonać tę pracę.
Jesienią ubiegłego roku Apple miał nabyć duński startup zajmujący się rozszerzoną rzeczywistością o nazwie Spektral, który pracował nad technologią wykorzystującą uczenie maszynowe, aby umożliwić przechwytywanie i edytowanie obrazów w czasie rzeczywistym, w tym zmianę tła obrazu.

W tamtym czasie wierzono, że przejęcie Spektral było związane z zainteresowaniem Apple'a rozwojem technologii rozszerzonej rzeczywistości. Tak jest prawdopodobnie. Ale dzięki funkcjom tła, takim jak obsługa kanału alfa, nietrudno jest zobaczyć, jak Apple może wdrożyć technologię Spektral w iPhone'ach i iPadach, które używają ARKit.
Nadchodzące iPhone'y skupiają się na aparacie

Jeśli weźmiemy pod uwagę plotki o nadchodzących iPhone'ach, jasne jest, że Apple nadal intensywnie inwestuje zarówno w fotografię, jak i rzeczywistość rozszerzoną.
Jak wspomnieliśmy w więcej niż jednym artykule, nadchodzące urządzenia iPhone 11 mają być wyposażone w aparat z trzema obiektywami, a także szeroką gamę innych funkcji obrazowania, które zależą od systemu.
Chociaż niewiele słyszeliśmy o technologii związanej ze Spektralem, Apple może zaoferować funkcje związane z tym przejęciem w nadchodzącym iPhonie.
Może się zdarzyć, że to wszystko będzie tylko spekulacją, ale na pewno rozwój aparatu w kolejnym iPhonie nie ograniczy się tylko do podniesienia jakości fotografii, w przeciwnym razie zostało to poprzedzone wieloma spekulacjami, więc musi nastąpić duża sprzedaż. punkt, który wyróżnia następny iPhone.
Źródło:



8 recenzji