Naukowcy mierzą granicę rozdzielczości ludzkiego oka
Nowe badania zespołu z University of Cambridge i Meta Reality Labs pokazują, że nawet najbardziej zaawansowany telewizor ultra HD może dostarczać więcej szczegółów, niż ludzkie oko jest w stanie zauważyć. Oznacza to, że przy typowych warunkach oglądania różnica między ekranem 4K a 8K może być… niewidoczna.
Choć producenci telewizorów prześcigają się w oferowaniu coraz wyższych rozdzielczości, od 4K po 8K, naukowcy zwracają uwagę, że ludzkie oko ma fizjologiczny limit rozdzielczości. Powyżej tego progu kolejne piksele nie wnoszą już żadnej różnicy w jakości obrazu – ekran wyświetla po prostu więcej informacji, niż nasz mózg potrafi przetworzyć.
Zespół z Cambridge i Meta Reality Labs przeprowadził serię eksperymentów, podczas których uczestnicy oceniali, czy potrafią dostrzec różnice w obrazach o bardzo drobnych szczegółach – zarówno w kolorze, jak i w skali szarości. Testy obejmowały zarówno widzenie centralne, jak i peryferyjne, a ekran przesuwano w różnych odległościach od obserwatora.
Badacze nie ograniczyli się do tradycyjnego opisu rozdzielczości w pikselach. Zamiast tego użyli pojęcia pikseli na stopień (PPD) – czyli liczby pikseli, które mieszczą się w jednostopniowym wycinku pola widzenia. To bardziej praktyczna miara, ponieważ odpowiada na pytanie: „Jak ten ekran wygląda z miejsca, w którym siedzę?”, a nie „Ile ma pikseli?”
Standardowe widzenie 20/20 (znane z tablic Snellena) zakłada, że ludzkie oko rozdziela szczegóły przy około 60 PPD. Jednak wyniki eksperymentu pokazały, że w rzeczywistości nasz wzrok jest nieco lepszy – przynajmniej w idealnych warunkach. Dla obrazów w skali szarości średni limit wyniósł 94 PPD, dla kolorów czerwonego i zielonego 89 PPD, a dla żółtego i fioletowego zaledwie 53 PPD. Oznacza to, że w przypadku barwnych obrazów (a zwłaszcza tych oglądanych peryferyjnie) nasz mózg po prostu nie rejestruje drobnych detali.
– Nasze oczy nie są aż tak doskonałe – to mózg uzupełnia brakujące informacje, tworząc iluzję ostrości. W rzeczywistości widzimy mniej, niż nam się wydaje – wyjaśnia prof. Rafał Mantiuk z University of Cambridge, współautor badania.
Autorzy badania przełożyli swoje pomiary na codzienne warunki oglądania telewizji. Dla typowego brytyjskiego salonu, w którym widz siedzi około 2,5 metra od ekranu 44-calowego telewizora, różnica między obrazem 4K, 8K a nawet QHD (2560×1440) jest praktycznie niezauważalna. Krótko mówiąc – przy tej odległości ludzkie oko nie widzi już dodatkowych szczegółów, które oferuje 8K. Jedynym efektem jest większy koszt i zużycie energii.
– Więcej pikseli oznacza więcej mocy obliczeniowej, większe zużycie energii i wyższy koszt produkcji – dlatego chcieliśmy znaleźć punkt, w którym dalsze ulepszanie nie ma sensu – tłumaczy Mantiuk.
Na podstawie zebranych danych naukowcy stworzyli bezpłatny kalkulator online, który pozwala sprawdzić, jaka rozdzielczość ekranu ma sens w danym pomieszczeniu. Wystarczy wpisać rozmiar pokoju, przekątną telewizora i odległość od kanapy, aby poznać rekomendowaną rozdzielczość.
Badanie opublikowane w czasopiśmie Nature Communications ma znaczenie nie tylko dla rynku RTV. Wyniki mogą wpłynąć również na rozwój wyświetlaczy w urządzeniach mobilnych, samochodach, a także w technologiach rzeczywistości wirtualnej (VR) i rozszerzonej (AR), gdzie dąży się do osiągnięcia tzw. „rozdzielczości siatkówki”.
– Nasze wyniki stanowią swego rodzaju gwiazdę polarną dla branży wyświetlaczy – wskazują granicę, której nie warto przekraczać, bo ludzkie oko po prostu nie zauważy różnicy – podsumowuje dr Alex Chapiro z Meta Reality Labs.
Źródło: University of Cambridge
Czytaj też: Wykorzystanie sztucznej inteligencji sprawia, że przeceniamy nasze zdolności poznawcze?
Grafika tytułowa: Amanda Dalbjörn / Unsplash

