Hej! Tänk, jag anade att detta skulle bubbla upp igen förr eller senareDu får gärna hänvisa till denna "vetenskapen" för inte en chans att det där stämmer. Den tabellen du länken tidigare är uppenbarligen inte vetenskaplig förövrigt.
Men här har du en vetenskaplig artikel som tyder på att skillnad upplevs: https://link.springer.com/chapter/10.1007/978-3-319-07857-1_64.
Sen har du även denna: https://www.koreascience.or.kr/article/JAKO201028042309684.page , tyvärr lite svårtolkad men med en översättare får man fram att på alla testade distanser (även längre) upplevs skillnad.
Jag är absolut inte någon vetenskapsman, inte ens naturvetare. Jag har däremot jobbat med filmproduktion från tiden då man var tvungen att filma på film för att få ett ok resultat, via den förfärliga DV-eran och nu när det finns en uppsjö av högupplösta digitala cinema-kameror att använda. Jag omger mig med många renodlade tekniker som inte gör annat än skärskådar pixlar, färgrymder och codecs dagarna i ända (och definitivt hade kunnat förklara detta bättre) och de delar definitivt min uppfattning.
Nej - tabellen jag bifogade tidigare är inte så vetenskapligt utformad. Här är en länk till en artikel som förklarar det hela på ett lite djupare plan och med snyggare grafik:
https://www.rgb.com/display-size-resolution-and-ideal-viewing-distance
Och vill man läsa mer om hur det mänskliga ögat fungerar vad gäller upplösning osv så tycker jag i det här fallet att wikipedia är väldigt uttömmande (och det är denna vetenskap ovanstående tabeller bygger på:
https://en.wikipedia.org/wiki/Visual_acuity
Nå - varför upplever man då att det blir bättre när man switchar mellan HD och 4K på Youtube? I detta fallet så är det helt enkelt ett resultat av att man laddar ned en betydligt större mängd data - en 4K-stream över nätet har helt enkelt väldigt mycket högre bitrate än en HD-stream och blir därför skarpare. Men - det hade den blivit på en HD-TV också.
Det finns tester (hittar dock inte länken nu) där man jämfört en okomprimerad HD signal med en okomprimerad 4K signal och det är inte möjligt att se någon skillnad. Adderar man dock en liten aning midtone detail till HD signalen så upplevs den som skarpare av samtliga.
I inspelningssammanhang är det dock naturligtvis toppen att kunna att filma med högre upplösning så att man i efterproduktionen har fler pixlar att jobba med när man tex. skall tracka, keya etc - och såklart möjligheten att croppa bilden utan någon större kvalitetsförlust.
Såklart är det i filmvärlden precis som i stillbildsvärlden INTE så att det alltid är den kameran med högst upplösning som är bäst.
Hur som helst så tycker jag absolut att alla skall göra det som funkar bäst för dem, vill man vara en early adopter och köpa en 8K TV så skall man göra det och vill man köra sin TV med inställningar som förstör filmupplevelsen (som fejkad HDR, "motion smoothing" osv) så skall man göra det. Det skadar dock inte att veta varför man gör det man gör och att jämföra äpplen med äpplen istället för päron
Med detta önskar jag alla en fortsatt fin midsommarhelg!