Ser man någon skillnad utöver just eventuell banding mellan 8 och 10 bitars färg? Mätvärden visar ju massor men ser det nakna ögat det? Förutom kanske dithering flimmer?
Tänker då HDMI 2.1 inte klarar av över 240hz i 2560x1440 i 10 bitar utan DSC. Kör jag 360hz i 10 bit så flippar nvidia ut när man startar spel eller alt tabbar, skärmen går svart i ca 5 sekunder. Så jag tänkte, är det en ide att köra 8 bitar och 360 hz? För problemet försvinner helt då.
Enligt ltts display calculator för bandwidth så kan HDMI 2.1 driva upp till runt 310hz i 2560x1440 10bit, någon som gjort en egen upplösning i CRU som kan göra en kort guide? Är ju en del val i det och vill inte sabba något.








