[argyllcms] Re: Programming the video card

  • From: Mete Balci <metebalci@xxxxxxxxx>
  • To: argyllcms@xxxxxxxxxxxxx
  • Date: Fri, 27 Dec 2019 21:48:32 +0100

Just a quick note, I could easily see the difference between 8-bit dell
standard lcd and 10-bit eizo cg displays when looking at a gradient drawn
in photoshop when both displays using display port driven by nvidia gfx.

Mete

On Fri, 27 Dec 2019 at 7:43 PM, ternaryd <ternaryd@xxxxxxxxx> wrote:

On Fri, 27 Dec 2019 12:09:53 -0500
<graxx@xxxxxxxxxxxx> wrote:

Would anyone have a 10-bit "test pattern"
image to use in, say, Photoshop, to test
whether I truly have 10-bit capability going
out to my monitor?

Sorry, I also don't have such an image. But
your message put a few memories into my head.

First, your video card needs to support 10
bits, not only your monitor. This might even
require a special monitor cable. In my case
it's limited to display port. nvidia software
probably supports many models, and not all of
them give you 10 bits. So you could be
switching the flag in software without having
hardware support. Your best bet is to read all
specifications carefully.

The second thing is, that "normal" monitors
don't have true 8 bits, but rather some 5 or 6
bits. Only the very top level monitors have true
10 bits. Most monitors claiming 10 bits are
actually true "8/8/8" monitors. Their claim is
justified by a "time dithering", varying
intensity in time to fool the eye to some
intermediate level.

Third, looking at an image in Photoshop might
make things more complicated, as Photoshop does
do a couple things to improve image display
quality, disguising the differences. I guess,
you would have to send the your pixels directly
to the video card.

I do remember to have read articles telling how
well the authors could see the difference of
intermediate hues in gradients, but I was never
able to see that difference on mine. And I did
send the pixels directly to the video card (at
least I believe it: 10 bit values in Xlib
spread across the monitor in single steps; the
gradient was perfect also on the old 8-bit
monitor).

And finally, I think monitors claiming
10 bit color depth usually also come with an
enlarged gamut. At least that's my case. And it
is there where I can see a clear difference.
There are a few hues (specially reds) which on
a normal monitor look washed out compared side
by side with a 10-bit Monitor. More numbers
doesn't yet say, how those are used, right?: for
more intermediate hues or for a larger gamut?


Other related posts: