Re: High number of created consistent read blocks when inserting into a LOB column from dblink

  • From: Jure Bratina <jure.bratina@xxxxxxxxx>
  • To: Stefan Koehler <contact@xxxxxxxx>
  • Date: Thu, 12 Jan 2017 23:45:27 +0100

Thanks for the feedback Stefan.

One question though:

P.S.: For isolating the issue it might be easier to insert only one row
and check the difference.
The problem is that the issue of the INSERT slowing down and becoming more
and more CPU intensive manifests gradually. At the beginning, things run
smoothly, CPU usage is low, the deltas of "CR blocks created" are
relatively low. As the INSERT progresses, CPU usage rises, as do deltas for
"CR blocks created" among other statistics. I might be missing the point,
but if I try to insert a single row and observe the difference, I'll do
that at the beginning of the transaction, i.e. when the process won't be
heavily on CPU, so I wonder if I'll see why the process is so heavily on
CPU and building consistent read images of blocks?

Regards,
Jure Bratina

Other related posts: