Re: Fwd: RE: convert big endian to medium endian

  • From: Ahmed Fikri <gherrami@xxxxxxxxx>
  • To: "Mark W. Farnham" <mwf@xxxxxxxx>
  • Date: Fri, 14 Feb 2020 18:39:13 +0100

our application is complex enough and is used in the five continents. But
we have already successfully tested the migration to a UAT environment
using XTTS (approx. 8 days downtime). The downtime is due to many bugs in
the datapump and we have no possibility to apply patches (unfortunately
target DB is still 12.1 - this year we can definitely not go to 12.2 or 18).
We are in the process of doing a test to make the migration schema by
schema. The application is well partitioned, we will first only migrate the
vital objects etc. (that was also the suggestion from Tanel Poder). And
that's also what I want so that some nodes in the application are
physically separated. I am confident that this will work.

Thanks and regards
Ahmed

Am Fr., 14. Feb. 2020 um 16:38 Uhr schrieb Mark W. Farnham <mwf@xxxxxxxx>:

And...

IF all your actual column types work with sqlplus copy (and don't forget
to make arraysize large and long long enough), you can just set up as many
threads of sqlplus copy as you need/want using a few trial runs to find the
plateau maximum of your throughput.

mwf

-----Original Message-----
From: oracle-l-bounce@xxxxxxxxxxxxx [mailto:oracle-l-bounce@xxxxxxxxxxxxx]
On Behalf Of Mladen Gogala
Sent: Sunday, February 09, 2020 8:25 PM
To: Ahmed Fikri
Cc: ORACLE-L
Subject: Re: Fwd: RE: convert big endian to medium endian

Hi Ahmed!

I am just throwing ideas on the table. Nobody can give you the exact
answer as to what to do and how to do it. The first piece of information is
how much downtime can you tolerate and how much will an hour of downtime
cost your company. It your answer includes the word "minutes", then the
only option are various replication tools like GG or SharePlex.
There are also variables like the schema complexity, tablespace
dependencies, LOB columns and domain indexes. One thing that nobody has
mentioned is that you can't do transportable tablespace export if you have
domain indexes, like text indexes. The whole things needs to be treated
like a project with several dry runs and will likely take a better part of
a year.

On 2/9/20 12:19 PM, Ahmed Fikri wrote:
Thanks a lot for all this information. I think it is at first worth to
see if the patch suggested by J. Lewis will make the metadata export
faster. I think if we get the export in less than 24 hours, we will be
more than happy.

Thanks and regards
Ahmed

--
Mladen Gogala
Database Consultant
Tel: (347) 321-1217

--
//www.freelists.org/webpage/oracle-l





Other related posts: