[oaktable] Re: Consolidating systems

  • From: Graham Wood <dmarc-noreply@xxxxxxxxxxxxx> (Redacted sender "graham_wood" for DMARC)
  • To: "oaktable@xxxxxxxxxxxxx" <oaktable@xxxxxxxxxxxxx>
  • Date: Fri, 19 Feb 2021 22:29:25 +0000 (UTC)

 Hi Kellyn,
Are you saying take a single AWR report for a one week period and use that for 
sizing? Given the dangers of averaging , a topic that many on this list have 
been vocal on over the years, I would expect that to be problematic in very 
many cases. Almost all systems have some temporal workload variations such as 
day/night, weekday/weekend, and month end, even in these days of everything 
online 24x7. I can imagine that the one week average will always lead to a very 
lowball number, even after applying the recommended CPU fudge factors.  But 
then, if the idea is to 'size to win the business'...A next level dig into the 
AWR data should be able to greatly increase the accuracy of the estimate, even 
if it was only used to identify the temporal nature of the workload of each 
system.
Cheers, Graham
    On Wednesday, February 17, 2021, 01:20:57 PM PST, Kellyn Pot'Vin-Gorman 
<dbakevlar@xxxxxxxxx> wrote:  
 
 Hey Cary,I know I do this for Azure and we're about to embark on writing this 
up as part of a book for Apress, but, at a high level, there's a process and 
here's the overall reasoning behind why we do what we do:
1.  You realize that few are very good at sizing out machines for database 
workloads as they think they are.2.  Database workload resource needs change 
over time.3.  Existing hardware is purchased to serve the datacenter for an 
extended period of time.
Due to this, the process for a datacenter move and license review, (we suffer 
from Oracle's policy for 2:1 penalty on CPU:vCPU with hyperthreading) is-For 
each database environment, we collect a single AWR report for a one week 
window.1.  The data points for CPU, memory, IOPs, %busy CPU, CPU/Core, SGA/PGA 
is all documented for each production database- Don't do this for non-prod.We 
take the averages and any missing data for Exadata into consideration using a 
"fudge factor" table and translate it to what the workload would require to run 
NOW.2.  This is listed out in a spreadsheet, which can easily compare what is 
required vs. what is allocated in the hardware.3.  Values are assigned for a 
percentage of resources from the production workload that they wish to grant to 
stage, test, dev, etc.4.  Consolidate workloads for databases that make sense.  
5.  Consider the amount of resource usage that can be saved if a more modern 
backup utility can be used than RMAN.
Most customers discover they aren't using the cores that they thought they were 
and can save money on Oracle licensing.  
Hope this helps and I do have a worksheet for Azure that could be easily 
updated to just do straight CPU instead of Azure calculations if interested.  
It's what we use here to do the work.

 
|   |
|    |   |  Kellyn Pot'Vin-GormanDBAKevlar Blog
 about.me/dbakevlar  |
|   |

 

On Wed, Feb 17, 2021 at 12:45 PM Cary Millsap <cary.millsap@xxxxxxxxxxxx> wrote:

Hi everybody, from freezing cold Texas. 
I have a friend who's embarking on a big project to reduce the number of 
servers and licenses his company has to pay for and maintain (presumably using 
VMs and PDBs and all that). Do you know of any good sources for studying up on 
how to do a good job on a project like this?
Thank you,

Cary Millsap
Method R CorporationAuthor of Optimizing Oracle Performanceand The Method R 
Guide to Mastering Oracle Trace Data, 3rd edition

  

Other related posts: