Bigfile Tablespace no es para Oracle 10g

El problema de un Bigfile es el backup & restore.

En el mundo real un backup de un fichero de 1.8TB (le esta pasando a un colega) a una cabina de discos SATA tarda 23 horas, hay dos problemas aqui:

1. Los discos no deben de estar muy bien configurados, un throughput de 20MB/seg en un backup sin compresión es pésimo.
2. Antes de Oracle 11g RMAN solo puede paralelizar a nivel de datafiles, cada canal gestiona un datafile y no un trozo como en 11g en el cual se le puede especificar la clausula “SECTION SIZE” para paralelizar la operación a un nivel mas granular.

Considerando que la base de datos (RAC de 4 nodos) ocupa 3TB y el backup de 1.2TB tarda unas 6 horas porque estos al ser datafiles más pequeños y numerosos se paralelizan sin problemas tanto a nivel de datafiles como nodos de RAC. Pero el tiempo de backup se dispara por la existencia de un Bigfile. En mi opinión hay que pensarselo dos veces antes de optar por los Bigfiles en la versión 10g a no ser que no se pueda manejar 64K datafiles de 128G cada uno (con db_block_size a 32).

Sería menos problemático con las tecnologias tipo Split Mirror ó Snapshots con VTL sin embargo tampoco sería perfecto. Sería muy interesante conocer más ejemplos reales de bases de datos de considerable tamaño y que utilicen Bigfiles.

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / Change )

Twitter picture

You are commenting using your Twitter account. Log Out / Change )

Facebook photo

You are commenting using your Facebook account. Log Out / Change )

Google+ photo

You are commenting using your Google+ account. Log Out / Change )

Connecting to %s