Sei sulla pagina 1di 12

SIMULACION DE RESERVORIO: PASADO, PRESENTE Y FUTURO

RESUMEN

La simulación de reservorios es una tecnología madura, y casi todas las decisiones importantes de
desarrollo de reservorios se basan de alguna manera en los resultados de simulación. A pesar de esta
madurez, la tecnología está cambiando rápidamente. Es importante que tanto los proveedores como los
usuarios del software de simulación de yacimientos comprendan hacia dónde conduce este cambio. Este
documento tiene una visión a largo plazo de la simulación de yacimientos, describiendo dónde ha estado
y dónde está ahora. Se cierra con una predicción de lo que será el estado de la técnica de la simulación de
yacimientos en 2007 y la especulación sobre ciertos aspectos de la simulación en 2017.

INTRODUCCIÓN

Hoy en día, la información de la simulación de yacimientos se utiliza en casi todas las decisiones
importantes de desarrollo de yacimientos. Esto se ha producido en parte a través de mejoras tecnológicas
que facilitan la simulación de los reservorios por un lado y la posibilidad de simularlos de manera más
realista por el otro; sin embargo, aunque la simulación de yacimientos ha avanzado mucho desde sus
inicios en la década de 1950, se necesita una mejora adicional sustancial, y esto está estimulando un
cambio continuo en la forma en que se realiza la simulación.

Dado que este cambio está ocurriendo, tanto los desarrolladores como los usuarios de la simulación
tienen interés en comprender hacia dónde se dirige. Obviamente, los desarrolladores de nuevas
capacidades de simulación necesitan esta comprensión para mantener sus productos relevantes y
competitivos. Sin embargo, las personas que usan la simulación también necesitan esta comprensión: ¿de
qué otra manera pueden confiar en que las organizaciones que proporcionan sus simuladores están al día
con el avance de la tecnología y se están moviendo en la dirección correcta?
Para entender a dónde vamos, es importante saber dónde hemos estado. Por lo tanto, este documento
comienza con una discusión de los desarrollos históricos en la simulación de yacimientos.
Luego describe brevemente el estado actual de la técnica en términos de cómo se realiza la simulación
hoy. Finalmente, se cierra con algunas predicciones generales.

EL PASADO

Este artículo ve el pasado como una progresión, una serie de avances. A veces esto toma la forma de un
gráfico, como la velocidad de la CPU en función del tiempo. En otros casos, es un listado de eventos
agrupados por década. En cualquier caso, la intención es transmitir una impresión de la rapidez con que
se produjo el desarrollo, con la esperanza de que eso ayude a estimar la tasa de cambio futura.

En proceso Las primeras computadoras eran poco más que agregar máquinas según los estándares
actuales. Incluso las computadoras más rápidas disponibles en la década de 1970 y principios de la década
de 1980 eran más lentas y tenían menos memoria que las PC de hoy. Sin un progreso sustancial en la
computación, el progreso en la simulación de yacimientos no habría tenido sentido.
La Figura 1 muestra la velocidad de cómputo en millones de operaciones de punto flotante por segundo
para las tres CPU más rápidas de su época: el Control Data 6600 en 1970, el Cray 1S en 1982 y un solo
procesador en un Cray T94 en 1996, las cifras de rendimiento se toman de la compilación de los resultados
de LINPACK de Dongarra y deben ser razonablemente representativos de los cálculos de simulación de
yacimientos.

La figura 1 muestra el rendimiento de un solo procesador. Hoy en día, la computación de alto rendimiento
se logra mediante el uso de múltiples procesadores en paralelo. El rendimiento resultante varía
ampliamente según el tamaño del problema y la cantidad de procesadores utilizados. El uso de, por
ejemplo, 32 procesadores debería llevar a factores de aceleración de 15-25 en los modelos de grandes
reservorios. Como resultado, aunque la Figura 1 muestra que la velocidad de mejora del rendimiento se
está ralentizando, si se toma en cuenta la paralelización, es posible que en realidad haya acelerado un
poco. No se intenta incorporar el rendimiento paralelo en la Figura 1 debido a su amplia variabilidad.

Considere la Tabla 1, que compara el Cray 1S con el Intel Pentium Pro de hoy. El 1S fue la segunda versión
de la primera computadora de cray. No solo fue el estado del arte de su tiempo, sino que representó un
tremendo avance sobre sus contemporáneos. Como tal, tenía el precio de supercomputadora estándar,
un poco por debajo de los $ 20 millones. Comprendía equipos grandes y pesados cuya instalación requería
grandes modificaciones eléctricas y de construcción. El Pro, por otro lado, cuesta unos pocos miles de
dólares, se puede comprar por correo o en cualquier tienda de computadoras, y se puede conectar a un
simple enchufe de pared. El Pro de 200 MHz es más del doble de rápido que el Cray (según los 10 números
de Dongarra) y, por lo general, está disponible con hasta cuatro veces más memoria.

Tamaño del modelo. Con el tiempo, el tamaño del modelo ha crecido con la velocidad de cálculo.
Considere que el tamaño máximo de modelo práctico sea el más grande (en términos de número de
bloques de cuadrícula) que podría usarse en el trabajo de simulación de rutina. En 1960, teniendo en
cuenta las computadoras disponibles en ese momento, este tamaño máximo de modelo era
probablemente de unos 200 bloques de cuadrícula. Para 1970, había crecido a unos 2000 bloques de
cuadrícula. En 1983, era de 33,000; La primera aplicación de Exxon del programa MARS fue en un modelo
de este tamaño que se ejecuta en el Cray 18%. En 1997, son aproximadamente 500,000 bloques de
cuadrícula para simulación en un solo procesador. La figura 2 representa estos valores.
Este gráfico semi-log es una línea casi recta, lo que indica una tasa de crecimiento bastante constante en
el tamaño del modelo. El crecimiento en el tamaño del modelo es aproximadamente consistente con el
crecimiento en la velocidad de cómputo que se muestra en la Figura 1.
Avances técnicos. El primer "simulador de reservorio" modela el flujo monofásico en una dimensión. Hoy
en día, la norma es el flujo trifásico en tres dimensiones con muchos bloques de rejilla y representación
fluida compleja. Muchos avances en los métodos computacionales hicieron posible esta transición. La
tabla 2 enumera algunos de estos por década. En general, los avances en la Tabla 2 se eligen porque
todavía están en uso hoy en día o allanaron el camino para los métodos utilizados en la actualidad.
Además, son métodos que se utilizan en muchos tipos de simulación, a diferencia de las técnicas para
modelar fenómenos específicos, como la histéresis de permeabilidad relativa o el flujo en depósitos
fracturados.
Los puntos altos en la tabla se discuten a continuación.
La simulación de yacimientos comenzó en 1954 con los cálculos de flujo de gas radial de Aronofsky y
Jenkins. El primer trabajo para recibir notificación fuera del campo de la ingeniería de yacimientos fue el
desarrollo de Peaceman y Rachford del procedimiento implícito de dirección alterna (ADI) ”. Más de 40
años después, se sigue utilizando ADI, aunque rara vez en la simulación de yacimientos.

Hoy en día, es difícil apreciar lo poco que se sabía a principios de los años sesenta. Incluso los conceptos
que hoy parecen obvios, como la ponderación ascendente, fueron temas de debate.
Sin embargo, a finales de la década, los primeros simuladores verdaderos de propósito general habían
llegado a existir.
Una de las dificultades en la década de 1960 fue resolver las ecuaciones matriciales. Hoy en día, un
solucionador debe ser rápido y fácil de usar.
Luego, hubo problemas que no pudieron resolverse en absoluto. El primer solucionador efectivo fue SIP.
Aunque a veces era difícil de usar, casi siempre podía funcionar.
Otro avance matemático de la época fue el desarrollo de métodos implícitos en el tiempo, lo que hizo
práctico resolver problemas de alta velocidad de flujo, como la conificación.

La década de 1970 vio la publicación de los modelos de permeabilidad relativa trifásica de Stone. Estos
siguen siendo ampliamente utilizados.
Otra innovación que ha resistido la prueba del tiempo fue el método ascendente de dos puntos. A pesar
de los esfuerzos generalizados desde entonces, solo se han encontrado mejoras incrementales.
También tuvo un tremendo impacto duradero el desarrollo de solucionadores que utilizaron
factorizaciones aproximadas aceleradas por ortogonalización y minimización. Estos hicieron posibles
métodos que estaban en gran parte libres de parámetros. Finalmente, la corrección de pozo de Peaceman
para determinar la presión en el fondo del pozo de la presión del bloque de rejilla y la tasa de pozo se usa
casi universalmente hoy en día.

A principios de la década de 1980, se produjo un avance significativo con el desarrollo de la factorización


anidada. La factorización anidada, rápida y muy robusta, puede ser el método de resolución de matrices
más utilizado en la actualidad. Otro paso importante ocurrió en la simulación de la composición. Aunque
los primeros simuladores de composición se desarrollaron a fines de la década de 1960, sus formulaciones
incluían una inconsistencia inherente que perjudicaba su rendimiento. El equilibrio de volumen y las
formulaciones de Young-Stephenson resolvieron este problema y, al mismo tiempo, hicieron práctico
escribir un simulador que puede resolver de manera eficiente tanto los problemas de aceite negro como
los de composición.
El desarrollo de la geometría de los puntos de esquina hizo posible el uso de bloques de rejilla no
rectangulares, proporcionando una capacidad que fue útil en una variedad de aplicaciones.

A fines de la década de 1980, los esfuerzos cambiaron a temas relacionados con el modelado geológico,
la geoestadística, el mejoramiento de la escala, las redes flexibles y la paralelización, y este énfasis ha
continuado en la década de los 90.
La lista de logros para la década de 1990 es mucho más corta que la de las tres décadas anteriores. Esto
es, por supuesto, en parte porque la década aún no ha terminado, pero también puede ser en parte
porque no ha transcurrido el tiempo suficiente para que las contribuciones duraderas sean reconocibles.
Tal vez, también se debe en parte a la desviación del esfuerzo del trabajo computacional general a las
tuercas y pernos del software interactivo y la paralelización.
Finalmente, también puede ser, desafortunadamente, el resultado de las reducciones en el esfuerzo de
investigación que comenzó a mediados de los años ochenta.
Capacidades del simulador. La sección anterior discute los avances técnicos. No serían de interés si no
hubieran llevado a mejoras en las capacidades desde el punto de vista del usuario. La Tabla 3 enumera,
una vez por década, las capacidades más avanzadas disponibles en los simuladores de la época. No se
intenta citar la literatura en esta discusión. Estas capacidades tendían a estar disponibles en varios
simuladores casi al mismo tiempo, y a menudo no había ninguna publicación externa que los describiera.
Las computadoras de la década de 1950 permitieron el uso de los modelos más crudos. La simulación
tridimensional estaba fuera de discusión, y solo eran posibles modelos bidimensionales pequeños. Todo
tenía que ser simple, por lo que se utilizaba el flujo monofásico o el flujo bifásico incompresible y una
geometría muy simple.

Las computadoras más potentes de la década de 1960 permitieron una descripción más realista del
reservorio y su contenido. El tratamiento con fluidos trifásicos de aceite negro se convirtió en la norma.
Se hizo posible ejecutar pequeños modelos tridimensionales. Se permitieron varios pozos, se podían
ubicar donde se deseaba y sus tasas podían variar con el tiempo. Los tamaños de los bloques de cuadrícula
podrían variar, y los bloques de cuadrícula podrían "eliminarse" o eliminarse del sistema. A fines de la
década, se disponía de métodos computacionales implícitos, lo que permitía el modelado práctico de
conos.

La década de 1970 parece haber sido la década de la recuperación mejorada de petróleo (EOR). Se
desarrollaron los primeros simuladores de composición. Las limitaciones informáticas obligaron a estos a
usar bloques de cuadrícula grandes, por lo que la dispersión numérica era un problema. Además, hubo
debilidades en las formulaciones iniciales utilizadas.
No obstante, hicieron posible comenzar a modelar fenómenos que hasta entonces habían sido ignorados.
Debido al gran interés en EOR, se dedicó mucho esfuerzo a modelar la recuperación química y miscible.
Finalmente, los avances en los métodos computacionales implícitos proporcionaron la estabilidad de la
solución requerida para modelar los procesos térmicos.
En la década de 1980, ya no era adecuado para el usuario decirle al simulador dónde colocar los pozos y
cuánto producir a partir de ellos. En las corridas de predicción, el simulador se hizo responsable de tomar
tales decisiones por sí mismo. Esto llevó al desarrollo de un software complejo de gestión de pozos que,
entre otras cosas, determinó cuándo trabajar con las soldaduras existentes o perforar nuevas, ajustó las
tasas para cumplir con las restricciones impuestas por las capacidades del separador, mantuvo las
presiones calculadas del yacimiento en los valores deseados y asignó Produce gas para inyección y
elevación de gas. Otros desarrollos llevaron a enfoques para modelar yacimientos fracturados. La
restricción normal de la conectividad de la red topológicamente rectangular se levantó para permitir tener
en cuenta el desplazamiento de las capas a través de las fallas. Finalmente, se comenzó a trabajar en la
visualización y preparación de datos interactivos y en las interfaces gráficas de usuario en general.

Los esfuerzos dominantes de la década de 1990 han consistido en varias formas de hacer que los
simuladores sean más fáciles de usar. Estos han incluido la continuación del trabajo sobre interfaces
gráficas de usuario, los intentos generalizados de integración de datos y el desarrollo de paquetes de
cuadriculado automático. El uso de modelos geológicos numéricos, que a menudo representan
estadísticamente la variación de propiedades a escala fina, se ha generalizado. Ha habido un trabajo
considerable sobre los métodos para "elevar la escala" de las celdas de estos modelos a las celdas de
bloques mucho más grandes que los simuladores pueden usar. La flexibilidad de la cuadrícula ha
aumentado a través del uso del refinamiento de cuadrícula local y geometrías de cuadrícula más
complejas. Un impulso actual es la integración de la simulación con herramientas computacionales sin
reservorio, como los modelos de instalaciones y paquetes económicos.
Evolución del software y soporte. A medida que los simuladores se hicieron más poderosos y flexibles, sus
comunidades de usuarios cambiaron.
Mientras esto ocurría, los desarrolladores y colaboradores tenían que cambiar la forma en que hacían su
trabajo. Como resultado, las prácticas de soporte y desarrollo de software progresaron a través de varias
etapas. La progresión aún está en curso, y queda una etapa por realizar.

1. Uso del desarrollador. Inicialmente, un equipo muy pequeño de desarrolladores ideó métodos
computacionales, los implementó en un simulador y los aplicó ellos mismos. Las primeras aplicaciones
fueron diseñadas para probar el simulador y sus conceptos y las siguientes para demostrar su utilidad en
problemas reales. Después de estas pruebas, los desarrolladores realizaron corridas de producción
destinadas a beneficiar a la corporación. La portabilidad de este simulador no fue un problema, porque
solo había una computadora para que se ejecutara.

2. Uso del equipo. En la siguiente etapa, el equipo había crecido y desarrollado especialización interna.
Dentro de él, un grupo desarrolló el simulador y otro lo aplicó. El simulador requería personalización para
cada nueva aplicación. A pesar de (la especialización de su grupo, los desarrolladores todavía estaban
frecuentemente involucrados en aplicaciones debido a la necesidad de simuladores de soporte continuo).
El simulador con frecuencia fallaba, y era esencialmente indocumentado. El simulador se ejecutó en una
sola computadora y la portabilidad aún no era un problema.
3. Uso local. En esta etapa, el simulador fue utilizado por personas que estaban ubicadas cerca de sus
desarrolladores pero que trabajaban en otras partes de la organización. El simulador aún requería
personalización para la mayoría de los nuevos estudios. Con frecuencia se requería otro tipo de apoyo,
pero no continuamente.
Los fallos todavía ocurrieron, pero con menos frecuencia que antes.
La documentación fue adecuada para permitir el uso del simulador con la ayuda de los desarrolladores.
El simulador se ejecutó en varias computadoras, pero todas eran del mismo tipo.

4. Uso generalizado. En esta etapa, el simulador comenzó a recibir uso por parte de personas en
ubicaciones remotas, rara vez requería personalización, pero seguía necesitando asistencia ocasional.
Rara vez fallaba. La documentación fue exhaustiva, pero se requirió entrenamiento para el uso efectivo
del simulador. La mayoría de las aplicaciones fueron realizadas por especialistas en el uso del simulador.
El simulador se ejecutó en una pequeña variedad de computadoras.
5. Uso general. En esta etapa, el simulador se habrá vuelto ampliamente utilizado por personas con
experiencia diversa. rara vez necesitará personalización, requerirá soporte con poca frecuencia y rara vez
fallará. Su documentación será minuciosa y de fácil comprensión. Sus interfaces de usuario serán intuitivas
y estandarizadas. Se requerirá poca formación para utilizar el simulador. El usuario necesitará
conocimientos de ingeniería de yacimientos, pero no necesitará ser un experto en simulación.
Cada transición a una nueva etapa cambia lo que se requiere del simulador y de quienes lo apoyan. Cada
transición ha sido más difícil que las anteriores. Una transición que fue sorprendentemente difícil fue del
uso local al uso generalizado. En la etapa de uso local, el simulador se utilizaba con frecuencia y, en su
mayor parte, funcionaba correctamente. Como resultado, parecía seguro enviarlo a ubicaciones remotas,
tal vez en el extranjero. Hacerlo llevó a muchos más problemas de los esperados. La computadora remota
difería ligeramente de los desarrolladores, su sistema operativo estaba en un nivel de lanzamiento
diferente y estaba configurado de manera diferente. Los usuarios remotos probaron el simulador una o
dos veces, y no funcionó. Estos usuarios no conocían personalmente a los desarrolladores y no tenían una
manera realmente conveniente de comunicarse con ellos. Normalmente, los usuarios abandonaron los
intentos de usar el simulador y el desarrollador tardó en enterarse de este error.

Curiosamente, los vendedores se vieron obligados por su negocio a hacer la transición a un uso
generalizado antes de que los desarrolladores internos de las compañías petroleras tuvieran que hacerlo.
Los proveedores han estado lidiando con los problemas relacionados desde principios de la década de
1970; los desarrolladores internos comenzaron a abordarlos más tarde, con diversos grados de éxito. Esta
transición se ve dificultada por los altos estándares de usabilidad, funcionalidad y robustez que se deben
cumplir. El desarrollo de software y la documentación de la calidad necesaria requiere mucho tiempo y
requiere diferentes conjuntos de habilidades que los tradicionales para el desarrollo de simuladores de
yacimientos.

Historia y rol del vendedor. Los investigadores que trabajan en los laboratorios de las principales
compañías petroleras desarrollaron los primeros simuladores de yacimientos.
No fue hasta mediados de la década de 1960 cuando empezaron a aparecer los vendedores. A
continuación se presenta una breve historia de algunos de estos proveedores. La inclusión de un
proveedor en particular en esta discusión no pretende implicar un respaldo, y la exclusión no pretende
implicar críticas. Las empresas discutidas son aquellas con las que el autor está familiarizado; por esta
razón, es más probable que se incluya a las empresas con sede en América del Norte que a las que se
encuentran en otros lugares.

El primero en comercializar un simulador de reservorios fue D. R. McCord and Associates en 1966. Poco
después, Core Laboratories también tenía un simulador de reservorios que utilizaban en trabajos de
consultoría.

El año 1968 vio la fundación de INTERCOMP y Scientific Software Corporation, dos compañías que
dominaron el mercado de simulación de yacimientos en la década de 1970.
A pesar de su éxito en el mercado, se formaron varias empresas nuevas en los años 70 y principios de los
80. El primero fue INTERA, que se formó en 1973 al fusionar una escisión de INTERCOMP con la firma
ambiental ERA. INTERA inicialmente se enfocó en el trabajo ambiental, pero finalmente entró en la
simulación de yacimientos como se explica a continuación. En 1977, se formó el Grupo de Modelado por
Computadora en Calgary con el apoyo de la provincia de Alberta. J. S. Nolen and Associates y Todd,
Diettrich y Chase se formaron en 1979. En 1981, se formó un negocio de simulación de yacimientos en la
empresa existente Exploration Consultants Limited (ECL) relacionada con la exploración. Finalmente,
SimTech fue fundada en 1982 y Reservoir Simulation Research Corporation en 1984.
La fundación de estas firmas fue seguida por una serie de fusiones y adquisiciones. Comenzaron en 1977
con la adquisición de INTERCOMP por Kaneb Services. En 1983, Kaneb Services vendió INTERCOMP a
Scientific Software Corporation, y las dos empresas se fusionaron para formar Scientific Software-
Intercomp o SSI.

A mediados de la década de 1980, J. S. Nolen and Associates fue adquirido por lo que llegó a ser Western
Atlas. En 1996, Landmark Graphics adquirió el negocio de simulación de yacimientos Western Atlas. Desde
entonces, Landmark fue a su vez adquirido y se convirtió en una división de Haltiburton.

A mediados de la década de 1980, INTERA adquirió el negocio de simulación de yacimientos de ECL. Unos
años más tarde, INTERA se dividió en dos compañías completamente separadas, una con sede en los
Estados Unidos y la otra en Canadá. El negocio de simulación de yacimientos se realizó con la INTERA
canadiense. En 1995, la filial de Schlumbergers GeoQuest adquirió el negocio de simulación de
yacimientos de INTERA. Poco después, INTERA, con sede en Estados Unidos,
que se había convertido en parte de Duke Engineering and Services,
reingresó al negocio de simulación de yacimientos mediante la adquisición de SimTech.
Finalmente, en 1996, la firma noruega Smedvig adquirió Reservoir Simulation Research Corporation.

A partir de la segunda mitad de la década de 1990, los simuladores de proveedores son muy utilizados. A
medida que los productos de los proveedores han mejorado, algunas compañías petroleras han reducido
o reducido totalmente sus esfuerzos internos. Esas empresas descubrieron que los proveedores podían
proporcionar herramientas que eran al menos tan buenas como las que podían desarrollar por sí mismas,
y que podían reducir sus costos de desarrollo y soporte mediante el uso de los productos de los
proveedores. Por otro lado, varias grandes empresas continúan considerando que lo mejor para ellos es
desarrollar herramientas propietarias, tal vez incorporando ciertos componentes de proveedores en sus
sistemas.

EL PRESENTE

La siguiente discusión revisa brevemente las prácticas comunes de hoy en la simulación de yacimientos.
Está pensado para representar lo que realmente hace la gente cuando realiza una simulación de
vanguardia. Se enfoca en grandes modelos a escala de campo.

Modelización geológica. El reservorio se define utilizando un modelo geológico numérico. A menudo, los
detalles finos de este modelo se generan estadísticamente. El modo tiene típicamente en el orden de uno
a diez millones de células. Se basa en las creencias de los geólogos sobre los entornos de depósito del
reservorio y los datos de diversas fuentes, como sísmica, registros de pozos y núcleos. A veces, se simulan
varias versiones aleatorias del modelo, llamadas "realizaciones", para cuantificar la incertidumbre en los
resultados de la simulación.

Gridding El usuario define las principales unidades de depósito a las que debe ajustarse la red de
simulación. Dentro de estas unidades, la cuadrícula se genera automáticamente con alguna entrada de
guía del usuario. Los bloques de cuadrícula son generalmente rectangulares o casi.
Se utiliza el refinamiento local de la cuadrícula en partes clave del modelo.
Los cálculos especiales explican el flujo a través de fallas entre bloques de rejilla que no son
topológicamente vecinos.

Upscaling. El bloque de cuadrícula de simulación típico consolida varias decenas a varios cientos de celdas
modelo geológicas.
Las permeabilíticas efectivas en la cuadrícula de simulación se determinan a partir de las permeabilidades
del modelo geológico usando un promedio numérico apropiado o un aumento de escala basado en el
flujo.
A veces, los modelos de segmentos finamente cuadriculados se ejecutan antes de la simulación a escala
de campo, y los resultados de estas ejecuciones se utilizan para determinar las permeabilidades pseudo
relativas, logrando así el aumento de escala multifase.

Importación de datos. Bueno, los datos existen en las bases de datos. La producción histórica y las tasas
de inyección se exportan desde estas bases de datos en una forma que puede ser leída por el simulador
o convertida por las utilidades en entrada de simulador. La mayor parte de este proceso es esencialmente
automático en el sentido de que requiere poca intervención por parte del usuario. Por otro lado, el usuario
debe trabajar con los datos históricos de presión y los datos que describen los pozos (como los intervalos
de terminación y el tamaño de los tubos) para que entren en el formulario que necesita el simulador.
Los datos de propiedad de fluidos también están disponibles en bases de datos.
Sin embargo, los resultados medidos en el laboratorio varían de una muestra a otra, y el usuario debe
promediarlos manualmente de alguna manera. También se necesita un promedio manual similar para los
datos de permeabilidad relativa y presión capilar. Además, las pseudofunciones se utilizan a menudo. El
uso de pseudofunciones está disminuyendo a medida que se hacen posibles redes más finas.

Simulación. Lo siguiente caracteriza la simulación de reservorio de hoy basada en ciertos aspectos de


cómo se realiza.

Tipo. La gran mayoría de las simulaciones son de procesos de recuperación convencionales, y la mayoría
de estas simulaciones utilizan un tratamiento de fluido de aceite negro con presión variable en la burbuja.
Sin embargo, el uso de la representación de fluidos de composición está creciendo y se ha vuelto
importante. Cuando se usa una representación compositiva, el comportamiento fluido normalmente se
calcula utilizando una ecuación de estado.

Las representaciones de fluidos de composición completa también se utilizan para simular la recuperación
miscible, particularmente a escala de laboratorio.
Para los procesos a escala de campo, la norma es utilizar enfoques más simples, particularmente en el
modelado de inundaciones de dióxido de carbono.
La simulación de los procesos de inyección de vapor es común, pero la simulación de la combustión in situ
es rara, en parte porque el uso de la combustión in situ es raro y en parte porque la simulación es difícil y
costosa.

La mayoría del esfuerzo de simulación probablemente se dedica a modelar reservorios completos o partes
sustanciales de ellos, pero en términos de número de modelos ejecutados puede haber más simulaciones
de pozos individuales. Esto está siendo impulsado en gran medida por el crecimiento en el uso de pozos
horizontales.

Tamaño del modelo. Son comunes 100.000 modelos de bloques negros de campo de campo de gridblock,
y los modelos varias veces más grandes no son desconocidos. Los modelos de composición tienden a ser
más pequeños, quizás por un factor de tres a cinco.

Los modelos típicos de conos de pozos verticales tienen alrededor de mil a varios miles de bloques de
rejillas, mientras que los modelos de pozos horizontales son un factor de diez más grande.

La mayoría de los modelos de proceso de vapor son de un solo pozo y tienen a lo sumo unos pocos miles
de bloques de rejilla.

Plataforma de computación. La mayor parte de la simulación de yacimientos se realiza en estaciones de


trabajo y servidores Unix. La simulación realizada en otras plataformas probablemente se divide de
manera bastante equitativa entre PC y supercomputadoras. Actualmente se hace muy poco en paralelo,
pero eso está cambiando rápidamente. El procesamiento previo y posterior de la simulación se realiza
principalmente en estaciones de trabajo Unix, pero el uso de PC de gama alta basadas en Windows está
creciendo.

Coincidencia de la historia. La comparación de historial es esencialmente un proceso manual, asistido


quizás por un software que organiza y muestra los resultados de las coincidencias de historial. Todavía no
es factible la comparación automática de la historia de Fulty Alguna optimización de pequeños conjuntos
de parámetros, como los multiplicadores de permeabilidad regionales, se realiza automáticamente.

Manejo Predictivo de Pozos. Durante la predicción, el simulador en efecto opera el reservorio. Perfora
pozos nuevos, vuelve a completar los existentes, restringe las tasas para satisfacer las restricciones de las
instalaciones, cambia los pozos a los sistemas de recolección de baja presión, etc. Decide cuándo realizar
estas acciones según las reglas y otra información proporcionada por el usuario.

Sin embargo, el modelado del flujo en la tubería y la red de superficie es menos sofisticado. Las caídas de
presión normalmente se determinan solo en el pozo, y estos cálculos generalmente se realizan utilizando
tablas. La mayoría de los cálculos de red se basan completamente en el balance de materiales. En efecto,
la física se ignora en gran medida después de que el fluido abandona la boca del pozo. Esto está
cambiando, y algunos simuladores pueden modelar estos flujos de manera más rigurosa.

Uso de los resultados. La simulación de yacimientos se utiliza con mayor frecuencia para tomar decisiones
de desarrollo. Estos comienzan con el desarrollo inicial y continúan con decisiones como las relacionadas
con la perforación de relleno y la implementación de procesos mejorados de recuperación de petróleo.
La simulación no se usa comúnmente en las operaciones diarias, pero a veces se usa para tomar decisiones
operativas importantes.
El futuro
Antes de intentar predecir el futuro, es bueno estar al tanto de los impulsores del negocio, los más
importantes de los cuales se analizan a continuación. Estos llevan a los objetivos técnicos actuales,
también se discuten a continuación. Estos objetivos forman la base de varias predicciones.

Objetivos de negocio. En vista de la gestión de la empresa petrolera, la investigación y el desarrollo


relacionados con la simulación de yacimientos deben abordar los cuatro objetivos que se analizan a
continuación.
El orden en que aparecen en la lista no indica la prioridad, y lo que es más importante varía de una
situación a otra.

Comprimir el tiempo del calendario. El tiempo es abundante, y cuanto más rápido se pueda realizar un
estudio, más valioso será. Los plazos asociados con posibles adquisiciones de propiedades se están
acortando y las presiones competitivas están creciendo. Además, un estudio que no demore mucho
probablemente no cueste mucho.

Disminuir el costo. Las compañías petroleras continúan bajo presión para reducir costos. A pesar de la
naturaleza intensiva en computación de la simulación de yacimientos, su mayor costo proviene de la mano
de obra de ingeniería que requiere.

Reducir la experiencia requerida. En cierto sentido, este objetivo está estrechamente relacionado con el
anterior, ya que mantener la experiencia es costoso. Sin embargo, también se relaciona con el impulso
generalizado para descentralizar y aplanar a las organizaciones. A medida que esto ocurre, los ingenieros
generalistas de yacimientos están realizando más simulaciones a nivel local, en lugar de grupos de
especialistas centralizados.
No se puede esperar que estos ingenieros de yacimientos sean expertos en simulación.

Mejorar la precisión y el realismo. Estos son los objetivos tradicionales de la simulación de investigación
y desarrollo. Se han creado nuevos desafíos con las cuadrículas que salen de modelos geológicos y con
geometrías de pozos más complejas.
Objetivos técnicos y esfuerzos para abordarlos. Un buen objetivo técnico debe cumplir con dos criterios:
debe abordar uno o más de los objetivos comerciales, y debe ser alcanzable con un esfuerzo razonable en
el marco de tiempo previsto. El progreso sustancial en los siguientes objetivos debe ser posible dentro de
10 años, y su logro debe ser posible dentro de 20 años. Lo siguiente establece cada objetivo, lo expande
muy brevemente y describe el trabajo actual que lo aborda.

Requerir al usuario que proporcione solo datos que describan el sistema físico, sus fluidos y su historial.
No le exija que especifique datos computacionales como la selección de solucionador, los parámetros de
iteración y los controles de paso de tiempo. Cree la cuadrícula de simulación para él sin ninguna
intervención de su parte.

Varias organizaciones están trabajando en la cuadrícula, y parte de su trabajo se relaciona con la


automatización del proceso de cuadrícula.
El trabajo actual del solucionador de ecuaciones lineales se relaciona principalmente con la paralelización,
pero dentro de este trabajo hay un intento continuo de mejorar la robustez y reducir el esfuerzo requerido
por el usuario.

Automatizar la coincidencia de historial. Determine el mejor ajuste posible a los datos históricos
existentes, en consonancia con el entorno de depósito presunto y otras características del modelo
geológico.

El trabajo reciente ha conducido a una forma económica de calcular derivados para su uso en métodos
de optimización basados en gradientes. Estos se aplicarán con más frecuencia, pero se necesita mucho
más para una comparación de historial verdaderamente automática.

Minimice el tiempo y el esfuerzo necesarios para acceder a la información requerida para realizar el
estudio y generar los resultados que son el objetivo del estudio. Integrar datos al hacerlo es práctico y
proporciona capacidades de importación eficientes cuando no lo es. Del mismo modo, integre los cálculos
posteriores cuando sea práctico y proporcione capacidades de exportación eficientes cuando no lo sea.

La Corporación de Sistemas Abiertos del Petróleo (POSC) y sus miembros están abordando el problema
de la integración de datos.
Las recientes adquisiciones de proveedores de simulación de yacimientos por parte de organizaciones de
servicios más grandes están llevando a la integración con herramientas informáticas tanto en sentido
ascendente como descendente de la simulación.

Predicciones. Siguiendo las predicciones de arco con respecto al año 2007, el estado del arte de la
simulación de yacimientos y las tecnologías relacionadas.

1. La plataforma de computación de gama alta dominante para los cálculos de simulación será un servidor
Unix que comprenda múltiples nodos, cada uno con un pequeño número de procesadores. Cuando no se
necesita un alto rendimiento, la plataforma dominante será un
PC multiprocesador ejecutando NT.

2. La plataforma de visualización y preprocesamiento y preponderante dominante será la versión superior


de la línea en la que se haya convertido la PC.

3. La integración de los simuladores de yacimientos con el software y las bases de datos que proporcionan
sus datos de entrada será mucho mejor de lo que es hoy.

4. La simulación del reservorio será esencialmente automática, dado el modelo geológico, los datos de
fluidos y los datos de roca (es decir, permeabilidad relativa y presión capilar).

5. Las simulaciones más grandes de petróleo negro utilizarán al menos 10 millones de bloques de
cuadrícula.

6. La mayoría de los simuladores se basarán en grillas no estructuradas.


7. Los cálculos integrados de la red de la superficie del yacimiento serán comunes.

8. El uso de herramientas de comparación de historial será generalizado, pero el proceso de comparación


de historial no será automático.

Las predicciones anteriores se hacen con cierta confianza. Parece razonable esperar que la mayoría de
ellos sean en general correctos, y quizás uno o dos salgan mal.
Intentar predecir más en el futuro es más problemático. No obstante, puede ser instructivo considerar lo
que puede suceder en 2017. Las siguientes se ofrecen como especulaciones con la intención de provocar
el pensamiento en lugar de como predicciones serias.

l Las simulaciones más grandes de petróleo negro utilizarán unos 100 millones de bloques de rejilla.

2. La coincidencia de historial aún no será automática, pero estará más cerca.

3. Un tema crítico será la integración de la simulación de yacimientos con el modelado de la tierra.

4. Se habrán producido cálculos y otros desarrollos que no se pueden prever en la actualidad. Estos
tendrán un impacto dramático en la simulación del yacimiento.

Potrebbero piacerti anche