Inicio | Acerca del Autor | E-mail

viernes, 16 de noviembre de 2012

La Incertidumbre y el Riesgo en el Diseño Racional en la Ingeniería Geotécnica (I)


Los seres humanos construyeron túneles, represas, canales, fortificaciones, carreteras y otras estructuras mucho antes de que hubiera una disciplina formal de la Ingeniería Geotécnica. Aunque muchos impresionantes proyectos fueron construidos, la capacidad de los ingenieros para hacer frente a los problemas geotécnicos de una forma analíticamente rigurosa que les permitiese aprender de la experiencia y catalogar el comportamiento de los suelos y las rocas, era limitada.

Portada de 'Resolución de Problemas Geotécnicos' (Lommler,  2012)

Durante los dos primeros tercios del siglo XX, un grupo de ingenieros e investigadores, dirigido por Karl Terzaghi (1883-1963), cambió todo eso mediante la aplicación de los métodos de la física y la ingeniería mecánica, para el estudio de los materiales geológicos (Terzaghi, 1925). Ellos desarrollaron métodos de análisis teórico, procedimientos de análisis de laboratorio y técnicas para mediciones de campo. Esto permitió un enfoque racional para el diseño y, en el proceso, proporcionaron el pre requisito más importantes para el avance tecnológico: un sistema parsimonioso de referencia dentro del cual catalogar la observación y la experiencia.

Los desarrollos de principios de los años 1900s llegaron casi un siglo después de la introducción de métodos racionales en la ingeniería estructural y diseño de máquinas. El retraso no es sorprendente, ya que la empresa de enfrentar materiales tal y como la naturaleza los depositó, es profundamente diferente de la de tratar con materiales elaborados por el hombre, incluso materiales tan complicados como el concreto reforzado. Los ingenieros estructurales y mecánicos se enfrentan a un mundo casi en su totalidad fabricado por ellos mismos. La geometrías y las propiedades de los materiales son especificas; los sistemas de componentes y sus puntos de conexión están previstos de antemano. Las principales incertidumbres tienen que ver con las tolerancias con las que se puede construir la estructura o el dispositivo mecánico, y con las cargas y las condiciones ambientales a las que estará expuesta la estructura o dicho dispositivo.

La empresa de la Ingeniería Geotécnica es diferente. El ingeniero geotécnico o el ingeniero geólogo, se ocupa principalmente de las geometrías y materiales que ofrece la naturaleza. Estas condiciones naturales son desconocidas para el diseñador y deben ser inferidas de observaciones limitadas y costosas. Las principales incertidumbres tienen que ver con la exactitud e integralidad con las que se conocen las condiciones del subsuelo, y con las resistencias que estos materiales serán capaces de movilizar. Las incertidumbres en la ingeniería estructural y mecánica son en gran parte deductivas: a partir de las condiciones razonablemente bien conocidas, los modelos se utilizan para deducir el comportamiento de un universo razonablemente bien especificado. Las incertidumbres en la Ingeniería Geotécnica son en gran medida inductivas: a partir de observaciones limitadas, el juicio, el conocimiento de la geología y el razonamiento estadístico se emplean para inferir el comportamiento de un universo pobremente definido. 

EQUILIBRANDO EL RIESGO Y LA CONFIABILIDAD EN EL DISEÑO GEOTÉCNICO

En las últimas décadas, los códigos geotécnicos de diseño se han desarrollado considerablemente. La práctica de la Ingeniería Geotécnica se ha desarrollado desde las decisiones basadas en la experiencia (las reglas empíricas) hasta el criterio del Diseño Racional.

En muchos aspectos, los códigos geotécnicos de diseño han seguido la evolución de la ingeniería estructural (por ejemplo, en el Diseño por Carga y Factor de Resistencia (LRFD)), probablemente porque los problemas son similares: las incertidumbres en la carga y la resistencia, diseño de estado límite, o los mecanismos de falla de los modelos basados en la física. Además de los enfoques de diseño, también la teoría de la confiabilidad estructural (es decir, el enfoque probabilístico) se ha desarrollado considerablemente. Por ejemplo, la calibración de los factores de seguridad parciales en la Ingeniería Geotécnica y estructural se basa en los conceptos de confiabilidad.

Sin embargo, existen diferencias fundamentales entre las estructuras de concreto o de acero y las estructuras geotécnicas. La Ingeniería Geotécnica trata con materiales naturalmente depositados, en contraste con el concreto o el acero, que son hechos por el hombre. Mientras que en el concreto las principales incertidumbres son las propiedades del material debido al proceso de producción, con las condiciones del terreno incluso la composición o la estratificación no se conocen perfectamente. Es una práctica común que los ingenieros geotécnicos o los ingenieros geólogos hagan una caracterizaciones de las condiciones del terreno como las mejores conjeturas o estimaciones prudentes basadas en los datos disponibles, y mientras que los factores de seguridad  de los códigos de diseño se encargan de cuidar de las incertidumbres del material dentro de estos escenarios seleccionados o las posibles verdades, la incertidumbre en el proceso de caracterización no está cubierta por ningún concepto de seguridad.

Los tres pasos principales en la caracterización geotécnica son:

  1. La caracterización de la disposición en capas del subsuelo y la geometría, 
  2. Suposiciones y modelado respecto a las presiones de poro, y 
  3. La elección de un modelo computacional adecuado y sus parámetros de entrada.

Diferentes diseñadores definitivamente tomarían decisiones diferentes en cada uno de estos pasos, llevando a resultados en algún lugar entre optimistas y muy conservadores, o pesimistas. Esto implica, que la confiabilidad de los diseños resultantes varía, debido a que las suposiciones optimistas no conducen a mayores factores de seguridad que se aplicarán o viceversa.

Pasos y alternativas en la Caracterización Geotécnica (Schweckendiek, T. & Calle, 2010)

La mayoría de los primeros pioneros de la Ingeniería Geotécnica, fueron educados en las disciplinas de la ingeniería estructural y mecánica, mientras aquellas disciplinas desarrollaban una base racional y científica. Por ejemplo, el primer título de Terzaghi fue en ingeniería mecánica, Peck comenzó como ingeniero estructural, y la educación de Casagrande fue en hidráulica. Sin embargo, a medida que estos y otros pioneros iban casi poniendo la fundación racional de lo que finalmente se conocería como la Ingeniería Geotécnica, eran muy conscientes de las limitaciones del enfoque deductivo, puramente racional, respecto de las condiciones inciertas que prevalecen en ese mundo geológico. Sus últimos escritos están llenos de advertencias de que no se deben tomar los resultados de las pruebas de laboratorio y los cálculos analíticos muy literalmente. De hecho, uno de los factores que atrajo a muchos estudiantes a este campo era esta incertidumbre. Incluso a nivel de pregrado, las cosas no parecían ser de recortado y secado. Cada proyecto representa un nuevo desafío. Había espacio para la investigación en cada nuevo proyecto, así como para el ejercicio de juicio.

La forma más ampliamente aceptada y eficaz para enfrentar las incertidumbres inherentes al tratamiento de materiales geológicos llegó a ser conocida como el Método Observacional, descrito sucintamente por Casagrande (1965) y Peck (1969). Es una parte esencial también del Nuevo Método Austriaco de Túneles NATM (Rabcewitz 1964a, 1964b, 1965;. Einstein et al 1996).

El Método Observacional surgió del hecho de que no es factible en muchas aplicaciones geotécnicas asumir valores muy conservadores de las cargas y de las propiedades del material, y diseñar bajo tales condiciones.

A menudo, el diseño resultante es física o financieramente imposible de construir. En cambio, el ingeniero realiza estimaciones razonables de los parámetros y de las cantidades por las que podrían desviarse de los valores esperados. Entonces, el diseño se basa en los valores esperados -o en unos valores conservadores pero de extensión factible de los valores esperados- pero se han previsto medidas para hacer frente a la ocurrencia de cargas o de resistencias que se encuentran por fuera del rango de diseño. Durante la construcción y operación de la instalación, las observaciones de su desempeño se efectúan, de forma que se puedan ejercer acciones correctivas apropiadas. Esto no es simplemente una cuestión de diseño para un conjunto de condiciones esperadas, y hacer algo para solucionar los problemas que puedan surgir. Se trata de considerar los efectos del posible rango de valores de los parámetros y tener en marcha un plan para enfrentar acontecimientos que están fuera del rango esperado. Se requiere la participación permanente de los diseñadores durante la construcción y la operación de las instalaciones.

Los últimos años han mostrado una tendencia a poner el tratamiento de la incertidumbre sobre una base más formal, en particular mediante la aplicación de los resultados de la teoría de la confiabilidad a la Ingeniería Geotécnica.

La teoría de la confiabilidad evolucionó de la industria estructural, aeroespacial y manufacturera; ha requerido una adaptación especial para hacer frente al entorno geológico. El enfoque en la confiabilidad no remueve la existencia de las incertidumbres y no alivia la 'necesidad de juicio de ingeniería' en el trato con el mundo. Este enfoque proporciona una forma de cuantificar las incertidumbres y manejarlas de forma consistente. En esencia, son un esquema de contabilidad. El ingeniero geotécnico experimentado ya ha dado el primer paso en la aplicación de ´los métodos de confiabilidad -reconociendo que el mundo es imperfectamente cognoscible. El resto del proceso es descubrir cómo hacer frente a esa imperfección.

Hoy en día el ingeniero geotécnico debe ser cada vez más capaz de lidiar con la confiabilidad. Hay varias razones para esto:

  1. Las presiones regulatorias y legales fuerzan a los ingenieros geotécnicos a proporcionar respuestas sobre la confiabilidad de sus diseños. Esto es más notable en áreas fuertemente reguladas de la práctica, como la energía nuclear, la tecnología marina, y la eliminación de residuos. Es una tendencia que afectará a otras áreas de práctica en el futuro. 
  2. Las decisiones de gestión sobre la conveniencia de continuar con un curso de acción proyectado, la forma de financiarlo, y cuándo programarlo, cada vez más se basan en el análisis estadístico de decisión. Un breve repaso de casi cualquier libro de texto sobre la gestión financiera moderna demuestra que los gerentes de hoy están capacitados para evaluar el valor de un curso de acción a partir de estimaciones probabilísticas del valor del dinero, las ganancias futuras, los costos de producción, y así sucesivamente. El desempeño de las obras mayores de la Ingeniería Civil entra en esas evaluaciones, y así también, deben ser evaluados probabilísticamente. 
  3. Los códigos de construcción modernos se basan en los enfoques de Diseño por Carga y Factor de Resistencia (LRFD), que a su vez, se basan en métodos de confiabilidad. Estas técnicas se están ahora introduciendo en áreas como el diseño de pilas para las estructuras viales. 
  4. La teoría de confiabilidad proporciona una manera racional para hacer frente a algunas de las preguntas controvertidas históricamente. Por ejemplo, ¿cuánta confianza debería el ingeniero colocar en un factor de seguridad calculado? ¿Cómo debe el ingeniero cuantificar la creencia bien fundada de que el valor del ángulo de fricción es más confiable que el de la cohesión? ¿Cómo puede el ingeniero demostrar que un diseño basado en más datos y datos más consistentes es más robusto que uno basado en información parcial - y entonces vale la pena el costo adicional de obtener estos datos? ¿Cómo puede el ingeniero distinguir entre las diferentes consecuencias de la falla o separar los casos en los que ocurre una falla progresiva, de aquellos en los que se espera un comportamiento promedio? 

Los enfoques de confiabilidad proporcionan conocimientos en estas áreas y, en algunos casos, los procedimientos numéricos para analizarlos.

Existe una distinción relacionada entre el enfoque frecuentista (de la probabilidad) y el enfoque de grados de creencia en la incertidumbre. El concepto frecuentista implica que las incertidumbres descritas por el análisis probabilístico y estadístico, tienen que ver con una larga serie de eventos similares en el mundo. El concepto de grado de creencia, indica que las incertidumbres tienen que ver con la confianza que uno aplica en conocer el estado del mundo. La disputa entre las dos escuelas puede llegar a ser a veces un argumento filosófico precioso, pero hay una diferencia significativa que tiene implicaciones prácticas. Por ejemplo, una compañía de seguros vende seguros de vida desde un punto de vista frecuentista basado en las tablas actuariales. El consumidor compra estos seguros de vida sobre la base de un grado de creencia en su propia longevidad. La modelación de los problemas geotécnicos implica ambos tipos de razonamiento, pero los ingenieros geotécnicos se sienten más a gusto con la idea del grado de creencia de la incertidumbre que con la visión frecuentista.

Esta distinción entre la frecuencia y la creencia puede ser elaborada considerando la diferencia entre las incertidumbres que son inherentes a un proceso y las que reflejan la falta de conocimiento. Un buen ejemplo es la diferencia entre las incertidumbres asociadas con un par de dados y las de una baraja de cartas. Un  dado equilibrado en todas sus caras es un método de aleatorización. El número que va a aparecer es al azar, y no existe ningún conocimiento que se pueda obtener prácticamente acerca de cómo el dado es lanzado, ni cuándo, ni con qué fuerza se afecta la capacidad de predecir el resultado. Este tipo de incertidumbre subyacente regula algunos procesos naturales. La desintegración radiactiva es un ejemplo, la mecánica cuántica demuestra que es imposible saber con precisión qué átomo se desintegra o cuándo va a decaer. El mazo de cartas tipifica el otro tipo de incertidumbre. El mazo tiene un arreglo definitivo, y cualquiera que observe con honestidad la baraja, se encuentra con el mismo orden de las cartas. La incertidumbre radica enteramente en nuestra ignorancia del orden de arreglo de la baraja, y juegos sofisticados como el póker y el bridge tienen mucho que ver con tratar de obtener información sobre la disposición de las cartas del juego de la mano. Una gran parte de la incertidumbre geológica es de este tipo, pues en todos los sitios hay un arreglo definitivo de los materiales geológicos y sus propiedades, pero no sabemos cual es.

DESARROLLO HISTÓRICO DE LOS MÉTODOS DE CONFIABILIDAD EN INGENIERÍA CIVIL

Para encontrar los antecedentes del concepto actual de riesgo y los métodos de confiabilidad en ingeniería civil, hay que mirar de nuevo al campo aliado de la confiabilidad estructural y a pioneros como Alfred Freudenthal (1906-1977). En los años 1950s y 1960s, Freudenthal publicó una serie de documentos fundamentales en los que aparecieron por primera vez muchos de los preceptos del riesgo moderno y la teoría de confiabilidad (Freudenthal 1951, Freudenthal et al, 1966;. Freudenthal y Gumbel 1956). Entre éstos se encontraba el concepto de la descripción estadística de las propiedades del material, la representación estado-espacio de las condiciones de falla, y los índices de confiabilidad no paramétricos.

El trabajo de Freudenthal fue seguido por una generación de investigadores en ingeniería estructural, incluyendo A.H.-S. Ang, C.A. Cornell, O. Ditlevsen, A.M. Hasofer, N. Lind, y R. Rackwitz. A principios de los 1970s, el campo emergente de la confiabilidad estructural comenzó a extenderse a la investigación en Ingeniería Geotécnica.

Los principales programas del gobierno y las tendencias económicas de los años 1970s y 1980s ejercieron una influencia significativa en la dirección del campo. Las más importantes fueron el marco regulatorio que rodea la generación de energía nuclear, la eliminación de los residuos nucleares y los sólidos, y la crisis energética de la década de 1970, lo que llevó al desarrollo de las instalaciones de producción de gas y petróleo en aguas de profundidad sin precedentes. Cada una de estas tendencias incrmentó la atención sobre las incertidumbres relativas a la caracterización de sitio y las evaluaciones cuantitativas de comportamiento geotécnico. Otros intereses industriales en el riesgo geotécnico y la confiabilidad, provienen de la minería a cielo abierto, donde las altos taludes de roca son diseñados con bajos factores de seguridad, y la seguridad sísmica, donde las líneas de vida y otras instalaciones críticas pueden ser corrompidas por movimientos de tierra poco frecuentes pero violentos.

Con la falla de la represa Teton en 1976, las agencias de construcción de represas en los Estados Unidos se involucraron fuertemente en la evaluación de riesgos. Las fallas de represas y las casi-fallas sin pérdida de contención, además de afortunadamente no ser comunes, están lejos de ser desconocidas.

La siguiente figura, muestra la frecuencia de las fallas recientes de represas, que ha llevado a algunos trabajadores a la conclusión de que el riesgo anual de falla de una represa moderna, ausente de otra información, es del orden de 10-5 a 10-4 por año/represa ( Baecher et al. 1 980). Hoy en día, la U. S. Bureau of Reclamation se ha convertido en el principal exponente de la evaluación del riesgo de las represas, y el Cuerpo de Ingenieros de los EE.UU. ha producido numerosos talleres y manuales para orientar al personal y a los contratistas a aplicar la teoría de la confiabilidad en sus proyectos. Ellos han desarrollado amplio experticio técnico en la metodología riesgo.

Frecuencia de fallas recientes de represas (Rajapakse, R., 2008)

LA CONFIABILIDAD

Confiabilidad designa la probabilidad de que un sistema cumpla satisfactoriamente con la función para la que fue diseñado, durante determinado período de tiempo y bajo las condiciones especificadas de operación. De esta forma, un evento que interrumpa ese funcionamiento se denomina falla.

El desarrollo de las concepciones y técnicas para el análisis de confiabilidad de componentes, equipos y sistemas ha estado asociado al desarrollo de tecnologías complejas y de alto riesgo, tales como la aeronáutica, militar y nuclear.

Un incremento de la confiabilidad (o del Factor de Seguridad) conlleva, en general, el  aumento a corto plazo de los costos. Pero este aumento de la confiabilidad puede revertirse en ganancia en un plazo mayor, y puede significar, por otra parte, una reducción de riesgos para la salud y la vida de las personas, y para el medio ambiente. El aumento de los costos debe compensarse con la disminución del riesgo, es decir, se debe establecer una adecuada relación entre el costo y el beneficio que se obtendrá, con el fin de no exagerar ni escatimar las provisiones de seguridad.

“La Teoría de la Confiabilidad se ocupa principalmente de las fallas de los sistemas. Sin embargo, no indaga tanto en los fenómenos que las causan sino en la frecuencia con que ocurren. Por lo tanto no es una teoría física de las fallas, sino una teoría estadística, una teoría de probabilidades.”

El objetivo del análisis de confiabilidad estructural es determinar la probabilidad de falla de estructuras tomando en consideración las incertidumbres asociadas con las resistencias y cargas. La respuesta de una estructura se evalúa por medio de modelos basados en datos estadísticos recopilados previamente.

Los análisis de confiabilidad tratan de la relación entre las cargas que un sistema puede sufrir y la capacidad que éste tiene para soportarlas. En geotecnia tanto las cargas como la resistencia son inciertas, por lo tanto, el resultado de esta interacción también es incierto.

A nivel de la Estadística, se define la Confiabilidad a como:

a = 1 - P(r)

donde P(r) es la probabilidad de que se presente la falla.

La confiabilidad se expresa como índice de confiabilidad β, que se relaciona con una probabilidad de falla. Se puede entender en este contexto que la falla incluye no solamente fallas catastróficas sino cualquier diferencia inaceptable entre el comportamiento esperado y el observado.

El índice de confiabilidad β, del coeficiente o factor de seguridad (FS), es definido por la siguiente expresión, considerando que el FS crítico es igual a 1,0:


Donde E[FS] es el valor esperado del factor de seguridad, es decir, el factor de seguridad calculado con los parámetros medios de las variables independientes y σ[FS] es la desviación estándar del factor de seguridad.

El método relaciona el índice de confiabilidad β con la probabilidad de ruptura, lo que permite una evaluación más consistente de la estabilidad. La expresión de β es usada en forma general para cualquier distribución de probabilidad del factor de seguridad, sin embargo, es común privilegiar el uso de la distribución normal (por ejemplo la distribución log normal). Esto implica que las distribuciones de la resistencia del suelo o de la roca y de las cargas aplicadas también sean normales.

La probabilidad de falla está dada por la porción del área bajo la curva unitaria de distribución de frecuencia (función densidad de probabilidad) del FS correspondiente a los valores de FS inferiores a 1.0. Esta se puede determinar de cualquier tabla de función de distribución de probabilidades normal con media 0 y desviación estándar 1 o utilizando herramientas computacionales como el Excel®.

Una de las principales dificultades a la hora de hacer análisis de confiabilidad está en definir los niveles de seguridad aceptables, es decir, cuál es la probabilidad de falla máxima que se puede tolerar para una estructura. Actualmente no existe un consenso sobre cuál es este valor de referencia, y son pocas las propuestas presentadas en las cuales se definan límites de decisión. En este sentido, la propuesta más conocida es la presentada por USACE [en "Risk-Based Analysis in Geotechnical Engineering for Support of Planning Studies", ETL 1110-2-556, U. S. Army Corps of Engineers, 1999.] para niveles del índice de confiabilidad β y la probabilidad de ruptura (P[r]) o de falla asociada, como se muestra en la siguiente tabla.

Indices de Confiabilidad b objetivo y probabilidades de falla admisibles

De acuerdo a la tabla anterior, con este criterio la probabilidad de falla crítica es del orden de 6x10-3, que equivale a un índice de confiabilidad de 2.5, por lo cual se espera que estructuras con índices de confiabilidad b superiores a 2.5 presenten un desempeño por encima del promedio de las estructuras.

Relación entre el Indice de Confiabilidad β y la Probabilidad de Falla pf (US Army Corps of Engineers, 1997)

LA INCERTIDUMBRE EN LA INGENIERÍA GEOTÉCNICA

Fuentes de incertidumbre en las propiedades geotécnicas del suelo (adaptado de Whitman, 1996)

Los procesos y análisis en la Ingeniería Geotécnica poseen un elevado nivel de incertidumbre generada por diversas fuentes, las cuales se pueden clasificar en incertidumbre de los datos y de los modelos (como se aprecia en la figura anterior), o bien, en las siguientes categorías:

  • La variabilidad natural o incertidumbre física está asociada con la aleatoriedad inherente a los procesos naturales, manifestándose como variabilidad en el tiempo para fenómenos que toman lugar en un único lugar (variación temporal), o variabilidad en el espacio para eventos que se producen en diferentes lugares al mismo tiempo (variación espacial), o variaciones tanto en el espacio como en el tiempo. Esta variabilidad natural se aproxima usando modelos matemáticos simplificados o modelos físicos, los cuales solo proporcionan una aproximación al fenómeno natural en el mejor de los casos.
  • La incertidumbre epistémica ó estadística (sistemática) es dependiente de la cantidad de datos disponibles para el análisis y se incrementa cuanto mayor es la ausencia de información. En la mayoría de los casos la modelación probabilística de las incertidumbres involucradas en el problema se hace asignándoles una función de probabilidad, con parámetros de distribución estimados del análisis de la información recopilada y/o en base a información subjetiva o a la experiencia pasada. Estos parámetros son dependientes de la cantidad de datos recopilados. Además, influye también el modelo matemático elegido para ajustar los datos observados, ya que la aceptación del modelo proviene de una prueba de bondad de ajuste con un adecuado nivel de significancia. Por otro lado, al usar dicho modelo matemático en el cálculo de la confiabilidad estructural, podría suceder que el punto de falla más probable tenga sus coordenadas en las colas de la distribución, donde hay muy poca información y donde la probabilidad de falla es muy sensitiva (ver la siguiente figura). Generalmente, ésta incertidumbre es atribuida a la carencia de datos, ausencia de información acerca de eventos y procesos, o a la falta de entendimiento de las leyes físicas que limitan la habilidad para modelar el mundo real. En ocasiones, esta incertidumbre puede ser llamada también subjetiva o interna. En aplicaciones geotécnicas, la incertidumbre estadística o epistémica se puede dividir en tres subcategorías: 
  1. La incertidumbre en la caracterización del sitio depende de la adecuada interpretación que se hace de la geología subsuperficial. Esto resulta de la incertidumbre de los datos y de la exploración, incluyendo errores de medición, inconsistencia y heterogeneidad de los datos, manipulación de los datos y errores de transcripción, e inadecuada representatividad del muestreo debido a limitaciones de tiempo y espacio. Otro factor que se debe considerar son las limitaciones económicas a la hora de hacer la exploración y el muestreo.
  2. La incertidumbre de los modelos depende del nivel de precisión con que el modelo matemático escogido representa la realidad. Esta incertidumbre refleja la inhabilidad de un modelo o técnica de diseño para representar, precisamente, el verdadero comportamiento físico del sistema, o la inhabilidad del diseñador para identificar el mejor modelo.
  3. La incertidumbre en los parámetros depende de la precisión con que los parámetros del modelo pueden ser estimados. Resulta de la inexactitud en la determinación de los valores de los parámetros a partir de ensayos o calibración de datos y es exacerbado por el número limitado de observaciones, que producen imprecisión estadística.

Fuentes de incertidumbre estadística
Incertidumbre desde la perspectiva cuantitativa
Contribución de las fuentes de incertidumbre

A manera de ejemplo consideremos el muestreo SPT en un depósito de arena suelta. Las fuentes de incertidumbre aleatoria en la resistencia SPT medida incluirían la variabilidad natural del depósito de suelo y los errores aleatorios de la prueba, como los causados por un defecto aislado en el suelo (como un canto rodado errático). Las fuentes de incertidumbre epistémica podrían incluir equipos no estándar (como el tamaño del muestreador, muestreadores o varillaje deformados, longitud del varillaje, sistema de martinete, peso de martillo, etc, no ajustado al estándar SPT), y los datos insuficientes para formar estadísticas razonables, tal como una sola perforación en un sitio grande. Es importante observar que la incertidumbre epistémica generalmente se puede reducir mediante la adquisición de datos adicionales o mejoras en los procedimientos de medición. la incertidumbre aleatoria, por otro lado, es inherente a la variabilidad y no puede reducirse con información adicional.

Las fuentes de incertidumbre en la obtención de parámetros del suelo son las siguientes:

  • Error estadístico debido a la cantidad insuficiente de ensayos, de mediciones piezométricas, etc. Se sabe que cuanto menor es el número de ensayos, mayor es la probabilidad de producir estimativos de parámetros diferentes de aquellos presentes en el campo. Muchos autores presentan indicaciones buscando minimizar esta condición.
  • Datos tendenciosos (sesgos), que son aspectos del comportamiento real persistentemente alterados por los ensayos, resultados de instrumentación etc. Se pueden citar como ejemplos de estos factores: el remoldeo de las muestras, las diferencias de tipo de solicitación en los ensayos y en el campo, las diferencias en la velocidad de carga en los ensayos y en el campo, etc.
  • Errores de ensayo (ruidos) son aquellos asociados a la precisión de calibración y mediciones, la exactitud de las lecturas, etc. La minimización de estos errores es obtenida a través de la correcta especificación, calificación del personal y de equipos, acompañamiento de los ensayos y mediciones;
  • Variabilidad espacial (natural o inherente) de los parámetros, que es la diferencia real de características del comportamiento debidas a diferencias de composición, meteorización e historia de tensiones entre un punto y otro.

Las dos primeras fuentes contribuyen al denominado “error sistemático”, que actúa independiente de la posición o del tamaño del volumen de análisis o superficie de falla, y afecta principalmente la media. Aquí, el aumento del número de ensayos (para disminuir el error estadístico) se debe evaluar por la experiencia del ingeniero (para compensar los sesgos). Las dos últimas fuentes contribuyen principalmente a la dispersión de los datos.

La variabilidad de los parámetros geotécnicos que tienen influencia en los procesos de análisis de riesgo por deslizamiento puede ser manejada mediante técnicas estadísticas y probabilísticas. Cuando no se dispone de un número suficiente de ensayos, se puede, con carácter preliminar, utilizar coeficientes de variación estimados (desviación estándar sobre la media), a partir de valores típicos que han mostrado tener poca sensibilidad temporal y espacial. En la siguiente tabla se presentan a manera de ejemplo, los rangos típicos de coeficientes de variación de los parámetros geotécnicos de interés para análisis de estabilidad de taludes.

Valores típicos del Coeficiente de Variación

Según USACE, los valores de los momentos probabilísticos pueden ser estimados de varias formas, entre las cuales se pueden citar:

  • Análisis estadísticos de determinaciones en ensayos del parámetro deseado,
  • Ensayos índice que pueden ser correlacionados con el parámetro deseado, y
  • Basados en criterio y experiencia cuando no hay datos disponibles.

Las dos últimas opciones de estimación deben ser evaluadas con sumo cuidado, ya que el nivel de incertidumbre se incrementa gradualmente desde la primera hacia las últimas. Esto implica que cuando se diseña una estructura nueva utilizando correlaciones o datos basados en la experiencia, esto solo se pueda aceptar mediante un incremento de los factores de seguridad o mediante un ajuste en los parámetros de diseño (reduciendo la resistencia).

En el caso de análisis de confiabilidad, la utilización de correlaciones o datos definidos por la experiencia el problema puede ser enfrentado asumiendo un coeficiente de variación mayor que en el caso de los datos medidos directamente.

En adición a la variabilidad natural, y la incertidumbre epistémica, dos tipos prácticos de incertidumbre algunas veces también entran en los análisis de confiabilidad y de riesgo. Estos tienen relación con la implementación de diseños en la práctica y con los factores económicos atendiendo cálculos de relaciones costo-beneficio. Estas son incertidumbres operacionales, que incluyen aquellas asociadas con la construcción, manufactura, deterioro, mantenimiento y factores humanos no considerados en los modelos ingenieriles de desempeño; e incertidumbres de decisión que describen la inhabilidad de los diseñadores para conocer o identificar objetivos sociales o prescribir tasas de descuento social, la longitud de un horizonte de planeación, tendencias temporales deseables de consumo e inversión o la aversión social al riesgo.

LOS MÉTODOS PROBABILÍSTICOS

Los métodos probabilísticos son aquellos que permiten la evaluación de la distribución de probabilidades de una variable dependiente en función del conocimiento de las distribuciones estadísticas de las variables independientes que la generan. 

Entre los métodos más utilizados en la estadística aplicada a la geotecnia están el método de Monte Carlo, el método de Primer Orden Segundo Momento-FOSM y el método de estimativas puntuales de Rosenblueth.

Los métodos probabilísticos constituyen herramientas robustas para la evaluación y análisis de problemas geotécnicos bajo ambientes de incertidumbre, pero requieren como datos de entrada valores de parámetros estadísticos que no son fáciles de obtener debido a las grandes incertidumbres asociadas con los procesos geotécnicos.

En los casos en que la información es escasa, los análisis de sensibilidad y de confiabilidad permiten evaluar los posibles escenarios que se pueden presentar para una determinada obra y determinar necesidades de estudios más profundos.


Es una metodología que permite determinar la función de distribución de frecuencia de la variable dependiente analizada mediante la generación de números aleatorios uniformes que representan las variables independientes envueltas. Este método considera que la variable dependiente estudiada presenta una función Y=f(X1, X2...Xn) y que son conocidas las distribuciones de probabilidad de las variables X1, X2…Xn. 

Son atribuidos valores de frecuencia a valores aleatorios de las variables X1, X2...Xn y se evalúa la función Y para estos valores. El proceso se repite de forma iterativa tantas veces como sea necesario para conseguir la convergencia de la distribución de probabilidad. Conviene resaltar que la mayoría de las técnicas para generación de valores de distribución hacen uso dela función de distribución acumulada, F(r) = P[x < r]. Por definición la función acumulada para cualquier variable continua es distribuida uniformemente en el intervalo  [0,1].

Consecuentemente, si el valor aleatorio Ru (0,1) es generado, el valor de x = r que satisface F(r)=Ru (0,1) será un valor aleatorio de la función de distribución de probabilidad f(x) dentro de F(r).

Simulación estocástica de problemas ingenieriles por el método de Monte Carlo

El método de Monte Carlo puede ser presentado como un método exacto, pues a partir del conocimiento de las distribuciones estadísticas de las variables independientes, valores de estas variables podrían ser obtenidos por medio de un generador de números aleatorios y valores de la variable independiente calculados a partir de estos. Cuando este proceso sea repetido N veces, la distribución de probabilidad (forma y magnitud) de la variable dependiente sería obtenida, para (1-α)% de confianza. A partir de esta distribución pueden ser calculados sus parámetros estadísticos tales como media, varianza, probabilidades acumuladas, etc.

Este método utiliza el muestreo aleatorio para simular artificialmente el comportamiento de un sistema. En esta aproximación el analista crea un gran número de juegos de valores generados aleatoriamente para los parámetros probabilísticos y se calcula la función de desempeño para cada juego de datos de forma determinística, Finalmente se extrae la información estadística de los resultados de las simulaciones. Los valores de índice de confiabilidad β y probabilidad de falla pf pueden ser calculados directamente de los resultados de los juegos de datos. Este método tiene como ventaja la simplicidad conceptual, pero requiere un gran número de juego de valores de la función de desempeño para obtener una precisión adecuada. A diferencia de otros métodos, la simulación de Monte Carlo no da luces sobre la contribución relativa de los parámetros aleatorios.

Método FOSM (First-Order, Second Moment)

Este método usa los primeros términos de una expansión de la serie de Taylor de la función de desempeño para estimar el valor esperado y la varianza de la función de desempeño. Este método supone que (xi - μxi) de cada una de las variables aleatorias es pequeña (xi = variable, μ xi= valor esperado de la variable) por lo que el cuadrado o potencias mayores son aún más pequeñas y se pueden ignorar. Es llamado de segundo momento porque la varianza es de la forma de segundo momento y es el resultado estadístico de mayor orden usado en el análisis. El valor esperado de la función de desempeño E[g] se obtiene como:


es decir, el valor esperado de la función de desempeño E[g] se obtiene evaluando el valor medio de cada variable aleatoria μxi en la función de desempeño g. Suponiendo que las variables aleatorias son independientes entre si, la varianza de la función de desempeño V[g] queda como:


Si el número de variables aleatorias es n, este método requiere evaluar n derivadas parciales de la función de desempeño o desarrollar una aproximación numérica usando la evaluación en 2n+1 puntos.

Método de las Estimativas Puntuales

Rosenblueth [en “Point estimates for probability moments,” Proc. Nat. Acad. of Sc, vol. 72, no. 10, 1975. pp. 3812–3814.] propuso un método aproximado que simplifica mucho la tarea de estimar la media y la  desviación estándar del factor de seguridad y solamente compromete ligeramente la exactitud cuando las dispersiones de las variables envueltas son muy grandes. Consiste en estimar los momentos (media, desviación estándar, coeficiente de asimetría, etc.) de la variable dependiente en función de las variables aleatorias independientes, para las cuales se conocen por lo menos dos momentos, media y desviación estándar (o por lo menos sus estimativas), sin la necesidad de conocer las distribuciones de probabilidad completas de las variables independientes o de la dependiente.

Suponiendo que exista una función bien definida que una la variable dependiente a las independientes, con procedimientos simples se puede trabajar con la variabilidad sin introducir complejidades numéricas muy grandes en el análisis determinístico. Se trata de ponderar la participación de cada variable, calculando dos valores de la función de densidad de probabilidad arbitrariamente escogida para cada variable independiente (Xi), lo que resultará en concentraciones Pi donde se tendrán puntos de estimativa de la variable dependiente (F), que servirán para el cálculo de los momentos de F.

Para el caso en que Y depende de n variables aleatorias y considerando que las n variables sean no correlacionadas entre sí, se pueden obtener las estimativas de la media y de la desviación estándar de F mediante las fórmulas 


Los valores de fi son obtenidos con la aplicación de la función que define la dependencia entre F de las variables independientes, sustituyendo alternadamente los valores de esas variables por Xj±σj con j=1,2,....n, se obtienen de esa forma los 2n valores de fi.

En el método de estimativas puntuales, se toman combinaciones de los valores en las estimativas puntuales máximas (Xi+σ[Xi]) y mínimas (Xi-σ[Xi]) para cada variable independiente. Por tanto, son necesarios 2n análisis separados. En el caso de análisis de estabilidad de taludes, a cada análisis se hace una nueva búsqueda de la superficie crítica, la cual puede diferir significativamente de aquella calculada con los valores medios del método FOSM.

Asumiendo una distribución normal (Gauss) para los valores de F, que podría ser la función del factor de seguridad de un problema dado, calculados con las variables en las estimativas puntuales, el valor esperado E[F] puede ser calculado por el primer momento de la distribución:


Combinando los resultados de estos métodos probabilísticos con el índice de confiabilidad β, resulta fácil determinar la probabilidad de falla P(r) de un sistema. En cualquier caso P(r) es la probabilidad de que el factor de seguridad sea inferior a la unidad.

Ejemplos de aplicación:


Continúa en:

La Incertidumbre y el Riesgo en el Diseño Racional en la Ingeniería Geotécnica (II)

Otros enlaces de interés sobre el tema en este blog:

Referencias:


Guardar en PDF

No hay comentarios.:

Publicar un comentario