Inicio | Acerca del Autor | E-mail

domingo, 30 de diciembre de 2012

La Incertidumbre y el Riesgo en el Diseño Racional en la Ingeniería Geotécnica (II)


Primera parte en:


La incertidumbre en las propiedades del suelo

La mayoría de los suelos se forma naturalmente en muchos ambientes de depositación diferentes, por lo que sus propiedades físicas pueden variar de un punto a otro. Esta variación puede existir incluso en una unidad de suelo aparentemente homogénea. La variabilidad de las propiedades del suelo es un importante contribuyente a la incertidumbre en los análisis de ingeniería geotécnica. Los resultados de las pruebas de laboratorio sobre los suelos naturales, indican que la mayoría de las propiedades del suelo pueden ser consideradas como variables aleatorias que se ajustan a la función de distribución normal. 

Cuantificación de Incertidumbres en las Propiedades del Suelo

Las propiedades in situ del suelo puede variar verticalmente y horizontalmente por una variedad de razones, incluyendo:

  • Ambiente de sedimentación: En general, los suelos de grano fino se depositan en ambientes de baja energía, y por tanto son más uniformes que los suelos de grano grueso, que suelen ser depositados en ambientes de alta energía (flujos, avalanchas, avenidas, etc.).
  • Grado de meteorización: Las propiedades del suelo puede ser influenciadas por el intemperismo, un factor que afecta el suelo en la superficie del terreno más fuertemente, y que disminuye con la profundidad bajo la superficie del suelo. Sin embargo, factores como la erosión y las tasas variables de deposición locales, pueden producir perfiles de suelo con efectos variables de meteorización.
  • Entorno físico: La mayoría de los suelos presentan propiedades, tales como anisotropía intrínseca e inducida, que son influenciadas por su entorno físico. Debido a los cambios de esfuerzos que se pueden producir localmente durante la vida de un depósito de suelo, sus efectos pueden introducir incertidumbre en las propiedades medidas del suelo.

La variación espacial de las propiedades del suelo se compone de varios componentes y se puede representar mediante un modelo simple (propuesto por Phoon y Kulhawy, 1999):

x(z) = t(z) + w(z) + e(z)

donde:

ξ = propiedad del suelo in situ,
t = componente de tendencia determinista,
w = componente aleatorio,
e = error de medición, y
z = profundidad.

Los componentes de tendencia y aleatorio de la variación espacial en las propiedades del suelo, se ilustran gráficamente en la siguiente figura.

Variabilidad inherente del suelo (Phoon & Kulhawy, 1999)

Los principios básicos de la mecánica de suelos indican que muchas de las propiedades de interés del suelo, están altamente influenciadas por la presión de confinamiento efectiva, y debido a que estos esfuerzos generalmente aumentan con la profundidad, es de esperarse que estas propiedades exhiban alguna tendencia regular y predecible con la profundidad. La tendencia se puede determinar mediante el ajuste (en un sentido de mínimos cuadrados) de una función determinista suave (smooth) (por ejemplo, una línea recta, parábola o exponencial) de los datos o por un procedimiento de media móvil.

El componente aleatorio de la variabilidad del suelo también se conoce como "variabilidad inherente del suelo", que se expresa con respecto a la tendencia determinística de la propiedad, como se ilustra en la figura anterior.

El error de medición, ya sea a partir de mediciones de laboratorio o de campo, puede introducir variabilidad adicional en las propiedades del suelo. El error de medición puede surgir de equipo, el operador y los efectos aleatorios de las pruebas (Phoon y Kulhawy, 1999 en "Characterization of geotechnical variability", Canadian Geotechnical Journal, Vol. 36, pp. 625-639.).

La escala de fluctuación es un término que describe la variación espacial de la propiedad de interés respecto de la tendencia (como se muestra en la figura anterior). Un parámetro con una escala corta de fluctuación cambia rápidamente con la posición, uno con una gran escala de fluctuación cambia en grandes distancias. 

El Coeficiente de Variación COV y la variabilidad inherente del suelo

El coeficiente de variación COV representa una medida relativa (y adimensional) de la dispersión de un conjunto de datos, y se expresa como:


El COV ha sido comúnmente utilizado para describir la variación de muchas propiedades geotécnicas del suelo y parámetros de prueba in situ. Se debe tener en cuenta que la media, la desviación estándar, y el COV son interdependientes - y conociendo dos de éstos parámetros, se obtendrá el tercero.

En la práctica, resulta conveniente estimar los momentos de los parámetros geotécnicos del suelo, donde hay pocos datos disponibles (datos parciales), suponiendo que el COV es similar a los valores previamente medidos de otros conjuntos de datos del mismo parámetro.

La dispersión de la escasez de datos también puede estimarse utilizando otros métodos tales como la "regla de 3 sigma". Este método de aproximación de la varianza reconoce que el 99,73% de todos los valores de un parámetro normalmente distribuido, están dentro de tres desviaciones estándar del promedio.

De acuerdo con la regla de 3 sigma, las desviaciones estándar se pueden aproximar dividiendo el rango (el valor más alto menos el valor más bajo) por 6. Duncan (2000) señala que los ingenieros tienen una tendencia a subestimar el intervalo entre los valores mínimos y máximos concebibles, por lo tanto, debe hacerse un esfuerzo conciente para hacer el intervalo entre los dos tan alto como sea posible. Christian et al. (2001) también advierten que los ingenieros con menos experiencia en la estadística calcularán los valores mínimos y máximos concebibles con un sesgo (desviación) significativo, poco conservador. El campo de las estadísticas de orden ofrece una alternativa a la regla de 3 sigma que considera la cantidad de datos disponibles.

En las siguientes tablas, se presentan los valores de COV para diferentes propiedades y parámetros del suelo, que evidencian su variabilidad inherente:

COV de variabilidad inherente del suelo para humedad, peso unitario y densidad relativa 
COV de variabilidad inherente del suelo para Límites de Atterberg 
COV de variabilidad inherente del suelo para propiedades de resistencia
COV de variabilidad inherente del suelo para consolidación y permeabilidad

La Evaluación del Riesgo

Según Whitman (2000), la Evaluación del Riesgo es el proceso de obtener un Riesgo Cuantificado, que puede ser calculado mediante cualquiera de los siguientes métodos:

  1. La teoría y los cálculos numéricos o 
  2. Mediante juicios subjetivos.

La Evaluación del Riesgo es más amplia. Incluye la identificación de amenazas, riesgos y consecuencias; la investigación de las posibles medidas para reducir los riesgos y las consecuencias, y la priorización de las acciones correctivas. La Evaluación del Riesgo puede o no puede implicar la cuantificación de los riesgos.

Las siguientes medidas son recomendadas por la Sociedad Americana de Ingenieros Civiles (1997) para reducir los riesgos geológicos:

  • Proveer un presupuesto adecuado para explorar las condiciones del subsuelo.
  • Mantener consultores de diseño debidamente cualificados y con experiencia para investigar, evaluar los riesgos potenciales, preparar planos, especificaciones y un Informe Geotécnico de Base (Geotechnical Baseline Report) consistente con los riesgos.
  • Asignar tiempo y recursos financieros suficientes para preparar un claro Informe Geotécnico de Base que sea coherente con los documentos de diseño.
  • Desarrollar provisiones para pago por precios unitarios que se puedan ajustar a las condiciones encontradas.
  • Revisar y discutir las líneas de base con los oferentes antes de que las ofertas sean presentadas. Se recomienda que esto se haga en un taller previo a la licitación después de pre-calificación.
  • Mantener un fondo de reserva correspondiente, en función de los riesgos percibidos del proyecto.

Los riesgos geotécnicos, en forma de condiciones geológicas imprevistas, son un factor importante en el costo y el control cronológico en todos los proyectos de ingeniería civil más importantes. Las cantidades de dinero, involucradas en las reclamaciones derivadas de estos problemas geotécnicos, es enorme y debe ser tomada muy en serio por los organismos de financiación y las organizaciones de ingeniería.

Las investigaciones inadecuadas de sitio se clasifican como uno de los principales contribuyentes al riesgo geotécnico. Asignaciones más realistas de tiempo y dinero tienen que hacerse a estos programas de investigación de sitio. También es importante que los ingenieros geólogos y geotécnicos hagan un uso más eficiente de los recursos asignados a la investigación de sitio. Los tradicionales pozos verticales pueden no ser adecuados para definir las condiciones en un sitio geológicamente complejo y debe hacerse un uso innovador de pozos horizontales y túneles de exploración. La investigación en curso durante la construcción, también es importante y perforaciones de sondeo, adelante del frente de excavación de túneles o la colocación de dispositivos sísmicos de predicción, adelante de máquinas tuneladoras, pueden ayudar a definir las dificultades antes de que sean encontradas.

El empleo de consultores experimentados en la etapa inicial de un proyecto también puede contribuir a la reducción de los riesgos geológicos y geotécnicos. El juicio de estas personas, construido sobre su amplia experiencia en entornos geológicos similares, puede ayudar a poner los problemas en perspectiva y establecer prioridades para el uso de los limitados recursos y tiempo.

Procedimiento para la determinación del riesgo geotécnico en túneles

La variación en los parámetros del suelo

El uso del análisis de confiabilidad en la Ingeniería Geotécnica, a veces referido como el método probabilístico, ha recibido la aprobación por parte de muchos investigadores geotécnicos desde la publicación pionera de Lumb en la década de 1960s (Lumb 1966, 1967, 1968). 

El factor de seguridad FOS, no es una buena medida de la probabilidad de falla en la Ingeniería Geotécnica. Un sistema geotécnico con un mayor factor de seguridad puede tener una mayor probabilidad de falla que uno similar diseñado para un factor de seguridad más bajo. La relación entre la probabilidad de falla y el factor de seguridad depende de la confiabilidad del modelo de diseño y de las incertidumbres de los parámetros geotécnicos de entrada.

Debido al esfuerzo de innumerables investigadores,  se han alcanzado avances significativos en el análisis de la confiabilidad en la ingeniería geotécnica. Esfuerzos excepcionales también se han dirigido hacia el desarrollo de una nueva generación de códigos geotécnicos respaldados por análisis de confiabilidad. Desde hace mucho tiempo las figuras prominentes en el campo determinista han comenzado a apoyar o aceptar un mayor uso de métodos de confiabilidad en la Ingeniería Geotécnica.

Sin embargo, el objetivo inmediato de convencer a los ingenieros en ejercicio de adoptar el diseño basado en la confiabilidad, sigue siendo un desafío. La mayoría de los ingenieros geotécnicos pueden no tener una sólida formación en las matemáticas de análisis de confiabilidad. Es necesario aclarar a los ingenieros geotécnicos el vínculo entre el análisis matemático algo abstracto, y los problemas reales de ingeniería, y  demostrarles que el análisis de confiabilidad puede producir resultados realistas y significativos.

Cualquier forma de análisis de confiabilidad requiere por lo menos dos parámetros probabilísticos: la media y la varianza, señalando que la varianza es cuadrado de la desviación estándar. 

Importancia del Juicio de Ingeniería

Hay una gran cantidad de trabajos que se enfocan en el desarrollo de análisis de confiabilidad cada vez más complejos. Sin embargo, a los ingenieros geotécnicos les puede resultar más difícil llegar a entender los complejos conceptos probabilísticos y la terminología. Esto conduce a una no poco común percepción de que la mayoría de los artículo sobre el diseño basado en la confiabilidad, sugieren la aplicación ciega de análisis estadístico sin una entrada (de análisis) adecuada de los criterios de juicio de ingeniería. En el campo determinista es frecuente el uso de criterios análisis de entrada, basados en el juicio de ingeniería.

El análisis de confiabilidad no es un sustituto del juicio de ingeniería o cualquier otra herramienta geotécnica, y tampoco de los avances logrados fuera del mundo de la confiabilidad (estadística). El juicio de ingeniería es, de hecho, consagrado en el análisis de confiabilidad en dos formas: La probabilidad bayesiana y los valores críticos de juicio.

En la probabilidad Bayesiana, la experiencia o el juicio de un ingeniero es el antecedente. Esta experiencia o juicio se puede combinar con datos específicos del sitio o del proyecto en el marco teórico de la probabilidad Bayesiana, para producir un valor actualizado de la probabilidad como tratan muchos libros clásicos sobre los métodos probabilísticos, por ejemplo Ang y Tang (1984).

Los valores de juicio son utilizados (y de hecho son necesarios) cuando sólo se dispone de pocos datos para una propiedad del suelo al azar, en particular. Esto es algo esperado, ya que obtener de forma determinista una propiedad del suelo adecuada, es un reto. La incertidumbre en un valor crítico de juicio, es similar en concepto a la de la incertidumbre en el muestreo, y por lo tanto puede ser tratada de una manera similar. También es evidente que, con el fin de reducir la incertidumbre en los valores críticos de juicio, la asignación de valores de juicio debe llevarla a cabo los ingenieros experimentados. El valor de entrada de juicio (judgemental) en un análisis de confiabilidad se relacionaa con las incertidumbres y la falta de datos, de una manera es más transparente. Siempre es trazable a un componente específico del proceso de diseño, y su efecto se puede evaluar objetivamente dentro de un marco teórico.

Esto se considera superior en jerarquía, a un proceso difuso de selección de un mayor o menor factor de seguridad, en un intento por explicar algunas incertidumbres mal definidas, distribuidas en los diversos componentes del diseño; de manera difusa.

Valor puntual vs Promedio espacial

Una propiedad del suelo es considerada como de variabilidad espacial aleatoria, en la medida en que  los valores reales (es decir, hallazgos) de las propiedades del suelo, pueden variar de un punto a otro, dentro de una masa de suelo aparentemente homogénea.

Las propiedades probabilísticas de una propiedad del suelo en un punto particular (que se denomina propiedad del punto por Li y Lumb, 1987) puede ser caracterizada por un valor medio y una varianza Var{X}.

Esta variabilidad de punto a punto se conoce como variabilidad innata o variabilidad espacial (Vanmarcke 1977, Li y Lee 1991). Para la condición ideal de prueba perfecta, la variabilidad de un parámetro X del suelo, obtenida a partir del ensayo de diferentes muestras, se debe únicamente a la variabilidad innata.

Como lo discuten Li y Lumb (1987), Li (1991, 1992) y Li y Lee (1991), la varianza apropiada para ser utilizada para los análisis probabilísticos, puede no ser necesariamente ser la de propiedad del punto.

La influencia de la variabilidad innata en un problema de estabilidad puede ser ilustrada por un problema de estabilidad de taludes ideal, como se ilustra en la siguiente figura. 

Variabilidad innata y promedio espacial

La idealización del material comprende un material de cohesión constante, por ejemplo, X es la cohesión. La distancia curvilínea a lo largo de la superficie de falla potencial se denota como v. El valor de cohesión tiene una media de población cμ. La variabilidad innata de X se indica por la línea en zigzag. La que gobierna la inestabilidad del talud es la "cohesión promedio a lo largo de la superficie potencial de falla".

En aras de la simplicidad en la discusión, consideremos el caso ideal de tener "n" elementos idénticos pero independientes a lo largo de la superficie de deslizamiento. La resistencia del i-ésimo elemento, está dada por Xil, donde Xi y L son la propiedad y la longitud del elemento i-ésimo. La resistencia total, R, viene dada por


(ΣXi)/n es el valor medio a lo largo de la trayectoria de falla. Puesto que la pendiente se considera estadísticamente homogénea, Var {ΣXi/n} = {Var ΣX/n}. A medida que los elementos se consideran estadísticamente independientes, la ecuación para calcular la varianza de ΣX/n, como se presenta en muchos libros elementales de texto sobre probabilidad, es simplemente: Var {ΣX/n} = Var {X}/n. Esto significa que la varianza de R, que es controlada por la variación del valor promedio de X, es reducida por un factor de 1/n.

En realidad, no se puede simplemente dividir los elementos del suelo a lo largo de la superficie de falla (o dominio) en un número de elementos independientes estadísticamente. Las propiedades del suelo en diferentes ubicaciones están de algún modo correlacionadas. Sin embargo, la propiedad media de X a lo largo de un dominio (superficie) de falla determinado, denotado como X, se reduce siempre con relación a ese X. Esto se indica en  la zona sombreada de la figura anterior.

Esta reducción puede modelarse matemáticamente usando el Modelo de Campo Aleatorio de Vanmarcke (1977), y se puede expresar como:


donde Var {X} denota la varianza de una variable aleatoria, y Γ² se conoce como el factor de reducción de la varianza debido a que su valor es siempre menor que la unidad. El valor de Γ es dependiente del tamaño del dominio de falla y la escala de fluctuación, δ, siendo esta última un parámetro del Modelo de Campo Aleatorio (Vanmarcke 1977, Li y Lee 1991). Recordando que la desviación estándar es la raíz cuadrada de la varianza, la ecuación (2) se puede reescribir como:


Donde σ{X} Denota la desviación estándar de una variable aleatoria. Esta situación es análoga a la de los resultados de los exámenes de los estudiantes que se correlacionan. Aunque la puntuación de un estudiante individual puede manifestar una dispersión significativa del promedio anual, la puntuación media de un grupo de estudiantes manifiesta una dispersión significativamente menor.

La evaluación de Γ, en general, es complicada. Si el dominio de falla puede ser caracterizado por una dimensión L, y bajo la condición de L ≥ 2δ, la siguiente ecuación aproximada se puede utilizar (Vanmarcke 1977, Li y Lee 1991).


En general, un estrato de suelo "menos variable" tiene un valor más alto de δ. Los datos de Lumb (1975) de arcilla marina en Hong Kong dieron δ <1 m, y esto fue apoyado por más datos reportados en Li (1989). Los datos de Day (1993) para un depósito de limo en Canberra dieron δ de ~ 1,2 m.

Es evidente a partir de las ecuaciones (2) a (3) que si la varianza (o desviación estándar) de X se toma  erróneamente se toma como X, entonces la variabilidad (o incertidumbre) de los parámetros que rigen la ocurrencia del estado límite será sobre-estimada.

En el cálculo del factor de reducción de la varianza, la determinación de un dominio de falla apropiado, basado en consideraciones de ingeniería es un requisito a priori. En un problema de estabilidad de taludes controlado por un contacto débil, el geo-parámetro correspondiente X debe ser la resistencia promedio a lo largo de la trayectoria de falla en este contacto débil. La población correspondiente es todo el contacto débil y no el el del talud. De nuevo, esto pone de relieve la importancia de los criterios de sana ingeniería en un análisis de confiabilidad.

Referencias:

Guardar en PDF

viernes, 16 de noviembre de 2012

La Incertidumbre y el Riesgo en el Diseño Racional en la Ingeniería Geotécnica (I)


Los seres humanos construyeron túneles, represas, canales, fortificaciones, carreteras y otras estructuras mucho antes de que hubiera una disciplina formal de la Ingeniería Geotécnica. Aunque muchos impresionantes proyectos fueron construidos, la capacidad de los ingenieros para hacer frente a los problemas geotécnicos de una forma analíticamente rigurosa que les permitiese aprender de la experiencia y catalogar el comportamiento de los suelos y las rocas, era limitada.

Portada de 'Resolución de Problemas Geotécnicos' (Lommler,  2012)

Durante los dos primeros tercios del siglo XX, un grupo de ingenieros e investigadores, dirigido por Karl Terzaghi (1883-1963), cambió todo eso mediante la aplicación de los métodos de la física y la ingeniería mecánica, para el estudio de los materiales geológicos (Terzaghi, 1925). Ellos desarrollaron métodos de análisis teórico, procedimientos de análisis de laboratorio y técnicas para mediciones de campo. Esto permitió un enfoque racional para el diseño y, en el proceso, proporcionaron el pre requisito más importantes para el avance tecnológico: un sistema parsimonioso de referencia dentro del cual catalogar la observación y la experiencia.

Los desarrollos de principios de los años 1900s llegaron casi un siglo después de la introducción de métodos racionales en la ingeniería estructural y diseño de máquinas. El retraso no es sorprendente, ya que la empresa de enfrentar materiales tal y como la naturaleza los depositó, es profundamente diferente de la de tratar con materiales elaborados por el hombre, incluso materiales tan complicados como el concreto reforzado. Los ingenieros estructurales y mecánicos se enfrentan a un mundo casi en su totalidad fabricado por ellos mismos. La geometrías y las propiedades de los materiales son especificas; los sistemas de componentes y sus puntos de conexión están previstos de antemano. Las principales incertidumbres tienen que ver con las tolerancias con las que se puede construir la estructura o el dispositivo mecánico, y con las cargas y las condiciones ambientales a las que estará expuesta la estructura o dicho dispositivo.

La empresa de la Ingeniería Geotécnica es diferente. El ingeniero geotécnico o el ingeniero geólogo, se ocupa principalmente de las geometrías y materiales que ofrece la naturaleza. Estas condiciones naturales son desconocidas para el diseñador y deben ser inferidas de observaciones limitadas y costosas. Las principales incertidumbres tienen que ver con la exactitud e integralidad con las que se conocen las condiciones del subsuelo, y con las resistencias que estos materiales serán capaces de movilizar. Las incertidumbres en la ingeniería estructural y mecánica son en gran parte deductivas: a partir de las condiciones razonablemente bien conocidas, los modelos se utilizan para deducir el comportamiento de un universo razonablemente bien especificado. Las incertidumbres en la Ingeniería Geotécnica son en gran medida inductivas: a partir de observaciones limitadas, el juicio, el conocimiento de la geología y el razonamiento estadístico se emplean para inferir el comportamiento de un universo pobremente definido. 

EQUILIBRANDO EL RIESGO Y LA CONFIABILIDAD EN EL DISEÑO GEOTÉCNICO

En las últimas décadas, los códigos geotécnicos de diseño se han desarrollado considerablemente. La práctica de la Ingeniería Geotécnica se ha desarrollado desde las decisiones basadas en la experiencia (las reglas empíricas) hasta el criterio del Diseño Racional.

En muchos aspectos, los códigos geotécnicos de diseño han seguido la evolución de la ingeniería estructural (por ejemplo, en el Diseño por Carga y Factor de Resistencia (LRFD)), probablemente porque los problemas son similares: las incertidumbres en la carga y la resistencia, diseño de estado límite, o los mecanismos de falla de los modelos basados en la física. Además de los enfoques de diseño, también la teoría de la confiabilidad estructural (es decir, el enfoque probabilístico) se ha desarrollado considerablemente. Por ejemplo, la calibración de los factores de seguridad parciales en la Ingeniería Geotécnica y estructural se basa en los conceptos de confiabilidad.

Sin embargo, existen diferencias fundamentales entre las estructuras de concreto o de acero y las estructuras geotécnicas. La Ingeniería Geotécnica trata con materiales naturalmente depositados, en contraste con el concreto o el acero, que son hechos por el hombre. Mientras que en el concreto las principales incertidumbres son las propiedades del material debido al proceso de producción, con las condiciones del terreno incluso la composición o la estratificación no se conocen perfectamente. Es una práctica común que los ingenieros geotécnicos o los ingenieros geólogos hagan una caracterizaciones de las condiciones del terreno como las mejores conjeturas o estimaciones prudentes basadas en los datos disponibles, y mientras que los factores de seguridad  de los códigos de diseño se encargan de cuidar de las incertidumbres del material dentro de estos escenarios seleccionados o las posibles verdades, la incertidumbre en el proceso de caracterización no está cubierta por ningún concepto de seguridad.

Los tres pasos principales en la caracterización geotécnica son:

  1. La caracterización de la disposición en capas del subsuelo y la geometría, 
  2. Suposiciones y modelado respecto a las presiones de poro, y 
  3. La elección de un modelo computacional adecuado y sus parámetros de entrada.

Diferentes diseñadores definitivamente tomarían decisiones diferentes en cada uno de estos pasos, llevando a resultados en algún lugar entre optimistas y muy conservadores, o pesimistas. Esto implica, que la confiabilidad de los diseños resultantes varía, debido a que las suposiciones optimistas no conducen a mayores factores de seguridad que se aplicarán o viceversa.

Pasos y alternativas en la Caracterización Geotécnica (Schweckendiek, T. & Calle, 2010)

La mayoría de los primeros pioneros de la Ingeniería Geotécnica, fueron educados en las disciplinas de la ingeniería estructural y mecánica, mientras aquellas disciplinas desarrollaban una base racional y científica. Por ejemplo, el primer título de Terzaghi fue en ingeniería mecánica, Peck comenzó como ingeniero estructural, y la educación de Casagrande fue en hidráulica. Sin embargo, a medida que estos y otros pioneros iban casi poniendo la fundación racional de lo que finalmente se conocería como la Ingeniería Geotécnica, eran muy conscientes de las limitaciones del enfoque deductivo, puramente racional, respecto de las condiciones inciertas que prevalecen en ese mundo geológico. Sus últimos escritos están llenos de advertencias de que no se deben tomar los resultados de las pruebas de laboratorio y los cálculos analíticos muy literalmente. De hecho, uno de los factores que atrajo a muchos estudiantes a este campo era esta incertidumbre. Incluso a nivel de pregrado, las cosas no parecían ser de recortado y secado. Cada proyecto representa un nuevo desafío. Había espacio para la investigación en cada nuevo proyecto, así como para el ejercicio de juicio.

La forma más ampliamente aceptada y eficaz para enfrentar las incertidumbres inherentes al tratamiento de materiales geológicos llegó a ser conocida como el Método Observacional, descrito sucintamente por Casagrande (1965) y Peck (1969). Es una parte esencial también del Nuevo Método Austriaco de Túneles NATM (Rabcewitz 1964a, 1964b, 1965;. Einstein et al 1996).

El Método Observacional surgió del hecho de que no es factible en muchas aplicaciones geotécnicas asumir valores muy conservadores de las cargas y de las propiedades del material, y diseñar bajo tales condiciones.

A menudo, el diseño resultante es física o financieramente imposible de construir. En cambio, el ingeniero realiza estimaciones razonables de los parámetros y de las cantidades por las que podrían desviarse de los valores esperados. Entonces, el diseño se basa en los valores esperados -o en unos valores conservadores pero de extensión factible de los valores esperados- pero se han previsto medidas para hacer frente a la ocurrencia de cargas o de resistencias que se encuentran por fuera del rango de diseño. Durante la construcción y operación de la instalación, las observaciones de su desempeño se efectúan, de forma que se puedan ejercer acciones correctivas apropiadas. Esto no es simplemente una cuestión de diseño para un conjunto de condiciones esperadas, y hacer algo para solucionar los problemas que puedan surgir. Se trata de considerar los efectos del posible rango de valores de los parámetros y tener en marcha un plan para enfrentar acontecimientos que están fuera del rango esperado. Se requiere la participación permanente de los diseñadores durante la construcción y la operación de las instalaciones.

Los últimos años han mostrado una tendencia a poner el tratamiento de la incertidumbre sobre una base más formal, en particular mediante la aplicación de los resultados de la teoría de la confiabilidad a la Ingeniería Geotécnica.

La teoría de la confiabilidad evolucionó de la industria estructural, aeroespacial y manufacturera; ha requerido una adaptación especial para hacer frente al entorno geológico. El enfoque en la confiabilidad no remueve la existencia de las incertidumbres y no alivia la 'necesidad de juicio de ingeniería' en el trato con el mundo. Este enfoque proporciona una forma de cuantificar las incertidumbres y manejarlas de forma consistente. En esencia, son un esquema de contabilidad. El ingeniero geotécnico experimentado ya ha dado el primer paso en la aplicación de ´los métodos de confiabilidad -reconociendo que el mundo es imperfectamente cognoscible. El resto del proceso es descubrir cómo hacer frente a esa imperfección.

Hoy en día el ingeniero geotécnico debe ser cada vez más capaz de lidiar con la confiabilidad. Hay varias razones para esto:

  1. Las presiones regulatorias y legales fuerzan a los ingenieros geotécnicos a proporcionar respuestas sobre la confiabilidad de sus diseños. Esto es más notable en áreas fuertemente reguladas de la práctica, como la energía nuclear, la tecnología marina, y la eliminación de residuos. Es una tendencia que afectará a otras áreas de práctica en el futuro. 
  2. Las decisiones de gestión sobre la conveniencia de continuar con un curso de acción proyectado, la forma de financiarlo, y cuándo programarlo, cada vez más se basan en el análisis estadístico de decisión. Un breve repaso de casi cualquier libro de texto sobre la gestión financiera moderna demuestra que los gerentes de hoy están capacitados para evaluar el valor de un curso de acción a partir de estimaciones probabilísticas del valor del dinero, las ganancias futuras, los costos de producción, y así sucesivamente. El desempeño de las obras mayores de la Ingeniería Civil entra en esas evaluaciones, y así también, deben ser evaluados probabilísticamente. 
  3. Los códigos de construcción modernos se basan en los enfoques de Diseño por Carga y Factor de Resistencia (LRFD), que a su vez, se basan en métodos de confiabilidad. Estas técnicas se están ahora introduciendo en áreas como el diseño de pilas para las estructuras viales. 
  4. La teoría de confiabilidad proporciona una manera racional para hacer frente a algunas de las preguntas controvertidas históricamente. Por ejemplo, ¿cuánta confianza debería el ingeniero colocar en un factor de seguridad calculado? ¿Cómo debe el ingeniero cuantificar la creencia bien fundada de que el valor del ángulo de fricción es más confiable que el de la cohesión? ¿Cómo puede el ingeniero demostrar que un diseño basado en más datos y datos más consistentes es más robusto que uno basado en información parcial - y entonces vale la pena el costo adicional de obtener estos datos? ¿Cómo puede el ingeniero distinguir entre las diferentes consecuencias de la falla o separar los casos en los que ocurre una falla progresiva, de aquellos en los que se espera un comportamiento promedio? 

Los enfoques de confiabilidad proporcionan conocimientos en estas áreas y, en algunos casos, los procedimientos numéricos para analizarlos.

Existe una distinción relacionada entre el enfoque frecuentista (de la probabilidad) y el enfoque de grados de creencia en la incertidumbre. El concepto frecuentista implica que las incertidumbres descritas por el análisis probabilístico y estadístico, tienen que ver con una larga serie de eventos similares en el mundo. El concepto de grado de creencia, indica que las incertidumbres tienen que ver con la confianza que uno aplica en conocer el estado del mundo. La disputa entre las dos escuelas puede llegar a ser a veces un argumento filosófico precioso, pero hay una diferencia significativa que tiene implicaciones prácticas. Por ejemplo, una compañía de seguros vende seguros de vida desde un punto de vista frecuentista basado en las tablas actuariales. El consumidor compra estos seguros de vida sobre la base de un grado de creencia en su propia longevidad. La modelación de los problemas geotécnicos implica ambos tipos de razonamiento, pero los ingenieros geotécnicos se sienten más a gusto con la idea del grado de creencia de la incertidumbre que con la visión frecuentista.

Esta distinción entre la frecuencia y la creencia puede ser elaborada considerando la diferencia entre las incertidumbres que son inherentes a un proceso y las que reflejan la falta de conocimiento. Un buen ejemplo es la diferencia entre las incertidumbres asociadas con un par de dados y las de una baraja de cartas. Un  dado equilibrado en todas sus caras es un método de aleatorización. El número que va a aparecer es al azar, y no existe ningún conocimiento que se pueda obtener prácticamente acerca de cómo el dado es lanzado, ni cuándo, ni con qué fuerza se afecta la capacidad de predecir el resultado. Este tipo de incertidumbre subyacente regula algunos procesos naturales. La desintegración radiactiva es un ejemplo, la mecánica cuántica demuestra que es imposible saber con precisión qué átomo se desintegra o cuándo va a decaer. El mazo de cartas tipifica el otro tipo de incertidumbre. El mazo tiene un arreglo definitivo, y cualquiera que observe con honestidad la baraja, se encuentra con el mismo orden de las cartas. La incertidumbre radica enteramente en nuestra ignorancia del orden de arreglo de la baraja, y juegos sofisticados como el póker y el bridge tienen mucho que ver con tratar de obtener información sobre la disposición de las cartas del juego de la mano. Una gran parte de la incertidumbre geológica es de este tipo, pues en todos los sitios hay un arreglo definitivo de los materiales geológicos y sus propiedades, pero no sabemos cual es.

DESARROLLO HISTÓRICO DE LOS MÉTODOS DE CONFIABILIDAD EN INGENIERÍA CIVIL

Para encontrar los antecedentes del concepto actual de riesgo y los métodos de confiabilidad en ingeniería civil, hay que mirar de nuevo al campo aliado de la confiabilidad estructural y a pioneros como Alfred Freudenthal (1906-1977). En los años 1950s y 1960s, Freudenthal publicó una serie de documentos fundamentales en los que aparecieron por primera vez muchos de los preceptos del riesgo moderno y la teoría de confiabilidad (Freudenthal 1951, Freudenthal et al, 1966;. Freudenthal y Gumbel 1956). Entre éstos se encontraba el concepto de la descripción estadística de las propiedades del material, la representación estado-espacio de las condiciones de falla, y los índices de confiabilidad no paramétricos.

El trabajo de Freudenthal fue seguido por una generación de investigadores en ingeniería estructural, incluyendo A.H.-S. Ang, C.A. Cornell, O. Ditlevsen, A.M. Hasofer, N. Lind, y R. Rackwitz. A principios de los 1970s, el campo emergente de la confiabilidad estructural comenzó a extenderse a la investigación en Ingeniería Geotécnica.

Los principales programas del gobierno y las tendencias económicas de los años 1970s y 1980s ejercieron una influencia significativa en la dirección del campo. Las más importantes fueron el marco regulatorio que rodea la generación de energía nuclear, la eliminación de los residuos nucleares y los sólidos, y la crisis energética de la década de 1970, lo que llevó al desarrollo de las instalaciones de producción de gas y petróleo en aguas de profundidad sin precedentes. Cada una de estas tendencias incrmentó la atención sobre las incertidumbres relativas a la caracterización de sitio y las evaluaciones cuantitativas de comportamiento geotécnico. Otros intereses industriales en el riesgo geotécnico y la confiabilidad, provienen de la minería a cielo abierto, donde las altos taludes de roca son diseñados con bajos factores de seguridad, y la seguridad sísmica, donde las líneas de vida y otras instalaciones críticas pueden ser corrompidas por movimientos de tierra poco frecuentes pero violentos.

Con la falla de la represa Teton en 1976, las agencias de construcción de represas en los Estados Unidos se involucraron fuertemente en la evaluación de riesgos. Las fallas de represas y las casi-fallas sin pérdida de contención, además de afortunadamente no ser comunes, están lejos de ser desconocidas.

La siguiente figura, muestra la frecuencia de las fallas recientes de represas, que ha llevado a algunos trabajadores a la conclusión de que el riesgo anual de falla de una represa moderna, ausente de otra información, es del orden de 10-5 a 10-4 por año/represa ( Baecher et al. 1 980). Hoy en día, la U. S. Bureau of Reclamation se ha convertido en el principal exponente de la evaluación del riesgo de las represas, y el Cuerpo de Ingenieros de los EE.UU. ha producido numerosos talleres y manuales para orientar al personal y a los contratistas a aplicar la teoría de la confiabilidad en sus proyectos. Ellos han desarrollado amplio experticio técnico en la metodología riesgo.

Frecuencia de fallas recientes de represas (Rajapakse, R., 2008)

LA CONFIABILIDAD

Confiabilidad designa la probabilidad de que un sistema cumpla satisfactoriamente con la función para la que fue diseñado, durante determinado período de tiempo y bajo las condiciones especificadas de operación. De esta forma, un evento que interrumpa ese funcionamiento se denomina falla.

El desarrollo de las concepciones y técnicas para el análisis de confiabilidad de componentes, equipos y sistemas ha estado asociado al desarrollo de tecnologías complejas y de alto riesgo, tales como la aeronáutica, militar y nuclear.

Un incremento de la confiabilidad (o del Factor de Seguridad) conlleva, en general, el  aumento a corto plazo de los costos. Pero este aumento de la confiabilidad puede revertirse en ganancia en un plazo mayor, y puede significar, por otra parte, una reducción de riesgos para la salud y la vida de las personas, y para el medio ambiente. El aumento de los costos debe compensarse con la disminución del riesgo, es decir, se debe establecer una adecuada relación entre el costo y el beneficio que se obtendrá, con el fin de no exagerar ni escatimar las provisiones de seguridad.

“La Teoría de la Confiabilidad se ocupa principalmente de las fallas de los sistemas. Sin embargo, no indaga tanto en los fenómenos que las causan sino en la frecuencia con que ocurren. Por lo tanto no es una teoría física de las fallas, sino una teoría estadística, una teoría de probabilidades.”

El objetivo del análisis de confiabilidad estructural es determinar la probabilidad de falla de estructuras tomando en consideración las incertidumbres asociadas con las resistencias y cargas. La respuesta de una estructura se evalúa por medio de modelos basados en datos estadísticos recopilados previamente.

Los análisis de confiabilidad tratan de la relación entre las cargas que un sistema puede sufrir y la capacidad que éste tiene para soportarlas. En geotecnia tanto las cargas como la resistencia son inciertas, por lo tanto, el resultado de esta interacción también es incierto.

A nivel de la Estadística, se define la Confiabilidad a como:

a = 1 - P(r)

donde P(r) es la probabilidad de que se presente la falla.

La confiabilidad se expresa como índice de confiabilidad β, que se relaciona con una probabilidad de falla. Se puede entender en este contexto que la falla incluye no solamente fallas catastróficas sino cualquier diferencia inaceptable entre el comportamiento esperado y el observado.

El índice de confiabilidad β, del coeficiente o factor de seguridad (FS), es definido por la siguiente expresión, considerando que el FS crítico es igual a 1,0:


Donde E[FS] es el valor esperado del factor de seguridad, es decir, el factor de seguridad calculado con los parámetros medios de las variables independientes y σ[FS] es la desviación estándar del factor de seguridad.

El método relaciona el índice de confiabilidad β con la probabilidad de ruptura, lo que permite una evaluación más consistente de la estabilidad. La expresión de β es usada en forma general para cualquier distribución de probabilidad del factor de seguridad, sin embargo, es común privilegiar el uso de la distribución normal (por ejemplo la distribución log normal). Esto implica que las distribuciones de la resistencia del suelo o de la roca y de las cargas aplicadas también sean normales.

La probabilidad de falla está dada por la porción del área bajo la curva unitaria de distribución de frecuencia (función densidad de probabilidad) del FS correspondiente a los valores de FS inferiores a 1.0. Esta se puede determinar de cualquier tabla de función de distribución de probabilidades normal con media 0 y desviación estándar 1 o utilizando herramientas computacionales como el Excel®.

Una de las principales dificultades a la hora de hacer análisis de confiabilidad está en definir los niveles de seguridad aceptables, es decir, cuál es la probabilidad de falla máxima que se puede tolerar para una estructura. Actualmente no existe un consenso sobre cuál es este valor de referencia, y son pocas las propuestas presentadas en las cuales se definan límites de decisión. En este sentido, la propuesta más conocida es la presentada por USACE [en "Risk-Based Analysis in Geotechnical Engineering for Support of Planning Studies", ETL 1110-2-556, U. S. Army Corps of Engineers, 1999.] para niveles del índice de confiabilidad β y la probabilidad de ruptura (P[r]) o de falla asociada, como se muestra en la siguiente tabla.

Indices de Confiabilidad b objetivo y probabilidades de falla admisibles

De acuerdo a la tabla anterior, con este criterio la probabilidad de falla crítica es del orden de 6x10-3, que equivale a un índice de confiabilidad de 2.5, por lo cual se espera que estructuras con índices de confiabilidad b superiores a 2.5 presenten un desempeño por encima del promedio de las estructuras.

Relación entre el Indice de Confiabilidad β y la Probabilidad de Falla pf (US Army Corps of Engineers, 1997)

LA INCERTIDUMBRE EN LA INGENIERÍA GEOTÉCNICA

Fuentes de incertidumbre en las propiedades geotécnicas del suelo (adaptado de Whitman, 1996)

Los procesos y análisis en la Ingeniería Geotécnica poseen un elevado nivel de incertidumbre generada por diversas fuentes, las cuales se pueden clasificar en incertidumbre de los datos y de los modelos (como se aprecia en la figura anterior), o bien, en las siguientes categorías:

  • La variabilidad natural o incertidumbre física está asociada con la aleatoriedad inherente a los procesos naturales, manifestándose como variabilidad en el tiempo para fenómenos que toman lugar en un único lugar (variación temporal), o variabilidad en el espacio para eventos que se producen en diferentes lugares al mismo tiempo (variación espacial), o variaciones tanto en el espacio como en el tiempo. Esta variabilidad natural se aproxima usando modelos matemáticos simplificados o modelos físicos, los cuales solo proporcionan una aproximación al fenómeno natural en el mejor de los casos.
  • La incertidumbre epistémica ó estadística (sistemática) es dependiente de la cantidad de datos disponibles para el análisis y se incrementa cuanto mayor es la ausencia de información. En la mayoría de los casos la modelación probabilística de las incertidumbres involucradas en el problema se hace asignándoles una función de probabilidad, con parámetros de distribución estimados del análisis de la información recopilada y/o en base a información subjetiva o a la experiencia pasada. Estos parámetros son dependientes de la cantidad de datos recopilados. Además, influye también el modelo matemático elegido para ajustar los datos observados, ya que la aceptación del modelo proviene de una prueba de bondad de ajuste con un adecuado nivel de significancia. Por otro lado, al usar dicho modelo matemático en el cálculo de la confiabilidad estructural, podría suceder que el punto de falla más probable tenga sus coordenadas en las colas de la distribución, donde hay muy poca información y donde la probabilidad de falla es muy sensitiva (ver la siguiente figura). Generalmente, ésta incertidumbre es atribuida a la carencia de datos, ausencia de información acerca de eventos y procesos, o a la falta de entendimiento de las leyes físicas que limitan la habilidad para modelar el mundo real. En ocasiones, esta incertidumbre puede ser llamada también subjetiva o interna. En aplicaciones geotécnicas, la incertidumbre estadística o epistémica se puede dividir en tres subcategorías: 
  1. La incertidumbre en la caracterización del sitio depende de la adecuada interpretación que se hace de la geología subsuperficial. Esto resulta de la incertidumbre de los datos y de la exploración, incluyendo errores de medición, inconsistencia y heterogeneidad de los datos, manipulación de los datos y errores de transcripción, e inadecuada representatividad del muestreo debido a limitaciones de tiempo y espacio. Otro factor que se debe considerar son las limitaciones económicas a la hora de hacer la exploración y el muestreo.
  2. La incertidumbre de los modelos depende del nivel de precisión con que el modelo matemático escogido representa la realidad. Esta incertidumbre refleja la inhabilidad de un modelo o técnica de diseño para representar, precisamente, el verdadero comportamiento físico del sistema, o la inhabilidad del diseñador para identificar el mejor modelo.
  3. La incertidumbre en los parámetros depende de la precisión con que los parámetros del modelo pueden ser estimados. Resulta de la inexactitud en la determinación de los valores de los parámetros a partir de ensayos o calibración de datos y es exacerbado por el número limitado de observaciones, que producen imprecisión estadística.

Fuentes de incertidumbre estadística
Incertidumbre desde la perspectiva cuantitativa
Contribución de las fuentes de incertidumbre

A manera de ejemplo consideremos el muestreo SPT en un depósito de arena suelta. Las fuentes de incertidumbre aleatoria en la resistencia SPT medida incluirían la variabilidad natural del depósito de suelo y los errores aleatorios de la prueba, como los causados por un defecto aislado en el suelo (como un canto rodado errático). Las fuentes de incertidumbre epistémica podrían incluir equipos no estándar (como el tamaño del muestreador, muestreadores o varillaje deformados, longitud del varillaje, sistema de martinete, peso de martillo, etc, no ajustado al estándar SPT), y los datos insuficientes para formar estadísticas razonables, tal como una sola perforación en un sitio grande. Es importante observar que la incertidumbre epistémica generalmente se puede reducir mediante la adquisición de datos adicionales o mejoras en los procedimientos de medición. la incertidumbre aleatoria, por otro lado, es inherente a la variabilidad y no puede reducirse con información adicional.

Las fuentes de incertidumbre en la obtención de parámetros del suelo son las siguientes:

  • Error estadístico debido a la cantidad insuficiente de ensayos, de mediciones piezométricas, etc. Se sabe que cuanto menor es el número de ensayos, mayor es la probabilidad de producir estimativos de parámetros diferentes de aquellos presentes en el campo. Muchos autores presentan indicaciones buscando minimizar esta condición.
  • Datos tendenciosos (sesgos), que son aspectos del comportamiento real persistentemente alterados por los ensayos, resultados de instrumentación etc. Se pueden citar como ejemplos de estos factores: el remoldeo de las muestras, las diferencias de tipo de solicitación en los ensayos y en el campo, las diferencias en la velocidad de carga en los ensayos y en el campo, etc.
  • Errores de ensayo (ruidos) son aquellos asociados a la precisión de calibración y mediciones, la exactitud de las lecturas, etc. La minimización de estos errores es obtenida a través de la correcta especificación, calificación del personal y de equipos, acompañamiento de los ensayos y mediciones;
  • Variabilidad espacial (natural o inherente) de los parámetros, que es la diferencia real de características del comportamiento debidas a diferencias de composición, meteorización e historia de tensiones entre un punto y otro.

Las dos primeras fuentes contribuyen al denominado “error sistemático”, que actúa independiente de la posición o del tamaño del volumen de análisis o superficie de falla, y afecta principalmente la media. Aquí, el aumento del número de ensayos (para disminuir el error estadístico) se debe evaluar por la experiencia del ingeniero (para compensar los sesgos). Las dos últimas fuentes contribuyen principalmente a la dispersión de los datos.

La variabilidad de los parámetros geotécnicos que tienen influencia en los procesos de análisis de riesgo por deslizamiento puede ser manejada mediante técnicas estadísticas y probabilísticas. Cuando no se dispone de un número suficiente de ensayos, se puede, con carácter preliminar, utilizar coeficientes de variación estimados (desviación estándar sobre la media), a partir de valores típicos que han mostrado tener poca sensibilidad temporal y espacial. En la siguiente tabla se presentan a manera de ejemplo, los rangos típicos de coeficientes de variación de los parámetros geotécnicos de interés para análisis de estabilidad de taludes.

Valores típicos del Coeficiente de Variación

Según USACE, los valores de los momentos probabilísticos pueden ser estimados de varias formas, entre las cuales se pueden citar:

  • Análisis estadísticos de determinaciones en ensayos del parámetro deseado,
  • Ensayos índice que pueden ser correlacionados con el parámetro deseado, y
  • Basados en criterio y experiencia cuando no hay datos disponibles.

Las dos últimas opciones de estimación deben ser evaluadas con sumo cuidado, ya que el nivel de incertidumbre se incrementa gradualmente desde la primera hacia las últimas. Esto implica que cuando se diseña una estructura nueva utilizando correlaciones o datos basados en la experiencia, esto solo se pueda aceptar mediante un incremento de los factores de seguridad o mediante un ajuste en los parámetros de diseño (reduciendo la resistencia).

En el caso de análisis de confiabilidad, la utilización de correlaciones o datos definidos por la experiencia el problema puede ser enfrentado asumiendo un coeficiente de variación mayor que en el caso de los datos medidos directamente.

En adición a la variabilidad natural, y la incertidumbre epistémica, dos tipos prácticos de incertidumbre algunas veces también entran en los análisis de confiabilidad y de riesgo. Estos tienen relación con la implementación de diseños en la práctica y con los factores económicos atendiendo cálculos de relaciones costo-beneficio. Estas son incertidumbres operacionales, que incluyen aquellas asociadas con la construcción, manufactura, deterioro, mantenimiento y factores humanos no considerados en los modelos ingenieriles de desempeño; e incertidumbres de decisión que describen la inhabilidad de los diseñadores para conocer o identificar objetivos sociales o prescribir tasas de descuento social, la longitud de un horizonte de planeación, tendencias temporales deseables de consumo e inversión o la aversión social al riesgo.

LOS MÉTODOS PROBABILÍSTICOS

Los métodos probabilísticos son aquellos que permiten la evaluación de la distribución de probabilidades de una variable dependiente en función del conocimiento de las distribuciones estadísticas de las variables independientes que la generan. 

Entre los métodos más utilizados en la estadística aplicada a la geotecnia están el método de Monte Carlo, el método de Primer Orden Segundo Momento-FOSM y el método de estimativas puntuales de Rosenblueth.

Los métodos probabilísticos constituyen herramientas robustas para la evaluación y análisis de problemas geotécnicos bajo ambientes de incertidumbre, pero requieren como datos de entrada valores de parámetros estadísticos que no son fáciles de obtener debido a las grandes incertidumbres asociadas con los procesos geotécnicos.

En los casos en que la información es escasa, los análisis de sensibilidad y de confiabilidad permiten evaluar los posibles escenarios que se pueden presentar para una determinada obra y determinar necesidades de estudios más profundos.


Es una metodología que permite determinar la función de distribución de frecuencia de la variable dependiente analizada mediante la generación de números aleatorios uniformes que representan las variables independientes envueltas. Este método considera que la variable dependiente estudiada presenta una función Y=f(X1, X2...Xn) y que son conocidas las distribuciones de probabilidad de las variables X1, X2…Xn. 

Son atribuidos valores de frecuencia a valores aleatorios de las variables X1, X2...Xn y se evalúa la función Y para estos valores. El proceso se repite de forma iterativa tantas veces como sea necesario para conseguir la convergencia de la distribución de probabilidad. Conviene resaltar que la mayoría de las técnicas para generación de valores de distribución hacen uso dela función de distribución acumulada, F(r) = P[x < r]. Por definición la función acumulada para cualquier variable continua es distribuida uniformemente en el intervalo  [0,1].

Consecuentemente, si el valor aleatorio Ru (0,1) es generado, el valor de x = r que satisface F(r)=Ru (0,1) será un valor aleatorio de la función de distribución de probabilidad f(x) dentro de F(r).

Simulación estocástica de problemas ingenieriles por el método de Monte Carlo

El método de Monte Carlo puede ser presentado como un método exacto, pues a partir del conocimiento de las distribuciones estadísticas de las variables independientes, valores de estas variables podrían ser obtenidos por medio de un generador de números aleatorios y valores de la variable independiente calculados a partir de estos. Cuando este proceso sea repetido N veces, la distribución de probabilidad (forma y magnitud) de la variable dependiente sería obtenida, para (1-α)% de confianza. A partir de esta distribución pueden ser calculados sus parámetros estadísticos tales como media, varianza, probabilidades acumuladas, etc.

Este método utiliza el muestreo aleatorio para simular artificialmente el comportamiento de un sistema. En esta aproximación el analista crea un gran número de juegos de valores generados aleatoriamente para los parámetros probabilísticos y se calcula la función de desempeño para cada juego de datos de forma determinística, Finalmente se extrae la información estadística de los resultados de las simulaciones. Los valores de índice de confiabilidad β y probabilidad de falla pf pueden ser calculados directamente de los resultados de los juegos de datos. Este método tiene como ventaja la simplicidad conceptual, pero requiere un gran número de juego de valores de la función de desempeño para obtener una precisión adecuada. A diferencia de otros métodos, la simulación de Monte Carlo no da luces sobre la contribución relativa de los parámetros aleatorios.

Método FOSM (First-Order, Second Moment)

Este método usa los primeros términos de una expansión de la serie de Taylor de la función de desempeño para estimar el valor esperado y la varianza de la función de desempeño. Este método supone que (xi - μxi) de cada una de las variables aleatorias es pequeña (xi = variable, μ xi= valor esperado de la variable) por lo que el cuadrado o potencias mayores son aún más pequeñas y se pueden ignorar. Es llamado de segundo momento porque la varianza es de la forma de segundo momento y es el resultado estadístico de mayor orden usado en el análisis. El valor esperado de la función de desempeño E[g] se obtiene como:


es decir, el valor esperado de la función de desempeño E[g] se obtiene evaluando el valor medio de cada variable aleatoria μxi en la función de desempeño g. Suponiendo que las variables aleatorias son independientes entre si, la varianza de la función de desempeño V[g] queda como:


Si el número de variables aleatorias es n, este método requiere evaluar n derivadas parciales de la función de desempeño o desarrollar una aproximación numérica usando la evaluación en 2n+1 puntos.

Método de las Estimativas Puntuales

Rosenblueth [en “Point estimates for probability moments,” Proc. Nat. Acad. of Sc, vol. 72, no. 10, 1975. pp. 3812–3814.] propuso un método aproximado que simplifica mucho la tarea de estimar la media y la  desviación estándar del factor de seguridad y solamente compromete ligeramente la exactitud cuando las dispersiones de las variables envueltas son muy grandes. Consiste en estimar los momentos (media, desviación estándar, coeficiente de asimetría, etc.) de la variable dependiente en función de las variables aleatorias independientes, para las cuales se conocen por lo menos dos momentos, media y desviación estándar (o por lo menos sus estimativas), sin la necesidad de conocer las distribuciones de probabilidad completas de las variables independientes o de la dependiente.

Suponiendo que exista una función bien definida que una la variable dependiente a las independientes, con procedimientos simples se puede trabajar con la variabilidad sin introducir complejidades numéricas muy grandes en el análisis determinístico. Se trata de ponderar la participación de cada variable, calculando dos valores de la función de densidad de probabilidad arbitrariamente escogida para cada variable independiente (Xi), lo que resultará en concentraciones Pi donde se tendrán puntos de estimativa de la variable dependiente (F), que servirán para el cálculo de los momentos de F.

Para el caso en que Y depende de n variables aleatorias y considerando que las n variables sean no correlacionadas entre sí, se pueden obtener las estimativas de la media y de la desviación estándar de F mediante las fórmulas 


Los valores de fi son obtenidos con la aplicación de la función que define la dependencia entre F de las variables independientes, sustituyendo alternadamente los valores de esas variables por Xj±σj con j=1,2,....n, se obtienen de esa forma los 2n valores de fi.

En el método de estimativas puntuales, se toman combinaciones de los valores en las estimativas puntuales máximas (Xi+σ[Xi]) y mínimas (Xi-σ[Xi]) para cada variable independiente. Por tanto, son necesarios 2n análisis separados. En el caso de análisis de estabilidad de taludes, a cada análisis se hace una nueva búsqueda de la superficie crítica, la cual puede diferir significativamente de aquella calculada con los valores medios del método FOSM.

Asumiendo una distribución normal (Gauss) para los valores de F, que podría ser la función del factor de seguridad de un problema dado, calculados con las variables en las estimativas puntuales, el valor esperado E[F] puede ser calculado por el primer momento de la distribución:


Combinando los resultados de estos métodos probabilísticos con el índice de confiabilidad β, resulta fácil determinar la probabilidad de falla P(r) de un sistema. En cualquier caso P(r) es la probabilidad de que el factor de seguridad sea inferior a la unidad.

Ejemplos de aplicación:


Continúa en:

La Incertidumbre y el Riesgo en el Diseño Racional en la Ingeniería Geotécnica (II)

Otros enlaces de interés sobre el tema en este blog:

Referencias:


Guardar en PDF